Simulazione di un modello realistico per la

UNIVERSITÀ DEGLI STUDI DI PAVIA
DIPARTIMENTO DI FISICA
CORSO DI LAUREA IN FISICA
Simulazione di un modello realistico per la plasticità
sinaptica tra le fibre muscoidi e la cellula dei granuli
Relazione per la laurea di
Leonardo Daniel Herbas Burgos
Supervisore:
Chiar.mo Prof. D’Angelo Egidio
Anno Accademico 2015/2016
Simulazione di un modello realistico per la
plasticità sinaptica tra le fibre muscoidi e la cellula
dei granuli
Abstract
Simulazione computerizzata di un modello realistico per la plasticità sinaptica usando il framework di simulazione NEURON e il linguaggio di programmazione Python. La cellula dei granuli cerebellare viene simulata usando
un modello multi compartimentale che prevede tutti i componenti della cellula e la corretta distribuzione dei meccanismi cellulari per il funzionamento
della cellula secondo i risultati esperimentali ottenuti negli ultimi decenni.
I modelli di plasticità simulati prevedono la plasticità a breve e lungo
termine mediante la simulazione dei recettori AMPA e NMDA e dei meccanismi presinaptici di rilascio del neurotrasmettitore, includendo anche i
meccanismi di produzione di ossido nitrico, un’importante messaggero retrogrado, che ha un ruolo importante nel potenziamento a lungo termine.
Questo lavoro prevede una prima parte introduttiva che riassume gli argomenti necessari, come i metodi matematici, il modello di Hodgkin-Huxley e
il modello di Rall, utili per affrontare la seconda parte del lavoro, che tratta
in dettaglio il lavoro di simulazione della cellula e le sinapsi.
Il risultato principale di questo lavoro è un modello generale della plasticità a lungo termine. Basato in un’insieme di meccanismi di controllo (che
includono i recettori NMDA, canalli di calcio, riserve di calcio, produzione
di NO) e parammetri di controllo (calcio e NO) il modello riesce a riprodurre la plasticità sinaptica indotta da un complesso insieme di input (che
includono la modulazione della durata dei treni, la frequenza e la fase).
2
Simulation of a realistic model for the synaptic
plasticity between the mossy fiber and the granule
cell
Abstract
Computer simulation of a realistic model for the synaptic plasticity using
the framework NEURON and the programming language Python. The cerebellar granule cell has been simulated by using a multicompartmental model
that reproduces every single component of it and the correct distribution of
the mechanism for its operations, according to the results obtained in recent
decades.
The simulated plasticity models provide the long-term and short-term
plasticity by the simulation of the AMPA and NMDA receptors and the presynaptic mechanism involved in the release of neurotransmitter, including
also the nitric oxide production mechanism acting as a retrograde messenger which has an important role in the long-term potentiation. This work
provides a first introductory part that summarize the required arguments,
as the mathematical tools, the Hodgkin-Huxley model and the Rall’s model,
needed to address the second part of the work, which go in details about
the simulation of the cell and synapses.
The main result of this work is a general model of long-term synaptic
plasticity. Based on a set of control mechanisms (including NMDA receptors, Ca channels, calcium stores, NO production) and of control parameters
(calcium and NO) the model can reproduce synaptic plasticity induced by a
complex set of input patterns (including modulation of input burst duration,
frequency and phase).
3
4
Indice
I
Aspetti introduttivi
3
1 Definizioni
1.1 Il neurone . . . . . . . . . . . . .
1.1.1 L’assone . . . . . . . . . .
1.1.2 I dendriti . . . . . . . . .
1.1.3 Le sinapsi . . . . . . . . .
1.1.4 Canali ionici . . . . . . .
1.2 Plasticità sinaptica . . . . . . . .
1.2.1 Plasticità a breve termine
1.2.2 Plasticità a lungo termine
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
6
7
7
8
9
10
10
2 Il cervelletto
2.1 La corteccia cerebellare .
2.1.1 Cellule di Purkinje
2.1.2 Cellule di Golgi . .
2.1.3 Cellule dei granuli
2.1.4 Cellule a canestro
2.1.5 Cellule stellate . .
2.2 Fibre afferenti . . . . . . .
2.2.1 Fibre rampicanti .
2.2.2 Fibre muscoidi . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
15
15
16
16
17
17
17
17
.
.
.
.
.
.
19
21
21
25
26
29
30
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Modelli matematici e sistemi dinamici
3.1 Modelli concettuali e modelli computazionali . . . .
3.2 Rappresentazione matematica dei modelli concettuali
3.3 Schema cinetico di una reazione . . . . . . . . . . . .
3.4 Discretizzazione di una equazione differenziale . . . .
3.5 Integrazione numerica . . . . . . . . . . . . . . . . .
3.6 Ottimizzazione . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Modello di Hodgkin-Huxley e teoria di Rall
33
4.1 Modello di Hodgkin-Huxley . . . . . . . . . . . . . . . . . . . 33
4.1.1 Il modello . . . . . . . . . . . . . . . . . . . . . . . . . 33
5
4.2
4.1.2 Simulazione . . . . . . .
Modello di Rall . . . . . . . . .
4.2.1 Equazione del cavo . . .
4.2.2 Modelli compartimentali
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
37
40
40
44
5 NEURON e Python
45
5.1 NEURON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.2 Python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.1 NEURON in Python . . . . . . . . . . . . . . . . . . . 46
II Plasticità sinaptica nella cellula dei granuli e la fibra
muscoide
47
6 Modello del granulo
6.1 Cellula dei granuli . . . . . . . . . . . . . . .
6.2 Modelli matematici per i diversi meccanismi .
6.2.1 Meccanismo di dispersione LKG1 . . .
6.2.2 Meccanismo di dispersione di GABAA
6.2.3 Dinamiche del primo ordine del Ca . .
6.2.4 Dinamiche dei canali Ca . . . . . . . .
6.2.5 Dinamiche dei canali K . . . . . . . .
6.2.6 Dinamiche dei canali Na . . . . . . . .
6.3 Simulazione della cellula dei granuli . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
49
49
50
51
51
52
52
52
55
56
7 Modelli per le sinapsi
7.1 Il glomerulo . . . . . . . . . . . . . . . . . .
7.2 Trasmissione sinaptica e plasticità . . . . .
7.2.1 Ipotesi quantale . . . . . . . . . . .
7.2.2 Plasticità sinaptica . . . . . . . . . .
7.2.3 Modelli di plasticità a breve termine
7.3 I recettori sinaptici . . . . . . . . . . . . . .
7.3.1 AMPA . . . . . . . . . . . . . . . . .
7.3.2 NMDA . . . . . . . . . . . . . . . .
7.3.3 GABA . . . . . . . . . . . . . . . . .
7.4 Ossido nitrico come messaggero retrogrado
7.5 LTP, LTD e dipendenza dal calcio . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
61
61
61
62
63
64
66
66
68
69
71
74
.
.
.
.
.
.
.
.
.
.
.
8 Simulazione completa della cellula granulare
8.1 Topologia del modello . . . . . . . . . . . . . . . . . . .
8.2 Schema generale del modello per la plasticità sinaptica .
8.3 Distribuzione delle conduttanze . . . . . . . . . . . . . .
8.4 Simulazione della risposta postsinaptica di fronte ad un
molo presinaptico . . . . . . . . . . . . . . . . . . . . . .
6
79
. . . 79
. . . 80
. . . 80
sti. . . 82
8.5
Discussione e conclusioni . . . . . . . . . . . . . . . . . . . . .
Appendices
90
93
A Proprietà non sinaptiche della cellula
95
A.1 Canali ionici . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
A.2 Risposta della cellula a stimoli contemporanei . . . . . . . . . 98
Bibliografia
100
7
8
Elenco delle figure
1.1
Rappresentazione di un neurone . . . . . . . . . . . . . . . . .
6
2.1
Corteccia cerebellare. Fonte: Anatomy of the Human Body,
Henry Gray 1918 . . . . . . . . . . . . . . . . . . . . . . . . .
14
3.1
3.2
3.3
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
Schema cinetico per la reazione A → B. . . . . . . . . . . . .
A sinistra: funzione ex/2 + 2cos(x) e le sue derivate analitica, numerica con errore O(∆x) e con errore O(∆x2 ). Le
linee delle derivate sono praticamente sovrapposte. A destra:
differenza tra i due metodi. . . . . . . . . . . . . . . . . . . .
A sinistra: funzione ex/2 + 2cos(x) e l’integrale della sua derivata analitica. Le due curve sono praticamente sovrapposte.
A destra: la loro differenza. Notare che ad un certo punto
l’errore diventa nullo, per poi aumentare ancora. . . . . . . .
Circuito equivalente per il modello di Hodgkin-Huxley. . . . .
Valori all’equilibrio degli stati n, m e h in funzione del potenziale di membrana. . . . . . . . . . . . . . . . . . . . . . . . .
Andamento nel tempo del potenziale di membrana e gli stati
dei canali ionici quando la cellula non è eccitata. . . . . . . .
A sinistra: conduttanza dei canali ionici durante un AP. Al
centro e destra: Andamento nel tempo del sistema quando
viene eccitato da una corrente di 5µA/cm2 a 40 ms. . . . . .
A sinistra: Andamento nel tempo del sistema quando viene
eccitato da una corrente di 10µA/cm2 a 40 ms. A destra:
Somma temporale degli EPSC generato da pulsi di 40Hz con
ciclo di lavoro di 10% e corrente di pico di 55µA/cm2 . . . . .
Circuito equivalente di un segmento di cavo dendritico. . . . .
Soluzioni dell’equazione del cavo finito con un impulso al punto x=1. A sinistra il potenziale in funzione dello spazio. A
destra, il potenziale in funzione del tempo per qualche punto
nel cavo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Modello compartimentale di un albero dendritico. Ogni rettangolo rappresenta un compartimento. . . . . . . . . . . . .
9
26
27
30
34
36
38
39
39
40
43
44
6.1
6.2
6.3
6.4
6.5
6.6
7.1
7.2
7.3
7.4
7.5
7.6
Fibre parallele. Si possono vedere i piccoli granuli nella parte inferiore e i loro assoni che ascendono per poi dividersi e
formare sinapsi con le cellule di Purkinje (viste trasversalmente). Fonte: Cunningham’s Textbook of anatomy; Daniel
John Cunningham - 1913. . . . . . . . . . . . . . . . . . . . .
Schema cinetico a 13 stati per i canali di sodio. . . . . . . . .
Andamento nel tempo del potenziale della membrana in funzione della corrente dell’elettrodo. La corrente viene iniettata
a 40ms. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Correnti ioniche totali misurate nel soma di K e nel assone di
Na con uno stimolo di 10pA. . . . . . . . . . . . . . . . . . .
A sinistra: Concentrazione di Ca interno nel soma. A destra:
Flusso di corrente di Ca nel soma. . . . . . . . . . . . . . . .
A sinistra: Tempo del primo AP generato in funzione della corrente. A destra: frequenza degli impulsi generati in
funzione della corrente. . . . . . . . . . . . . . . . . . . . . . .
Simulazione con metodo Monte Carlo del rilascio di neurotrasmettitore secondo l’ipotesi quantale. A sinistra: potenziali postsinaptici in miniatura. Si possono osservare picchi in
corrispondenza dei multipli del quanto fondamentale 0.4mV.
A destra, la distribuzione del potenziale dovuta a le diverse
incertezze nelle misure. . . . . . . . . . . . . . . . . . . . . . .
A sinistra: Simulazione del modello di Tsodyks-Markram con
un segnale presinaptico a 100Hz. I parametri sono τf = 10.8
ms, τt = 3.0 ms, τR = 35.1 e p = 0.4. A destra: Guadagno
in funzione della frequenza per una sinapsi dominata STD
(parametri come nel grafico a sinistra) e una sinapsi dominata
STF. I parametri per la sinapsi STF sono: τf = 750.0 ms, τt
= 50.0 ms, τR = 20.0 e p = 0.15 . . . . . . . . . . . . . . . .
Simulazione del modello di STP presinaptico per attività a
raffica (theta burst) con frequenza di raffica di 300Hz e frequenza di treni di 10Hz. In alto lo stato X. In basso lo stato
Y. Notare come c’è un mix di potenziamento (seconda spike
nei treni) e di depressione (secondo treno). . . . . . . . . . . .
Schema cinetico a 3 stati per il recettore AMPA. . . . . . . .
Simulazione dello schema cinetico per il recettore AMPA. A
sinistra: EPSC generato. Notare la depressione, dovuta anche
in parte alla fatica sinaptica, ma sopratutto per via dell’accumulo dello stato D, il che rende il recettore meno sensibile a
stimoli di glutammato. A destra: i tre stati del recettore AMPA durante uno stimolo di 100Hz presinaptico in condizioni
normali di potenziale di membrana. . . . . . . . . . . . . . . .
Schema cinetico a 5 stati per il recettore NMDA. . . . . . . .
10
50
56
57
57
58
59
63
66
67
67
68
69
7.7
7.8
7.9
7.10
7.11
7.12
7.13
8.1
8.2
8.3
8.4
8.5
8.6
8.7
Simulazione dello schema cinetico per il recettore NMDA. A
sinistra: confronto tra la corrente generata dall’attività presinaptica nel recettore NMDA quando il potenziale della membrana è di -70mV (in blu) e -40mV(in verde), cambiamento
dovuto al blocco di Mg2+ . A destra: i cinque stati del recettore NMDA durante uno stimolo di 100Hz presinaptico in
condizioni normali di potenziale di membrana. . . . . . . . .
Schema cinetico a 5 stati per il recettore GABA. . . . . . . .
Schema cinetico per la produzione di NO. . . . . . . . . . . .
Simulazione dello schema cinetico per l’enzima NOS. A sinistra: velocità di produzione di NO. A destra: NO prodotto
per molecola di NOS. . . . . . . . . . . . . . . . . . . . . . . .
Dati ricavati dagli esperimenti in D’Errico et al 2009 e best fit
del modello scelto. Il potenziamento dell’efficacia sinaptica è
in funzione della frequenza del segnale presinaptico. . . . . .
Schema cinetico per l’accumulo di un ipotetico stato in funzione del Ca2+ . . . . . . . . . . . . . . . . . . . . . . . . . . .
Simulazione del flusso di Ca2+ quando si varia il tempo tra
lo stimolo del recettore NMDA e la generazione di un AP
postsinaptico. In su: stato O del recettore NMDA. Questo è
dipende solo dall’attività presinaptica. Al centro: AP generato da un flusso di corrente di 40 pA durante 2 ms. In giù:
convoluzione della la corrente generata dal recettore. Questa
corrente viene integrata per ottenere la carica attraverso il
recettore durante lo stimolo, il che permette il calcolo del numero di ioni di Ca2+ . Per ∆t positivi si dovrebbe avere una
linea orizzontale. La linea che cade è dovuta alla limitatezza
dell’intervallo d’integrazione. . . . . . . . . . . . . . . . . . .
In alto: schema delle relazioni tra i diversi meccanismi nel
modello della plasticità sinaptica. In basso: modello completo dei fenomeni sinaptici. Fonte: D’Angelo E., Prestori I.,
Mapelli L., in preparation. . . . . . . . . . . . . . . . . . . . .
Simulazione della risposta della cellula di fronte ai tre protocolli presinaptici: TBS, HF, LF. . . . . . . . . . . . . . . . . .
EPSC generati per i protocolli TBS e HF. . . . . . . . . . . .
Accumulo di glutammato diffuso per i protocolli TBS e LF. .
Aumento dell’ampiezza degli EPSC per uno stimolo TBS con
raffiche di 10 impulsi ogni 250ms. . . . . . . . . . . . . . . . .
Variazione dell’efficacia sinaptica nel tempo. . . . . . . . . . .
Stati del meccanismo di rilascio di trasmettitore. In ordine
dall’alto verso il basso: probabilità di rilascio P, Trasmettitore disponibile X, trasmettitore rilasciato Y, trasmettitore
ricuperato Z. . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
70
70
71
72
75
75
77
81
83
84
84
85
86
87
8.8
8.9
Produzione di ossido nitrico. . . . . . . . . . . . . . . . . . . .
Simulazione della curva di guadagno per il protocolo di accoppiamento per la STDP a 10Hz in funzione della fase tra il
segnale presinaptico e lo stimolo nel soma. . . . . . . . . . . .
8.10 Comparazione di simulazioni del STDP a differente frequenza
del protocollo di accoppiamento rispetto alla fase tra il segnale
presinaptico e lo stimolo postsinaptico. . . . . . . . . . . . .
8.11 In alto: Dipendenza della plasticità sinaptica dal calcio. Fonte: D’Angelo E., Prestori i, Mapelli L., in preparation. Data
from D’Errico et al, 2009 Gall et al., 2005. In basso: simulazione della plasticità in funzione del numero di spikes
(rappresentato come il tempo per un segnale di 100Hz) con
sovraposta la linea di massimo e minimo del potenziamento
per il STDP con livelli simili di calcio. La discrepanza tra il
modello e le osservazioni (in alto) potrebbe essere dovuta a
la mancanza dei recettori metabotropici mGluR. . . . . . . .
A.1 Correnti ioniche di potassio nel soma (nel hillock e assone per
i canali KV). . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.2 Correnti ioniche per il canale di potassio controllato dal calcio
e quello di calcio controllato dalla tensione della membrana. .
A.3 Effetti di diverse conduttanze dei canali KCA nel potenziale
della membrana. A sinistra: mancanza di canali KCA nei
dendriti. A destra: eccesso di canali KCA nei dendriti. . . . .
A.4 Risposta della cellula quando vengono stimolati contemporaneamente uno o più dendriti. . . . . . . . . . . . . . . . . . .
12
87
89
90
91
96
97
98
99
Introduzione
Il presente lavoro consiste nella recostruzione realistica e la simulazione computerizzata della cellula dei granuli cerebellare e la sinapsi formata nel glomerulo con le fibbre muscoidi e la modellazione dei modi di plasticità presenti
in questa sinapsi, insieme ai meccanismi di trasmissione sinaptica, sia diretti
che retrogradi.
Il lavoro di simulazione è stato eseguito usando il framework NEURON
(Carnevale and Hines 2006[4]) e il linguaggio di programazione Python.
Questa tesi è composta di due parti. Una prima parte introduttiva, con
i concetti e metodi necessari per lo studio delle neuroscienze, come lo sono le
equazioni differenziali e sistemi dinamici e i modelli di Hodgkin-Huxley e il
modello compartimentale di Rall oltre a includere i termini e il contesto della
simulazione, sopratutto per il contenuto di termini biologici che non sono
comuni in altre discipline. La seconda parte consiste nella vera simulazione
dei meccanismi cellulari che fanno funzionare il granulo come una cellula
nervosa.
La simulazione del neurone segue un modello compartimentale con una
topologia derivata dal lavoro di Diwakar et al (2009)[7], i meccanismi per i
canali ionici derivarti principalmente dal lavoro di D’Angelo et al. (2001)[6]
e i meccanismi sinaptici in Nieus et al. (2006)[27]. La distribuzione dei meccanismi cellulari per ogni compartimento è stato un lavoro di ottimizzazione
automatico e successivamente un “fine tunning” manuale per riprodurre il
funzionamento della cellula seguendo l’evidenza esperimentale accumulata
in diversi deceni di studi. Gran parte del lavoro di ricostruzione è stato l’inclussione dei meccanismi di produzione di ossido nitrico e il suo ruolo nella
plasticità sinaptica, e la ricostruzione di un modello di plasticità a lungo
termine dipendente dalla concentrazione di calcio dentro della cellula.
Il codice sorgente della simulazione è disponibile in https://github.
com/leonardodaniel/granule_cell. Il codice della simulazione è in Python, che controlla il nucleo di NEURON nell’eseguire l’integrazione delle
equazioni differenziali per riccavare le dinamiche temporali di ogni meccanismo cellulare. Nel codice sorgente sono inclussi anche molti esempi di simulazione numerica per singoli meccanismi usando metodi molto semplici e l’uso
della libreria Numpy per la manipolazione di tensori e Seaborn/Matplotlib
per le visualizzazioni che sono presenti lungo questa tesi.
13
14
Parte I
Aspetti introduttivi
15
Capitolo 1
Definizioni
Il proposito di questo capitolo è di introdurre in modo veloce alcuni concetti
e terminologia basica per affrontare il resto di questo lavoro.
1.1
Il neurone
Il neurone è l’unità basica del sistema nervoso. Sono delle cellule capaci di
creare connessioni tra di loro e di inviare e ricevere segnali. Queste sono
composte da un corpo principale chiamato soma e da questo diramano i
dendriti che raccolgono i segnali da altri neuroni e l’assone che invia i segnali
ad altri neuroni.
I segnali generati dai neuroni sono prodotti per da ioni che attraversano
la membrana cellulare e quindi sono di natura elettrica, il che rende i neuroni
a sua volta elettricamente eccitabili. Il tipo di segnale è diverso comunque
dagli segnali elettronici nei conduttori, dove gli elettroni si muovono lungo
il conduttore da un polo positivo a uno negativo di una batteria. Per il
neurone invece, il potenziale si propaga nella membrana come un’onda sulla
superficie e i poli della batteria sono dentro e fuori della cellula.
Quando il neurone è a riposo, cioè, non viene stimolato da alcuna corrente, la differenza di potenziale tipica tra l’interno e l’esterno della membrana
è di -70mV. A seconda di come il neurone viene stimolato, si può parlare di depolarizzazione, quando il potenziale della membrana aumenta, o
iperpolarizzazione, quando questo diminuisce. Sotto certe condizioni si può
scatenare una forte depolarizzazione della membrana e poi una veloce repolarizzazione, evento denominato potenziale d’azione (AP d’ora in poi1 ). Al
massimo del AP, il potenziale della membrana può arrivare anche a 50mV.
Il soma, essendo la parte principale del corpo cellulare del neurone, contiene il nucleo e produce le proteine e membrane necessarie per la cellula. Alcune proteine possono essere prodotte anche nei dendriti, ma non
nell’assone.
1
Action Potential
17
Figura 1.1: Rappresentazione di un neurone
I neuroni quasi sempre hanno un solo assone, che è specializzato nel
portare gli impulsi lontano dal soma per arrivare alle sinapsi che trasmettono
il segnale alla cellula successiva. Gli AP vengono in effetti prodotti nel punto
di connessione tra l’assone e il soma, chiamato cono di emergenza2 , grazie
ad una particolare distribuzione dei canali ionici.
1.1.1
L’assone
L’assone è la parte del neurone che porta il segnale elettrico verso altri neuroni, muscoli o ghiandole. I nervi che escono dall’encefalo sono attualmente
degli assoni e possono estendersi anche fino al metro di lunghezza.
L’assone possiede canali ionici, principalmente di sodio e potassio, che
permettono la generazione e propagazione degli AP. A volte gli assoni hanno
un ricoprimento chiamato guaina mielinica, che permette la rapida propagazione del segnale senza molte perdite.
L’assone finisce con le sinapsi, che inviano il segnale prodotto dal neurone
ad altri neuroni.
2
A volte chiamerò questo componente anche hillock, dal suo nome in inglese, per
brevità.
18
1.1.2
I dendriti
I dendriti sono delle fibre che partono dal soma e si diramano a forma di
albero. Questi raccolgono il segnale da altri neuroni mettendosi a contatto
con le sinapsi mediante delle spine nella superficie dei dendriti.
A volte, la complessità del albero dendritico permette di fare computazioni con i segnali raccolti.
1.1.3
Le sinapsi
I segnali generati non si propagano direttamente al neurone successivo, ma
sono inviati mediante le sinapsi. Le sinapsi possono essere elettriche o chimiche. Le prime, rare nel sistema nervoso, inviano il segnale elettrico dalla
cellula presinaptica mediante un flusso diretto di ioni che si diffonde per via
della diversa concentrazione tra la giunzione sinaptica, mentre le seconde rilasciano dei chimici, i neurotrasmettitori, che vengono catturati nella cellula
postsinaptica da particolari recettori, generando una piccola polarizzazione
della membrana postsinaptica.
Nelle sinapsi chimiche (d’ora in poi solo sinapsi), il terminale assonico
presinaptico ha delle vescicole che contengono il neurotrasmettitore. Quando avviene un AP nel neurone presinaptico, nel terminale assonico viene
indotto un influsso di ioni Ca2+ . Questo a sua volta causa che le vescicole si
fondano con la membrana cellulare, evento chiamato esocitosi, rilasciando il
neurotrasmettitore contenuto in esse nello spazio tra le due cellule, chiamata
fessura sinaptica. I recettori nella cellula postsinaptica cattura le molecole
rilasciate, attivando dei canali che permettono il passaggio di ioni nel terminale postsinaptico. A seconda del tipo di ione questo può causare una
depolarizzazione oppure un’iperpolarizzazione.
Se il neurone postsinaptico viene depolarizzato per via di un segnale
presinaptico, questo potenziale viene denominato EPSP3 . Invece se viene
iperpolarizzata si denomina IPSP4 .
Può anche succedere che la parte postsinaptica invii dei segnali alla cellula presinaptica. Questo tipo di segnale retrogrado può essere una piccola
molecola, come l’ossido nitrico (NO) o monossido di carbono (CO), oppure
degli ormoni peptidici e possono produrre cambiamenti nel funzionamento
delle sinapsi.
Neurotrasmettitori
I neurotrasmettitori sono delle sostanze contenute in vescicole nel terminale
presinaptico che vengono rilasciate dalle sinapsi quando un AP arriva a
queste mediante la fusione delle vescicole con la membrana, cioè, l’esocitosi.
3
4
Exitatory postsynaptic potential: potenziale postsinaptico eccitatorio
Inhibitory postsynaptic potential: potenziale postsinaptico inibitorio
19
Il loro compito è di inviare il segnale alla cellula postsinaptica. Questi una
volta rilasciati possono essere ricevuti direttamente dai recettori nella parte
postsinaptica, oppure possono diffondersi nella fessura sinaptica e legarsi
con recettori distali.
1.1.4
Canali ionici
I canali ionici sono dei canali presenti nella superficie della membrana cellulare dei neuroni che può permettere sotto certe condizioni il passaggio di
ioni attraverso la membrana.
In effetti, nella membrana cellulare esistono delle proteine chiamate pompe ioniche, responsabili del trasporto ionico attivo, che fanno si che diversi
ioni (principalmente Ca2+ , Na+ e K+ ) abbiano concentrazioni diverse rispetto all’interno e l’esterno della cellula. Questa diversa concentrazione
da origine ad una differenza di potenziale tra i due lati della membrana,
descritta dalla legge di Nerst:
RT
E=
ln
zF
[Q]out
[Q]in
dove R è la costante dei gas perfetti, T la temperatura assoluta, z è
la carica del ione, F la costante di Faraday e [Q] è la concentrazione dello
ione in questione. In un neurone, differenti ioni contribuiscono al potenziale
della membrana. La combinazione di questi potenziali quando il neurone è
a riposo viene denominato potenziale a riposo5 .
I canali ionici possono aprirsi per via di una variazione nel potenziale
della membrana, possono essere attivati dal calcio, oppure quando le molecole che formano i canali legano qualche molecola messaggera. Questa
apertura causa che gli ioni aventi differente concentrazione tra l’interno e
l’esterno della cellula possano diffondersi, generando un cambiamento a sua
volta del potenziale della membrana mediante il trasporto passivo di ioni.
Le particolari dinamiche di questi canali rendono possibile la generazione di
un AP e la loro propagazione.
Quando i canali ionici sono attivati da una molecola messaggera, questi
vengono denominati recettori. Di particolare importanza in questa tesi sono
i seguenti:
Recettore AMPA
Sono dei recettori che vengono attivati legando una molecola di AMPA6 ,
analogo artificiale del glutammato7 . Questo recettore cattura il neurotra5
Resting potential
α-amino-3-hydroxy-5-methyl-4-isoxazolepropionic acid
7
Anione dell’acido glutammico, un aminoacido non essenziale.
6
20
smettitore direttamente, quindi genera una risposta rapida tra il segnale
presinaptico e l’attivazione del recettore.
Il recettore AMPA è ionotropico, cioè il legame con i suoi agonisti provoca
una modifica della forma facendolo diventare un canale aperto per il transito
di specifici ioni.
Recettore NMDA
Sono dei recettori che vengono attivati invece legando una molecola di NMDA8 . Anche questo tipo di ricettore è ionotropico. L’attivazione di questo
recettore permette il passaggio non selettivo di ioni con un potenziale di
Nerst di circa 0 mV. Mentre l’attivazione del recettore dipende dalla presenza di glutammato, il flusso di corrente dipende anche dal potenziale della
membrana. Ioni di magnesio Mg2+ all’esterno della cellula possono legarsi a
siti specifici del recettore, bloccando il passaggio di ioni. La depolarizzazione
della membrana rimuove il blocco di Mg2+ .
Recettore GABA
Sono dei recettori che vengono attivati legando una molecola di GABA9
ed è il principale recettore di tipo inibitorio del sistema nervoso. Esistono
recettori GABA di due tipi: GABAA di tipo ionotropico, e di tipo GABAB ,
di tipo metabotropico, cioè, recettori che sono legati indirettamente con i
canali ionici nella membrana cellulare per via di una cascata di reazioni
intracellulari.
1.2
Plasticità sinaptica
La plasticità sinaptica semplicemente è il cambiamento nel tempo della forza
tra le connessioni sinaptiche, cioè, il cambiamento della risposta postsinaptica rispetto allo stimolo presinaptico.
L’idea che cambiamenti nell’efficienza delle sinapsi nei diversi circuiti
neurali possa mediare la memorizzazione delle informazioni acquisite durante l’apprendimento ha una lunga storia. Ipotesi riguardo la crescita di
connessioni neurali nel cervello e le circostanze in cui questo fenomeno accade risalgono a Ramon y Cajal[19] e, nella metà del ventesimo secolo a
Hebb[26].
La prima prova esperimentale emerse da studi di assuefazione e di sensibilizzazione nel mollusco marino Aplysia. La scoperta del potenziamento a
lungo termine (LTP10 ) diede maggiore supporto all’ipotesi che questo abbia
a che fare con i processi di memorizzazione e apprendimento, essendo che
8
N-methyl-D-aspartate
γ-aminobutyric acid
10
Long-term potentiation
9
21
il LTP fu scoperto per prima volta nell’ippocampo, una zona del cervello
implicata nella memoria, come rivelarono studi sull’amnesia[34]. Per cui,
lo studio dei LTP e LTD11 diventa centrale per capire come funziona la
memoria.
Ci sono molti meccanismi che creano dei cambiamenti nelle connessioni
sinaptiche tra i neuroni. Ad esempio cambiamenti nella quantità di neurotrasmettitore rilasciato dalla parte presinaptica e cambiamenti nell’efficacia
dei recettori postsinaptici o anche cambiamenti intrinseci delle proprietà
della cellula.
1.2.1
Plasticità a breve termine
Molte forme di plasticità a breve termine, con durate da pochi millisecondi
a qualche minuto, sono state osservate virtualmente in ogni sinapsi esaminata in diversi organismi, sia in invertebrati fino i mammiferi[36]. Si crede
che questo tipo di plasticità possa svolgere ruoli importanti nella adattamenti a breve termine dei segnali sensoriali, cambiamenti transitori di stati
comportamentali, e forme di memoria di breve durata.
Molte forme di plasticità sinaptica a breve termine sono innescati da
brevi sequenze di attività che causano un accumulo transitorio di calcio
nei terminali nervosi presinaptici. Questo aumento di calcio presinaptico
a sua volta provoca cambiamenti nel rilascio di neurotrasmettitore modificando direttamente i processi biochimici che stanno alla base della esocitosi
delle vescicole sinaptiche. Solitamente questo produce un potenziamento
della quantità di neurotrasmettitore rilasciato ad ogni impulso della cellula
presinaptica.
Altro fenomeno legato alla plasticità a breve termine è l’esaurimento del
neurotrasmettitore nella parte presinaptica dovuto ad una attività persistente. Questo produce l’esaurimento di neurotrasmettitore più velocemente di
quanto ne sia ricuperato nelle vescicole sinaptiche.
Quindi, è evidente che in base all’attività si ha una competizione tra
potenziamento e depressione a breve termine. Questo potrebbe suggerire
che ci sia una finestra o banda di frequenze dell’attività presinaptica che
rafforza o indebolisce le connessioni sinaptiche.
1.2.2
Plasticità a lungo termine
Questo tipo di plasticità ha una durata maggiore rispetto alla plasticità a
breve termine (potenzialmente nell’ordine delle ore) e viene considerato come il meccanismo primario dell’apprendimento e la memoria[20]. Questo
cambiamento può essere un potenziamento (LTP) oppure una depressione
(LTD) delle connessioni sinaptiche ed è stato identificato che ha componenti
presinaptiche e postsinaptiche. Cambiamenti nel numero di recettori e le loro
11
Long-term depression: depressione a lungo termine
22
proprietà producono cambiamenti a lungo termine nella parte postsinaptica, mentre cambiamenti nella probabilità di rilascio di neurotrasmettitore
producono cambiamenti nella plasticità presinaptica. Altri tipi di potenziamento possono accadere per cambiamenti delle funzioni cellulari, causando
un cambiamento del potenziale di soglia per la generazione di AP.
Molta evidenza è stata accumulata riguardo all’importanza del recettore NMDA nella plasticità a lungo termine. Questo recettore, come detto
prima, ha un blocco di Mg2+ che limita il flusso di corrente postsinaptica.
Quando la cellula viene depolarizzata mediante un AP, questo rimuove il
blocco, il che permette a gli impulsi presinaptici di generare una corrente
maggiore attraverso il recettore NMDA. Questo permette un flusso di Ca2+
che attraverso altre reazioni genera cambiamenti plastici a lunga durata.
Questo meccanismo si crede a la base della detezione di coincidenza, che sta
alla base della teoria hebbiana dell’apprendimento.
23
24
Capitolo 2
Il cervelletto
Questo lavoro di tesi si concentra su una delle cellule nel cervelletto: i granuli. Questo breve capitolo serve a dare un poco di contesto al ruolo dei
granuli nella rete cerebellare.
Struttura
Il cervelletto presenta uno strato di sostanza grigia superficiale, detta corteccia cerebellare, di forma irregolare a causa di numerosi solchi ad andamento
prevalentemente trasversale. Al profondo della corteccia è presente la sostanza bianca che forma, al centro, il corpo midollare da cui dipartono tralci
di sostanza che seguono i ripiegamenti della grigia superficiale e formano
l’arbor vitae. Nel profondo del corpo midollare sono situati quattro nuclei,
detti nuclei intrinseci.
Funzione
Anche se i movimenti muscolari possono essere iniziati anche senza un cervelletto, l’esecuzione corretta dei movimenti richiedono di un cervelletto.
Questo funziona come un organo di controllo che rende accurati e coordinati i movimenti volontari. Questo permette anche di generare meccanismi
di adattamento, come il controllo della posizione e l’equilibrio mediante un
meccanismo di feedback. Il cervelletto è anche coinvolto nell’apprendimento
motorio e si crede anche in certe funzioni cognitive.
2.1
La corteccia cerebellare
La corteccia cerebellare possiede una superficie pari alla metà di quella del
cervello ma contiene un numero di neuroni maggiori, benché il suo peso sia
dieci volte inferiore. Ma a differenza della corteccia cerebrale, che ha una
struttura complessa e intrecciata, la corteccia cerebellare ha una struttura
molto regolare e parallela.
25
Figura 2.1: Corteccia cerebellare. Fonte: Anatomy of the Human Body,
Henry Gray 1918
Nella corteccia cerebellare sono presenti sei tipi di neuroni:
• cellule di Purkinje
• cellule del Golgi
• granuli
• cellule a canestro
• cellule fusiformi
La corteccia cerebellare è composta da tre strati:
• strato molecolare
• strato delle cellule di Purkinje
• strato granulare
26
Lo strato molecolare è costituito dai dendriti delle cellule di Purkinje e
di Golgi, dalle fibre parallele e dalle fibre rampicanti. Risulta povero di corpi
cellulari, costituiti solamente dalle cellule a canestro, le cellule stellate e le
cellule fusiformi.
L’arborizzazione dendritica delle cellule di Purkinje si estendono verso
la regione corticale e risultano appiattite per via dello sviluppo in senso
trasversale rispetto alla lunghezza delle lamelle cerebrali, a differenza delle
cellule del Golgi che estendono le loro ramificazioni sia in senso trasversale
che longitudinale, andando ad invadere anche parte del territorio occupato
dalle cellule di Purkinje.
Le fibre parallele nascono dalla biforcazione a T di numerosi assoni dei
granuli che, una volta ascesi nello strato molecolare, divergono dando vita
alle fibre stesse. Le fibre rampicanti, invece, risultano essere le terminazioni
delle fibre olivo-cerebrali. Entrambe le fibre incontrano e traggono sinapsi
con le cellule e i dendriti presenti nello strato molecolare.
Lo strato delle cellule di Purkinje contiene i corpi cellulare delle cellule
di Purkinje e di Golgi.
Lo strato granulare contiene i corpi cellulari dei granuli e parte del loro
assone; i corpi cellulari, i dendriti basali e gli assoni delle cellule del Golgi;
le ramificazioni terminali delle fibre muscoidi e parte delle fibre rampicanti
(fibre afferenti).
2.1.1
Cellule di Purkinje
Le cellule di Purkinje sono tra le cellule più grosse del sistema nervoso. Sono
disposte ad intervalli regolari e possiedono un albero dendritico fittamente
arborizzato che si estende fino lo strato molecolare dove forma migliaia di
sinapsi con le fibre parallele originate dai granuli e con le fibre rampicanti.
Ricevono sinapsi inibitorie dalle cellule stellate, dalle cellule a canestro e di
rami ricorrenti di assoni di altre cellule di Purkinje.
L’albero dendritico delle cellule di Purkinje è caratteristicamente limitato ad una sottile lamina di tessuto perpendicolare all’asse maggiore della
lamella e gli assoni di queste si dirigono verso lo strato dei granuli per poi
penetrare nella sostanza bianca.
Sono dei neuroni inibitori, la cui funzione è di modulare l’attività dei
nuclei intrinseci del cervelletto.
2.1.2
Cellule di Golgi
Le cellule del Golgi dette cellule stellate interne o grandi granuli sono neuroni che si trovano nella zona superficiale dello strato dei granuli, vicini ai
corpi cellulari delle cellule del Purkinje. Possiedono un albero dendritico
dall’ampia arborizzazione che si estende significativamente, a differenza di
quello delle cellule del Purkinje, sia sul piano longitudinale che trasversale
27
con proporzioni simili. L’albero dendritico si porta sino allo strato molecolare. L’arborizzazione assonica delle cellule del Golgi si estende nello strato
dei granuli e forma sinapsi dette glomeruli cerebrali con le fibre muscoidi. Le
fibre parallele contraggono sinapsi con il loro albero dendritico, ma possono
ricevere anche rami ricorrenti dalle cellule di Purkinje, da fibre rampicanti o
da fibre muscoidi. Alcune cellule, presentano un’arborizzazione dentritiche
anche nello strato granulare dove entra a far parte dei glomeruli cerebrali e
riceve sinapsi eccitatorie dalle fibre muscoidi.
2.1.3
Cellule dei granuli
Le cellule dei granuli sono le cellule più numerose del cervelletto. Si stima
siano in numero di 46 miliardi e in rapporto di 3000:1 con le cellule del
Purkinje. Sono neuroni piccoli, con corpi tondeggianti dai nuclei di 5-8 µm
di diametro. Si trovano all’interno dello strato dei granuli che deve il suo
nome a loro. Ognuno emette da tre a cinque dendriti terminanti con un
caratteristico artiglio e prendono contatto con le terminazioni a grappolo
delle fibre muscoidi formando, insieme agli assoni delle cellule di Golgi, i
glomeruli cerebrali.
Le cellule dei granuli possiedono un solo assone che attraversa la corteccia cerebrale sino allo strato molecolare dove si ramifica a forma di T,
formando le fibre parallele. Le fibre parallele decorrono parallelamente all’asse maggiore della lamella cerebrale in cui si trovano per diversi millimetri
e sono costellate di strutture globulari che rappresentano le sinapsi con le
spine dendritiche delle cellule del Purkinje, con le cellule stellate esterne,
con le cellule a canestro e con quelli delle cellule del Golgi.
Ogni arborizzazione dendritica può essere incrociata da circa 250000 fibre
parallele anche se non è detto che ogni fibra parallela contragga sinapsi con
tutti i dendriti che incontra.
Le cellule dei granuli, a differenza delle altre popolazioni, sono gli unici
neuroni eccitatori e nelle loro sinapsi rilasciano L-glutammato.
2.1.4
Cellule a canestro
Le cellule a canestro possiedono un pirenoforo che si trova nella parte più
profonda dello strato molecolare. Sono interneuroni inibitori che possiedono un’arborizzazione dendritica moderatamente ramificata su cui formano
sinapsi alcune fibre parallele, essa è perpendicolare all’asse maggiore della
lamella, una geometria che seguono anche i dendriti delle cellule del Purkinje.
Le cellule a canestro ricevono sinapsi assosomatiche anche da rami ricorrenti degli assoni delle cellule del Purkinje, dalle fibre rampicanti e dalle
fibre muscoidi. Gli assoni delle cellule a canestro sono caratterizzati da un
rapporto inversamente proporzionale tra il loro diametro e la distanza dal
pirenoforo; si trovano in profondità nello strato molecolare, alcuni loro rami
28
decorrono perpendicolarmente e altri parallelamente all’asse della lamella
in cui si trovano, ed attraversano le arborizzazioni di almeno una decina di
cellule di Purkinje raggiungendo una lunghezza di qualche millimetro. Sono
state cosı̀ chiamate perché i rami collaterali dei loro assoni si affiancano ai
dendriti delle cellule del Purkinje per poi formare una rete di fibre a canestro
attorno ai corpi e all’assone di queste cellule.
2.1.5
Cellule stellate
Le cellule stellate sono piccoli neuroni dalla forma stellata che si trovano nello
strato molecolare della corteccia cerebellare. Possiedono un’arborizzazione
dendritica scarsamente ramificata che si sviluppa in un piano perpendicolare
all’asse delle lamelle, mentre i loro assoni decorrono parallelamente all’asse
maggiore della lamella in cui si trovano. Gli assoni formano sinapsi con
l’albero dendritico delle cellule del Purkinje. I dendriti delle cellule stellate
ricevono terminazioni sinaptiche eccitatorie dalle fibre parallele delle cellule
dei granuli.
2.2
Fibre afferenti
Sono denominate fibre afferenti gli assoni dei neuroni sensoriali. Nella corteccia cerebellare queste possono essere di due tipi: le fibre rampicanti e le
fibre muscoidi, entrambi eccitatorie.
2.2.1
Fibre rampicanti
Le fibre rampicanti sono fibre mieliniche eccitatorie che originano dal nucleo
olivare inferiore e raggiungono il cervelletto tramite il fascio olivocerebellare. Per ogni neurone del nucleo olivare inferiore ci sono circa dieci cellule
di Purkinje, e quindi ogni fibra olivocerebellare dà luce a circa dieci fibre
rampicanti. Le fibre risalgono attraverso la sostanza bianca dove gettano
numerosi collaterali per i nuclei intrinseci. Arrivate nella corteccia distribuiscono collaterali per le cellule dei canestri e stellate per terminare poi
nello strato molecolare dove si avvolgono intorno ai dendriti delle cellule
del Purkinje contraendo con essi un gran numero di sinapsi (anche qualche
migliaio).
2.2.2
Fibre muscoidi
Le fibre muscoidi sono fibre mieliniche che originano dai fasci spinocerebellari, trigeminocerebellari, reticolocerebellari e pontocerebellari. Nella sostanza
bianca emettono numerosi rami collaterali per i nuclei intrinseci e una volta
giunte nello strato dei granuli perdono la guaina mielinica per terminare
espandendosi in rosette o grappoli.
29
Queste terminazioni varicose, insieme ai dendriti dei granuli e agli assoni
delle cellule del Golgi, entrano a far parte dei glomeruli cerebellari nei quali le
rosette occupano una posizione centrale. Le fibre muscoidi non raggiungono
lo strato molecolare, ma si fermano a quello dei granuli, deputando agli
assoni dei granuli la trasmissione del segnale fino allo strato più esterno.
30
Capitolo 3
Modelli matematici e sistemi
dinamici
Un modello matematico è una rappresentazione di un sistema usando il linguaggio della matematica, con lo scopo di poter spiegare il sistema e studiare
gli effetti dei differenti componenti con gli strumenti della matematica, e a
volte anche poter fare predizioni del suo comportamento.
Molto frequentemente, quando si è interessati all’evoluzione temporale
di un sistema si ricorre a sistemi di equazioni differenziali che descrivono
l’evoluzione di ogni variabile del sistema. Oppure quando la differenza tra
gli intervalli temporali è finita si ricorre a sistemi di equazioni alle differenze
finite. In ogni caso, la descrizione del sistema è data da un’espressione che
collega lo stato passato del sistema con la variazione delle variabili presenti
o la differenza tra lo stato presente e lo stato immediatamente futuro nel
caso discreto.
Un semplice esempio di sistema dinamico differenziale può essere la catena di decadimenti di un nucleo radioattivo. Prendiamo ad esempio l’uranio
U-238, che mediante emissione α si trasforma in Torio Th-234. Poi questo,
per decadimento β si trasforma in Protactinio Pa-234. Il primo decadimento
ha vita media di 4.5 miliardi di anni, mentre il secondo solo di 25 giorni.
Chiamando la quantità di nuclei di uranio A, quelli di torio B e quelli di
protactinio C si può scrivere il sistema di equazioni differenziali
dA
A
=−
dt
τU
dB
A
B
=
−
dt
τU
τT h
dC
B
C
=
−
dt
τT h τP a
(3.1)
A parole, questo sistema indica che si perde U-238 con il classico modello
di decadimento esponenziale. Poi, i nuclei di U-238 si trasformano in Th31
236, cioè si vanno ad aggiungere al numero di nuclei della variabile B, che
poi decadono in Pa-234. Identico ragionamento per il Pa-234.
Questa semplice rappresentazione delle dinamiche del sistema nasconde
una serie di interessanti informazioni, anche senza risolvere il sistema. Per
esempio, il sistema non è chiuso. Se si sommano le derivate delle tre variabili
si ottiene
dA dB dC
C
+
+
=−
dt
dt
dt
τP a
questo era da aspettarselo, infatti il P-234 può continuare a decadere, cosi
che il numero totale di nuclei considerando solo questi tre elementi non è
costante e diminuisce con il tempo.
Un’altra informazione è che il sistema è in equilibrio solo quando non
ci sono più nuclei. La condizione d’equilibrio richiede che le derivate siano
nulle, è questo è vero solo se A è nullo e di conseguenza anche B e C.
Risolvendo il sistema di ottengono le dinamiche delle diverse variabili,
cioè, la loro dipendenza dal tempo e dalle altre variabili in generale. Sistemi semplici possono anche essere risolti analiticamente usando i metodi di
soluzioni dei sistemi di equazioni differenziali. In questo caso, il sistema di
prima può essere posto in termini di un operatorie differenziale usando il
linguaggio dell’algebra lineare:
con
D : R3 → R3
dv
D(v) =
= Av
dt


−kU
0
0

0
M =  kU −kT h
0
kT h −kP a
(3.2)
e

A
v= B 
C

dove le componenti k nella matrice M sono i reciproci dei tempi di decadimento τ . Questo sistema si risolve diagonalizzando l’operatore D, descritto
dalla matrice M . Infatti, sia Q la matrice di cambiamento di base che rende
diagonale la matrice M , si ha che:
v̇ = M v → v˙0 = Qv̇
= QM v = QM Q−1 Qv
e quindi
M → M 0 = QM Q−1
v → v 0 = Qv
32
(3.3)
Questo rende il sistema di equazioni differenziali un sistema disaccoppiato, cioè, che le dinamiche delle nuove variabili A0 , B 0 e C 0 non dipendono
dalle altre, ma solo dal tempo. Chiaramente, si può ritornare alle variabili
originali una volta risolto il sistema con la trasformazione inversa
v 0 → v = Q−1 v 0
Diventa comunque complicato risolvere questo tipo di sistemi analiticamente per un numero di variabili anche non molto grande. Altro problema è
che in genere i sistemi non sono lineari come questo esempio. Cosi si ricorre
all’integrazione numerica dei sistemi di equazioni differenziali e la simulazione computerizzata diventa uno strumento prezioso nello studio dei sistemi
dinamici.
3.1
Modelli concettuali e modelli computazionali
Un sistema biologico, come ad esempio una cellula, consiste di milioni di
molecole che interagiscono tra di loro, e ognuna di queste molecole è composta potenzialmente di centinaia di atomi che danno le proprietà di queste
molecole mediante gli stati energetici degli elettroni. Quindi non è fattibile
lo studio esatto di un sistema di questo tipo, data l’enorme complessità e le
limitate risorse di calcolo.
Bisogna quindi trovare un compromesso tra quali variabili catturare e che
comportamento si vuole studiare mediante una semplificazione de sistema o
un’astrazione dei suoi componenti. Il modello cosi semplificato, deve essere
testato per verificare che è un modello che rappresenta la realtà, mediante
la comparazione del comportamento del modello, rispetto a dati ricavati
sperimentalmente.
Come detto prima, lo studio di questo modello concettuale deve essere
realizzato mediante la simulazione computerizzata. Quindi bisogna tradurre
il modello concettuale a un modello computazionale che sia possibile studiare
al computer. Questo porta ulteriori complicazioni per il fatto che il computer
è un calcolatore discreto, cioè per ogni ciclo del processore questo esegue
un’istruzione. Evidentemente non è possibile simulare un sistema continuo
nel tempo usando un computer, e per la stessa ragione, neanche continui
nello spazio. Quindi bisogna trovare il modo di rendere discreti nel tempo
e nello spazio i possibili modelli che hanno delle variabili continue, senza
alterare eccessivamente risultati ottenuti.
3.2
Rappresentazione matematica dei modelli concettuali
Prima ancora di procedere all’implementazione di un modello computazionale, bisogna trasformare il modello concettuale in un sistema di equazioni che
33
ne descrivono il comportamento. A questo punto, del modello concettuale
dovrebbero essere noti i seguenti fatti:
• Quali sono le variabili nel sistema
• Cosa, come e dove si muove
• Cosa, come e in cosa si trasforma
Per spiegare questo piccolo framework facciamo due semplici esempi. Il
primo è l’oscillatore armonico. Consideriamo un piccolo corpo legato ad
una molla. Tirando del corpo per allungare leggermente la molla e rilasciandolo questo comincia un moto oscillatorio. Consideriamo questo moto
il più lineare possibile. Osservando il sistema si può notare che l’impulso
del corpo aumenta quando si avvicina a la posizione che era a riposo e diminuisce quando si allontana da questo punto, cosi abbiamo un sistema a
due variabili: posizione e impulso. Dall’osservazione precedente sappiamo
che esiste uno scambio o una trasformazione tra la velocità e la posizione,
presse come variabili in uno spazio astratto. Quello che viene perso dalla
variabile posizione viene guadagnato dalla variabile velocità. Siccome questa variazione non dipende dal valore della posizione ma dalla distanza dal
punto d’equilibrio, postuliamo che il cambiamento nel tempo dell’impulso
sia proporzionale alla variazione spaziale della posizione al quadrato:
dp
∂(x2 )
= −k1
= −2k1 x
dt
∂x
Allo stesso modo, la variazione della posizione è proporzionale dall’impulso
e quindi lo stato nello spazio astratto con coordinate x e p si muove lungo
nella direzione x in proporzione a p. Quando questo è massimo, la posizione
cambia velocemente e viceversa. Quindi si può scrivere un’equazione del
tipo
dx
= k2 p
dt
Queste due equazioni insieme si possono scrivere come una sola
d2 x
2k1
=−
x = −ω 2 x
2
dt
k2
che è la ben nota equazione dell’oscillatore armonico, ricavata senza nessun
richiamo esplicito dei principi della meccanica classica.
Il secondo esempio è una reazione di dissociazione. Ad esempio l’acqua,
che è composta da due atomi di idrogeno e uno di ossigeno. Questa molecola
ha una probabilità di dissociarsi, cioè di formare due ioni, uno di H+ e
altro del radicale HO− . Quindi abbiamo tre variabili, anche se una non è
indipendente, dato che per ogni molecola d’acqua vengono prodotti H+ e
HO− in uguale quantità. Cosi il sistema si riduce a due variabili. L’acqua
34
si può dissociare spontaneamente con una piccola probabilità in questi due
radicali e a sua volta i due radicali si ricombinano formando acqua. Cosi, nel
framework precedente si ha che la variabile A che rappresenta la molecola
di acqua, si trasforma nella variabile B che rappresenta uno dei radicali.
Quello che viene perso dal primo viene guadagnato dal secondo e viceversa.
Questo permette di scrivere due equazioni:
dA
= −kA A + kB B 2
dt
dB
= kA A − kB B 2
dt
(3.4)
Nella natura questo sistema è in equilibrio, cioè si dissociano lo stesso numero
di molecole di quelle che si ricombinano. Questo permette di trovare la
proporzione tra i radicali e le molecole d’acqua come
2
kA
B2
=
=K
A2
kB
da questa formula si può ricavare l’equilibrio degli ioni nell’acqua come
KW = KA2 = B
KW = K[H2 O][H2 O] = [H+ ][HO− ]
dove il valore di KW a 25◦ C è di 1.0x10−14 .
Comunque, è importante notare che i modelli devono essere creati con
l’evidenza esperimentale e devono essere testati con dati reali. Se ad esempio,
nel modello dell’oscillatore armonico, invece di considerare la distanza come
x2 si usava il modulo, si poteva comunque arrivare a scrivere un modello
differenziale, ma che non rappresenta la realtà fisica.
A questo punto potrebbe entrare in gioco l’astrazione del sistema. Consideriamo un sistema dinamico descritto da molte particelle, potenzialmente
dell’ordine del numero di Avogadro. Questo sistema sarebbe intrattabile
anche numericamente. Ma se si considerano i punti come una distribuzione
nello spazio delle fasi1 e pensiamo a questa distribuzione come un fluido,
lo spostamento del fluido con densità ρ in una zona dello spazio delle fasi
che descrive il sistema produce un flusso j, che può essere rappresentato
mediante un’equazione di continuità:
∂ρ
+ ∇ · j = 0.
∂t
Allo stesso modo, la trasformazione di un composto in un’altra può essere studiato mediante la stessa equazione di continuità, a patto che siano
1
Spazio astratto con tante dimensioni come il numero di variabili del sistema. Utile per rappresentare con un solo punto nello spazio l’intero stato del sistema. Non
necessariamente è lo spazio fisico.
35
rappresentate le concentrazioni e il flusso di materiale che si trasforma. Ma
essendo che in una reazione il materiale di una specie non si conserva perché
si trasforma in altra specie, bisogna aggiungere un termine che indica il materiale che viene perso o guadagnato, in quanto l’equazione di continuità
descrive delle quantità che vengono conservate. Quindi si ha un’equazione
del tipo
∂ρ
+ ∇ · j = f (ρ, x, t).
(3.5)
∂t
Il flusso j che descrive il trasporto di materiale da un punto ad un’altro nello
spazio delle fasi, sia questo spontaneo, oppure forzato, può essere decritto in
una maniera più semplice. Se si considera che in un punto A ci sia una certa
concentrazione di materiale, mentre che nel punto B infinitamente vicino ci
sia un’altra concentrazione, ci sarà un passaggio spontaneo di materiale dal
punto di maggior concentrazione a quello di minore concentrazione. Questo
fenomeno può essere giustificato da un punto di vista matematico, richiedendo che la funzione di concentrazione sia continua2 , ma se considera che
nelle reazioni chimiche di trasporto, i composti sono formate da molte molecole, si può considerare il processo di diffusione per moti termici casuali.
Pensiamo a due compartimenti che hanno un diverso numero di particelle
che hanno una piccola probabilità di cambiare compartimento. Evidentemente, in media, il compartimento con più particelle invia più materiale a
quello con meno particelle fino arrivare ad un equilibrio. Ma a questo scopo
ci basterà la motivazione matematica.
Cosı̀, abbiamo una differenza di concentrazione tra due punti infinitamente vicini. Questo può essere descritto come:
lim
∆x→0
ρ(x + ∆x) − ρ(x)
dρ
=
∆x
dx
Assumendo che il flusso sia proporzionale alla differenza di concentrazione
tra due punti, e quindi al gradiente in tre dimensioni, si può scrivere il flusso
come
j = −D∇ρ
con il segno negativo perché il flusso va verso la zona con minore concentrazione. La costante D è detta constante di diffusione. Questa è la prima
legge di Fick, che insieme all’equazione di continuità (equazione 3.5) con il
termine non omogeneo diventa la seconda legge di Fick:
∂ρ
− D∇2 ρ = f (ρ, x, t)
∂t
(3.6)
nota comunemente come equazione di reazione-diffusione. Il termine non
omogeneo dà la velocità di reazione.
2
Ma sarebbe desiderabile che sia una funzione liscia o meglio ancora, una distribuzione.
36
Questa equazione è molto generale per descrivere processi come le reazioni chimiche o il trasporto ionico. Prendiamo come esempio quello del
decadimento radioattivo. Essendo che non viene specificato che il materiale
si diffonde omettiamo questo termine, rimanendo
∂A
= f (A, x, t)
∂t
Come la reazione non dipende esplicitamente ne dello spazio ne del tempo, il
termine che descrive la velocità di reazione dipende solamente della variabile
A. Assumiamo una proporzionalità lineare tra la velocità di reazione e la
concentrazione e si ottiene
Ȧ = kA
dove scegliendo la costante k in modo opportuno si ottiene il modello di
prima per il decadimento radioattivo.
Invece, nella la diffusione di un soluto in un solvente, senza reazione tra
i due, si può eliminare il termine di reazione e finire con una pura equazione
di diffusione:
∂ρ
= D∇2 ρ
∂t
3.3
Schema cinetico di una reazione
Altro tipo di modello matematico ha a che fare con processi stocastici, cioè
processi non deterministici e che devono essere studiati usando metodi statistici. Il decadimento radioattivo ne è un esempio. Non si può sapere con
certezza quando un atomo subirà una disintegrazione, ma studiando il sistema per un lungo periodo in una situazione sufficientemente stabile si possono
ottenere informazioni statistiche come il tempo di vita medio del campione.
Prendiamo quindi come base un processo che trasforma uno stato A nello
stato B, dove lo stato A è composto di una popolazione iniziale NA , mentre
lo stato B ha una popolazione NB molto grande (diciamo pure dell’ordine
del numero di Avogadro). Fissiamo una probabilità che un elemento di A si
trasformi in un elemento di B con una probabilità molto piccola p, fissato
n’intervallo di tempo ∆t. In questo intervallo di tempo una parte pA si è
trasformata in B e quindi si ha che
A(t + ∆t) = A(t) − pA(t)
B(t + ∆t) = B(t) + pB(t)
(3.7)
La probabilità di transizione p, essendo una probabilità, è forzata a essere
in [0,1]. Ovviamente p è anche una funzione del tempo trascorso, perché ci
aspettiamo che per intervalli di tempo grandi (tendenti all’infinito) ci sia la
certezza di una transizione, quindi
lim p(∆t) = 1
∆t→∞
37
k
A
B
Figura 3.1: Schema cinetico per la reazione A → B.
considerando le equazioni 3.9, dividendo per ∆t e facendo il limite di ∆t che
tende a zero si ha
A(t + ∆t) − A(t)
p(∆t)A(t)
= − lim
∆t→∞
∆t→∞
∆t
∆t
dA
dp
= − (0)A
dt
dt
lim
(3.8)
Procedendo nella stesa forma per l’altra equazione si ha
dB
dp
=
(0)A
dt
dt
Questo tipo di equazioni vengono chiamate equazioni maestre e descrivono il l’evoluzione temporale dovuta ad un processo stocastico. Ci siamo
ricondotti nuovamente al modello di decadimento esponenziale portando il
sistema al continuo. Definiamo
dp
(0) = k
dt
(3.9)
si ha che è una costante nel tempo (potrebbe dipendere da altri fattori,
come lo spazio o come si vedrà nel prossimo capitolo, dal potenziale della
membrana cellulare). Se si rappresenta questo processo mediante un grafo
orientato, dove i vertici sono gli stati del sistema e i lati del grafo sono la
direzione in cui avviene la trasformazione con k la costante di trasformazione,
le reazioni di questo tipo possono essere rappresentate mediante una catena
di Markov. Questo processo markoviano viene chiamato schema cinetico.
Queste sono adatte per la rappresentazione di processi dove sono coinvolte
molte particelle, il che impedirebbe di studiare in modo deterministico il
sistema. Esempi di questi processi sono le reazioni chimiche.
Come mostrato nella prima parte di questo capitolo, si possono connettere diversi stati con diverse costanti generando un grafo anche molto
complicato. In più, il grafo non deve necessariamente essere aciclico, cioè,
si può essere nella situazione dove lo stato A si trasforma nello stato B e
viceversa.
3.4
Discretizzazione di una equazione differenziale
Come detto prima, il computer non può gestire dati continui, cosi bisogna
rendere le equazioni discrete nello spazio e nel tempo.
38
Figura 3.2: A sinistra: funzione ex/2 + 2cos(x) e le sue derivate analitica,
numerica con errore O(∆x) e con errore O(∆x2 ). Le linee delle derivate
sono praticamente sovrapposte. A destra: differenza tra i due metodi.
Il motivo per cui è preferibile che le funzioni siano lisce sta nella possibilità di scrivere queste come uno sviluppo di Taylor attorno ad un punto x
2 00
f (x) + ...
2
questo permette di avere il valore di una funzione in un punto x+. Fissando
= ∆x ed eliminando i termini dopo un certo ordine si ottiene un’espressione
che ha un numero finiti di elementi, ma si aggiunge anche un errore, ad
esempio
f (x + ) = f (x) + f 0 (x) +
f (x + ∆x) = f (x) + ∆xf 0 (x) +
∆x2 00
f (x) + O(∆x3 )
2
e questo permette di scrivere le derivate di un certo ordine in una griglia di
passo ∆x avendo i valori della funzione nei punti n∆x che stano nel punto
n-esimo della griglia, ad esempio per i primi due ordini:
f (x + ∆x) − f (x)
+ O(∆x)
∆x
f (x + ∆x/2) − f (x − ∆x/2)
f 0 (x) =
+ O(∆x2 )
∆x
f (x + ∆x) + f (x − ∆x) − 2f (x)
+ O(∆x2 )
f 00 (x) =
∆x2
f 0 (x) =
(3.10)
Notare che la seconda espressione della derivata prima ha un errore minore, a
patto che si conosca il valore della funzione nei punti ±∆x/2 del punto dove
39
si calcola questa. Questa proprietà diventerà molto utile dopo3 . Quindi,
accettando di introdurre un errore nei calcoli, si possono calcolare le derivate
di una funzione in punti discreti.
Questo permette l’implementazione al computer di questo tipo di espressioni, ma ci sono ancora alcune problematiche. Per primo, si potrebbe pensare che, fissato un intervallo (x0 , xf ), riducendo ∆x e di conseguenza aumentando n = (xf − x0 )/∆x sia conveniente. Questo è vero fino un certo
punto. Come si vedrà dopo, per integrare un’equazione differenziale con
metodi numerici bisogna eseguire un numero di operazioni a grosso modo
dell’ordine di n. E quindi la complessità computazionale aumenta direttamente con n. Data la velocità dei processori moderni questo potrebbe non
essere un problema per modelli relativamente semplici, ma per grandi simulazioni bisogna tenere in conto quanto si guadagna in termini di precisione
dei calcoli rispetto al tempo di simulazione. In effetti, è molto comune, in
simulazioni di proteine con metodi di dinamica molecolare, che qualche microsecondo di simulazione impieghi molte settimane[8]. Altro problema che
sorge al scegliere un ∆x molto piccolo ha a che fare con la precisione del
computer. I numeri decimali a singola precisione4 sono rappresentati da 32
bit, di cui la mantissa ha 23 bit, mentre l’esponente ha 8, con il restante bit
per il segno. Di nuovo, il fatto che di deva rappresentare i numeri mediante
una base numerica finita fa si che non si abbia un rango continuo di numeri
e questo introduce un’ulteriore errore5 .
Avendo allora trovato un’espressione per la derivata che sia leggibile
dal computer, diventa possibile anche la scrittura di equazioni differenziali.
Prendiamo ad esempio l’equazione
df
= g(t)
dt
Siccome questa uguaglianza deve valere per ogni x e ogni t si può discretizzare l’equazione come
f (t + ∆t/2) − f (t − ∆t/2)
= g(t)
∆t
e usando una griglia tn = n∆t si può scrivere per ogni punto della griglia
f (n∆t + ∆t/2) − f (n∆t − ∆t/2)
= g(n∆t)
∆t
Quindi può anche essere trattata come un sistema di n equazioni con n
incognite, dove le incognite sono i valori della funzione f (t) nel n-esimo
punto.
3
Se si ha l’espressione analitica si può sapere il valore della funzione in un qualsiasi
punto. Questo potrebbe non essere vero se si ha solo un array di valori della funzione.
4
Standard IEEE 754
5
A volte anche fatale: http://ta.twi.tudelft.nl/users/vuik/wi211/disasters.html
40
3.5
Integrazione numerica
Risolvere il un sistema di equazioni differenziali con il metodo algebrico
brevemente illustrato nella sezione precedente non è molto conveniente, in
quanto la complessità computazionale è maggiore rispetto a metodi iterativi.
Questi metodi si basano sul fatto che le derivate in un punto possono essere
scritte usando i valori della funzione e delle derivate in altri punti vicini.
Molti tipi di algoritmi sono stati sviluppati per risolvere equazioni differenziali, per cui illustreremo questo concetto con il più semplice algoritmo
d’integrazione: l’algoritmo di Euler. Come visto nella sezione precedente, il
primo metodo per trovare la derivata di una funzione si può scrivere come
f 0 (n∆x) =
f ((n + 1)∆x) − f (n∆x)
+ O(∆x)
n∆x
Per cui supponiamo di avere l’espressione della derivata come f 0 = g(t) per
tutte le t e una condizione iniziale f (t0 ). Si può scrivere il valore della
funzione al punto t1 = t0 + ∆t come
f (t1 ) = f (t0 ) + ∆tf 0 (t0 )
e anche i punti successivi tn = t0 + n∆t
f (t2 ) = f (t1 ) + ∆tf 0 (t1 )
f (t3 ) = f (t2 ) + ∆tf 0 (t2 )
...
f (tn ) = f (tn−1 ) + ∆tf 0 (tn−1 )
notando che per ogni successivo n, uso il valore della funzione al punto n−1.
Integrare in questo modo è efficiente, ma comporta il problema dell’accumulo degli errori. Per le derivate l’errore dipende solamente del punto
dove si valuta questo, ma per l’integrazione numerica, essendo che il valore
in un punto dipende del valore di tutti i valori precedenti, si ha un errore
proporzionale a n. Nel metodo di Euler per l’integrazione, la derivata ha un
errore O(∆t), quindi l’errore totale è dell’ordine di nO(∆t).
Sotto certe condizioni, può accadere che gli errori si cancellino, come
succede nel caso di sistemi armonici, dove gli errori si annullano per ogni
ciclo. Ma non si dovrebbe usare mai questo algoritmo in situazioni reali,
dove non si può sempre contare con il buon comportamento degli errori.
Esistono in effetti migliori algoritmi, con minore errore e migliori proprietà
di stabilità e vengono implementate in librerie da usare nelle simulazioni in
molti linguaggi di programmazione, per cui non è necessario conoscere al
dettaglio il funzionamento dell’algoritmo. Molto notti tra questi algoritmi
sono i metodi di Runge-Kutta.
41
Figura 3.3: A sinistra: funzione ex/2 +2cos(x) e l’integrale della sua derivata
analitica. Le due curve sono praticamente sovrapposte. A destra: la loro
differenza. Notare che ad un certo punto l’errore diventa nullo, per poi
aumentare ancora.
3.6
Ottimizzazione
L’ottimizzazione è il processo in cui si scelgono i parametri di un modello
che diano la risposta desiderata, o comunque ci si avvicini di più a questa.
Normalmente, il processo d’ottimizzazione consiste nella minimizzazione
di una funzione oggettivo, che potrebbe essere ad esempio l’errore rispetto a
la risposta desiderata e quindi l’ottimizzazione sarebbe scegliere i parametri
che riducono l’errore rispetto la risposta desiderata.
Ci sono diverse tecniche di ottimizzazione, la più semplice probabilmente
è la discesa del gradiente (gradient descent o GD). Questa procedura consiste
nel trovare prima una funzione di errore in funzione ai parametri del modello, che solitamente è l’errore quadratico medio, per poi trovare i gradienti
rispetto a questi parametri. Questo permette di spostarsi iterativamente
nell’iperpiano formato dalla funzione di errore andando nella direzione contraria al gradiente (che sarebbe la direzione dove cresce la funzione) mediante
la ricetta
x̂n+1 = x̂n − ∇E(x̂n )
cosi da ridurre la funzione errore e arrivare possibilmente ad un minimo
globale. Nella formula precedente x̂ è il vettore dei parametri del modello,
è il passo della discesa e viene chiamata “learning rate”, mentre E(x̂n ) è
l’errore in funzione dei parametri.
Non è sempre possibile arrivare a un minimo globale dell’errore comunque. In effetti, a priori, non si conosce la topologia della funzione di errore,
42
e ci si potrebbe trovare nella situazione in cui il processo di ottimizzazione
rimane intrappolato in un minimo locale, che potrebbe non essere quello
globale.
Altri algoritmi di ottimizzazione esistono che migliorano le proprietà
del GD. Una semplice modifica sarebbe l’algoritmo di discesa del gradiente
stocastica (SGD), che esplora diversi punti nell’iperpiano dell’errore in modo
casuale, con la speranza di evitare minimi locali. Altra tecnica è quella
dell’aggiunta di un momento
x̂n+1 = x̂n − ∇E(x̂n ) + λ (x̂n − x̂n−1 )
che aiuta a non rimanere intrappolati in un minimo globale.
43
44
Capitolo 4
Modello di Hodgkin-Huxley
e teoria di Rall
4.1
Modello di Hodgkin-Huxley
Nel 1952, Hodgkin e Huxley eseguirono una serie di esperimenti, vincitore
di un premio Nobel per la medicina nel 1963, con ”l’assone gigante” di un
calamaro[17]. Usando una tecnica che permetteva di stimolare e misurare
il potenziale di membrana dell’assone con degli elettrodi inseriti dentro di
questo, egli trovarono tre tipi di correnti ioniche: sodio, potassio e una
corrente di dispersione. Canali ionici specifici controllano il flusso di ioni da
un lato all’altro della membrana, mentre la corrente di dispersione avviene
per processi metabolici che forzano diverse concentrazioni di ioni tra l’interno
e nell’esterno della membrana. Questa differenza di cariche dai due lati della
parete cellulare genera il potenziale della membrana.
4.1.1
Il modello
Si può pensare alla membrana cellulare come il dielettrico di un condensatore sferico che tiene separate le cariche tra l’interno e l’esterno. Questo è
ragionevole perché la membrana di per se non permette il passaggio di ioni,
in quanto è composta da lipidi. Il passaggio di ioni attraverso la membrana
viene permesso dai canali ionici, che possono essere pensati come molte piccole resistenze in parallelo e quindi con il risultato equivalente di una sola
resistenza che ha come valore la somma di tutte. Essendo questi canali specifici per ogni tipo di canale ionico, si ha che il modello dovrebbe prevedere
una resistenza per il sodio e una per il potassio e per i canali di dispersione.
La differenza di concentrazione genera una differenza di potenziale, che
dipende dalle diverse concentrazioni tra i due lati della membrana secondo
l’equazione di Nerst
RT
[Q]out
E=
ln
zF
[Q]in
45
outside
gK
gN a
gl
EK
EN a
El
Cm
inside
Figura 4.1: Circuito equivalente per il modello di Hodgkin-Huxley.
Quando i canali ionici si aprono, gli ioni si diffondono verso la zona di
minore concentrazione, che è equivalente al trasporto di cariche generato da
una differenza di potenziale in una resistenza. Dentro della membrana si
può trovare una maggiore concentrazione di K+ e quindi a questo ione viene
assegnata una batteria con il polo positivo diretto all’interno. Il Na+ invece
è il contrario.
L’apertura dei canali ionici porterebbe ad un equilibrio a lungo termine,
e quindi a che la cellula non sia più capace di scambiare ioni. Per questo
è necessario un meccanismo che ristabilisca il disequilibrio. Per cui viene
associata una batteria di dispersione a questo meccanismo, che porta gli
ioni al loro stato iniziale.
Si ha quindi un circuito equivalente come nella figura 4.1, dove bisogna considerare che l’apertura dei canali ionici dipende dal potenziale della
membrana e quindi la conduttanza totale è variabile. Anche le batterie
dovrebbero essere variabili, ma il trasporto di ioni durante l’apertura dei
canali non cambia significativamente le concentrazioni dentro e fuori, per
cui si possono considerare come costanti.
Usando le leggi di Kirchhoff, si possono studiare le correnti e i potenziali
nella membrana
− Cm
∂V
= Il + IN a + IK
∂t
(4.1)
cioè, la somma delle correnti che attraversano un nodo è nulla. Le correnti
possono essere calcolate, tenendo in conto che il circuito è parallelo e che la
46
somma della tensione in ogni maglia è nulla1
Vm =
IK
Il
IN a
+ EN a =
+ EK
+ El =
gl
gN a
gK
(4.2)
quindi
Il = gl (Vm − El )
IN a = gN a (Vm − EN a )
(4.3)
IK = gK (Vm − EK )
Dagli esperimenti è stato osservato che il comportamento dell’assone è
complicato. Stimolando con una corrente bassa il potenziale sale di poco e
una volta spenta questa corrente questo ritorna al valore di riposo. Invece
con un forte stimolo il potenziale della membrana cresce fino ad una soglia,
dove molto rapidamente la membrana di depolarizza e poi si iperpolarizza,
cioè il AP. Se non si spegne la corrente questo fenomeno continua ad accadere
con una certa frequenza come se fosse un oscillatore. Altra caratteristica di
queste raffiche di segnali è che non è possibile generare altri AP durante un
certo periodo di tempo dopo un AP precedente. Questo periodo di tempo
si denomina periodo refrattario.
Per spiegare questo fenomeno Hodgkin e Huxley studiarono in dettaglio
le correnti ioniche separandole. In questo modo si ottennero dei modelli per
le conduttanze dei canali ionici. Si osservò che la conduttanza dei canali di
potassio aumentava come (1 − exp(−t))4 quando si depolarizza la membrana, mentre decade con legge exp(−4t) quando non è più depolarizzata[17].
Quindi si ipotizza che i canali di potassio siano composte di quattro porte,
che si aprono in maniera casuale con maggiore probabilità quando la membrana è depolarizzata. Se si assume che nella membrana ci sia una quantità
enorme di canali, cosi da poter lavorare con le medie, si può descrivere la
popolazione di canali aperti con una variabile n che va da 0 a 1. Cosi si può
costruire un modello come
dn
= αn (1 − n) − βn n
dt
gK = g¯K n4
dove g¯K è la conduttanza massima della membrana, quando tutti i canali
sono aperti. La prima equazione descrive qualcosa che somiglia ad una
reazione. In effetti la variabile n passa dallo stato accesso allo stato spento
in modo casuale, per cui si può descrivere come un processo markoviano.
Allo stesso modo, il canale del sodio isolato può essere descritto mediante
due stati
dm
= αm (1 − m) − βm m
dt
1
D’ora in poi sarà usata la conduttanza al posto della resistenza. g = 1/R.
47
K
-85
36
E (mV)
ḡ (mS/cm2 )
Na
45
120
l
-60
0.3
Tabella 4.1: Parametri del modello
Figura 4.2: Valori all’equilibrio degli stati n, m e h in funzione del potenziale
di membrana.
dh
= αh (1 − h) − βh h
dt
gN a = gN
¯ a m3 h
dove in questo caso lo stato m apre il canale ionico, mentre lo stato h lo
chiude.
Le funzioni α e β dei rispettivi stati sono stati dedotti dai dati esperimentali ottenuti fissando il potenziale della membrana e misurando gli stati
quando raggiungono l’equilibrio, cioè
n∞ =
αn
αn + βn
αm
αm + βm
αh
=
αh + β h
m∞ =
h∞
ottenendo le funzioni α e β per ogni stato:
αn =
−0.01(60 + Vm )
e
−60−Vm
10
48
−1
αm =
−0.1(45 + Vm )
e
−45−Vm
10
αh = 0.07e
−70−Vm
18
βn = 0.125e
βm = 4e
βh =
−70−Vm
80
−70−Vm
18
1
1+e
−40−Vm
10
Includendo la capacità della membrana, per cui si fissa un valore di 1
µF/cm2 , si hanno tutti i parametri del modello necessari per il suo studio.
4.1.2
Simulazione
In questo modello si devono risolvere quattro equazioni differenziali: una per
il potenziale della membrana e tre per gli stati n, m e h. Quindi la dinamica
del sistema può essere descritta mediante una linea su di uno spazio delle
fasi di quattro dimensioni con il tempo come parametro della curva. Per la
soluzione esplicita è anche richiesto lo stato iniziale del sistema (condizione
al contorno di Dirichlet), cioè un punto nello spazio delle fasi. Si scelgono gli
stati all’equilibrio, cioè quando le derivate degli stati si annullano. Questo
vuol dire, nel caso del potenziale, che non ci sono correnti ioniche totali, per
l’equazione 4.1. Ma questo non vuol dire che non ci sono correnti per ogni
specie, ma che la loro somma si annulla. Usando le equazioni 4.4 si ha
gl (Vm − El ) + gN a (Vm − EN a ) + gK (Vm − EK ) = 0
Le conduttanze invece sono dipendenti dagli stati n, m e h, le cui derivate
devono a loro volta annullarsi quando il sistema è in equilibrio. Si potrebbe
procedere a minimizzare le derivate con qualche algoritmo di ottimizzazione.
Invece in questo caso si procede alla simulazione diretta, assumendo che il
sistema quando non è eccitato tende all’equilibrio, cioè lo stato a riposo è
un attrattore nello spazio delle fasi. Scegliendo un valore ragionevole per il
potenziale di −70mV , determinato sperimentalmente, e per gli stati i loro
valori corrispondenti al limite per questo potenziale come in figura 4.2, si ha
lo stato iniziale per il sistema
Vm = −70mV
n = 0.3
m = 0.05
h = 0.65
49
(4.4)
Figura 4.3: Andamento nel tempo del potenziale di membrana e gli stati dei
canali ionici quando la cellula non è eccitata.
Le diverse simulazioni usano l’algoritmo d’integrazione LSODE2 Una
prima simulazione per il sistema non eccitato con una corrente esterna risulta
in un andamento nel tempo come in figura 4.3
Si può osservare un piccolo transiente per il fatto che il sistema non è
precisamente in equilibrio. Il potenziale di membrana viene attratto verso
−71mV e rimane in questo stato per il resto della simulazione. Si può
studiare il sistema iniettando una corrente, il che porterebbe l’equazione 4.1
a
∂V
− Cm
= Il + IN a + IK − Iin
(4.5)
∂t
Questa aggiunta di corrente fa diventare la derivata del potenziale rispetto al tempo positiva, incrementando il potenziale della membrana. Se
questo potenziale supera un certo limite (tensione di soglia), la combinazione delle diverse correnti ioniche e le loro particolari dinamiche causano che
la cellula generi un AP. In particolare, questo aumento del potenziale causa
un incremento della conduttanza del sodio, che viene controllata dalla variabile m. Questo flusso di corrente di ioni depolarizza la membrana ancora di
più. Questo feedback positivo causa un aumento molto veloce del potenziale
della membrana, il che causa un l’attivazione delle variabili n e la l’inattivazione di h (vedere figura 4.2). Lo stato h blocca i canali del sodio, mentre la
apertura lenta dei canali del potassio causa la repolarizzazione della membrana per un flusso di ioni di potassio verso l’esterno. Questa corrente di
potassio continua fino la chiusura completa dei rispettivi canali, causando
l’iperpolarizzazione della membrana e quello che viene denominato periodo
refrattario, cioè il periodo di tempo in cui la cellula non può generare altri
AP.
2
Livermore Solver for Ordinary Differential Equations[16].
50
Figura 4.4: A sinistra: conduttanza dei canali ionici durante un AP. Al
centro e destra: Andamento nel tempo del sistema quando viene eccitato da
una corrente di 5µA/cm2 a 40 ms.
Figura 4.5: A sinistra: Andamento nel tempo del sistema quando viene
eccitato da una corrente di 10µA/cm2 a 40 ms. A destra: Somma temporale
degli EPSC generato da pulsi di 40Hz con ciclo di lavoro di 10% e corrente
di pico di 55µA/cm2 .
Incrementando la corrente introdotta nella cellula si può osservare un
fenomeno oscillatorio, cioè la continua generazione di AP. Nella situazione
anteriore il AP veniva generato una sola volta e anche se la corrente continuava ad entrare non si sono prodotti altri AP. Con sufficiente corrente si
possono generare successioni di AP.
Quando il sistema viene eccitato non da una corrente costante, ma da
una corrente pulsante con basso ciclo di lavoro e con una certa frequenza
(in generale non costante) si può osservare il fenomeno di somma temporale.
Quando la corrente non è abbastanza da generare un AP, comunque può
depolarizzare la membrana. La tensione della membrana ritornerà al suo
valore d’equilibrio dopo un certo tempo, quindi se altro pulso di corrente
arriva al sistema, il potenziale generato si va a sommare al potenziale rimanente3 . L’accumulo di questi piccoli potenziali può arrivare fino la tensione
3
Non è una somma nel senso matematico, è per indicare che si va ad aggiungere al
51
inside
RL
RT
RL
RL
RL
C
outside
Figura 4.6: Circuito equivalente di un segmento di cavo dendritico.
di soglia, generando un AP.
4.2
Modello di Rall
Il modello di Hodgkin-Huxley è un buon modello che spiega molti fenomeni
nel neurone. Ma è un modello che non tiene conto della struttura della cellula. Come ben noto, il neurone è un tipo di cellula particolare che esibisce un
albero dendritico, a volte anche molto ramificato e che può estendersi molti
micrometri. Gli impulsi sinaptici di neuroni presinaptici arrivano principalmente ai dendriti, che genererà un potenziale postsinaptico (eccitatorio
o inibitorio) e questo impulso dovrà propagarsi fino il soma per produrre
possibilmente un AP nel cono di emergenza. Finora il modello di HodgkinHuxley tratta di movimenti ionici trasversali, che attraversano la membrana.
Ma se in un punto dell’albero dendritico viene generato un potenziale, questo potenziale non può propagarsi con velocità infinita verso il soma, per
cui la differente distribuzione del potenziale nella membrana cellulare causa
anche un moto longitudinale di ioni nei dendriti. Quindi serve un modello
per studiare come si propaga questo segnale nella membrana cellulare.
4.2.1
Equazione del cavo
Consideriamo un segmento di dendrite, con le stesse caratteristiche dell’assone nel modello di Hodgkin-Huxley. Quindi si ha un condensatore cilindrico
con delle conduttanze distribuite lungo la parete cellulare. Ma a differenza
di prima, dove tutte le resistenze in parallelo si sommano, ora si divide il
condensatore cilindrico in tanti piccoli condensatori cilindrici e si studia il
modello risultante di fronte ad un cambiamento localizzato del potenziale di
uno di questi cilindri. Quindi il circuito equivalente è come nella figura 4.6
In questo circuito la resistenza RL è la resistenza tra due punti distanti
∆x, quindi dipende anche della distanza tra questi punti e la sezione per la
legge di Ohm
ρL ∆x
RL =
(4.6)
A
potenziale residuo, alzandone il livello.
52
dove ρL ha come unità [Ωcm]. La resistenza R invece è una normale resistenza, che è l’inverso delle conduttanze dei canali ionici, mentre C la capacità
della membrana.
Pendiamo in considerazione un particolare cilindretto e supponiamo che
in questo punto si inietta una corrente I. In questo vertice dovendo comunque essere rispettate le leggi di Kirchhoff, si ha che la somma delle correnti
è nulla:
∂Vm Vm
I + Iin − Iout − C
−
=0
(4.7)
∂t
R
dove viene indicato con Iin e Iout la corrente entrante e uscente nel punto
dentro del cavo. La corrente entrante al nodo dipende dalla differenza di
potenziale tra il nodo precedente e il nodo in esame secondo la legge di Ohm
e lo stesso vale per la corrente uscente:
Iin = πD2
V−1 − Vm
4ρL ∆x
Iout = πD2
Vm − V+1
4ρL ∆x
dove è stata usata l’equazione 4.6, con D il diametro del cilindro. Quindi si
può riscrivere la somma delle correnti entrati e uscenti dentro del cavo come
Iin − Iout = πD2
V−1 − 2Vm + V+1
4ρL ∆x
(4.8)
La somma delle correnti in un particolare cilindro finora non dipende della
geometria, cioè della lunghezza e diametro del cilindro, che poi si vorrà far
diventare di lunghezza infinitesima. Quindi riscriviamo i diversi parametri
come
C = πDc∆x
(4.9)
1
R=
πDgm ∆x
dove gm è la conduttanza della membrana in [S/cm2 ], tenendo conto di tutti
i tipi di canali ionici. Usando anche l’equazione 4.8 e 4.6 si può riscrivere
l’equazione 4.9 come
V−1 − 2Vm + V+1
∂Vm
− πDc∆x
− πDVm gm ∆x = 0
4ρL ∆x
∂t
I
V−1 − 2Vm + V+1
∂Vm
+D
−c
− Vm gm = 0
2
πD∆x
4ρL ∆x
∂t
I + πD2
(4.10)
Nel secondo termine di quest’ultima equazione si può riconoscere la derivata
seconda di una funzione rispetto a la variabile x quando ∆x tende a zero nel
punto centrale (equazione 3.10), cioè dove viene valutata Vm e consideriamo
53
la corrente I come funzione della posizione 4 . Quindi riscriviamo l’equazione
4.10 come
D ∂ 2 Vm
∂Vm
i+
−c
− V m gm = 0
(4.11)
2
4ρL ∂x
∂t
dove
i=
1 ∂I
2πR ∂x
è la densità di corrente entrante nella membrana dall’esterno, in [A/cm2 ].
L’equazione 4.11 è un’equazione di reazione diffusione completa, anche
se l’interpretazione come tale non sia molto intuitiva. Il risultato è che
cambiamenti locali del potenziale della membrana, ad esempio un EPSP, si
diffondono lungo il cavo al passare del tempo. Quindi le soluzioni di questa
equazione danno la distribuzione del potenziale lungo il cavo in funzione del
tempo e delle correnti entranti nel cavo.
Le correnti ioniche in principio possono essere composte di diverse correnti ioniche corrispondenti a diversi canali ionici. Ma per i dendriti si
assume che sono dei componenti passivi, quindi l’unica conduttanza è quella
di dispersione gl . Quindi la corrente ionica vale
iion = gl (Vm − El )
con El il potenziale di Nerst dei canali passivi. Sostituendo quest’espressione
e dividendo tutto per gl e rinominando D/4gl ρL = λ2 e c/gl = τ si ha
λ2
∂ 2 Vm
∂Vm
−τ
= gl (Vm − E0 ) − i
∂x2
∂t
(4.12)
La costante λ viene chiamata costante di spazio, mentre τ è la costante di
tempo della membrana. La costante elettrotonica rappresenta la lunghezza
in unità di λ.
L’equazione 4.12 può essere riscritta come
∂ 2 V̂
∂ Vˆm
−
= gl V̂ − i
∂ x̂2
∂ t̂
(4.13)
con i cambiamenti di variabile
x → x̂ = x/λ
t → t̂ = t/τ
Vm → V̂ = Vm − El
4
Di nuovo, la possibilità di considerare questa corrente come distribuzione di Schwartz,
invece di semplice funzione permetterebbe di studiare correnti applicate al punto come
una delta di Dirac.
54
Figura 4.7: Soluzioni dell’equazione del cavo finito con un impulso al punto
x=1. A sinistra il potenziale in funzione dello spazio. A destra, il potenziale
in funzione del tempo per qualche punto nel cavo
Quest’equazione ha soluzione usando il metodo delle funzioni di Green
per un impulso i = δ(x̂, t̂) come
θ(t̂)
x̂2
V̂ (x̂, t̂) = √
exp −t̂ −
= G(t̂, x̂)
4t̂
4π t̂
per il cavo di lunghezza infinita, con θ(t̂) la distribuzione gradino di Heaviside.
Per un cavo di lunghezza finita bisogna imporre delle condizioni al contorno. Se gli estremi del cavo sono sigillati, la corrente in questi punti è nulla
e quindi anche la derivata del potenziale rispetto a x. Grazie alla natura
lineare delle soluzioni, le condizioni al contorno possono essere soddisfate
aggiungendo delle correnti virtuali fuori l’intervallo dove è definita la soluzione, in modo che annulli la derivata in questo punto, annullando il valore
del potenziale. Questa procedura prosegue ricorsivamente per compensare
l’alterazione che l’aggiunta di correnti virtuali da un lato dell’intervallo causa nelle condizioni al contorno dall’altro lato. Quindi una soluzione generale
55
1
2 RL
RT
1
2 RL
RT
1
2 RL
C
1
2 RL
C
1
2 RL
RT
1
2 RL
C
Figura 4.8: Modello compartimentale di un albero dendritico.
rettangolo rappresenta un compartimento.
Ogni
al problema è
Z
t̂
V̂ (x̂, t̂) =
Z
dt
∞
0
0
0
L
dx0 G[0,L] (t0 , x0 ; t̂, x̂)i(t0 , x0 )
0
G[0,L] (t , x ; t̂, x̂) =
∞
X
G(t̂ − t0 , x̂ − 2nL − x0 ) + G(t̂ − t0 , x̂ − 2nL + x0 )
n=−∞
(4.14)
4.2.2
Modelli compartimentali
L’equazione del cavo da la soluzione per la distribuzione del potenziale in
un cavo cilindrico uniforme rispetto al tempo e lo spazio. Ora il problema
è lo studio del potenziale rispetto a diversi punti di un albero dendritico.
Localmente l’albero dendritico assomiglia a un cavo, ma nei punti di biforcazione diventa difficile trovare una soluzione analitica. Quindi si ricorre
alla soluzione numerica, che richiede la discretizzazione dell’albero nello spazio. Quindi l’albero viene suddiviso in piccoli cilindretti tali che abbiano,
al meno in modo approssimato, lo stesso potenziale. Questa semplificazione
permette di studiare ogni cilindro come in sistema simile a quello di figura
4.6, con solo un condensatore e una resistenza in parallelo, e due resistenze
assiali di valore RL /2 che vanno a comunicare con altri compartimenti. Cosi
facendo, si ha un sistema di equazioni differenziali che si possono risolvere
rispettando le condizioni al contorno. Il risultato non è più una distribuzione continua del potenziale nell’albero dendritico, ma il valore del potenziale
associato ad un numero finito di compartimenti.
A questo punto, ogni compartimento può anche essere dotato di canali
ionici diversi e anche non lineari e il sistema può essere risolto numericamente.
56
Capitolo 5
NEURON e Python
5.1
NEURON
NEURON1 [4] è un ambiente di simulazione per modellare singoli neuroni
e retti di neuroni. Questo framework è dotato di diversi strumenti, necessari per il flusso di un lavoro di simulazione. La parte principale di NEURON è un software che implementa i modelli di Hodgkin-Huxley e i modelli
compartimentali per il disegno accurato di neuroni realistici.
Il modo in cui i neuroni devono essere specificati per la simulazione in
NEURON consiste nei seguenti punti:
• Definizione di ogni compartimento
• La definizione della topologia del neurone (come sono connessi i compartimenti)
• La definizione della geometria (dimensioni e posizione nello spazio)
• Definire il comportamento di ogni compartimento (la biofisica)
• Se necessario, aggiungere la connettività tra neuroni mediante sinapsi
Per la definizione dei compartimenti, la topologia e il controllo della simulazione si ricorre al linguaggio HOC2 che viene implementato dentro del
framework. Invece per la definizione dei singoli meccanismi, siano questi canali ionici, recettori o il semplice calcolo delle dinamiche degli ioni all’interno
e l’esterno della cellula, da incorporare in ogni sezione si ricorre al linguaggio
di scripting NMODL3 . Questo linguaggio permette la definizione di meccanismi cellulari mediante l’uso di equazioni differenziali o la scrittura delle
reazioni che avvengono e le costanti per le reazioni.
1
https://www.neuron.yale.edu/
High Order Calculator
3
https://www.neuron.yale.edu/neuron/static/docs/help/neuron/nmodl/nmodl.html
2
57
NEURON gestisce automaticamente la discretizzazione spazio-temporale
delle equazioni differenziali, In più implementa diversi algoritmi per l’integrazione numerica che quindi non bisogna scrivere da zero.
5.2
Python
Python 4 è un linguaggio di programmazione generale, che supporta diversi
paradigmi di programmazione (procedurale, orientato a oggetti, funzionale,
etc.). Python è un linguaggio facile da imparare e grazie a le librerie scientifiche (come numpy e scipy) è anche diventato uno standard nella comunità
scientifica.
Il fatto che sia a proposito generale lo rende utile in situazioni in cui bisogna fare programmi complessi che legano il processo di e la manipolazione
di dati, il controllo automatico delle operazioni e la comunicazione con il
sistema operativo.
In questo lavoro, tutte le simulazioni ad eccezione di quelle del capitolo
8, sono state fatte in puro Python usando numpy per il calcolo numerico
e Seaborn, un wrapper di matplotlib per la generazione dei grafici lungo
questa tesi.
5.2.1
NEURON in Python
In generale, per costruire i neuroni da simulare si può ricorrere all’uso del linguaggio di programmazione HOC, che è il principale linguaggio di scripting
di NEURON. Alternativamente si può usare il linguaggio di programmazione
Python, con le librerie compilate nel codice sorgente di NEURON. Questo
permette di usare il nucleo di NEURON solo per la definizione dei meccanismi e svolgere la simulazione, mentre in Python si può definire completamente le caratteristiche della cellula, controllare il flusso della simulazione,
raccogliere i dati, processarli, visualizzarli o salvarli per un uso posteriore.
4
https://www.python.org/
58
Parte II
Plasticità sinaptica nella
cellula dei granuli e la fibra
muscoide
59
Capitolo 6
Modello del granulo
6.1
Cellula dei granuli
Il neurone simulato in questo lavoro è il granulo di un roditore. Diversi
lavori sono stati fatti per ricostruire la struttura di questa cellula e la distribuzione e caratteristiche dei diversi meccanismi cellulari. La struttura
deriva da ricostruzione al microscopio e il metodo di Golgi per la impregnazione cromoargentica[18, 28]. Questi sono neuroni molto piccoli (il soma
tipicamente è di 5-6µm) e normalmente hanno tra tre e cinque dendriti.
L’assone non è coperto da una guaina mielinica e questo si dirige verso lo
strato molecolare, per poi dividersi a forma di T per formare le fibre parallele che vanno ad incontrare i dendriti delle cellule di Purkinje per formare
sinapsi. Rilascia glutammato come neurotrasmettitore il che la rende una
cellula eccitatoria, in effetti è l’unica cellula eccitatoria nel cervelletto. Riceve il segnale eccitatorio dalle fibre muscoidi afferenti e inibitorio dalle cellule
di Golgi. Sono i neuroni più numerosi nel cervello. I corpi cellulari formano
uno strato denso chiamato strato granulare, nella corteccia cerebellare.
I dendriti hanno una lunghezza media di 15µm con un diametro di
0.75µm. L’assone invece ha una lunghezza variabile di qualche decina di
µm a qualche centinaio. Dopo la separazione a T, i rami possono percorrere
una distanza media di 3mm in ogni direzione.
I dendriti dei granuli formano un complesso, insieme a le fibre afferenti
e gli assoni delle cellule di Golgi, chiamato glomerulo cerebellare. Questo si
trova nello strato granulare. Ha un diametro di 2.5µm e sono ricoperti dalla
uno strato gliale.
Per lo studio del funzionamento di questa cellula, un modello multicompartimentale è necessario, in quanto le proprietà del segnale generato
nell’attivazione della cellula dipendono della distribuzione dei diversi tipi di
canali ionici. I tipi di ioni in questa cellula sono il sodio, potassio e calcio e
possono esserci diversi tipi di canale per ogni tipo di ione. La distribuzione
61
Figura 6.1: Fibre parallele. Si possono vedere i piccoli granuli nella parte
inferiore e i loro assoni che ascendono per poi dividersi e formare sinapsi
con le cellule di Purkinje (viste trasversalmente). Fonte: Cunningham’s
Textbook of anatomy; Daniel John Cunningham - 1913.
dei canali è stata replicata usando come modello le misurazioni su cervelletti
di rodenti.
Nei dendriti vengono implementati i recettori sinaptici di tipo AMPA,
NMDA e GABA, che generato il segnale eccitatorio, nel caso dei due primi,
e inibitorio per l’ultimo.
6.2
Modelli matematici per i diversi meccanismi
Per realizzare una simulazione sono necessarie le equazioni che descrivono le
dinamiche del sistema, che poi dovranno essere discretizzate per poter essere
riconosciute dal computer. Il passaggio di discretizzazione e integrazione è
risolto da NEURON, ma i modelli matematici per ogni meccanismo della
cellula deve essere ricavato in forma esperimentale.
62
Meccanismo
Na
KV
KIR
KA
KM
Ca
CaHV
KCa
LKG1
LKG2
Localizzazione
Assone, hillock
Assone, hillock
Soma
Soma
Soma
Soma, dendriti
Soma, dendriti
Soma, dendriti
Tutti i compartimenti
Dendriti
Referenze
Magistretti et al. (2006)[23]
D’Angelo et al. (2001)[6] e Nieus et al. (2006)[27]
Tabella 6.1: Meccanismi usati nella simulazione e la loro localizzazione.
Questa sezione è una raccolta dei risultati ottenuti negli ultimi anni
da diversi team che lavorano nella ricreazione di modelli neuronali realistici. Molti di questi modelli sono monocompartimentali, data la struttura
elettrotonica delle cellule dei granuli. Ma grazie a questo steso motivo è
possibile generare modelli multicompartimentali usando gli stessi parametri
già presenti in altri lavori di simulazione con minime modifiche.
Alcuni meccanismi hanno una correzione data dal Q10 . Questa correzione è stata inclusa da Nieus et al. (2006)[27] per tenere conto dei cambiamenti
di temperatura negli sperimenti. La correzione a 30◦ C dovrebbe risultare
negli stessi valori dei parametri nel articolo di D’Angelo et al. (2001)[6].
6.2.1
Meccanismo di dispersione LKG1
Questo semplice meccanismo è quello che ristabilisce la concentrazione degli
ioni ai loro valori a riposo. Questo meccanismo è simile a quello già trovato
nel modello di Hodgkin-Huxley e ha delle dinamiche molto semplici. La
corrente passante per il canale è
Il = gl (Vm − El )
(6.1)
Questo tipo di canale si trova sulla superficie di tutta la cellula.
6.2.2
Meccanismo di dispersione di GABAA
Questo è un meccanismo di dispersione dipendente dall’attivazione persistente dei recettori di tipo GABAA [3] molto simile in funzionamento alla
corrente di dispersione LKG1. Questo produce un’inibizione costante.
IGABA = gGABA (Vm − EGABA )
63
(6.2)
6.2.3
Dinamiche del primo ordine del Ca
Le dinamiche della concentrazione di Ca intracellulare è data da
d[Ca]
ICa
=−
− β([Ca] − [Ca]0 )
(6.3)
dt
2F Ad
dove F è la costante di Faraday, A è la superficie della cellula, d è la profondità di una ”shell” nella cellula. Il parametro β determina la dispersione
di calcio. Quando non ci sono correnti di calcio la concentrazione interna
[Ca] tende a [Ca]0
La superficie della cellula è stata stimata usando il valore esperimentale
della capacità della membrana (3 pF[5]), assumendo che la capacità specifica
della membrana sia di 1 µF/cm2 e la cellula di forma sferica, considerando
anche che il contributo alla superficie totale dei dendriti e l’assone sia trascurabile. Questo meccanismo sembra essere più intenso nelle vicinanze dei
terminali dendritici, anche se si trova su tutta la cellula[10].
6.2.4
Dinamiche dei canali Ca
Oltre alle dinamiche del Ca intracellulare, si possono trovare canali di Ca
controllati dal potenziale della membrana. Questo tipo di canale ha due
stati di attivazione e uno di inattivazione. Le equazioni che caratterizzano
questi canali sono
gCa = gCa
¯ s2 u
ICa = gCa (V − ECa )
ds
= αs (1 − s) − βs s
dt
du
= αu (1 − u) − βu u
dt
V − Vα(x)
αx = Ax exp
kα(x)
V − Vβ(x)
βx = Bx exp
kβ(x)
(6.4)
Nelle equazioni è stato contrassegnato con x la variabile, sia s oppure
u, in quanto le equazioni sono identiche. Il funzionamento di questo canale
è standard, rispetto ai modelli di Hodgkin-Huxley, in quanto l’apertura dei
canali segue una legge stocastica e i parametri α e β sono alla Boltzmann.
Questi ultimi devono essere corretti a seconda la temperatura sperimentale
usando un Q10 (20) = 3[27]. Nella simulazione questa è di 30◦ C.
6.2.5
Dinamiche dei canali K
Diversi tipi di canali di potassio sono presenti nella cellula del granulo.
64
Canale K-V
Questo canale e dipendente dal potenziale della membrana e sono presenti
prevalentemente nell’assone. questo canale dipende da un singolo stato n.
Secondo la parametrizzazione data da Gutfreund et al.[13] le equazioni che
guidano l’andamento nel tempo di questo tipo di canale sono
gK = g¯K n4
IK = gK (V − EK )
dn
= αn (1 − n) − βn n
dt
An exp(V − Vα(n) )
αn =
(1 − exp(Vα(n) − V )/kα(n) )
V − Vβ(n)
βn = Bn exp
kβ(n)
(6.5)
I parametri α e β vengono corretti con un valore del Q10 (6.3) = 13.5,
alla temperatura sperimentale di 30◦ C.
Canale K-Ca
Questo canale di potassio dipende dalla concentrazione di calcio intracellulare. Dipendono da un solo stato c, ma la dinamica di questo stato dipende
sia dalla concentrazione di Ca presente all’interno del compartimento, sia
dal potenziale della membrana. Le equazioni per questo canale sono
gK = g¯K c
IK = gK (V − EK )
dc
= αc (1 − c) − βc c
dt
−1
Bα(a)
αc = Aα(c) 1 +
exp(V /kα(c) )
[Ca]in
−1
[Ca]in
βc = Aβ(c) 1 +
Bβ(c) exp(V /kβ(c) )
(6.6)
L’equilibrio dello stato c viene dato da
c∞ =
α(c)
α(c) + β(c)
Se si considera il potenziale della membrana costante, l’equilibrio di c si
sposta in su quando la concentrazione interna di Ca aumenta, e quindi la
conduttanza del canale è correlata positivamente con [Ca].
La correzione per α e β viene data data Q10 (30) = 1.116.
65
Canale K-A
La corrente K-A è di rapida attivazione e rapida inattivazione, dipendente
dal potenziale della membrana. Il modello di questo canale è stato riprodotto
dai dati riportati in Bardoni e Belluzzi (1993)[2] nell’articolo di D’Angelo
et al. (2001)[6]. Questo canale si trova sopratutto nel soma. Possiede due
stati a e b di attivazione e inattivazione rispettivamente. La correzione di α
e β viene data data Q10 (25.5) = 1.64.
gK = g¯K a3 b
IK = gK (V − EK )
da
a∞ − a
=
dt
τa
db
b∞ − b
=
dt
τb
−1
V − Vα(a)
αa = Aα(a) 1 + exp −
kα(a)
−1
V − Vβ(a)
βa = Aβ(a) exp −
kβ(a)
−1
V − Vα(b)
αb = Aα(b) 1 + exp
kα(b)
−1
V − Vβ(b)
βb = Aβ(b) 1 + exp −
kβ(b)
1
τn =
αa + β a
1
τn =
αb + βb
V − Va∞
a∞ = 1 + exp −
Ba
V − Vb∞
b∞ = 1 + exp −
Bb
(6.7)
Canale K-slow
La conduttanza di questo canale è dipendente dal potenziale della membrana, ma indipendente dal calcio e insensibile al TEA1 trovato nel soma.
Dipende da un solo stato n con le seguenti equazioni
1
Tetraethyl-ammonium Cl−
66
gK = g¯K n
IK = gK (V − EK )
dn
n∞ − n
=
dt
τn
V − Vα
αn = Aα exp
kα
V − Vβ
βn = Aβ exp
kβ
1
τn =
αn + βn
V − V∞
n∞ = 1 + exp −
Bn
(6.8)
Canale K-IR
Il canale di potassio di tipo IR (inward rectifier) è di tipo rettificatore. Si
trova nel soma e possiede un solo stato d. Le equazioni per questo canale
sono
gK = g¯K d
IK = gK (V − EK )
dd
= αd (1 − d) − βd d
dt
V − Vα(d)
αd = Aα(d) exp −
kα(d)
V − Vβ(d)
βd = Aβ(d) exp −
kβ(d)
(6.9)
La correzione di α e β viene data data Q10 (20) = 3.
6.2.6
Dinamiche dei canali Na
Nella cellula dei granuli sono presenti tre tipi di canali di sodio. Per questi
canali sono state presse le ricostruzione in Magistretti et al. (2006)[23] come
indicato in Nieus et al. (2006)[27] e quindi il modello consiste in un solo
schema cinetico di 13 stati (figura 6.2) come in Raman & Bean (2001)[30].
Questo singolo modello tiene conto di tutti i tipi di canali di sodio, e
l’equazione per il flusso di corrente di sodio è
67
C1
C3
C4
C5
γ
δ
n1 · α · a
n2 · α · a
n3 · α · a
n4 · α · a
I2
I3
I4
I5
n4 · β · b
n3 · β · b
n2 · β · b
n1 · β · b
O
Oon
Oof f
Con · a4
n4 · α
n1 · β
Cof f · b4
Con · a3
n3 · α
n2 · β
Cof f · b3
Con · a2
n2 · α
n3 · β
Cof f · b2
Con
Cof f
I1
C2
Con · a
Cof f · b
n1 · α
n4 · β
γ
δ
I6
Figura 6.2: Schema cinetico a 13 stati per i canali di sodio.
gN a = gN
¯ aO
IN a = gN a (V − EN a )
V
α = Aα exp
Vα
V
β = Aβ exp
Vβ
V
ζ = Aζ exp
Vζ
1
Oon 4
a=
Con
1
Oof f 4
b=
Cof f
6.3
(6.10)
Simulazione della cellula dei granuli
La simulazione della cellula viene eseguita in NEURON, implementando i
meccanismi cellulari in file NMODL e la topologia della cellula in una classe
di python, mentre il controllo della simulazione viene eseguita da uno script
in python. Questo script raccoglie i dati della simulazione e gli salva in un
file, per successivamente studiare il comportamento della cellula simulata e
generare delle visualizzazioni.
La cellula è stata divisa in diversi compartimenti, dove si vanno a posizionare i meccanismi cellulari. Il soma, composto da un solo compartimento,
in questa prima simulazione, viene stimolato da un’elettrodo invece che da
uno stimolo presinaptico.
Risultati
La cellula esibisce un comportamento oscillatorio, generando AP in successione. Data la struttura elettrotonica compatta del granulo, non esiste in
pratica un ritardo tra la generazione del AP nel hillock e la propagazione
verso gli altri compartimenti, in particolare verso i dendriti e non c’è un
68
ζ
OB
Figura 6.3: Andamento nel tempo del potenziale della membrana in funzione
della corrente dell’elettrodo. La corrente viene iniettata a 40ms.
importante decremento nel potenziale della membrana. In effetti, una stima della lunghezza elettrotonica della cellula dovrebbe dare valori tra 0.01
e 0.1. Anche se i risultati della simulazione non differiscono di molto con
gli attuali modelli monocompartimentali, bisogna notare che questo a priori
non era necessariamente vero, in quanto la lunghezza elettrotonica dipende
fortemente della geometria, essendo minore per un modello compatto a forma di sfera, rispetto a un lungo cilindro e la distribuzione delle conduttanze
e i diversi diametri dei compartimenti giocano un ruolo importante.
Inserendo una corrente nel soma da 4pA fino a 25pA si può osservare che
la cellula ha una soglia di 10pA approssimativamente. Correnti più basse
depolarizzano la membrana ma senza generare AP. Oltre i 10pA la cellula
genera AP con un ritardo per il primo sparo inversamente proporzionale
alla corrente inserita e una frequenza quasi linearmente proporzionale a la
corrente.
Le correnti ioniche in figura 6.4 solo le correnti totali misurate nel soma
per il potassio e nell’assone per il sodio. Diversi compartimenti possono avere
Figura 6.4: Correnti ioniche totali misurate nel soma di K e nel assone di
Na con uno stimolo di 10pA.
69
Figura 6.5: A sinistra: Concentrazione di Ca interno nel soma. A destra:
Flusso di corrente di Ca nel soma.
diversi valori di queste correnti oppure potrebbe non avere alcuni meccanismi
e quindi non avere una corrente associata a quel determinato meccanismo
ionico. Ad esempio i canali di sodio sono stati implementati solo nel hillock
e l’assone. Misure delle correnti ioniche in altri compartimenti sono possibili
comunque con poche modifiche al codice della simulazione.
Le correnti registrate comunque non sono vere correnti, ma densità di
correnti ioniche, misurate in mA/cm2 . La vera corrente dipende dalla superficie del compartimento. Per esempio, in figura 6.5 vengono indicate le
correnti del calcio nel soma. Per la simulazione il soma è un cilindro di
lunghezza e diametro uguale a 5.8µm, cioè il soma ha un’area superficiale
di circa 10−6 cm2 . Quindi la corrente di calcio nel soma ha un pico di 5pA.
Il segno della corrente indica se è entrante o uscente. Nel caso del potassio, questa corrente è uscente dalla cellula, simile come è nel modello di
Hodgkin-Huxley, mentre le correnti di sodio e calcio sono entranti. Essendo
che tutti questi ioni sono positivi, le correnti di sodio e calcio depolarizzano
la membrana, mentre che il potassio la repolarizza. In figura 6.5 c’è anche la concentrazione di calcio nel soma nel tempo, durante la generazione
di impulsi. Questa concentrazione è maggiore nei terminali dendritici nel
glomerulo e ha un importante ruolo nei processi sinaptici. Si può anche osservare come le correnti siano tutte rettificate, cioè vano in un solo senso. In
effetti, la corrente di dispersione compie un ruolo importante nel ridistribuire
la concentrazione degli ioni tra l’interno e l’esterno della cellula.
L’iniezione della corrente dell’elettrodo nella simulazione comincia a 40ms,
per dare il tempo alla cellula di raggiungere l’equilibrio di tutti i suoi stati.
Questo permette anche di non essere nella situazione in cui la corrente viene
inserita fuori equilibrio, generando AP spuri.
Aumentando la corrente dell’elettrodo, come detto prima, aumenta la
frequenza degli impulsi generati in forma approssimativamente lineare con
questa. Data la natura non stocastica della simulazione e il tempo limitato a
1s di simulazione, non è stato possibile osservare un innalzamento graduale
70
Figura 6.6: A sinistra: Tempo del primo AP generato in funzione della corrente. A destra: frequenza degli impulsi generati in funzione della
corrente.
della frequenza appena dopo la soglia, cosi la cellula parte con pulsazioni
di circa 25Hz. Il tempo di primo sparo invece è più graduale e dipende dal
fatto che il condensatore generato dalla membrana deve caricarsi, e la cellula
non spara fino a raggiungere la soglia. Notare però che dopo il primo AP i
successivi vengono generati più velocemente e hanno una maggiore intensità
(figura 6.3). Questo accade anche nel semplice modello di Hodgkin-Huxley
ed è dovuto alla non linearità delle equazioni, che dipendono anche dalle
derivate delle variabili. In questo modello, più complesso, questo fenomeno
può anche essere attribuito all’accumulo di ioni dentro della cellula, che
la rendono più positiva. Notare in effetto che a differenza del modello di
Hodgkin-Huxley, la tensione della membrana non va sotto il valore a riposo.
71
72
Capitolo 7
Modelli per le sinapsi
7.1
Il glomerulo
Il glomerulo è una piccola massa di terminali nervosi nello strato granulare
del cervelletto. Consiste nei dendriti della cellula dei granuli, i terminali
delle fibre afferenti muscoidi e i terminali assonici delle cellule di Golgi. In
questo punto è dove avviene la trasmissione sinaptica eccitatoria da parte
delle fibre muscoidi e inibitoria da parte delle cellule di Golgi, che inviano
i suoi segnali al granulo. Questi terminali vengono avvolti in uno strato
di cellule gliali. Nel glomerulo, una fibra muscoide può dare un segnale
eccitatorio a decine di granuli. In modo approssimativo, ogni glomerulo ha
50 dendriti granulari, 210 cifre dendritiche e 230 giunzioni sinaptiche[14]. In
questo lavoro, il glomerulo viene considerato come formato da un dendrite
granulare l’assone della fibra muscoide e l’assone della cellula di Golgi, in
quanto viene simulato un singolo granulo. In questo glomerulo accade la
trasmissione del segnale nervoso e la trasmissione di messaggeri retrogradi.
Del volume del glomerulo, più del 50% viene occupato dai dendriti
granulari, 34% da febbri muscoidi e 13% di assoni delle cellule di Golgi[18].
7.2
Trasmissione sinaptica e plasticità
I segnali che arrivano al glomerulo dalle fibre muscoidi e le cellule di Golgi
producono nei terminali sinaptici il rilascio di molecole che possono legarsi
ai recettori sinaptici nelle spine dendritiche delle cellule dei granuli. Le fibre
muscoidi rilasciano glutammato, mentre la cellula di Golgi rilascia molecole
di GABA. I neurotrasmettitori possono arrivare direttamente a i recettori
postsinaptici, generando una risposta rapida rispetto al segnale presinaptico,
oppure possono diffondersi nello spazio dentro la glia e legarsi a recettori
distali, generando una risposta lenta o anche ritardata.
Il meccanismo di rilascio di neurotrasmettitore nelle vescicole avviene
mediante l’esocitosi, cioè la fusione della vescicola con la membrana cellulare,
73
il che produce il versamento del contenuto della vescicola all’esterno della
cellula. L’esocitosi nelle cellule nervose avviene dopo un incremento della
concentrazione di Ca2+ .
Alcuni passi sono coinvolti nel rilascio di neurotrasmettitore. Per primo
le vescicole devono essere trasportate vicino alla parete cellulare dove si
attaccano a questa. Un aumento locale del Ca2+ permette una serie di
reazioni che finiscono con l’esocitosi e il rilascio del contenuto nella vescicola
all’esterno della cellula. La vescicola vuota ritorna dentro il corpo cellulare
per rigenerare il suo contenuto e continuare il ciclo di rilascio.
Quando il neurotrasmettitore è stato rilasciato, questo può legarsi ai recettori postsinaptici. Le molecole di glutammato possono legarsi ai recettori
AMPAr e NMDAr, mentre le molecole di GABA si legano ai recettori GABAr. Quando il neurotrasmettitore si lega con il recettore, questo si apre
come i normali canali ionici, permettendo il passaggio di ioni (principalmente Ca2+ ) dentro della cellula aumentando localmente il potenziale della
membrana, generando un EPSP. Nel caso del GABAr, che è un recettore di
tipo inibitorio, il tipo di ione che attraversa il canale sono gli ioni di cloruro
(Cl− ) e questo fa tendere il potenziale della membrana verso il potenziale di
Nerst per questo ione, che è circa -65mV. Bisogna notare che esistono due
tipi di recettore GABA: di tipo A e tipo B. Il recettore GABAA è di tipo
ionotropico, cioè permette il passaggio diretto di ioni, mentre l’altro tipo,
GABAB è di tipo metabotropico, cioè non permette il diretto passaggio di
ioni, ma scatena una serie di reazioni che alla fine producono una variazione
nel potenziale della membrana.
7.2.1
Ipotesi quantale
Il rilascio di neurotrasmettitore non avviene continuamente, ma in piccoli
pacchetti chiamati quanti, che hanno una piccola probabilità di essere rilasciati, anche se non c’è uno stimolo nel terminale sinaptico. Questa teoria
è dovuta a B. Katz nei suoi studi sulle giunzioni neuromuscolari[21] ottene il premio Nobel nel 1970. Il rilascio di neurotrasmettitore avviene in
maniera puramente casuale e quindi ad ogni singola vescicola sinaptica viene assegnata una probabilità p indipendente da altre vescicole di rilasciare
spontaneamente il suo contenuto. Se nel terminale sinaptico ci sono n siti
di rilascio, allora la probabilità totale di rilascio di neurotrasmettitore è
m = np
Questo significa che il rilascio segue una distribuzione binomiale. Ma il fatto
che la probabilità p sperimentalmente si stima molto bassa e n invece molto
alta, si può studiare questo rilascio con un modello Poissoniano. Questo
permette di studiare la distribuzione dei dati raccolti sperimentalmente.
L’evidenza che il neurotrasmettitore sia rilasciato in pacchetti discreti sta
nell’esistenza di potenziali postsinaptici in miniatura e la loro misurazione.
74
Figura 7.1: Simulazione con metodo Monte Carlo del rilascio di neurotrasmettitore secondo l’ipotesi quantale. A sinistra: potenziali postsinaptici
in miniatura. Si possono osservare picchi in corrispondenza dei multipli
del quanto fondamentale 0.4mV. A destra, la distribuzione del potenziale
dovuta a le diverse incertezze nelle misure.
Questi potenziali in miniatura venivano osservati nel terminale postsinaptico
anche senza attività presinaptica con un’ampiezza di 0.4mV. Ma potevano
trovarsi con minore probabilità potenziali postsinaptici di 0.8, 1.2, 1.6, etc.
mV.
Questo comportamento permette di dedurre che esiste un quanto fondamentale e che i potenziali generati nella parte postsinaptica sono multipli di
questo quando fondamentale.
7.2.2
Plasticità sinaptica
La trasmissione sinaptica può variare la sua effettività a seconda del tipo
di stimolo presinaptico. la variazione nell’effettività sinaptica può essere un
potenziamento o una depressione e avere breve o lunga durata. I cambiamenti a lunga durata (LTP e LTD) si credono alla base dei meccanismi di
memoria e apprendimento.
Nel caso della parte presinaptica, la plasticità può essere dovuta a un
incremento nella probabilità di rilascio delle singole vescicole, dovuto ad un
accumulo di Ca2+ nel sito di rilascio, il che migliora la esocitosi, producendo
un potenziamento. Ma quando l’attività presinaptica è continua, il neurotrasmettitore disponibile può esaurirsi più velocemente di quello che ne viene
rigenerato. Con il tempo questo produce una depressione nella quantità di
neurotrasmettitore rilasciato e quindi un minor EPSP. Nella parte postsinaptica invece, l’accumulo di neurotrasmettitore che produce un’attivazione
persistente dei recettori, o cambiamenti nella cellula possono produrre altri
tipi di plasticità.
La cellula granulare presenta diversi tipi di plasticità. Nella sinapsi tra la
fibra muscoide e il granulo, cambiamenti nella probabilità di rilascio dovuto
75
a certi tipi di modelli di attività, attivazione dei recettori NMDA e l’attivazione di recettori metabotropici di glutammato. Un aumento di Ca2+
nella parte postsinaptica attiva l’enzima NO sintasi (NOS), che produce ossido nitrico a partire da arginina. Il NO prodotto si diffonde verso la parte
presinaptica, attivando l’enzima guanylyl ciclasi solubile (sGC), che produce
guanylyl monofosfato ciclico (cGMP) a partire da guanylyl trifosfato (GTP).
Questa serie di reazioni genera una forma di LTP presinaptico, dipendente
dallo stato della cellula postsinaptica.
Da altra parte, il granulo ha un suo meccanismo d’espressione per la plasticità, detta intrinseca. Raffiche di impulsi (chiamati “theta burst”) dalle
fibre muscoidi aumentano la eccitabilità intrinseca del granulo[1], risultato
di un incremento nella resistenza di ingresso e un abbassamento nella tensione di soglia, migliorando l’azione dei EPSP e facilitando la produzione di
AP. Altri tipi di cambiamenti sono dovuti a cambiamenti nelle proprietà dei
recettori.
7.2.3
Modelli di plasticità a breve termine
Si riferisce come plasticità a breve termine il fenomeno in cui l’efficacia
sinaptica cambia nel tempo in un modo che riflette la storia dell’attività
presinaptica. Come detto prima, di questo tipo di plasticità ci possono
essere una depressione o un potenziamento. La depressione viene causata
da uno svuotamento veloce del neurotrasmettitore disponibile per il rilascio
per via di un’intensa attività presinaptica, mentre il potenziamento viene
causato da un influsso di calcio nel terminale assonico durante un AP, il
che incrementa la probabilità di rilascio di neurotrasmettitore. Questo tipo
di plasticità ha una durata al massimo di qualche secondo e se la causa di
questo cambiamento scompare, rapidamente si ritorna a un livello di efficacia
sinaptica normale.
Il processo di rilascio di neurotrasmettitore è complicato. Quindi fare
un modello che rappresenti la realtà richiede molte semplificazioni. Il modello proposto da Tsodyks e Markram[35] è un modello a tre stati per il
rilascio di neurotrasmettitore. Gli stati sono la quantità di neurotrasmettitore disponibile per il rilascio, quella persa per il rilascio e quella pronta per
essere ricuperata. Questo è una semplificazione di ciò che accade durante
la trasmissione sinaptica: dall’ipotesi quantale si sa che arrivato un impulso
al terminale presinaptico viene espulsa una porzione P di neurotrasmettitore. Questo neurotrasmettitore espulso non è più disponibile fino che il
metabolismo non lo ripristina dentro delle vescicole che poi dovranno essere
trasportate vicino la parete cellulare per ricominciare il ciclo.
In questo lavoro, no si usa proprio il modello proposto da TsodyksMarkram, ma invece una derivazione riportata in Nieus et al. 2006[27],
che tiene conto anche dei cambiamenti della probabilità di rilascio in ba76
se all’attività presinaptica. Questo modello consiste in quattro equazioni
differenziali accoppiate
dX
Z
− P Xδ(t − tspike )
=
dt
τR
dY
Y
= − + P Xδ(t − tspike )
dt
τt
dZ
Z
Y
−
=
dt
τt
τR
dP
P
= − − p(1 − P )δ(t − tspike )
dt
τf
(7.1)
dove X è la quantità di trasmettitore disponibile per il rilascio, Y è il trasmettitore già rilasciato e Z il trasmettitore ricuperato. P è la probabilità
di rilascio, che come si vede nelle equazioni, ad ogni impulso (rappresentato
mediante la delta di Dirac) incrementa di p(1 − P ) dove p è la probabilità iniziale, mentre quando non ci sono impulsi decade fino ad annullarsi.
Questo sistema di equazioni ha una soluzione analitica. Integrando la equazione differenziale per P (t) usando il metodo della trasformata di Laplace si
ottiene una soluzione che decade esponenzialmente per ogni t
P (t) = P (t0 )e−τf t
ma nei punti ti dove c’è un impulso la funzione diventa
P (t+ ) = p(1 − P (t− ))
dove t− e t+ sono i tempi prima e dopo l’impulso della delta di Dirac. Cosi,
avendo una successione di impulsi a tempi tn , la soluzione generale sarebbe
i
h
(7.2)
P (t) = p 1 − P (tn−1 )e−(tn −tn−1 )/τf e−(t−tn )/τf
con condizione iniziale P (t0 ) = P (0) = 0, per ogni t > tn e per n > 0, in
quanto prima del primo impulso la funzione vale zero, data la condizione
iniziale. Questa funzione è ricorsiva, in quanto dipende dal tempo trascorso
dall’ultimo impulso e permette di trovare il valore della probabilità di rilascio
al prossimo impulso. Uguale ragionamento segue per X e Y : lo stato X viene
ricaricato dallo stato Z. Quando arriva un impulso una frazione P · X viene
spostata verso lo stato Y . La quantità di neurotrasmettitore si considera
conservata, per cui vale
Z =1−X −Y
L’equazione 7.2 permette di trovare lo stato stazionario per la probabilità
P , cioè la situazione in cui ad ogni impulso la probabilità torna ad essere
quella nel impulso precedente
P (t) =
p
1 − (1 − p)e−1/τf ν
77
(7.3)
Figura 7.2: A sinistra: Simulazione del modello di Tsodyks-Markram con
un segnale presinaptico a 100Hz. I parametri sono τf = 10.8 ms, τt = 3.0
ms, τR = 35.1 e p = 0.4. A destra: Guadagno in funzione della frequenza
per una sinapsi dominata STD (parametri come nel grafico a sinistra) e una
sinapsi dominata STF. I parametri per la sinapsi STF sono: τf = 750.0 ms,
τt = 50.0 ms, τR = 20.0 e p = 0.15
con ν la frequenza degli impulsi presinaptici. Questo permette a sua volta
di trovare lo stato stazionario per la quantità di trasmettitore rilasciato in
funzione della frequenza.
Essendo che in questo modello entrano in competizione un meccanismo
di potenziamento (L’incremento della probabilità di rilascio) e uno di depressione (l’esaurimento del trasmettitore), ci si aspetta che ci sia una frequenza
dell’attività presinaptica che ha una risposta massima. In figura 7.2 a destra
si possono osservare due modelli con diversi parametri. Per uno di questi
non c’è una frequenza di risonanza, in quando il meccanismo di depressione
vince per ogni frequenza. Invece per l’altro si può osservare una frequenza
di risonanza attorno i 15Hz.
In realtà questa non è tutta la storia, in quanto diversi modelli di attività
presinaptica possono scatenare fenomeni diversi (vedere figura 7.3).
7.3
I recettori sinaptici
La cellula granulare implementa tre tipi di recettori: AMPA e NMDA che
agiscono come recettori eccitatori e GABAA che è inibitorio. La risposta
postsinaptica di questa cellula viene prodotta sia da un rilascio diretto di
trasmettitore verso i recettori e anche da la diffusione di glutammato nel
glomerulo.
7.3.1
AMPA
Per i recettori AMPA, che sono localizzati nella fessura sinaptica, la concentrazione di glutammato è ottiene combinando un pulso diretto e un onda
78
Figura 7.3: Simulazione del modello di STP presinaptico per attività a raffica (theta burst) con frequenza di raffica di 300Hz e frequenza di treni di
10Hz. In alto lo stato X. In basso lo stato Y. Notare come c’è un mix di
potenziamento (seconda spike nei treni) e di depressione (secondo treno).
kd−
S · kd+
C
S · ko+
ko−
O
Figura 7.4: Schema cinetico a 3 stati per il recettore AMPA.
diffusiva. Se il glutammato rilasciato dipende dalla variabile Y nel modello
di Tsodyks-Markram, allora la si può scrivere come
T = Ts + Td = Y Ts(max) + Td(max)
Il valore riportato in Nieus et al. 2006[27] per Ts(max) è di 1mM che
agisce per 0.3ms.
Modello a 3 stati per il recettore AMPA
Un modello a tre stati per il recettore AMPA è quello di figura 7.4 a tre
stati. Lo stato O è quello in cui il recettore permette il passaggio di ioni, C
è lo stato chiuso e D lo stato disabilitato. Nel modello la somma
C +D+O =1
viene conservata. Il modello si comporta come una semplice catena di Markov, dove gli stati si diffondono passivamente verso lo stato C. All’arrivo del
recettore la variabile S, descritta come
S=
T2
(T + kB )2
che è il modello di attivazione di una specie chimica, acquisisce un valore
diverso da zero, il che permette la diffusione di C in D e O. Con i canali
79
Figura 7.5: Simulazione dello schema cinetico per il recettore AMPA. A
sinistra: EPSC generato. Notare la depressione, dovuta anche in parte
alla fatica sinaptica, ma sopratutto per via dell’accumulo dello stato D, il
che rende il recettore meno sensibile a stimoli di glutammato. A destra: i
tre stati del recettore AMPA durante uno stimolo di 100Hz presinaptico in
condizioni normali di potenziale di membrana.
aperti in una proporzione O i recettori AMPA permettono il passaggio di
una corrente di ioni uguale a
i = gmax O(Vm − Er )
dove gmax è la conduttanza massima dei canali e Er è il potenziale di inversione. Questo meccanismo presenta una forma di depressione in base
all’attività presinaptica, considerando che quando S è diverso da zero gli
stati si diffondono verso lo stato D, il che sottrae al sistema la capacità di
essere disponibile per lo stato O, riducendo la conduttanza del recettore e
di conseguenza anche le EPSC.
Dovuto al glutammato diffuso che arriva al recettore AMPA, questo
acquisisce anche una componente lenta nel EPSP generato.
7.3.2
NMDA
I recettori NMDA nei granuli, sono localizzati lontani dalla sinapsi, questi
vengono stimolati solo dal glutammato diffuso nel glomerulo. Questo significa che la sua risposta è lenta e persistente per più tempo rispetto al EPSP
generato dai recettori AMPA. Inoltre, il recettore NMDA ha un blocco di
Mg2+ quando il potenziale della membrana è basso, per cui il recettore permette il passaggio di ioni (prevalentemente Ca2+ ) quando il potenziale della
membrana è abbastanza alto da rimuovere il blocco.
80
C2
T · k2+
k2−
C1
T · k1+
k1−
C
ko+
ko−
O
kd+
kd−
D
Figura 7.6: Schema cinetico a 5 stati per il recettore NMDA.
Modello a 5 stati per il recettore NMDA
Per questo modello non sono disponibili schemi cinetici per le cellule granulari nel cervelletto. Questo modello è stato adattato in Nieus et al. (2006)[27]
seguendo i modelli sviluppati da Rosenmund et al. (1995)[31]. Lo schema
cinetico per questo modello è in figura 7.6. Anche in questo caso, quando i
recettori non vengono stimolati dal trasmettitore, gli stati tendono a diffondersi verso lo stato C2 , mentre all’arrivo del glutammato gli stati possono
diffondersi a lo stato C, dove questo diffonde spontaneamente verso D e O.
Come nel caso del recettore AMPA, lo stato O governa l’apertura dei canali ionici, ma in questo caso bisogna tenere conto del blocco di magnesio.
Quindi un modello per la corrente ionica attraverso il recettore NMDA è
i = gmax BO(Vm − Er )
dove il blocco di magnesio è descritto da
1
B=
1+e
−
Vm −VM g
kM g
dove VM g = -20mV e kM g = 13mV.
Nelle simulazioni, lo stato aperto e disabilitato del recettore NMDA si
mostra molto sensibile a piccole variazioni dei parametri. In effetti, come si può vedere in figura 7.7, questi sono piccoli rispetto gli altri stati e
difficilmente superano una popolazione totale del 5% il che li rende molto suscettibili ai cambiamenti dei parametri del modello, ma anche poco
sensibili a notevoli differenze di stimolazione e questo permette che il recettore sia attivo per un tempo relativamente lungo dopo la fine degli impulsi
presinaptici.
7.3.3
GABA
Questo recettore nelle cellule granulari riceve il segnale inibitorio dalle cellule
di Golgi legandosi con una molecola di GABA. L’apertura di questo canale
permette il passaggio di ioni di cloruro (Cl− ) iperpolarizzando la membrana
generando un IPSP.
81
Figura 7.7: Simulazione dello schema cinetico per il recettore NMDA. A
sinistra: confronto tra la corrente generata dall’attività presinaptica nel recettore NMDA quando il potenziale della membrana è di -70mV (in blu)
e -40mV(in verde), cambiamento dovuto al blocco di Mg2+ . A destra: i
cinque stati del recettore NMDA durante uno stimolo di 100Hz presinaptico
in condizioni normali di potenziale di membrana.
Modello per il recettore GABA
Il modello per questo recettore è stato derivato dallo schema cinetico riportato in Pugh & Raman 2005[29] con lo schema cinetico come in figura 7.8.
Il modello presenta diverse unità, dove il numero al pedice rappresenta se
c’è un singolo o doppio legame di molecole con il recettore. Si può osservare
che gli stati passano forzatamente mediante la presenza di GABA da uno
stato all’altro.
La porzione di canali aperti è descritta dalle due forme O, per cui la
corrente che attraversa i recettori è
i = gmax (OA1 + OA2 ) (Vm − Er )
OA1
DA2f
r3
d3
CA2
a1
b1
a2
b2
OA2
2kof f
kon T
kof f
2kon T
C
d1
r1
d2
r2
DA2
CA1
r
dT
DA1
Figura 7.8: Schema cinetico a 5 stati per il recettore GABA.
82
FeIII
FeII
FeII·O2
FeIII·NOHA
FeII·NOHA
FeII·O2 ·NOHA
FeIII·NO
FeII·NO
Figura 7.9: Schema cinetico per la produzione di NO.
Nell’assenza di GABA, gli stati si diffondono verso lo stato C. Come negli
altri recettori, la somma di tutti gli stati del sistema fa uno e si conserva nel
tempo.
7.4
Ossido nitrico come messaggero retrogrado
L’aumento di Ca intracellulare, sia dovuto al rilascio dalle riserve interne
della cellula, oppure da un flusso di ioni per l’apertura di un particolare
canale, ad esempio il recettore NMDA, provoca, mediante il legame con
il calmodulin, l’attivazione della enzima NO sintasi (NOS), che catalizza la
produzione di ossido nitrico (NO) e citrulina usando come base l’arginina[12]
(Arg). Ci sono tre isoforme di NOS, dalle quale il NOS neuronale (nNOS) è
quello coinvolto nella plasticità sinaptica. L’ossido nitrico è un importante
messaggero cellulare e nel caso della cellula granulare, compie un importante ruolo nella plasticità a lungo termine[24]. In effetti, la molecola di
NO può liberamente attraversare la membrana cellulare e questo permette
che la molecola arrivi al terminale presinaptico, quando viene prodotta nel
glomerulo. Una volta arrivato al terminale presinaptico, il NO può legarsi
a l’enzima guanylyl ciclasi (GC), che produce guanylyl monofosfato ciclico
(cGMP) a partire da guanylyl trifosfato (GTP). Il cGMP scatena altre reazioni che finiscono con indurre una forma di potenziamento a lungo termine
presinaptico mediante l’aumento delle correnti di Ca2+ e il suo accumulo, il
che migliora l’esocitosi.
Il processo di produzione di NO è complesso e richiede molti passaggi
intermedi. L’enzima NOS provoca l’idrossilazione della molecola di Arg e
successivamente questa molecola intermedia di N ω -idrossi-L-arginina (NOHA) viene ossidata per produrre NO e citrulina. Queste reazioni consumano
una molecola di O2 e usano NADPH1
Lo schema cinetico per la serie di reazioni che si tengono durante la
produzione di NO sono illustrate in figura 7.9. Le reazioni cominciano con
il loro eme nello stato ferrico (FeIII) che si riduce mediante la reazione
FeIII + e− → FeII
1
Forma ridotta del nicotinammide adenina dinucleotide fosfato.
83
(7.4)
Figura 7.10: Simulazione dello schema cinetico per l’enzima NOS. A sinistra:
velocità di produzione di NO. A destra: NO prodotto per molecola di NOS.
Successivamente una molecola di ossigeno si lega con il eme producendo
FeII·O2 , il che inizia la catalisi, trasformando Arg in NOHA. Una successiva
riduzione e il guadagno di altra molecola di ossigeno
FeIII · NOHA → FeII · NOHA → FeII · O2 · NOHA
(7.5)
questo porta all’ossidazione del NOHA e la produzione di NO e citrulina.
Il NO rimane legato al eme FeIII dove può liberarsi e ritornare all’inizio
del ciclo oppure l’eme può ridursi a FeII·NO dove ancora il NO può essere
rilasciato per due vie:
FeII · NO → FeII + NO
FeII · NO + O2 → FeIII + NO−
3
(7.6)
la prima di queste reazioni è molto lenta (ha una costante di tempo di 1080s
nel modello).
Il modello per la simulazione di questa reazione segue da vicino la catena
di Markov nella figura 7.9. I parametri del modello sono stati presi dal lavoro
di Haque, Tejero, Bayachou 2013[15].
In figura 7.10 ci sono la velocità di produzione e la quantità prodotta di
NO per molecola di NOS. La velocità di produzione decade progressivamente
a circa 150ms dovuto alla produzione di NO che inibisce l’enzima per via di
un accumulo nello stato FeII·NO che ha un tempo di vita molto lungo. Nella
simulazione del modello si assume che ci sia sempre presente Arg, NADPH
e O2 abbastanza da rendere il modello dipendente solo dal Ca2+ .
Il modello simula la velocità di produzione “per molecola”, per cui si deve
avere la concentrazione di molecole di NOS per avere un modello realistico
della produzione di NO nel glomerulo. Nel articolo di Maffei et al. 2003[22]
si riporta un rilascio massimo di 6.2 ± 2.8 nM dovuto ad un stimolo ad alta
frequenza durante un secondo, seguito da un decadimento con costante di
84
tempo 3.6s. Questo permette di stimare una concentrazione di NOS nella
parte postsinaptica di circa 2.5nM nell’ipotesi che questo stimolo causi un
influsso di Ca abbastanza alto da saturare l’attivazione dell’enzima. Nelle
simulazioni svolte si trova però che per arrivare a queste quantità, sono
necessarie al meno 2.7nM di NOS con un EC50 di 400± 86.3 nM e con
coefficiente di Hill di 4.0, seguendo la legge
1
A=
1+
EC50 H
x
(7.7)
dove A è l’attività dell’enzima, che va da zero a uno, x è la concentrazione
del soluto associato e H è il coefficiente di Hill.
Conseguenze nell’attività presinaptica
Il NO prodotto nella parte postsinaptica si può propagare liberamente verso
il terminale presinaptico, dove può legarsi con GC e produrre cGMP il che
produce una forma di LTP. La quantità di NO che arriva alla parte presinaptica dipende dalla distanza dal punto di produzione al punto di arrivo, in
quanto il NO si diffonde in tutto il volume del glomerulo. Questo permette
di stimare che una frazione costante del NO prodotto sia presente per attivare il GC. Ma c’è anche da tenere in conto della quantità di GC presinaptico
e il tempo di decadimento del legame GC·NO per lo studio della plasticità
presinaptica. In Griffiths et al. 2003[11] si riporta un EC50 del sGC rispetto
al NO di 1.7nM. Concentrazioni fisiologiche di ATP2 (1mM) mediante un
complesso meccanismo riduce l’attività del sGC, mentre alte concentrazioni
di GTP (100µM) aumenta l’attività. In questo bilancio si arriva ad avere un
EC50 di 3.4nM[32]. Questo significa che l’attivazione di sGC dal una concentrazione di NO pari a 6nM (come in Maffei et al. 2003[22]) va dal 63%
al 78%. Il coefficiente di Hill è stato riportato di avere il valore di 1.0[11].
Per arrivare vicino alla saturazione, che supponiamo sia più del 95% dell’attività massima dell’enzima, la concentrazione di NO dovrebbe essere al
meno di 38nM per un EC50 = 2nM. A questo si deve aggiungere il fatto che
la diffusione è in tre dimensioni, quindi l’azione del NO ha un corto rango
(al massimo di 1µm) per poter attivare il sGC presinaptico abbastanza da
generare cambiamenti nella funzionalità sinaptica. Questo in parte aiuta
(anche nelle simulazioni), perché vorrebbe dire anche che il potenziamento è
per la sinapsi in un particolare dendrite e non interferisce con altri dendriti
nel granulo. Per questo particolare meccanismo non c’è un modello dettagliato o realistico, in quanto il cGMP da solo non produce l’aumento della
probabilità di rilascio, ma serve modellare tutta una serie di reazioni che
aumentano la corrente di Ca2+ nel terminale presinaptico. L’assone delle
2
Adenosina trifosfato. Una molecola che mediate l’idrolizzazione a ADP rende
30.5kJ/mol di energia a quasi tutte le reazioni metaboliche
85
fibre muscoidi è anche, al momento, un modello semplificato e non contiene informazione esplicita di canali ionici. Quindi si sceglie come modello
semplificato un potenziamento diretto della probabilità base in proporzione
all’attività dell’enzima sGC. Questo è in parte coerente con l’evidenza che
durante il LTP l’attività del sGC è massima, ma potrebbe non contenere
una serie di fenomeni a bassa frequenza dell’attività presinaptica. Secondo
il lavoro di Sola et al. 2004[33], durante il LTP la probabilità di rilascio aumenta da 40% a 60%. Usando l’equazione di Hill 7.7 per modellare l’attività
del sGC si potrebbe introdurre un modello di potenziamento come:
(pmax − pmin )[NO]
p = pmin +
(7.8)
[NO] + EC50(N O/sGC)
Con questo modello, la cellula raggiunge il LTP già nel primo secondo di
stimolazione theta.
7.5
LTP, LTD e dipendenza dal calcio
Il lavoro di Gall et al. 2005[10] e posteriormente di D’Errico et al. 2009[9]
rivelano una dipendenza tra i cambiamenti sinaptici e la concentrazione di
Ca2+ intracellulare. A basse concentrazioni si ha una depressione, mentre
un ulteriore incremento porta la sinapsi al LTP. Questi lavori rivelano anche
una dipendenza tra il tempo, frequenza o intensità degli impulsi presinaptici
e il potenziamento, il che porterebbe a pensare che ogni impulso presinaptico
porta ad un accumulo di Ca2+ nelle spine sinaptiche. In questa sezione si
segue questa pista per riprodurre il comportamento plastico della sinapsi in
funzione dell’attività.
Nell’ipotesi che LTP e LTD dipendono da l’attivazione di una enzima
dipendente dal Ca2+ , avendo i dati esperimentali come in figura 7.11, si può
pensare che LTP e LTD sono due diversi fenomeni che dipendono entrambi
dalla concentrazione di calcio intracellulare, ma con diverso livello di attivazione. Se il LTD viene attivato da una bassa concentrazione di Ca2+
mediante i tipici modelli di attivazione di un’enzima (come in eq. 7.7),
si può trovare per LTP un EC50 abbastanza alto da generare un minimo.
Quindi sommando due modelli e trovando i migliori parametri per i dati
di figura 7.11 si ha un modello per la plasticità in funzione della frequenza
dell’attività presinaptica. Questo modello non è realistico ne dettagliato,
solo descrive la risposta del sistema in base alla frequenza. In più, essendo
dipendente esplicitamente dalla frequenza, bisogna creare un collegamento
con le dinamiche del Ca2+ . Un semplice modello che dipende dalla concentrazione ci Ca2+ intracellulare non sarebbe corretta, in quanto i buffer di
Ca2+ all’interno della cellula porta via il Ca2+ in modo molto veloce, il che
non giustificherebbe l’esistenza di cambiamenti a lungo termine dell’efficacia
sinaptica. Ma se invece il Ca2+ attiva altri stati con tempi di decadimento
86
Figura 7.11: Dati ricavati dagli esperimenti in D’Errico et al 2009 e best
fit del modello scelto. Il potenziamento dell’efficacia sinaptica è in funzione
della frequenza del segnale presinaptico.
k(Ca2+ )
A
B
τr
Figura 7.12: Schema cinetico per l’accumulo di un ipotetico stato in funzione
del Ca2+ .
molto lunghi si avrebbe una risposta liscia in funzione del Ca2+ e in più
renderebbe possibile una dipendenza monotonica tra l’attività presinaptica
e l’accumulo di questo stato.
In figura 7.12 c’è un semplice modello per l’accumulo di questo stato. Se
si sceglie τr molto alto e la funzione attivazione come
k(Ca2+ ) = kA→B
[Ca2+ ]H
[Ca2+ ]H + k H
dove kA→B è invece molto basso, si ha che ogni impulso di Ca2+ manda lo
stato A in B che si accumula in modo quasi lineare in funzione alla frequenza,
dovuto il basso valore di kA→B . Poi questo stato B va a controllare la
plasticità, che ha equazione
Q = k1
B
B
− k2
B + t1
B + t2
(7.9)
con un cambiamento diretto nella conduttanza del recettore AMPA come
g = (1 + Q)ḡ
87
Questo sarà a sua volta controllato dal glutammato legato ai recettori come
di solito. Questo modello in effetti controlla la conduttanza dei recettori AMPA solamente. Questo è motivato dall’evidenza che cambiamenti plastici a
lungo termine dipendono dalla fosforilazione del recettore, che è dipendente
da Protein Kinase A (PKA), mentre l’inclusione di altre unità nella membrana dipende dall’attivazione di Ca2+ -calmodulin dependent kinase II (CAMKII). Questo motiva la scelta del modello in equazione 7.9 come l’attivazione
di due diversi meccanismi che contribuiscono indipendentemente.
L’evidenza che i recettori NMDA siano coinvolti nel LTP e che questi,
durante il legame con glutammato, permettono l’ingresso di Ca2+ permette di aggiungere all’ipotesi la dipendenza dall’attività del recettore NMDA.
Questo permette di stabilire il livello di attivazione per il modello in modo da
riprodurre il fenomeno di rivelazione di coincidenza, che consiste nel potenziamento della connessione sinaptica quando l’impulso presinaptico avviene
contemporaneamente con un AP postsinaptico. Questo accade perché la depolarizzazione della membrana postsinaptica rimuove il blocco di Mg2+ del
recettore NMDA, il che permette il passaggio di un maggiore flusso di ioni
Ca2+ dentro la cellula e di conseguenza il potenziamento. Se invece l’impulso presinaptico arriva quando non c’è una depolarizzazione della membrana,
questo permette comunque un passaggio di Ca2+ , ma in quantità minore.
Tenendo in conto i risultati in Gall et al. 2005[10], la minore concentrazione
di Ca2+ dovrebbe produrre un LTD.
In figura 7.13 si ha una simulazione del flusso di ioni attraverso il recettore NMDA quando tra il segnale presinaptico e un AP postsinaptico c’è una
differenza di tempo ∆t. Un ∆t negativo indica che il segnale presinaptico
arriva prima della generazione del AP postsinaptico. Come si può osservare
nella figura, quando ci si avvicina a ∆t = 0 si ha un aumento della quantità
di Ca2+ introdotto, che si traduce in un aumento nella concentrazione di
Ca2+ intracellulare. Se si tiene conto anche del contributo dei canali VDCC
che introducono altro Ca2+ durante un AP e dei buffer di Ca2+ che ne portano via questo, si potrebbe avere un indizio dell’esistenza del fenomeno
di Spike-timing-dependent plasticity o STDP. Questo consiste in un potenziamento quando esiste una relazione causale tra il segnale presinaptico e
l’attività postsinaptica, mentre c’è una depressione in caso contrario.
88
Figura 7.13: Simulazione del flusso di Ca2+ quando si varia il tempo tra
lo stimolo del recettore NMDA e la generazione di un AP postsinaptico.
In su: stato O del recettore NMDA. Questo è dipende solo dall’attività
presinaptica. Al centro: AP generato da un flusso di corrente di 40 pA
durante 2 ms. In giù: convoluzione della la corrente generata dal recettore.
Questa corrente viene integrata per ottenere la carica attraverso il recettore
durante lo stimolo, il che permette il calcolo del numero di ioni di Ca2+ .
Per ∆t positivi si dovrebbe avere una linea orizzontale. La linea che cade è
dovuta alla limitatezza dell’intervallo d’integrazione.
89
90
Capitolo 8
Simulazione completa della
cellula granulare
Nei due capitoli precedenti si è assemblato indipendentemente i meccanismi
per la cellula e i meccanismi per le sinapsi. In questo capitolo si assemblerà
tutto per generare una simulazione completa della plasticità nella cellula
granulare. L’intero neurone è stato simulato usando il l’interfaccia Python
di NEURON.
8.1
Topologia del modello
Il modello in questa simulazione è un modello multicompartimentale, come
visto nel capitolo 6 usando la topologia e la geometria del lavoro di simulazione di Diwakar et al. 2009[7]. Con un soma formato da una singola sezione
cilindrica di lunghezza e diametro 5.8µm. A questo vengono aggiunti quattro dendriti e un assone. I dendriti sono formati da quattro compartimenti
con lunghezza totale di 15µm e diametro 0.75µm, mentre l’assone è formato
da 30 compartimenti con lunghezza totale di 70µm e diametro 0.3µm.
Nei terminali dendritici distali sono stati posizionati i recettori AMPA, NMDA e GABA. Poi sono stati messi in comunicazione il meccanismo
di produzione di NO con la parte presinaptica che produce il rilascio di
neurotrasmettitore e quest’ultima con i recettori sinaptici.
Al contrario di altri lavori di simulazione, dovuto alla natura bidirezionale delle sinapsi, invece di usare i regolari oggetti NetCon1 in NEURON
per la comunicazione dei messaggi, sono stati usati puntatori. In parte la
scelta è stata pressa per separare i meccanismi presinaptici da i meccanismi
postsinaptici in diversi file .mod e rendere il lavoro più modulare. Da altra
parte, per la comunicazione della quantità prodotta di NO postsinaptico
alla parte presinaptica, se si avesse usato i NetCon, il modello dovrebbe
1
http://www.neuron.yale.edu/neuron/static/docs/help/neuron/neuron/classes/netcon.html
91
essere stato scritto dentro del meccanismo per il rilascio di neurotrasmettitore e questo vorrebbe di nuovo dire scrivere un meccanismo postsinaptico
dentro di un meccanismo presinaptico. In più, avrebbe reso difficile comunicare delle quantità continue nel tempo, in quanto i NetCon comunicano
solo l’avvenimento di un evento.
8.2
Schema generale del modello per la plasticità
sinaptica
Lo schema generale del modello della plasticità sinaptica è come in figura
8.1. Iniziando dalla sezione presinaptica, il segnale proveniente dalle fibre
muscoidi che arriva al terminale presinaptico scattena il rilascio di neurotrasmettitore, come visto nel capitolo 7. Il glutamato si sposta verso il terminale
postsinaptico per incontrare i recettori. Una componente diretta arriva al
recettore AMPA che scatena una risposta rapida e quindi, la generazione di
un EPSC acuto. Un’altra componente del glutamato rilasciato si diffonde
nella fessura sinaptica, che incontrerà i recettori NMDA. Questi recettori,
come visto, generano una componente a lunga durata nel EPSC e permettono l’ingresso di Ca2+ nella cellula. I potenziali postsinaptici, sotto certe
condizioni, possono scattenare la generazione di AP, che attivano i canalli di
calcio HVCC, che permettono un’ulteriore ingresso di Ca2+ . La quantità di
Ca2+ presente all’interno della cellula viene controllato dalla presenza di una
riserva di Ca2+ , che tenta di mantenere il Ca2+ ad una certa concentrazione.
Il Ca2+ all’interno della cellula controlla diversi meccanismi legati alla
plasticità. Per primo, l’attivazione dell’enzima NO synthase dipende da questo. Questa enzima inizia le reazioni che portano alla produzione di ossido
nitrico che fa di messagero retrogrado, generando una forma di potenziamento presinaptico a lungo termine. Altra funzione del calcio interno è il
controllo della plasticità legata alla fosforilazione e la rimozione dei recettori AMPA, mediando in questo modo la plasticità bidirezionale legata al
recettore NMDA che si osserva negli esperimenti.
8.3
Distribuzione delle conduttanze
I valori delle conduttanze e la distribuzione dei meccanismi per i canali ionici sono stati trovati mediante un processo di ottimizzazione in maniera
automatica, partendo dai valori riportati in D’Angelo et al. 2001[6] per un
modello monocompartimentale. Alcune decisioni sono state presse per eseguire questo calcolo automatico. Per primo, è stato deciso di avere canali
Na+ e KV solo nel hillock e l’assone come in Marban et al. 1998[25], mentre
meccanismi per il buffer e correnti di Ca2+ esistono solo nel soma e i dendriti, con un vincolo che la concentrazione di Ca2+ sia maggiore nei dendriti
rispetto all’assone durante lo stimolo, come indicato in Gall et al. 2005[10].
92
Figura 8.1: In alto: schema delle relazioni tra i diversi meccanismi nel modello della plasticità sinaptica. In basso: modello completo dei fenomeni
sinaptici. Fonte: D’Angelo E., Prestori I., Mapelli L., in preparation.
93
Dopo il processo di ottimizzazione, in maniera manuale sono stati rimossi
dei meccanismi ionici che diano correnti molto piccole rispetto ad altre (il
criterio è stato un contributo minore al 0.5% della corrente totale in una sezione). Questa rimozione dovrebbe rendere più veloce la simulazione senza
alterare notevolmente le dinamiche visto che non vengono svolti calcoli per
meccanismi non esistenti nelle diverse sezioni. Gli altri meccanismi sono stati inizialmente posizionati in modo di avere una distribuzione uniforme delle
conduttanze in tutti i compartimenti, ma dopo l’ottimizzazione i canali KM ,
KIR e KA si sono concentrati nel soma, mentre il canale KCa si è spostato
nei compartimenti dendritici distali. Ulteriori modifiche manuali sono state
fatte nelle conduttanze dei recettori e i canali ionici nei dendriti, in quanto
l’ottimizzazione è stata fatta usando un’iniezione di corrente usando come
funzione bersaglio una combinazione del potenziale a riposo della cellula, la
tensione di soglia e la frequenza degli impulsi di fronte a correnti di 8, 10 e
15pA nel soma. Rispetto ai valori originali delle conduttanze dei recettori
AMPA e NMDA in Nieus et al. 2006[27] sono state modificate di un fattore
0.5 e 2.7 rispettivamente.
I canali HVCA nei dendriti sono stati regolati in modo da avere una
variazione della concentrazione del calcio interno nel compartimento di 1.01.5µM, mentre i canali KCA sono stati aggiustati in accordo a questo cambiamento, in quanto questo canale di potassio risponde in maniera opposta
al potenziale generato dall’aumento di calcio e un valore troppo alto della
conduttanza avrebbe impedito la generazione corretta di un EPSP.
8.4
Simulazione della risposta postsinaptica di fronte ad un stimolo presinaptico
Nella sperimentazione diversi protocolli di stimoli si usano a seconda del
fenomeno che si vuole studiare. Per la maggior parte di questo lavoro tre
protocolli sono stati utilizzati:
• TBS: theta burst spiking
• HF: High frequency
• LF: Low frequency
Il primo consiste in una piccola raffica ad alta frequenza (3 a 10 AP a 100Hz)
con una frequenza delle raffiche di circa 10Hz. Il secondo consiste in una
lunga raffica di 100Hz, di solito lunga 1 secondo, mentre la terza è un’attività
presinaptica persistente a bassa frequenza, di 10Hz o meno.
Plasticità nel terminale postsinaptico
In figura 8.2 si possono vedere la risposta di fronte ai tre tipi di stimolo
quando questo viene applicato ad una sola sinapsi. Nel caso dello stimolo
94
Figura 8.2: Simulazione della risposta della cellula di fronte ai tre protocolli
presinaptici: TBS, HF, LF.
TBS, il granulo non raggiunge la soglia per generare AP fino la terza raffica.
Questo accade per via del recettore NMDA, in quanto questo viene attivato dal glutammato diffuso e questo con in tempo si accumula. Anche se
esiste un intervallo di riposo per la rigenerazione delle vescicole nella parte
presinaptica, questo non è abbastanza per sopraffare la depressione a breve
termine del glutammato rilasciato (la costante di tempo è di 35ms). Questo
ritarda la generazione di un secondo AP.
Al centro in figura 8.2 c’è la risposta ad uno stimolo di alta frequenza.
Il fatto che lo stimolo sia continuo permette la sommazione temporale degli
EPSP fino generare un AP. Andando avanti con il tempo si può osservare
una riduzione del tempo trascorso tra ogni AP, il che indica un aumento
dell’ampiezza degli EPSP, prodotto in questo caso dal potenziamento del
recettore AMPA.
In fine, lo stimolo di una sola sinapsi a bassa frequenza non genera AP,
ma si può comunque osservare l’aumento degli EPSP dovuto sempre all’accumulo di glutammato che attiva, al meno parzialmente, il recettore
NMDA.
I parametri per la dinamica presinaptica non prevedono una frequenza
di risonanza, come in figura 7.2 (pagina 66), ma solo una depressione con
l’aumento della frequenza (vedere anche figura 7.3 per il protocollo TBS).
In più, anche il recettore AMPA prevede una desensibilizzazione in funzione
all’attività. Questo porta complessivamente ad una depressione negli EPSC
generati dal recettore AMPA, como si può osservare in figura 8.3. Anche il
95
Figura 8.3: EPSC generati per i protocolli TBS e HF.
Figura 8.4: Accumulo di glutammato diffuso per i protocolli TBS e LF.
96
Figura 8.5: Aumento dell’ampiezza degli EPSC per uno stimolo TBS con
raffiche di 10 impulsi ogni 250ms.
modello del recettore NMDA prevede un meccanismo di desensibilizzazione, ma la bassa probabilità di apertura dei recettori impedisce un notevole
accumulo di questo stato, al contrario di quanto accade per il recettore
AMPA.
Usando un protocollo TBS di raffiche di 10 impulsi a 100Hz con 150ms
tra ogni raffica, il potenziamento del EPSC del recettore AMPA diventa
più evidente (figura 8.5). Questo si deve al meccanismo implementato in
sezione 7.5 per la plasticità a lungo termine. Il tempo più lungo tra le raffiche permette il recupero del glutammato nelle vescicole e lo spostamento
dello stato desensibilizzato del recettore AMPA, annullando gli effetti della
depressione a breve termine tra ogni raffica. In questo modo rimane solo l’effetto di potenziamento generato dall’accumulo di Ca2+ intracellulare
che causa cambiamenti a lungo termine nelle sinapsi. Un profilo di questo
cambiamento è nella figura 8.6 per i tre tipi di stimolo. Mentre i primi due
causano un potenziamento a lungo termine, il terzo genera una depressione,
dovuta al basso livello di Ca2+ introdotto. Questo periodo di depressione
seguito da un potenziamento, come si osserva per gli stimoli TBS e HF, è
in linea con quanto riportato in Gall et al. 2005[10] e mette in evidenza la
dipendenza della plasticità dal Ca2+ e dell’attività della cellula. Per raffiche
brevi o per un intervallo di tempo breve (minore di un secondo), il Ca2+ si
accumula attivando i meccanismi che causano cambiamenti plastici prima
depressivi, in quanto ha una soglia di attivazione minore. Posteriormente,
con la durata dell’attività, si raggiunge il LTP.
97
Figura 8.6: Variazione dell’efficacia sinaptica nel tempo.
Plasticità nel terminale presinaptico
Il terminale presinaptico ha un tipo di plasticità dipendente dall’attività presinaptica e questo lavoro prevede anche il potenziamento per via dell’attività
postsinaptica.
In figura 8.7 si può osservare la dinamica degli stati presinaptici all’arrivo
di uno stimolo TBS generato dalla fibra muscoide. Durante i treni è evidente
la depressione nel neurotrasmettitore rilasciato (stato Y) dovuto al lento
recupero delle risorse nello stato Z. Comunque il primo impulso di ogni treno
presenta un potenziamento progressivo dovuto all’aumento nella probabilità
di rilascio P. Questa probabilità è governata dall’attività presinaptica per
brevi periodi di tempo. Il mantenimento di questo potenziamento a lungo
termine invece è dovuto all’attività postsinaptica, grazie alla produzione di
ossido nitrico NO (vedere sezione 7.4).
Il modello di produzione prevede anche la dispersione del NO prodotto,
che seguendo i dati riportati in Maffei et al. 2003[22], ha un tempo di
decadimento del NO di 3.6±1.2s. Questo porta il sistema ad uno stato
stazionario dove la quantità prodotta bilancia quella dispersa.
Il NO ha delle dinamiche molto particolari. Grazie ai vari passaggi intermedi dall’attivazione del NOS, fino la dissociazione del NO dalla enzima,
il NO non viene rilasciato immediatamente, ma ha un piccolo ritardo dell’ordine delle decine di millisecondi. In più, il lungo tempo di vita dello
stato legato FeII · NO permette il continuo rilascio di NO in quantità molto
piccole ma costante e per un periodo di tempo molto lungo.
E’ interessante osservare come anche questo tipo di potenziamento è
dovuto al flusso di Ca2+ all’interno della cellula. Il Ca2+ sembra giocare un
98
Figura 8.7: Stati del meccanismo di rilascio di trasmettitore. In ordine
dall’alto verso il basso: probabilità di rilascio P, Trasmettitore disponibile
X, trasmettitore rilasciato Y, trasmettitore ricuperato Z.
Figura 8.8: Produzione di ossido nitrico.
99
ruolo molto importante nella plasticità sinaptica.
STDP
Il STDP è un tipo di plasticità dipendente dalla differenza di tempo tra lo
stimolo presinaptico e l’attivazione della cellula, avendosi un potenziamento
quando c’è una relazione di tipo causale, cioè quando lo stimolo presinaptico arriva prima del AP postsinaptico. Invece si ha una depressione nel
caso contrario. Questo tipo di plasticità non è stato specificamente incluso
nel modello, ma ci si aspetta fosse una conseguenza della plasticità dovuta
all’ingresso di calcio nel recettore NMDA, al meno per quanto riguarda il
potenziamento per un segnale causale. Infatti, grazie alla dinamica lenta
del recettore NMDA, questo raggiunge un massimo dello stato aperto dopo alcuni millisecondi se la membrana è depolarizzata grazie alla rimozione
del blocco di Mg2+ , permettendo un considerevole passaggio di corrente dal
recettore. Invece se lo stimolo arriva dopo la depolarizzazione, il recettore
rimane bloccato in quanto lo stimolo presinaptico arriva durante il periodo
refrattario e il passaggio di Ca2+ è minimo, come in figura 7.13.
Il protocollo usato nella simulazione e lo stimolo con una corrente nel
soma usando una corrente di 55pA durante 2ms e frequenza 10Hz. Questa
frequenza non dovrebbe generare un potenziamento spurio ne una depressione. A questo viene accoppiato uno stimolo presinaptico di un solo impulso
con una differenza di tempo tra lo stimolo e l’iniezione di corrente nell’intervallo [±45ms]. Questo si ripete per 60 impulsi (equivalenti a poco più di
6 secondi di simulazione). Il risultato è in figura 8.9. Per questo modello di
cellula si ha un massimo potenziamento quando c’è una differenza di circa
8ms tra lo stimolo presinaptico e l’iniezione di corrente, mentre quasi subito
c’è una depressione per uno stimolo in ritardo. I valori massimi e minimi
della variazione degli EPSP sono fortemente dipendenti del modello di plasticità a lungo termine (vedere figura 7.11). Per ∆t positivi sembra ci sia un
potenziamento, ma questo è dovuto a che il EPSC del recettore NMDA ha
una durata molto lunga, andando ad interferire con l’iniezione di corrente
successiva. In effetti, la funzione che descrive la plasticità usando questo
protocollo dovrebbe essere una funzione periodica con periodo di 100ms.
Altri test sono stati fatti usando una frequenza diversa di 10Hz per il
protocollo di accoppiamento. Il risultato è che per alte frequenze prevale
il potenziamento a lungo termine. Abbassando la frequenza del protocollo
invece si ha un effetto particolare: una depressione ovunque tranne che
durante un piccolo intervallo durante la fase positiva. La fase in questo
caso è una descrizione migliore, in quanto le simulazioni a diverse frequenze
hanno un tempo diverso di simulazione per tenere in conto la periodicità
del protocolo. La fase invece è invariante tra tutte le simulazioni e viene
descrita come
φ = 2π∆tf
100
Figura 8.9: Simulazione della curva di guadagno per il protocolo di accoppiamento per la STDP a 10Hz in funzione della fase tra il segnale presinaptico
e lo stimolo nel soma.
101
Figura 8.10: Comparazione di simulazioni del STDP a differente frequenza
del protocollo di accoppiamento rispetto alla fase tra il segnale presinaptico
e lo stimolo postsinaptico.
Per via della lunga durata della corrente del recettore NMDA, ad alte
frequenze le fasi si confondono tra di loro, generando un aliasing.
8.5
Discussione e conclusioni
Il risultato principale di questo lavoro di simulazione è l’implementazione di
un modello matematico che descrive i modelli già conosciuti di plasticità a
breve e lungo termine e il loro collegamento alle dinamiche del calcio. In
effetti, i parametri che controllano la plasticità sono il calcio, per i meccanismi di plasticità bidirezionale; e l’ossido nitrico (e questo a sua volta viene
controllato dalla presenza del calcio) che genera una forma di potenziamento a lungo termine presinaptico per via di un incremento nella probabilità
di rilascio di neurotrasmettitore. Il modello, anche se semplificato, descrive
in più il fenomeno del STDP e il cambiamento di questo tipo di plasticità
quando la frequenza del protocollo d’induzione viene aumentato. Viene data
una descrizione del fenomeno che accade a basse frequenze per il protocollo
d’induzione del STDP, ma questo resta come un risultato da confrontare con
gli sperimenti che sono attualmente in corso. Un’altro risultato è la produzione di un modello semplice per il meccanismo di plasticità bidirezionale
102
Figura 8.11: In alto: Dipendenza della plasticità sinaptica dal calcio. Fonte:
D’Angelo E., Prestori i, Mapelli L., in preparation. Data from D’Errico et al,
2009 Gall et al., 2005. In basso: simulazione della plasticità in funzione del
numero di spikes (rappresentato come il tempo per un segnale di 100Hz) con
sovraposta la linea di massimo e minimo del potenziamento per il STDP con
livelli simili di calcio. La discrepanza tra il modello e le osservazioni (in alto)
potrebbe essere dovuta a la mancanza dei recettori metabotropici mGluR.
103
dipendente dal calcio. Usando i dati in Gall et al 2005[10] e D’Errico et al
2009[9] si è prodotto un modello di plasticità che sembra dipendere da due
fenomeni separati ma sovrapposti (vedere figura 7.11).
In figura 8.11 si può osservare come è, nella realtà, la relazione tra la
plasticità e il calcio intracellulare, descritto mediante la luminosità, con una
linea sovrapposta che rappresenta i massimi e minimi del STDP in corrispondenza a livelli di luminosità simili. Nella figura di sotto c’è la simulazione
del modello, in funzione all numero di spikes per un’attività presinaptica di
100Hz. Anche se sembra esserci un’alta correlazione tra la curva plasticitàcalcio, la posizione dei limiti del STDP sono molto differenti rispetto alla
realtà. Questa discrepanza potrebbe essere dovuta alla mancata implementazione dei recettori metabotropici, che sono coinvolti ulteriormente nelle
dinamiche del calcio intracellulare. In effetti, i limiti per il STDP sembrano
essere simili ai valori di plasticità bidirezionale, indicando che questa gioca
un ruolo molto importante nella generazione del STDP. A meno di questa
discrepanza, un semplice modello riesce comunque a riprodurre i fenomeni di
plasticità sinaptica indotti dai segnali presinaptici bastati nella loro durata,
frequenza e fase. Un’ulteriore tunning dei parametri è necessario.
Future modifiche che potrebbero essere proposte per questo modello sono
l’inclusione dei recettori metabotropici, un modello più dettagliato per i
meccanismi di plasticità bidirezionale dipendenti dal calcio, per i meccanismi
postsinaptici della plasticità, e un modello dettagliato per la produzione
cGMP a partire da GTP dovuta all’attivazione di sGC in presenza di NO, per
quanto riguardano i fenomeni di plasticità presinaptica. Altra idea sarebbe
la ricerca dei limiti per i valori dei parametri del modello, in modo da poter
fare una simulazione che tenga conto delle diverse incertezze e la produzione
di una simulazione di fronte a un segnale stocastico proveniente dalle fibre
afferenti.
104
Appendices
105
Appendice A
Proprietà non sinaptiche
della cellula
Durante lo sviluppo di questo modello, molti esperimenti sono stati fatti per
capire il ruolo dei diversi componenti della cellula, e in particolare il ruolo
dei diversi canali ionici. Dopo la fase di ottimizzazione per i valori delle
conduttanze è stato esseguito un “fine tunning” di questi valori in modo
manuale, per avere le caratteristiche necessarie della risposta sinaptica.
A.1
Canali ionici
In figura A.1 ci sono le correnti dei diversi canali di potassio trovati nel soma,
hillock e assone per uno stimolo TBS. I canali di potassio solitamente sono
repolarizzanti, cioè diminuiscono il potenziale elettrico della membrana.
Canali KV
Il canale KV viene posizionato nel hillock e nell’assone e la sua funzione è
quella di repolarizzare la membrana dopo la generazione di un AP in modo
molto simile a quello del modello di Hodgkin-Huxley.
Canali KM
Questo canale ha delle dinamiche molto lente (in diversi articoli viene chiamato anche Kslow ). Dopo un AP mantiene per un periodo di tempo relativamente lungo il suo stato aperto, permettendo il passaggio di una corrente
di potassio che iperpolarizza la cellula. Questa corrente non è molto alta,
ma è abbastanza da inibire la generazione di successivi AP, ad esempio, opponendosi al EPSP persistente del recettore NMDA. Quindi una accurata
regolazione di questo canale è necessaria se si vuole che la cellula risponda
con delle raffiche o meno.
107
Figura A.1: Correnti ioniche di potassio nel soma (nel hillock e assone per
i canali KV).
108
Figura A.2: Correnti ioniche per il canale di potassio controllato dal calcio
e quello di calcio controllato dalla tensione della membrana.
Canali KA
I canali di potassio tipo A non hanno una corrente notevole. Sembra comunque giocare un ruolo nella plasticità a breve termine e la generazione di
AP per successive raffiche. Anche se non mostrato in figura, questo canale
perde efficacia con stimoli successivi, generando una sorta di potenziamento
per via della mancanza di depressione dovuta al potassio. Quindi ha un
ruolo indiretto nella riduzione del delay degli AP successivi.
Canali KIR
I canali KIR, come si può vedere in figura, hanno sempre una corrente persistente. Questa corrente è importante nel stabilire il potenziale di riposo
della cellula. Una maggiore conduttanza significa una cellula iperpolarizzata. Comunque, al contrario degli altri canali, durante gli AP la corrente di
questo canale si riduce, il che in modo indiretto genera un potenziamento
a breve termine (pochi millisecondi) o meglio, depolarizza la membrana se
altri canali sono attivi.
Canali KCA e VGCC
Questi due canali sono sotto certi aspetti complementari. La depolarizzazione della membrana provoca l’apertura del canale di Ca2+ controllato dalla
tensione della membrana VGCC, permettendo l’ingresso di ioni di Ca2+
e questi, aumentando al concentrazione di Ca2+ intracellulare, provocano
109
Figura A.3: Effetti di diverse conduttanze dei canali KCA nel potenziale
della membrana. A sinistra: mancanza di canali KCA nei dendriti. A
destra: eccesso di canali KCA nei dendriti.
l’apertura dei canali di potassio dipendenti dal Ca2+ KCA. La depolarizzazione prodotta dall’ingresso di ioni di Ca2+ viene ridotta dalla fuoriuscita
di ioni K+ . L’equilibrio delle conduttanze di questi due canali è critica per
il funzionamento dei dendriti, dove in effetti sono concentrati questi canali. Un eccesso di conduttanza per i canali KCA rispetto a quelli VGCC
impedirebbe la generazione corretta di potenziali postsinaptici, mentre una
carenza impedirebbe la repolarizzazione della membrana nei dendriti, generando un gradiente di potenziale tra i compartimenti rendendo impossibile
la successiva generazione di AP (vedere figura A.3)
Canali NA
Non c’è veramente molto da dire riguardo questi canali. Il comportamento è
molto simile ai canali di sodio nel modello di Hodgkin-Huxley. A differenza
di altri modelli, le tre unità di canali Na+ (NAT , NAR e NAP ) sono stati
messi insieme in un solo meccanismo come in Magistretti et al. (2006)[23].
Come indicato nel lavoro di Diwakar et al. (2009)[7], il rapporto tra i canali
Na+ tra il hillock e l’assone è stato vincolato durante l’ottimizzazione ad
essere di un 50%. Questo significa avere una densità dei canali, e quindi una
conduttanza per unità di superficie, maggiore nel hillock. E questo significa
che gli AP vengono generati proprio nel hillock.
A.2
Risposta della cellula a stimoli contemporanei
Durante la fase di ottimizzazione manuale, particolare attenzione è stata
110
Figura A.4: Risposta della cellula quando vengono stimolati contemporaneamente uno o più dendriti.
fata nel replicare un risultato esperimentale riportato in D’Angelo et al.
(1995)[5]: durante lo stimolo di uno o due dendriti non c’è stato una generazione di AP, ma lo stimolo di due dendriti genera un EPSP con decadimento
più lento grazie al contributo dei recettori NMDA. Tre dendriti stimolati
contemporaneamente sono necessari per generare un AP partendo dal potenziale di riposo, mentre quattro dendriti stimolati generano un secondo
AP. Stimoli continui generano una risposta a raffica nella cellula.
111
112
Bibliografia
[1] S. Armano, P. Rossi, V. Taglietti, and E. D’Angelo. Long-term potentiation of intrinsic excitability at the mossy fiber-granule cell synapse
of rat cerebellum. J. Neurosci., 20(14):5208–5216, Jul 2000.
[2] R. Bardoni and O. Belluzzi. Kinetic study and numerical reconstruction of A-type current in granule cells of rat cerebellar slices. J.
Neurophysiol., 69(6):2222–2231, Jun 1993.
[3] S. G. Brickley, S. G. Cull-Candy, and M. Farrant. Development of a
tonic form of synaptic inhibition in rat cerebellar granule cells resulting
from persistent activation of GABAA receptors. J. Physiol. (Lond.),
497 ( Pt 3):753–759, Dec 1996.
[4] Nicholas T Carnevale and Michael L Hines.
Cambridge University Press, 2006.
The NEURON book.
[5] E. D’Angelo, G. De Filippi, P. Rossi, and V. Taglietti. Synaptic excitation of individual rat cerebellar granule cells in situ: evidence for the
role of NMDA receptors. J. Physiol. (Lond.), 484 ( Pt 2):397–413, Apr
1995.
[6] E. D’Angelo, T. Nieus, A. Maffei, S. Armano, P. Rossi, V. Taglietti,
A. Fontana, and G. Naldi. Theta-frequency bursting and resonance in
cerebellar granule cells: experimental evidence and modeling of a slow
k+-dependent mechanism. J. Neurosci., 21(3):759–770, Feb 2001.
[7] S. Diwakar, J. Magistretti, M. Goldfarb, G. Naldi, and E. D’Angelo.
Axonal Na+ channels ensure fast spike activation and back-propagation
in cerebellar granule cells. J. Neurophysiol., 101(2):519–532, Feb 2009.
[8] Jürg Hutter Dominik Marx. Ab initio molecular dynamics: basic theory
and advanced methods. Cambridge University Press, 1 edition, 2009.
[9] Anna D’Errico, Francesca Prestori, and Egidio D’Angelo. Differential
induction of bidirectional long-term changes in neurotransmitter release
by frequency-coded patterns at the cerebellar input. The Journal of
physiology, 587(24):5843–5857, 2009.
113
[10] D. Gall, F. Prestori, E. Sola, A. D’Errico, C. Roussel, L. Forti, P. Rossi,
and E. D’Angelo. Intracellular calcium regulation by burst discharge
determines bidirectional long-term synaptic plasticity at the cerebellum
input stage. J. Neurosci., 25(19):4813–4822, May 2005.
[11] Charmaine Griffiths, Victoria Wykes, Tomas C Bellamy, and John
Garthwaite. A new and simple method for delivering clamped nitric
oxide concentrations in the physiological range: application to activation of guanylyl cyclase-coupled nitric oxide receptors. Molecular
pharmacology, 64(6):1349–1356, 2003.
[12] WU Guoyao and Sidney M Morris. Arginine metabolism: nitric oxide
and beyond. Biochemical Journal, 336(1):1–17, 1998.
[13] Y. Gutfreund, Y. yarom, and I. Segev. Subthreshold oscillations
and resonant frequency in guinea-pig cortical neurons: physiology and
modelling. J. Physiol. (Lond.), 483 ( Pt 3):621–640, Mar 1995.
[14] József Hámori, Robert L Jakab, and József Takács. Morphogenetic plasticity of neuronal elements in cerebellar glomeruli during
deafferentation-induced synaptic reorganization. Neural Plasticity,
6(1):11–20, 1997.
[15] Mohammad Mahfuzul Haque, Jesús Tejero, Mekki Bayachou, ZhiQiang Wang, Mohammed Fadlalla, and Dennis J Stuehr. Thermodynamic characterization of five key kinetic parameters that define neuronal
nitric oxide synthase catalysis. FEBS Journal, 280(18):4439–4453, 2013.
[16] Alan C. Hindmarsh. Lsode and lsodi, two new initial value ordinary
differential equation solvers. SIGNUM Newsl., 15(4):10–11, December
1980.
[17] A. L. Hodgkin and A. F. Huxley. A quantitative description of membrane current and its application to conduction and excitation in nerve.
1952. Bull. Math. Biol., 52(1-2):25–71, 1990.
[18] R. L. Jakab and J. Hamori. Quantitative morphology and synaptology
of cerebellar glomeruli in the rat. Anat. Embryol., 179(1):81–88, 1988.
[19] E. G. Jones and S. Ramon y Cajal. Santiago Ramón y Cajal and the
Croonian Lecture, March 1894. Trends Neurosci., 17(5):190–192, May
1994.
[20] E. R. Kandel. The molecular biology of memory storage: a dialog
between genes and synapses. Biosci. Rep., 21(5):565–611, Oct 2001.
[21] Bernard Katz. The release of neural transmitter substances, volume 10.
Liverpool University Press, 1969.
114
[22] Arianna Maffei, Francesca Prestori, Katsuei Shibuki, Paola Rossi, Vanni Taglietti, and Egidio D’Angelo. No enhances presynaptic currents during cerebellar mossy fiber—granule cell ltp. Journal of
neurophysiology, 90(4):2478–2483, 2003.
[23] J. Magistretti, L. Castelli, L. Forti, and E. D’Angelo. Kinetic and
functional analysis of transient, persistent and resurgent sodium currents in rat cerebellar granule cells in situ: an electrophysiological and
modelling study. J. Physiol. (Lond.), 573(Pt 1):83–106, May 2006.
[24] Peter L Malen and Paul F Chapman. Nitric oxide facilitates longterm potentiation, but not long-term depression. The Journal of
neuroscience, 17(7):2645–2651, 1997.
[25] Eduardo Marban, Toshio Yamagishi, and Gordon F Tomaselli. Structure and function of voltage-gated sodium channels. The Journal of
Physiology, 508(3):647–657, 1998.
[26] R. G. Morris and D. O. Hebb. D.O. Hebb: The Organization of
Behavior, Wiley: New York; 1949. Brain Res. Bull., 50(5-6):437, 1999.
[27] T. Nieus, E. Sola, J. Mapelli, E. Saftenku, P. Rossi, and E. D’Angelo.
LTP regulates burst initiation and frequency at mossy fiber-granule cell
synapses of rat cerebellum: experimental observations and theoretical
predictions. J. Neurophysiol., 95(2):686–699, Feb 2006.
[28] Sanford L Palay and Victoria Chan-Palay. Cerebellar cortex: cytology
and organization. Springer Science & Business Media, 2012.
[29] J. R. Pugh and I. M. Raman. GABAA receptor kinetics in the cerebellar
nuclei: evidence for detection of transmitter from distant release sites.
Biophys. J., 88(3):1740–1754, Mar 2005.
[30] I. M. Raman and B. P. Bean. Inactivation and recovery of sodium
currents in cerebellar Purkinje neurons: evidence for two mechanisms.
Biophys. J., 80(2):729–737, Feb 2001.
[31] C. Rosenmund, A. Feltz, and G. L. Westbrook. Synaptic NMDA receptor channels have a low open probability. J. Neurosci., 15(4):2788–2795,
Apr 1995.
[32] Brijesh Roy, Edward J Halvey, and John Garthwaite. An enzyme-linked
receptor mechanism for nitric oxide-activated guanylyl cyclase. Journal
of Biological Chemistry, 283(27):18841–18851, 2008.
[33] E. Sola, F. Prestori, P. Rossi, V. Taglietti, and E. D’Angelo. Increased
neurotransmitter release during long-term potentiation at mossy fibregranule cell synapses in rat cerebellum. J. Physiol. (Lond.), 557(Pt
3):843–861, Jun 2004.
115
[34] T. Takeuchi, A. J. Duszkiewicz, and R. G. Morris. The synaptic plasticity and memory hypothesis: encoding, storage and persistence. Philos.
Trans. R. Soc. Lond., B, Biol. Sci., 369(1633):20130288, Jan 2014.
[35] M. V. Tsodyks and H. Markram. The neural code between neocortical pyramidal neurons depends on neurotransmitter release probability.
Proc. Natl. Acad. Sci. U.S.A., 94(2):719–723, Jan 1997.
[36] R. S. Zucker and W. G. Regehr. Short-term synaptic plasticity. Annu.
Rev. Physiol., 64:355–405, 2002.
116