reti neurali neuromorfe: plasticità e darwinismo

UNIVERSITA’ DEGLI STUDI DI ROMA
“TOR VERGATA”
FACOLTA’ DI INGEGNERIA
TESI DI LAUREA IN INGEGNERIA MEDICA
RETI NEURALI NEUROMORFE:
PLASTICITÀ E DARWINISMO NEURALE
Laureando:
Relatore:
Veronica Mari
Mario Salerno
Anno accademico 2008 - 2009
1
Indice










Introduzione alle reti neurali
I neuroni: genesi e conduzione del potenziale d’azione
Principali comportamenti dinamici della rete neurale
Modelli di neurone
Modelli di reti neurali
Apprendimento
Plasticità
Darwinismo neurale
Sistema nervoso dinamico caotico
applicazioni
2
INTRODUZIONE ALLE RETI NEURALI
Una serie di ricerche ed approfondimenti effettuati nella prima metà del 900 hanno
portato ad una comprensione dettagliata di come i segnali elettrofisiologici sono
trasmessi all’interno del sistema nervoso. A partire dagli anni ’80 una crescente
sinergia fra studi di natura prevalentemente empirica nel campo della neurobiologia
e studi più formali, svolti nell’ambito della matematica, della fisica, dell’ingegneria e
dell’informatica ha portato all’emergere di un settore di ricerca molto attivo: le reti
neurali. Con il termine Rete Neurale si intende un circuito di neuroni biologici. Fin
dalla prima metà del 1800 le ricerche sulla neurofisiologia hanno evidenziato come il
cervello sia composto da un gran numero di neuroni interconnessi, ciascuno dei
quali esegue una semplice elaborazione; il comportamento intelligente emerge
proprio dal gran numero di elementi e connessioni tra le cellule nervose. Particolare
attenzione è stata attribuita alle relazioni tra gli stimoli ricevuti da una rete
neuronale e l’attività cerebrale indotta, allo scopo di chiarire le strategie
computazionali di base del cervello, in special modo riguardo ai meccanismi di
apprendimento e memorizzazione.
Contemporaneamente allo studio teorico, molto importante risulta lo sviluppo di
realizzazioni elettroniche delle reti neurali, ovvero di una realizzazione diretta di tali
strutture (dette quindi neuromorfe). Tali dispositivi, oltre a svolgere un prezioso
ruolo euristico nello sviluppo dei modelli, mirano a ricalcare l’elaborazione neurale
sottesa, con strutture a basso costo, consumi ridotti ed elevata tolleranza agli errori.
3
GENESI E CONDUZIONE DEL POTENZIALE D’AZIONE
Le funzioni principali dei neuroni consistono nel riconoscimento degli stimoli
esterni, nella memorizzazione e nell’elaborazione di una risposta allo stimolo stesso.
È dunque nel cervello che avviene l’elaborazione delle informazioni esterne. Gli
aspetti anatomici del cervello sono stati ampiamente studiati, infatti si sa che
l’elemento base è il neurone, sede dei processi elettrochimici responsabili della
generazione di campi elettromagnetici. Nel cervello umano sono presenti circa 100
miliardi di neuroni, ciascuno connesso ad altri diecimila. Le interconnessioni sono
possibili grazie alle sinapsi, atte a rinforzare o inibire l’interazione cellulare.
A tale scopo le reti biologiche sono costituite da un numero elevatissimo di neuroni,
fittamente interconnessi tra loro. Lo schema di base di un neurone è costituito da:
- Soma (corpo cellulare)
- Assone (prolungamento lungo)
- Dendriti (prolungamenti brevi)
Assoni e dendriti sono ampiamente ramificati, e ciascuna ramificazione termina su
strutture di connessione dette sinapsi, che permettono il collegamento tra l’assone
del neurone presinaptico e il dendrite del neurone postsinaptico. Il soma ha il
complicato compito di eseguire un’integrazione (somma pesata) dei segnali in
ingresso: se il potenziale di membrana in ingresso supera una certa soglia, il soma
emette un impulso che viaggia lungo l’assone sotto forma di variazione del
potenziale elettrico. Il segnale giunge fino alle sinapsi e raggiunge i dendriti degli
altri neuroni per mezzo di neurotrasmettitori chimici. La sinapsi può essere di tipo
eccitatorio o inibitorio, in base alle caratteristiche del segnale: se esso favorisce il
raggiungimento della soglia di emissione dell’impulso del neurone ricevente, allora
la sinapsi sarà eccitatoria, altrimenti inibitoria. Per quasi tutta la durata del
potenziale d’azione la membrana è completamente refrattaria a ogni ulteriore
stimolazione. Questo significa che la cellula, indipendentemente dall’intensità della
stimolazione, non può generare un ulteriore potenziale d’azione. Tale intervallo di
tempo è definito “periodo refrattario assoluto”, ed è dovuto al fatto che i canali del
Na+ sono inattivati, e non possono riaprirsi finchè la membrana non si è ripolarizzata
4
(la durata del periodo refrattario τ è di qualche millisecondo). Nella fase finale del
potenziale d’azione invece, la cellula è di nuovo in grado di generare un altro
potenziale d’azione, ma lo stimolo in ingresso deve essere abbastanza intenso da
aprire un numero di canali sufficiente a generare un potenziale d’azione. Questa
fase è detta “periodo refrattario relativo”.
Dunque l’attività cerebrale ha frequenza limitata e la dinamica neuronale è a tempo
discreto (multipli di τ). I tempi di elaborazione sono piuttosto bassi: raramente i
neuroni possono generare più di 100 impulsi al secondo. La potenza di calcolo del
sistema nervoso centrale risiede quindi nell’elevato numero di elementi e nella
densa rete di connessioni tra gli stessi (una stima ritiene che il cervello sia composto
da 10ଵଵ neuroni e 10ଵସ sinapsi.
neurone
5
PRINCIPALI COMPORTAMENTI DINAMICI
Normalmente una rete neurale, in assenza di stimoli esterni, è in uno stato detto di
“attività spontanea”, durante il quale i costituenti del neurone emettono
spontaneamente impulsi scorrelati a frequenze molto basse.
In presenza di una corrente ionica che attraversa la membrana, il potenziale di
membrana può dare luogo a dinamiche molto diverse, in base al valore della
corrente stessa e al tipo di neurone che si considera. I tipi di regime conseguibili
sono:
- regime stazionario (comportamento quiescente, la tensione di membrana è
intorno al valore di riposo)
- spiking tonico (il neurone genera spikes di uguale ampiezza ad intervalli
regolari)
- spiking fasico (il neurone emette un singolo spike all’inizio della stimolazione
da parte del segnale esterno e poi rimane in quiete, anche se la stimolazione
permane)
- bursting tonico (il neurone genera bursts, cioè una raffica di spikes, ad
intervalli regolari)
- bursting fasico (alcuni neuroni segnalano l’inizio della stimolazione ricevuta
emettendo un singolo treno di spikes, che poi non viene ripetuto anche se la
stimolazione permane)
- regime caotico (il neurone genera spikes ad intervalli irregolari)
- adattamento della frequenza degli spike (la frequenza degli spikes decresce
man mano che la stimolazione permane)
- latenza degli spike (emissione di spikes con ritardo legato all’intensità della
stimolazione)
- oscillazioni sottosoglia (il potenziale di membrana esibisce oscillazioni
spontanee di piccola ampiezza)
- Risonanza (i neuroni oscillatori rispondono in modo selettivo agli ingressi di
natura periodica con cui entrano in risonanza)
- integrazione (neuroni che rispondono preferenzialmente a stimolazioni
periodiche di frequenza elevata)
6
- Variabilità della soglia (normalmente nei neuroni la soglia varia in funzione
della stimolazione ricevuta in precedenza, ad esempio se la stimolazione è
stata inibitoria la soglia si abbassa e il neurone diventa più facilmente
eccitabile)
comportamenti dinamici
Quindi, a partire dalla profonda conoscenza delle strutture cerebrali e del
comportamento elettromagnetico delle cellule neuronali, sono iniziati degli studi di
tipo induttivo per l’analisi dei comportamenti collettivi delle reti neurali, con la
speranza di trarre ispirazione per la costruzione di macchine atte a replicare i
compiti propri dei neuroni (processi al momento di difficile realizzazione per i
calcolatori). È tuttavia chiaro che non è necessaria (ne possibile) una perfetta
emulazione dei processi neurobiologici. La maggior parte dei modelli fin’ora
realizzati infatti si basano unicamente sul principio che l’attivazione neuronale è
soggetta ad eccitazione o inibizione delle unità connesse.
7
Per i modelli artificiali sono stati studiati diversi tipi di neuroni a cui venivano
associate determinate architetture allo scopo di implementare un determinato
compito cognitivo.
MODELLI DI NEURONE
IL NEURONE FORMALE
Per neurone formale si intende il modello matematico del neurone biologico, ovvero
lo step di partenza per la costruzione di una rete neuromorfa. Il modello
matematico, in quanto tale, rappresenta una semplificazione delle proprietà
biologiche e funzionali dei neuroni reali, ma che comunque mostrano delle analogie
comportamentali che ne permettono l’utilizzo. Le strategie di studio tramite neuroni
artificiali si basano dunque su opportune semplificazioni, di cui la più significativa
consiste nell’ignorare le non linearità degli spikes e dei canali sinaptici.
Il neurone può essere modellato a diversi livelli: se si tiene conto degli effetti
propagativi si ricorre o ad equazioni differenziali alle derivate parziali o a modelli a
compartimenti. Se invece si suppone l’istantaneità della propagazione del potenziale
d’azione rispetto al tempo di generazione dello stesso, si ricorre a modelli a singolo
compartimento, definiti da equazioni differenziali ordinarie e algebriche. Esistono
due modelli principali nell’ambito di quelli a singolo compartimento: “integrate and
fire” e “conductance-based”. Il modello di Hodgkin-Huxley è un modello realistico a
quattro dimensioni, cioè la cui dinamica è descritta da quattro variabili, ottenuto per
riprodurre i dati sperimentali relativi a una particolare fibra nervosa, l’assone
gigante del calamaro.
Particolarmente importanti sono i “modelli ridotti”, ovvero approssimazione di
modelli a più alta dimensionalità, in particolare modelli bidimensionali come quello
di FitzHugh-Nagumo. L’aspetto rilevante di tali modelli risiede nel fatto che la bassa
dimensionalità rende più agevole l’analisi e consente di cogliere gli aspetti essenziali
della dinamica di modelli più complicati.
8
MODELLO DI NEURONE INTEGRATE AND FIRE
Caratterizzato da un’elevatissimo livello di astrazione: esiste infatti una profonda
differenza di comportamento tra il neurone reale ed il modello, ciò che si sottolinea
è l’avvenimento più eclatante, ovvero la generazione dello spike. Il vantaggio
principale di tale modello risiede nella possibilità di simulare reti neuronali di
elevate dimensioni.
Lapicque propose un primo esempio del modello nel 1907, in cui il potenziale di
membrana tiene conto solo degli effetti capacitivi. La membrana del capacitore
viene caricata fino al raggiungimento di una soglia, oltre la quale inizia a scaricarsi,
producendo un potenziale d’azione (il potenziale si resetta). Questo semplice
modello deterministico consentì a Lapicque di calcolare la frequenza degli spike di
un neurone accoppiato ad un elettrodo di stimolazione a voltaggio fissato.
‫ )ݐ(ܫ‬ൌ ‫ܥ‬ெ
݀‫ݒ‬
݀‫ݐ‬
Dove ‫ܥ‬ெ è la capacità di una porzione della membrana, V è la tensione ai capi della
stessa e I(t) è la corrente elettrica ionica iniettata nella stessa.
integrate and fire model
Mandando in ingresso al modello una corrente positiva, la tensione cresce con
velocità costante fino al raggiungimento del valore soglia ܸ௧௛ , oltre il quale v(t)
produce uno spike tornando al valore di riposo, dopodichè si ricomincia con il
comportamento lineare.
9
Questo primo modello di Lapicque trascura tuttavia molti aspetti importanti relativi
alla natura del neurone in esame; inoltre la frequenza di sparo cresce linearmente
ed illimitatamente al crescere della corrente in ingresso.
Un secondo modello più accurato (leaky integrate and fire) tiene conto delle perdite
di membrana dovute alla presenza di canali passivi.
leaky integrate and fire model
Quindi l’equazione di base del modello diventa:
‫ )ݐ(ܫ‬ൌ ‫ܥ‬ெ
݀‫ ݒ ݒ‬െ ܸ௅
+
݀‫ݐ‬
ܴ௅
Anche in questo caso quando v(t) raggiunge la soglia l’uscita del neurone spara e la
tensione viene riportata al valore di riposo.
MODELLO DI FITZHUGH-NAGUMO
Questo modello contiene due variabili dipendenti: la “variabile veloce”, che coincide
con il potenziale di membrana, e la “variabile lenta”, che ha una funzione ausiliaria.
Esso richiede quindi due equazioni differenziali:
du
 u  13 u 3  w  I
dt
(  1)
dw
  (b0  b1u  w)
dt
(  1 /  w )
10
(u variabile veloce, w variabile lenta)
Per particolari valori dei parametri il modello mostra un comportamento di tipo
oscillatorio, in cui ciascuna oscillazione ha una forma simile a quella di un potenziale
d’azione. Esso consente di riprodurre lo spiking tonico e fasico, la latenza degli
spikes, le oscillazioni sottosoglia e la risonanza.
MODELLO DI HODGKIN E HUXLEY (1952)
Modello molto più accurato in quanto la membrana è studiata tenendo conto dei
canali attivi che permettono il passaggio di correnti ioniche.
Grazie alla tecnica del “voltage clamp” è stato possibile misurare le correnti di
membrana prodotte da impulsi di tensione depolarizzanti. L’applicazione di questa
tecnica all’assone gigante del calamaro ha permesso di ottenere misure piuttosto
accurate per lo sviluppo di questo modello.
Il modello HH prevede quattro equazioni differenziali che descrivono la dinamica del
potenziale di membrana e delle tre correnti ioniche fondamentali: la corrente del
sodio, la corrente del potassio e la corrente di perdita (dovuta principalmente al
11
cloro, ma che riassume l’effetto di altre correnti ioniche non descritte
esplicitamente).
Hodgkin and Huxley model
Dove V è la differenza di potenziale tra interno ed esterno, e i rami interni
rappresentano i canali di sodio e potassio. Le conduttanze ݃ே ௔ e ݃௞ associate al
sodio e al potassio non sono lineari dipendono dal potenziale in modo non banale.
Analiticamente:
‫ )ݐ(ܫ‬ൌ ‫ܥ‬ெ
݀‫ݒ‬
൅ ݃௅(‫ ݒ‬െ ܸ௅) ൅ ݅ே ௔ ൅ ݅௄
݀‫ݐ‬
݅ே ௔ = (‫ ݒ‬െ ܸே ௔ )݃ே ௔ (‫ )ݒ‬ൌ ሺ‫ ݒ‬െ ܸே ௔ ሻ‫ܩ‬ே ௔ ݉ ଷℎ
݅௄ = (‫ ݒ‬െ ܸ௞)݃௄ (‫ ݒ( = )ݒ‬െ ܸ௄ )‫ܩ‬௄ ݊ସ
Con m (coefficiente di attivazione del sodio), h (coefficiente di inattivazione del
sodio) ed n (coefficiente di attivazione del potassio) variabili di stato che tengono
conto dell’apertura/chiusura dei canali sodio e potassio. La conduttanza associata al
canale di perdita ݃௅ tiene conto di tutti i canali ionici diversi da quelli del sodio e del
potassio, ed è supposta avere un comportamento lineare o passivo, ovvero un
valore indipendente dalla tensione ai suoi capi.
12
MODELLI TEMPO-DIPENDENTI
Per quanto concerne la variabile temporale, si può distinguere tra modelli a tempo
continuo e modelli a tempo discreto, ricordando però che nella realtà i potenziali
d’azione possono avvenire ad istanti qualsiasi, cioè il funzionamento reale è
asincrono (tempo continuo). Sono tuttavia notevoli le semplificazioni di cui si può
usufruire ipotizzando la presenza di un clock interno al modello in grado di
determinare gli istanti nei quali possano aversi i potenziali d’azione.
Nei riguardi del funzionamento della rete, a seconda che si consideri la presenza o
meno di un eventuale rumore, si possono avere modelli deterministici e modelli
stocastici. E’ evidente quanto i primi siano più semplici rispetto ai secondi, anche se
non permettono l’individuazione di alcune fondamentali caratteristiche circa il
funzionamento della rete neurale.
Questi modelli dovrebbero poi:
-essere in parte a “parametri concentrati”, ad esempio per la corretta descrizione
del potenziale d’azione in prossimità dei nodi di Ranvier, ed in parte a “parametri
distribuiti”, tenendo presente la propagazione dei segnali lungo i dendriti.
-essere a parametri variabili nel tempo, per tenere conto di fenomeni quali la
facilitazione, la defacilitazione e la refrattarietà (in particolare sia i pesi che la soglia
dovrebbero essere parametri variabili nel tempo a seguito del funzionamento stesso
del neurone).
-avere come forma d’onda del segnale di uscita quella del potenziale d’azione.
Un modello siffatto è talmente complesso da risultare del tutto inutile. La vasta
letteratura in proposito è infatti rivolta all’approfondimento di particolari aspetti del
funzionamento neuronico in modo che si possa, a seconda dei casi, implementare
un modello che abbia caratteristiche ritenute fondamentali per la particolare
applicazione studiata in quel momento. È inoltre rilevante osservare che spesso
bisogna considerare modelli costituiti anche da migliaia di neuroni, ed è pertanto
necessario un modello che dia luogo a trattazioni fattibili e che si discostino dalla
realtà fisiologica in modo da fornire risultati ancora accettabili.
13
MODELLO DI NEURONE DETERMINISTICO A TEMPO DISCRETO
In questo modello si suppone che vi sia un clock interno tale da generare impulsi
periodici in corrispondenza dei quali possono esistere segnali in entrata ed in uscita
di ogni neurone appartenente alla rete. In pratica si ha l’emissione di spikes in modo
sincrono rispetto a questo clock.
Più precisamente, considerando un neurone costituito da N sinapsi e quindi in
presenza di N input ݁௜(t), si fanno le seguenti ipotesi:
a) Si ammette la presenza di un clock funzionante a frequenza ݂଴
b) I segnali ݁௜ሺ‫ݐ‬ሻin ingresso, qualora siano presenti, saranno costituiti da impulsi
sincroni con gli impulsi del clock
c) Il segnale u(t) uscente dal neurone, qualora sia presente, sarà un impulso
sincrono con questo clock.
I segnali in ingresso ed in uscita possono essere raffigurati mediante impulsi che
rappresentano “eventi”. Si introducono quindi delle variabili ausiliarie:
݁௜∗ (‫ )ݐ‬ൌ ‫݌‬௜݁௜(‫)ݐ‬
(i=1,2,…,N)
14
‫ = )ݐ( ∗ݑ‬෍ ݁௜∗ (‫ݐ‬െ ߬௜)
௜
I coefficienti pi sono denominati “pesi”, ed indicano mediante il loro segno se si
tratta di sinapsi eccitatoria o inibitoria, e mediante il loro modulo la quantità di
mediatore chimico che transita per ogni spike in ingresso. I segnali ݁௜∗ (t)
rappresentano i potenziali postsinaptici; il segnale u*(t) rappresenta il potenziale al
colle dell’assone; i parametri ߬௜ indicano i ritardi, multipli del periodo ܶ଴
fondamentale del clock, che tengono conto del passaggio del mediatore chimico
attraverso la fessura sinaptica, del transitorio collegato alla variazione del potenziale
postsinaptico, ed infine della propagazione dei potenziali postsinaptici lungo i
dendriti e l’assone.
Alle relazioni precedentemente scritte si aggiungono quelle riguardanti l’uscita u(t)
che sono:
u(t)=0
per u*(t)≤S
u(t)=U
per u*(t)>S
in cui S è un parametro correlate alla soglia del neurone. Il potenziale d’azione u(t),
nel caso in cui esso viene generato, assume sempre lo stesso valore U (per
semplicità si può assumere che U abbia valore unitario), pertanto le possibili
configurazioni ammesse da questo modello sono “0” (il neurone non ha sparato) e
“1” (il neurone ha sparato).
esempi di rappresentazione dei segnali in entrata o in uscita di un neurone a tempo discreto
15
MODELLI DI NEURONE STOCASTICO A TEMPO DISCRETO
Tutti i neuroni, essendo nella realtà caratterizzati da un comportamento stocastico,
sono caratterizzati da una certa successione di segnali in ingresso che danno luogo a
una certa successione di potenziali di uscita.
esempi di funzionamento di un neurone a tempo discreto
16
Nello schema precedente il G.R. (generatore di rumore) è posto all’entrata del
modello deterministico, poiché il rumore agisce come ulteriore entrata del neurone.
Assumiamo il modello a tempo discreto. Al generico istante ܶ௞ sia:
a) e(ܶ௞) il segnale in ingresso che tiene conto di tutte le sinapsi deterministiche
proprie del neurone.
b) r(ܶ௞) il segnale dovuto al rumore.
c) v(ܶ௞) il segnale somma dei due precedenti, cioè v=r+e
se si indica con S la soglia del neurone, l’uscita u(‫ݐ‬௞ାଵ) sarà data da:
‫ݐ(ݑ‬௞ାଵ) ൌ Ͳ‫ݐ(ݒ݁ݏ‬௞) ൑ ܵ
‫ݐ(ݑ‬௞ାଵ) ൌ ܷ‫ݒ݁ݏ‬ሺ‫ݐ‬௞ሻ൐ ܵ
Una volta nota la distribuzione p(r) del rumore e il valore del segnale in ingresso, è
possibile determinare mediante una semplice traslazione la densità di probabilità
p(r+e(‫ݐ‬௞)) e dunque calcolare la probabilità di sparo ܲ௦௣௔௥௢ (il cui valore è dato
dall’area tratteggiata). È interessante notare che la probabilità di sparo dipende
dalla differenza fra la soglia S e il valor medio µ della distribuzione p(r) (per
semplicità si pone µ=0.
17
Effettuando la medesima operazione per ogni valore del segnale in ingesso, si può
ottenere la caratteristica “probabilità ܲ௦௣௔௥௢” in funzione di e(‫ݐ‬௞).
Densità di probabilità: p(r) del rumore; p[(r+e)] del segnale somma [(r+e)]
In generale si ha:
ܲ௦௣௔௥௢ = f (e(tk),p(r),S) = F(e(tk))
Dove la funzione f è determinabile una volta nota S e le proprietà stocastiche del
rumore.
18
MODELLI DI RETI NEURALI
Le neuroscienze hanno permesso di stabilire che la struttura cerebrale è
caratterizzata dalla presenza di cellule neuronali con comportamenti vari e,
soprattutto, da pattern di interconnessioni neuronali diversi a seconda del compito
cognitivo. Per i modelli artificiali si segue una metafora simile: sono stati studiati
diversi tipi di neuroni e diverse architetture associandovi le modalità di elaborazione
concepite per implementare un determinato compito cognitivo.
Il neurone artificiale è un modello matematico che calcola una funzione, detta
funzione di attivazione. Gli ingressi di tale funzione modellano gli stimoli che il
neurone biologico riceve dagli altri neuroni, mentre il risultato calcolato (uscita)
descrive il segnale trasmesso dal neurone lungo l’assone. Quindi, la funzione di
attivazione del neurone artificiale trasforma i valori dell’insieme degli ingressi
(spazio degli ingressi) in corrispondenti valori nell’insieme delle uscite (spazio delle
uscite). Le caratteristiche dei neuroni descritte nel paragrafo precedente
suggeriscono che il neurone artificiale sia un modello avente parametri capaci di
modellare la soglia di reazione e la forza della connessione sinaptica: i primi
caratterizzano il comportamento di una singola cella, mentre i secondi descrivono
l’interazione tra coppie di cellule.
L’evoluzione delle reti ha origine piuttosto lontana nel tempo, ed è quindi frutto di
numerosi studi effettuati nel corso dell’ultimo secolo.
BREVE ANALISI TEMPORALE DELL’EVOLUZIONE DEI MODELLI NEURALI
-1943: McCullock e Pitts introducono un primo semplice modello di neurone
formale, presentando un lavoro sulle reti neurologiche.
-1949: Hebb ipotizza l’apprendimento biologico come fenomeno sinaptico,
presentando una formula matematica per simulare l’apprendimento nelle reti
(formula di Hebb)
-1957: Rosenblatt propone il “perceptron”, una rete in grado di riconoscere le
immagini. Tale modello rappresenta un enorme passo in avanti in quanto presenta
enorme generalizzazione e capacità d’astrazione (il perceptron è in grado di
riconoscere anche immagini mai viste prima)
19
-1969: Papert analizza criticamente il perceptron evidenziandone i limiti e
l’incapacità di risolvere problemi elementari.
-anni ’80: Rumelhart introduce il “terzo strato” superando i limiti del perceptron, e
dimostrando che con reti dotate di almeno tre strati si è in grado di computare
qualsiasi funzione.
La j-esima unità riceve stimoli dall’esterno o da strati precedenti. Sulle connessioni
sono presenti pesi sinaptici che denotano la “forza” della connessione. Tali segnali
sono convogliati tramite i dendriti al soma (netj) del neurone artificiale, l’uscita
neuronale avviene tramite l’assone, ed è generata grazie alla funzione di attivazione
g(netj).
E’ possibile distinguere reti “completamente connesse”, in cui ogni neurone è
connesso a tutti gli altri neuroni, da reti “stratificate” multilivello, in cui i neuroni
sono organizzati in strati. Un esempio di rete neuronale a tre strati è il seguente:
20
Nelle reti multilivello ogni neurone appartenente ad un determinato strato è
connesso a tutti (e soli) i neuroni dello strato successivo, nel verso che va
dall’ingresso all’uscita.
L’attivazione dei neuroni può avvenire in modo sincrono, in cui tutti i neuroni si
attivano simultaneamente, oppure in modo asincrono, in cui si attiva un neurone
per volta in modo sequenziale o casuale.
Reti competitive
Le reti competitive sono modelli neurali che si auto-organizzano per essere in
grado di individuare gli aspetti che caratterizzano o differenziano gli esempi di un
dato insieme. In queste i propri neuroni sono strutturati in modo tale che ciascuno
rappresenti un sottoinsieme degli esempi presentati alla rete in apprendimento.
Ciascun neurone della rete pertanto è in competizione con gli altri per
rappresentare il maggior numero possibile di esempi simili. Lo spazio in cui sono
definiti degli esempi è detto “spazio delle caratteristiche”, le sue coordinate sono
dette “caratteristiche”. Una opportuna funzione distanza, definita su ciascuna
coppia di elementi di questo spazio, determina il grado di somiglianza tra gli
elementi della coppia. Ogni neurone si definisce come un elemento dello spazio
delle caratteristiche.
Una volta configurata, la rete risponde a uno stimolo attivando il neurone, i, più
vicino allo stimolo stesso (winning neuron), la cui uscita Si (posizione nello spazio
21
delle caratteristiche) rappresenta le caratteristiche medie degli elementi dello spazio
delle caratteristiche che appartengono al sottoinsieme (detto cluster) rappresentato
dal neurone stesso. Pertanto, la funzione della rete consiste nel raggruppare
(clustering) gli esempi in sottoinsiemi, affinchè gli elementi nello stesso sottoinsieme
siano molto simili tra loro, e quindi i vari sottoinsiemi risultano avere caratteristiche
medie molto differenti. In ambito statistico, questo rappresenta l’approssimazione
di una distribuzione.
Queste reti neurali possono essere parzialmente o totalmente connesse. Alcuni
modelli sono dotati di parametri aggiuntivi che permettono di descrivere la
topologia dell’insieme rappresentato (topology representing network). Le più
famose tra le reti di questo tipo sono le Self Organizing Map (SOM) di Kohonen. I
neuroni di una SOM si trovano nei nodi di una griglia, i cui lati descrivono la
relazione di somiglianza tra i neuroni stessi e, quindi, tra i cluster che essi
rappresentano. Poiché ogni neurone rappresenta un cluster nello spazio delle
caratteristiche e ha una posizione sulla griglia, la rete neurale definisce una
mappatura delle caratteristiche (feature mapping) tra lo spazio (generalmente
multidimensionale) delle caratteristiche e lo spazio (generalmente bidimensionale)
della griglia.
Rappresentazione
schematica
di
una
il neurone posto nel nodo (i,j) ha uscita Si,j.
rete
SOM
bidimensionale:
22
LE RETI DI KOHONEN
Il modello più comune di rete neurale autoorganizzante prende il nome dal suo
inventore (Kohonen,T) ed è costituito da una rete a due strati, dei quali uno è di
input e l’altro di output (chiamato strato di Kohonen). I neuroni dei due strati sono
completamente connessi tra loro, mentre i neuroni dello strato di output sono
connessi, ciascuno, con un "vicinato " di neuroni secondo un sistema di inibizione
laterale definito a "cappello messicano". I pesi dei collegamenti intrastrato dello
strato di output o strato di Kohonen non sono soggetti ad apprendimento, bensì
fissi e positivi nella periferia adiacente ad ogni neurone.
Nello strato di output un solo neurone deve risultare "vincente" (con il massimo
valore di attivazione) per ogni input fornito alla rete. Praticamente è il neurone
vincente che identifica la classe a cui l'input appartiene. Il collegamento detto a
23
cappello messicano, favorisce la formazione di "bolle di attivazione" che
identificano inputs simili. Ogni neurone del Kohonen layer riceve uno stimolo uguale
alla sommatoria degli inputs moltiplicati per il rispettivo peso sinaptico:
A(j)=S(k)w(j,k)*x(k)
Tra tutti i neuroni di output si sceglie quello con valore di attivazione maggiore, che
assume il valore 1, contrariamente a tutti gli altri che assumono il valore 0. La rete di
Kohonen identifica, per inputs simili, neuroni vincenti vicini,in modo tale che ogni
bolla di attivazione rappresenti una classe di inputs aventi caratteristiche simili.
Reti feed-forward multistrato
Il nome “reti feed-forward multistrato” deriva dal fatto che il flusso di informazioni
tra i neuroni procede in modo unidirezionale. Tali reti sono soltanto parzialmente
connesse, ed in queste i neuroni sono organizzati in sottoinsiemi, detti strati (layer).
Questi strati sono ordinati e la connessione diretta avviene solo tra i neuroni di due
strati consecutivi. Il primo strato (quello che riceve gli stimoli dall’esterno) viene
detto strato di ingresso, mentre l’ultimo strato (quello che fornisce la risposta della
rete) viene detto strato di uscita. Gli strati intermedi vengono detti strati nascosti
(hidden layer). È dimostrabile che le reti neurali sigmoidali multistrato con almeno
tre strati sono approssimatori universali di funzioni continue, pertanto per ogni
funzione continua esiste almeno una rete del tipo descritto che può approssimarla
con un’accuratezza prefissata. A titolo esemplificativo si indica che se i neuroni dello
strato di uscita sono di tipo discreto (per esempio, a soglia), l’uscita della rete
assumerà un insieme finito di valori discreti; si realizza così la classificazione degli
ingressi, cioè l’associazione a ciascun ingresso di un valore tra le uscite, detto valore
indica la sua classe di appartenenza.
24
Rappresentazione schematica di una rete feed-forward multistrato.
Tipicamente, i neuroni dello stesso strato sono caratterizzati dalla stessa funzione di
attivazione, al contrario strati diversi possono avere funzioni di attivazioni differenti.
L’uscita di ciascun neurone, i, del k-esimo strato della rete è definibile come:


S i( k )  f ( k )   wi(,kj) S (j k 1)   i( k ) 
 j

in cui lo stimolo per il livello di ingresso, S (j0) , corrisponde agli esempi forniti alla
rete, e f (k) è la funzione di attivazione utilizzata per lo strato k-esimo.
Una particolare famiglia di reti feed-forward multistrato è costituita dalle reti a
simmetria radiale (Radial Basis Function, RBF). La caratteristica di tali reti risiede nel
fatto che i neuroni hanno funzione di attivazione a simmetria radiale (spesso
gaussiana). Tali reti vengono in genere strutturate con un singolo strato, dal
momento che è stato dimostrato che anche un solo strato è in grado di
approssimare ogni funzione continua con un dato grado di accuratezza. Pertanto la
funzione, G, realizzata da una rete RBF è una combinazione lineare di funzioni
radiali:
G ( s )   wi S i s; ci ,  i 
i
dove ci e σi sono i parametri caratteristici dell’i-esimo neurone. I parametri
strutturali (centri, c, e fattori di scala, σ) determinano la copertura dello spazio di
ingresso da parte dei neuroni, cioè la regione dello spazio degli ingressi alla quale la
rete risponde significativamente. I pesi sinaptici modellano il valore di uscita della
rete in risposta agli ingressi.
25
Reti ricorrenti
Le reti ricorrenti sono reti multistrato parzialmente connesse, dove le risposte
di uno o più strati possono essere conservate e fornite come ingresso negli istanti
successivi. Il comportamento di queste reti è dinamico, perché l’uscita fornita da
una rete in un certo istante non dipende solo dallo stimolo fornito in ingresso
all’istante considerato, ma anche dalla storia passata.
La conservazione delle informazioni degli istanti precedenti è affidata a
connessioni con ritardo temporale (retroazione). Variando il numero di tali
connessioni (anche con differenti ritardi), è possibile far esaminare alla rete gli
effetti di istanti precedenti. A titolo esemplificativo, nella rete sotto schematizzata,
sono state inserite connessioni con due diversi ritardi.
Le reti ricorrenti sono evidentemente più complesse delle reti feed-forward
multistrato, ma capaci di modellare sistemi con comportamento dinamico.
Rappresentazione schematica di una rete ricorrente.
26
APPRENDIMENTO
Il comportamento effettivo di una rete neurale, rappresentato dalla funzione
esibita all’esterno, dipende dalla configurazione dei suoi parametri. Tramite uno
specifico algoritmo, detto di apprendimento (learning) o addestramento (training),
la scelta dei valori dei parametri della rete può essere effettuata ricorrendo ad un
insieme di esempi del comportamento desiderato. Al termine dell’apprendimento,
la rete neurale deve essere in grado di generalizzare il comportamento descritto
dagli esempi presentati nella fase di configurazione, in altre parole deve generare
una risposta significativa benché derivante da un ingresso mai utilizzato in
apprendimento.
In letteratura sono stati prospettati diversi algoritmi di apprendimento, che si
diversificano tra loro a seconda del modello di neurone utilizzato e dello schema di
collegamento adottato per strutturare la rete. Si indicano due categorie di algoritmi
di apprendimento: l’apprendimento supervisionato e l’apprendimento non
supervisionato.
Nell’apprendimento supervisionato, alla rete neurale sono fornite le coppie
composte dall’insieme degli esempi da applicare agli ingressi della rete stessa e dai
corrispondenti valori che si desidera siano prodotti in uscita. Tale tipo di
apprendimento è utilizzato per la configurazione di reti neurali per
l’approssimazione di funzioni e per la classificazione.
Nell’apprendimento non supervisionato, è fornito alla rete esclusivamente
l’insieme degli esempi da applicare agli ingressi ed è la rete neurale che in completa
autonomia organizza la propria configurazione. Questa modalità di apprendimento
si presta ad essere utilizzata per il clustering e per le memorie associative.
APPRENDIMENTO SUPERVISIONATO
Tra gli algoritmi di apprendimento supervisionato di seguito se ne
rappresentano alcuni particolarmente significativi: l’algoritmo di retropropagazione
(backpropagation), l’apprendimento ibrido (hybrid learning), e l’apprendimento per
rinforzo (reinforcement learning).
L’algoritmo più utilizzato per l’apprendimento supervisionato è il cosiddetto
retropropagazione (backpropagation). Questa tecnica si fonda sulla stima dell’errore
commesso dalla rete neurale, in funzione dei parametri della rete stessa, e sul
ridimensionamento dell’errore stesso tramite una modifica dei parametri, operata
nella direzione del gradiente della funzione errore. A causa della necessità di
calcolare il gradiente della funzione calcolata dalla rete neurale, questa tecnica può
27
essere utilizzata a condizione che la funzione di attivazione dei neuroni sia derivabile
rispetto ai parametri da configurare. L’algoritmo modifica i parametri di
configurazione in base al contributo che essi danno alla diminuzione dell’errore. Ad
ogni passo di apprendimento, si presenta un esempio agli ingressi della rete neurale,
si calcola la relativa uscita prodotta dalla rete, confrontandola con il valore di uscita
atteso. La differenza tra il valore di uscita dell’esempio e il valore di risposta della
rete neurale, costituisce l’errore commesso dalla rete stessa. Procedendo a ritroso
dall’uscita della rete verso i neuroni più interni, si calcola il gradiente dell’errore
rispetto ai parametri dei neuroni considerati e lo si utilizza per modificare i
parametri stessi in modo da far diminuire l’errore.
Prendendo per esempio una rete feed-forward multistrato a due strati nascosti per
l’approssimazione di una funzione reale definita sull’insieme dei numeri reali
(quindi, con un neurone di ingresso ed uno di uscita), l’insieme di addestramento
sarà dato da un insieme di coppie di numeri reali, ( xi , yi ) , che definiscono il
comportamento della funzione stessa. Il neurone dello strato di ingresso funziona
come distributore del valore presentato in ingresso e funge da attivatore lineare (
S1( 0 )  x ). Pertanto l’uscita dei neuroni del primo strato sarà:


S (j1)  f (1)   wk(1) x   j(1) 
 k

Tali valori costituiscono l’ingresso del secondo strato nascosto, che fornirà in uscita:


S i( 2)  f ( 2)   wi(,2j) S (j1)   i( 2 ) 
 j

Infine, lo strato finale (per semplicità un neurone lineare) produrrà l’uscita della rete
neurale:
~y 
 wi(3) S i( 2)
i
La presentazione alla rete dell’esempio (x, y) comporta un errore di
approssimazione, E, pari a:
E  y  ~
y
2
L’errore viene normalmente calcolato utilizzando il quadrato della distanza tra
l’uscita attesa e l’uscita reale, così da ottenere un valore indipendente dal segno e
facilmente derivabile.
L’algoritmo di backpropagation, sfruttando la proprietà della derivata di funzioni
composte, aggiorna i pesi sinaptici con le seguenti regole:
wi( 3)  
E
E ~
y



( 3)
~
y wi( 3)
wi
28
wi(,2j)  
w
(1)
j
E
E ~
y S i( 2)



~
y S i( 2 ) wi(,2j)
wi(,2j)
(1)
E
E ~
y S i( 2 ) S j
  (1)   ~ ( 2) (1)
y S i S j w (j1)
w j
dove η è il fattore di adattamento (o tasso di apprendimento) che controlla la
velocità con cui si cerca di tendere verso il minimo dell’errore. Formule simili
possono essere derivate per gli altri parametri della rete (per esempio per le soglie).
L’algoritmo di backpropagation presenta alcuni problemi, tra i quali il più
importante è l’incapacità di evitare i minimi locali della funzione errore. Quando
questo accade, piccole variazioni dei parametri fanno aumentare l’errore, mentre
una variazione dei parametri di ampia entità consentirebbe di diminuirlo, ma il
valore di η adottato non consente di spostarsi a sufficienza. Inoltre, l’algoritmo di
backpropagation non dà garanzie sul numero di iterazioni necessarie per giungere
nel minimo dell’errore. Per i motivi suesposti, in genere si adottano alcune varianti
dell’algoritmo di backpropagation, quali il simulated annealing e l’uso dei momenti.
Nell’algoritmo di backpropagation, il simulated annealing consiste nell’aggiungere
nella funzione errore un termine casuale, che la renda priva di minimi locali all’inizio
dell’addestramento. Il valore di questo termine si riduce progressivamente con il
procedere dell’addestramento, facendo progressivamente emergere la vera forma
dell’errore. L’ipotesi su cui si fonda questa tecnica, è che il minimo globale emerga e
venga individuato prima di quelli locali. Lo svantaggio principale consiste nel
notevole incremento del costo computazionale. La tecnica dei momenti si basa
nell’aggiungere un termine moltiplicativo al tasso di apprendimento, η, cosicchè
quest’ultimo aumenti se si sta seguendo un percorso che riduce l’errore, ma che
diminuisca se invece l’errore tende a crescere.
L’apprendimento ibrido (hybrid learning) è una tecnica più efficiente
dell’algoritmo di backpropagation per l’addestramento di reti RBF. L’architettura
delle reti RBF, infatti, rende possibile l’adozione di due diverse tecniche di
apprendimento (da cui il nome della tecnica) per i due gruppi di parametri
(parametri strutturali e pesi sinaptici). I parametri strutturali possono essere definiti
usando un algoritmo che identifichi le regioni coperte dagli esempi di
apprendimento (per esempio, mediante una tecnica di clustering). I pesi sinaptici,
wi  , possono essere calcolati come soluzione di un sistema lineare, con un minor
sforzo computazionale rispetto alla backpropagation. Per esempio, per configurare
una rete RBF avente m neuroni utilizzando un insieme di addestramento costituito
da M coppie,  x k , y k  | k  1,  , M , si può scrivere un sistema lineare di M equazioni
in n incognite. Infatti, per ogni coppia (xk, yk) degli esempi di apprendimento si
dovrebbe avere:
29
n
y k   wi g i ( x k )
i 1
dove gi(xk) è la risposta dell’i-esimo neurone all’ingresso xk. Si può quindi scrivere il
seguente sistema lineare:
 y1  w1 g1 ( x1 )  w2 g 2 ( x1 )    wn g n ( x1 )



 y  w g (x )  w g (x )    w g (x )
1 1
M
2 2
M
n n
M
 M
in cui le incognite sono i pesi sinaptici, wi  . Dal momento che il numero di esempi,
M, è maggiore del numero di neuroni, n, il sistema risulta sovradimensionato.
Questo permette di arrivare ad una approssimazione, anziché una interpolazione
degli esempi, tale soluzione risulta utile soprattutto se i dati sono affetti da rumore.
L’apprendimento per rinforzo (reinforcement learning) è una tecnica di
apprendimento che modifica i parametri esclusivamente in base all’adeguatezza
della risposta prodotta dalla rete neurale, simulando un addestramento del tipo
premio-punizione. La differenza principale rispetto agli altri metodi di
addestramento supervisionati consiste nel tipo di valutazione che viene fornito alla
rete neurale. Mentre nei tradizionali algoritmi di addestramento supervisionato
viene utilizzata la metafora dell’istruttore, che suggerisce alla rete la correzione da
apportare, nel reinforcement learning si adotta la metafora del critico, che valuta la
risposta della rete solo come corretta o sbagliata. L’addestramento mediante
reinforcement learning è computazionalmente più costoso (e pertanto più lento)
dell’apprendimento mediante backpropagation, ma può essere efficacemente
utilizzato per l’apprendimento di sequenze temporali.
APPRENDIMENTO NON SUPERVISIONATO
Per le reti neurali che devono scoprire regolarità (pattern) nell’insieme degli esempi
utilizzati per l’apprendimento, si utilizza l’apprendimento non supervisionato, in
modo tale da evidenziare le regolarità che caratterizzano questi esempi.
L’apprendimento non supervisionato è quindi possibile esclusivamente quando gli
esempi contengono qualche ridondanza: esempi ridondanti si assomiglieranno, e la
rete tenderà a riconoscerli come appartenenti alla stessa categoria. A seconda
dell’architettura della rete neurale e dell’algoritmo di addestramento utilizzato,
l’apprendimento non supervisionato si adotta per la realizzazione di clustering,
codifica, o mappatura di caratteristiche.
Le reti SOM costituiscono l’esempio più diffuso di algoritmo di apprendimento
non supervisionato. Tale apprendimento consiste nel proporre alla rete neurale un
30
esempio alla volta. Il corrispondente neurone vincente viene spostato nella
direzione dell’esempio presentato, diminuendo l’errore che si commette
rappresentando l’esempio considerato con il winning neuron. Al fine di realizzare
una mappatura graduale, anche i neuroni topologicamente vicini vengono spostati
verso l’esempio considerato, in proporzione inversa alla distanza topologica dal
winning neuron; questo permette di avere una certa somiglianza tra i neuroni
topologicamente vicini e, quindi, fa in modo che essi rappresentino regioni dello
spazio delle caratteristiche simili tra loro. Con il progredire dell’addestramento,
vengono consentiti spostamenti sempre più brevi, stabilizzando l’apprendimento ed
evitando che esempi visti nei passi precedenti siano “dimenticati”.
Altre reti neurali competitive sono considerate come varianti delle SOM, dalle
quali si distinguono per la regola di adattamento adottata o per la struttura
topologica dei neuroni. La struttura topologica può essere del tutto assente o autoorganizzante. L’aggiornamento della posizione dei neuroni può avvenire
modificando più neuroni a ogni passo di addestramento, come nel softmax (o
winner-take-most).
Le reti di Hopfield sono reti neurali con addestramento non supervisionato,
poichè l’insieme degli esempi di addestramento costituisce sia l’ingresso sia l’uscita
della rete. La regola di Hebb costituisce la regola di addestramento più semplice.
Ossia: se due neuroni si attivano in risposta agli stessi stimoli, la loro connessione si
rinforza, come avviene in neuroni biologici. Nelle reti di Hopfield, l’apprendimento
hebbiano è realizzato dalla regola di adattamento:
wij  S i S j
dove il peso della connessione riguardante l’i-esimo e il j-esimo neurone viene
incrementata solo se entrambi i neuroni sono attivati dalla presentazione di un
esempio da memorizzare.
31
rappresentazione schematica degli apprendimenti tipo "supervisionato" e "non supervisionato"
32
PLASTICITA’
L’attività elettrica neuronale, in parte intrinseca e in parte guidata da stimoli
dell’ambiente, diventa essenziale per rafforzare alcune connessioni sinaptiche a
scapito di altre e costruire in questo modo un’architettura molto fine che consente
al nostro cervello di compiere prestazioni sofisticate. Tale capacità di crescita e
modellamento delle connessioni, detta plasticità, avviene per tutta la vita in misura
più o meno limitata; essa consiste in modificazioni strutturali alla base di processi di
apprendimento e memoria, sia motoria che cognitiva, e dei processi di adattamento
dell’organismo alle modificate condizioni ambientali.
La plasticità dell’adulto è di fondamentale importanza nei fenomeni di recupero che
si hanno dopo una lesione del sistema nervoso, lo studio dei meccanismi di tale
plasticità postlesionale ha rivelato che spesso il cervello è in grado di ripercorrere
quelle vie che sono attive durante lo sviluppo. Infatti i neuroni illesi possono
innervare i neuroni rimasti orfani della loro innervazione, ma anche le stesse cellule
che in seguito alla lesione hanno riportato un danno a livello assonale, sono in grado
di far rigenerare i loro assoni come durante lo sviluppo. Tali fenomeni rigenerativi
trovano però ostacolo in altri fenomeni che tendono ad impedire la loro crescita, fra
cui la cicatrice gliale in corrispondenza della lesione, oppure proteine e molecole che
si creano nella matrice extracellulare. La conoscenza di tali meccanismi ha permesso
di intravedere la possibilità di abbattimento di questi ostacoli e ricostruire i circuiti
interrotti.
Un’ultima conquista nel campo del recupero funzionale dopo lesione del sistema
nervoso centrale è quella dei trapianti, che consente di sostituire le cellule
degenerate e che ha trovato nel morbo di Parkinson la prima applicazione
terapeutica con risultati positivi.
È possibile esaminare una serie di principi comuni della plasticità che determinano lo
sviluppo futuro dell’individuo:
1- Il sistema nervoso è dotato di una predisposizione innata, geneticamente
determinata, a riconoscere stimoli specifici, rilevanti per lo studio di un
determinato comportamento o funzione
33
2- Nel corso dello sviluppo vi è un periodo “critico”, durante il quale
l’esposizione a tali stimoli, l’esperienza in senso lato, determina una rapida
acquisizione del comportamento o della funzione.
3- Trascorso questo periodo, non si ha più la stessa capacità di modificare le
capacità acquisite, quali che siano.
34
Meccanismi dipendenti dall'attività che regolano la formazione e l'eliminazione delle sinapsi. In
coincidenza di specifici patterns di attività pre- e post- sinaptica vengono indotte modificazioni
funzionali dell'efficacia della trasmissione sinaptica, noti come potenziamento o depressione a
lungo termine. Questi fenomeni sono associati a modificazioni dell’espressione genica dei
neuroni coinvolti, seguite dal rimodellamento strutturale delle connessioni. Il numero di contatti
aumenta in seguito al potenziamento, diminuisce in seguito alla depressione.
35
DARWINISMO NEURALE
Per darwinismo neurale si intende una concezione innovativa su come funziona il
sistema nervoso. Il principio di partenza è che il cervello si sviluppi, partendo dalle
istruzioni genetiche, in modo diverso in ogni individuo, seguendo un processo di
selezione naturale analogo a quello che si riscontra nell’evoluzione. Edelman,
l’ideatore di questa teoria, si propone di offrire una spiegazione biologica della
categorizzazione, della percezione, dell’azione e della memoria. In particolare, la
teoria della memoria revisiona la normale concezione di apprendimento, che viene
visto come un processo dinamico.
Con il termine evoluzionismo si introduce anche tutta una teoria riguardante i
repertori variabili di elemento, le cui fonti di variazione non hanno relazione causale
con i successivi eventi di selezione o riconoscimento.
L’idea di base consiste nel considerare i neuroni alla stregua di una popolazione, i
vari gruppi di neuroni come gruppi di individui, il corpo umano come l’ambiente
ospitante tale popolazione. I gruppi di neuroni che si comportano in un determinato
modo prosperano mentre altri, in concorrenza con i primi, muoiono perché incapaci
di prestazioni analoghe, scartati da un meccanismo di selezione definita somatica.
Tipicamente i neuroni che sono tagliati fuori da sinapsi frequentemente usate, si
atrofizzano, mancano di nutrimento, assorbito da gruppi di neuroni più ramificati
poiché più attivi, e muoiono. Quando una sinapsi è coinvolta in un processo dagli
esiti positivi sarà rafforzata e più spesso coinvolta in altri processi, diversamente
accadrà il contrario. In questo modo, sulla base dei neuroni prodotti per via delle
istruzioni del codice genetico, si ricavano sia il cervello sia le mappe neurali, cioè sia
l’anatomia che la funzione. L’esperienza andrà a selezionare le mappe neurali
rafforzando le sinapsi coinvolte nei processi maggiormente adattativi. In realtà le
potenzialità del cervello sono molto più ampie di quanto un individuo sia in grado di
sfruttare durante l’esistenza; in virtù di una simile abbondanza è possibile
selezionare comportamenti tanto diversi e plastici all’interno di una stessa specie
animale.
36
Un gruppo neuronale è un insieme di cellule neurali, non necessariamente dello
stesso tipo, compreso tra le centinaia e migliaia di unità strettamente connesse nei
loro circuiti, le cui interazioni sono ulteriormente rafforzabili tramite incremento di
forza sinaptica. Il gruppo può essere plasmato da variazioni di stimoli in entrata,
dalla competizione con altri gruppi e dalla qualità delle reazioni. Le modificazioni dei
gruppi avvengono principalmente a livello delle sinapsi, solo secondariamente a
livello anatomico. Si definisce “repertorio primario” un insieme eterogeneo di gruppi
neuronali le cui connessioni estrinseche e le cui potenzialità in una certa area
cerebrale si stabiliscono in parte durante lo sviluppo. In pratica si tratta della base
operativa a partire dalla quale l’esperienza seleziona le disposizioni cerebrali di
ciascun individuo.
A completare il quadro della teoria della selezione dei gruppi neuronali vi è il
fenomeno del rientro, che garantisce la possibilità di una coordinazione tra i vari
gruppi cerebrali e quindi la formazione del repertorio secondario tramite il rinforzo
delle sinapsi determinato dall’esperienza. Nel cervello non esiste un’area
coordinatrice, di conseguenza si solleva il problema di come possano correlarsi tra
loro i vari gruppi di neuroni. Le varie aree cerebrali sono collegate da numerosissime
vie di connessione, la maggior parte delle quali presenta fibre che decorrono in
entrambe le direzioni, e che sono il fondamento strutturale del rientro. Esaminando
tale fenomeno, si può dedurre che l’elaborazione in parallelo degli stimoli è del tutto
normale nel cervello e che non è necessaria alcuna coordinazione centrale.
Il repertorio primario è costituito dall’insieme dei gruppi neuronali, il secondario è
formato dalle sinapsi. Proprio a livello sinaptico avviene la formazione di mappe
neurali, ossia delle strutture cerebrali correlate alla mente e all’apprendimento, esse
si costituiscono in base all’efficacia del legame sinaptico. Pertanto, identificando i
meccanismi che rafforzano o indeboliscono i legami, diverranno evidenti le cause
che generano le mappe neurali. I meccanismi in questione sono due: presinaptico e
postsinaptico.
37
A lungo gli scienziati hanno discusso se si tratti di meccanismi indipendenti o meno,
a tal proposito Edelman afferma che “le variazioni pre- e post-sinaptiche sono sotto
il controllo di meccanismi indipendenti, descrivibili con regole diverse. Malgrado le
regole preposte al controllo di queste modificazioni possano operare nello stesso
tempo e in parallelo in ciascuna sinapsi, contribuendo a modificarne l’efficacia
complessiva, in quella sinapsi le diverse modificazioni sono indistinguibili dal punto
di vista funzionale. Tuttavia le due regole sono molto diverse nei dettagli
strutturali”. L’argomento che depone a favore dell’indipendenza dei due meccanismi
è la capacità, da parte di questa concezione, di spiegare le variazioni
eterosinaptiche. “Una variazione eterosinaptica è una modificazione nell’efficacia di
una sinapsi che dipende dagli effetti di stimolazioni su altre sinapsi dello stesso
neurone; una variazione omosinaptica si verifica solo in concomitanza alla
stimolazione diretta della sinapsi in questione.” Quindi, mentre una variazione
omosinaptica è coerente con l’idea che i meccanismi pre- e post- sinaptici siano
legati, le variazioni eterosinaptiche non lo sono, soprattutto se si tiene conto del
fatto che l’aumento eterosinaptico di forza postsinaptica non necessita la
contemporanea attività elettrica presinaptica, e che l’efficacia presinaptica può
38
aumentare senza provocare variazioni a livello postsinaptico. Stabilito quindi che si
tratta di fenomeni indipendenti, è utile capire come agiscono. Essi obbediscono a
costanti di funzionamento piuttosto semplici: la costante presinaptica consiste in un
aumento della probabilità di rilascio del neurotrasmettitore; se la media a lungo
termine (tempi superiori al secondo) dell’efficacia presinaptica istantanea,
determinata dal rilascio del neurotrasmettitore, supera una certa soglia, allora
l’efficacia sinaptica minima per il rilascio viene assestata dalla cellula su un nuovo
valore. In altre parole, più spesso una sinapsi rilascia un neurotrasmettitore, più
spesso tenderà a rilasciarlo. Dunque, qualora un potenziale d’azione percorra una
serie di sinapsi, alcuni percorsi non determineranno effetti degni di nota, mentre
altri ne produrranno, e grazie al fenomeno del rientro, saranno stimolati a produrne
ancora; in virtù del rinforzo presinaptico, ogni qualvolta un simile fenomeno accade
aumentano le probabilità che accada di nuovo. Per quanto concerne il meccanismo
postsinaptico, le cose vanno diversamente ma sono egualmente semplici: un certo
numero di stimoli eterosinaptici che raggiungono un neurone ne determinano la
modificazione dello stato dei canali ionici relativamente a una sinapsi. Tale
modificazione incide sul potenziale eccitatorio postsinaptico, è quindi in grado di
modificare la probabilità che la parte della membrana che possiede la soglia di
eccitazione più bassa generi un potenziale d’azione e lo trasmetta. Se un neurone è
spesso bersagliato da stimoli che aumentano la capacità di una sua sinapsi di
inoltrare gli stimoli ricevuti, verrà automaticamente creato un percorso privilegiato,
ovvero un percorso con maggiori probabilità di essere attivato. Tramite i due
meccanismi qui esposti le connessioni sinaptiche si assestano durante l’intera vita,
modificando costantemente il repertorio secondario.
Edelman propone una nuova teoria evoluzionistica della memoria; lo step di
partenza è che memoria e categorizzazione sono implicite nella selezione del
mappaggio neurale globale. Inoltre memoria e categorizzazione coincidono a livello
cerebrale, pur essendo distinguibili da un punto di vista funzionale: nel cervello
esiste solo l’incessante creazione di mappe, alcune rappresentano l’ambiente, altre
organizzano i movimenti; le mappe primitive sono poco più che casuali, ma la
continua selezione, il rinforzo sinaptico, porta a una relativa stabilizzazione delle
configurazioni maggiormente adattative. In tale consolidamento sta la memoria.
D’altronde l’attivazione di un certo percorso, qualora abbia esito positivo, lo rafforza
creando nel tempo una nuova mappa, quindi se l’effetto di tale percorso si rivela
adattativo in più di una circostanza, sono maggiori le probabilità che esso venga
39
rafforzato e vada a costituire una mappa. Ogniqualvolta si verifica questa situazione,
il cervello ha generalizzato, ha compiuto quindi una categorizzazione. In sintesi
memoria e categorizzazione sono implicite e coincidono con il mappaggio globale; la
memoria grazie al consolidamento, la categorizzazione grazie al molteplice utilizzo
delle mappe locali selezionato spontaneamente nelle fasi globali del mappaggio.
La memoria è quindi una categorizzazione già avvenuta e che si ripete nel tempo. La
correlazione di segnali del passato, legati a valori che vengono stabiliti da sistemi di
controllo interni, e segnali categorizzati, provenienti dal mondo esterno, porta alla
memoria nelle aree concettuali. Essa è una funzione dinamica del sistema ed è insita
nella natura della mappa globale, e consiste nella capacità di ripetere una
determinata prestazione. La tipologia della prestazione è dipendente dalla struttura
del sistema in cui si manifesta la memoria stessa, poiché essa è una proprietà
sistemica. Si può dunque evidenziare la profonda differenza tra la memoria di un
calcolatore, che consiste nell’immagazzinamento di informazione codificata in
maniera precisa, e la memoria del sistema nervoso centrale, il cui funzionamento di
base è dinamico ed è visibile nelle mappe globali.
I contesti infatti variano in continuazione, conseguentemente cambiano anche la
struttura e la dinamica delle popolazioni neurali coinvolte nella categorizzazione
originaria. In definitiva, tale tipo di memoria permette di ottenere la stessa risposta
partendo da molti oggetti categorizzati in maniera analoga, e sono ammessi errori.
40
41
SISTEMA NERVOSO DINAMICO CAOTICO
Un problema fondamentale nello studio delle reti neuromorfe consiste nell’analisi
delle dinamiche caotiche dei neuroni, difficoltà dovuta al tentativo di ricalcare il
comportamento reale del cervello.
Infatti il sistema nervoso è un classico esempio di sistema dinamico, in cui le variabili
sono rappresentate dai neuroni stessi. Come è stato già accennato, quando il
potenziale di membrana supera il valore soglia, il neurone emette un impulso
elettrico, cioè risulta attivo; altrimenti rimane quiescente.
L’impulso elettrico viene trasmesso attraverso il collegamento assonale ad altre
cellule nervose, oppure è ricevuto dalla cellula per mezzo dei prolungamenti
dendritici.
L’interazione tra le cellule neuronali è determinata da altre numerose variabili,
molte delle quali ancora sconosciute. Ai fini dello studio del sistema nervoso e di una
sua schematizzazione in un modello matematico, alcune variabili vengono
considerate essenziali, cioè determinanti rispetto ad altre che vengono dette
componenti del sistema.
Il sistema nervoso viene rappresentato come un sistema ad N componenti ℎଵ(t),
ℎଶ(t),….,ℎ௡ (t), ciascuna delle quali rappresenta il potenziale elettrico di un neurone
ad un certo istante, ed N è il numero totale dei neuroni.
Ad ogni istante di tempo t il sistema è caratterizzato da una configurazione
determinata dai valori dei potenziali elettrici assunti dai neuroni. Tale configurazione
prende il nome di stato del sistema ed è rappresentata da un vettore ad N
componenti:
H(t)=(ℎଵ(t),ℎଶ(t),…………..,ℎ௡ (t))
Le configurazioni assunte dal sistema dipendono dagli impulsi esterni ricevuti. Ad
esempio un odore o la visione di un’immagine producono configurazioni differenti
perché diversi sono i neuroni stimolati dalle due percezioni.
Al variare del tempo variano le configurazioni assunte dal sistema, poiché i neuroni
interagendo tra loro mediante le sinapsi modificano i loro potenziali. Tutte le
42
successive configurazioni assunte dal sistema possono essere rappresentate
mediante punti nello spazio ad N dimensioni, che prende il nome di “spazio delle
configurazioni”. L’insieme delle successive configurazioni assunte dal sistema al
variare del tempo forma una curva nello spazio delle configurazioni che prende il
nome di “traiettoria del sistema”.
Si definisce condizione iniziale del sistema la configurazione che esso assume
all’istante in cui inizia l’osservazione
H(‫ݐ‬଴)=(ℎଵ(‫ݐ‬଴),ℎଶ(‫ݐ‬଴),……………..,ℎ௡ (‫ݐ‬଴))
La regola che descrive l’evoluzione del sistema nel tempo e che rappresenta le
modalità di interazione tra i neuroni prende il nome di “dinamica” del sistema. La
dinamica del modello neuronale è rappresentata da un sistema di equazioni
differenziali
ℎଵᇱ(‫݃ = )ݐ‬ଵ(ℎଵ(‫)ݐ‬, ℎଶ(‫)ݐ‬, … , ℎே (‫)ߙ ;)ݐ‬
൝
"
ᇱ (‫)ݐ‬
ℎே
= ݃ே (ℎଵ(‫)ݐ‬, ℎଶ(‫)ݐ‬, … , ℎே (‫)ߙ ;)ݐ‬
Generalmente le funzioni g sono non lineari, e il parametro α misura la non linearità
del sistema. La traiettoria H(t) del sistema è la soluzione del sistema di equazioni
differenziali fissata la condizione iniziale H(‫ݐ‬଴).
Il significato che si può attribuire al parametro α è quello di misurare quanto può
influire nell’evoluzione del sistema l’aver trascurato le variabili ritenute non
essenziali. Una delle più interessanti scoperte, fatte mediante studi teorici e con
l’ausilio del calcolatore è che al variare dei valori assunti dal parametro α il sistema
ha evoluzioni asintotiche differenti. I valori del parametro per cui si ha questo
cambiamento asintotico di regime sono detti “punti critici di biforcazione”.
In particolare, per determinati valori del parametro, il sistema dinamico neuronale
risulta fortemente sensibile alle condizioni iniziali del sistema, cioè piccole
perturbazioni sulla configurazione iniziale conducono il sistema in stati totalmente
differenti.
Si pensi ad esempio quando vedendo un’immagine, essa ci appare totalmente
sconosciuta, poi focalizzando un minimo particolare essa ci appare come già nota.
Una piccola modifica delle condizioni può portare il nostro cervello in condizioni di
riconoscere o meno l’immagine. Sistemi dinamici fortemente sensibili alle condizioni
43
iniziali vengono detti sistemi dinamici caotici. Traiettorie con condizioni iniziali
leggermente perturbate evolvono fino ad allontanarsi esponenzialmente, tale
fenomeno viene detto “divergenza esponenziale delle traiettorie”.
È istruttivo citare la famosa frase del matematico e scienziato Lorentz, grande
studioso di fenomeni caotici: “se una farfalla si leva in volo in Brasile, il battito che
produce, dopo un considerevole tempo, può scatenare un uragano in Texas”.
Nello spazio delle configurazioni il comportamento asintotico di un sistema caotico è
rappresentato da un ente geometrico che prende il nome di “attrattore strano o
caotico”. Generalmente la presenza di caos è interpretata negativamente perché
fonte di imprevedibilità, ma tale giudizio non è in genere applicabile ai sistemi
dinamici neuronali, dove la presenza di caos può essere vista come fonte di
intuizione. In particolare è stato verificato tramite simulazioni al calcolatore che il
fenomeno della divergenza delle traiettorie non altera la capacità di riconoscimento
della rete, e l’aumento del parametro di non linearità è determinante ai fini del
riconoscimento dell’informazione.
attrattore di Lorentz
44
altro esempio di attrattore caotico
Può sembrare alquanto curioso che, pur conoscendo completamente dal punto di
vista analitico il sistema in esame, esso possa generare comportamenti cosi
complessi ed imprevedibili; ciò è dovuto evidentemente sia alla complessità
matematica dei sistemi in questione, sia all’impossibilità di conoscere con precisione
lo stato di partenza del sistema. È questo proprio il caso dei sistemi biologici ed in
particolare del cervello, per il quale non sono nemmeno note le equazioni che ne
regolano il funzionamento.
La presenza di caos è una delle proprietà che distingue il cervello umano
dall’intelligenza artificiale. Un notevole vantaggio che il caos può conferire al
cervello è di renderlo capace di produrre continuamente nuovi tipi di attività, che
potrebbero essere decisive per lo sviluppo di raggruppamenti di neuroni diversi da
quelli già stabiliti.
Per ottenere dunque informazioni utili sull’evolversi e sulle cause di patologie (come
l’epilessia) è utile abbandonare i metodi tradizionali di indagine abbracciando gli
strumenti non convenzionali offerti dalla modellizzazione tramite sistemi caotici.
Nonostante i progressi verificatisi in tale ambito, è stato verificato che per riuscire
solo ad ottenere una potenza di calcolo sufficiente a simulare i 10 milioni di neuroni
che compongono il cervello umano, sarebbe necessaria una potenza pari a 10mila
volte superiore a quella di un attuale computer. Inoltre anche avendo a disposizione
45
sufficiente potenza di calcolo sarebbe complicatissimo riuscire a mappare la
struttura del cervello e riportarne i valori dei pesi sinaptici. Considerando l’attuale
tasso di sviluppo tecnologico la possibilità di creare effettivamente un computer
pensante come un cervello umano è quindi al momento piuttosto lontana.
APPLICAZIONI
La maggior parte delle ricerche realizzate fin’ora sui ritmi del cervello si sono
focalizzare principalmente su tre aspetti fondamentali:
 a livello cellulare, è stata infatti appurata l’esistenza di cellule che presentano
intrinseche proprietà oscillatorie (tali attività sottendono i ritmi dell’EEG)
 simulazioni con sistemi neurali artificiali, in cui si evidenzia un
comportamento oscillatorio, caotico o meno, di diversi circuiti neurali
coinvolti nei diversi fenomeni mentali (ritmo circadiano, sonno-veglia,
apprendimento)
 a livello teorico, svariati studi hanno portato alla luce il fatto che le reti si
comportino come sistemi dinamici complessi con proprietà del caos
deterministico.
ANALISI A LIVELLO CELLULARE
Per quanto riguarda il livello cellulare di analisi, di particolare interesse risulta lo
studio delle proprietà dei neuroni reticolari-talamici (RE), e dei neuroni talamocorticali (TCR).
Tali neuroni presentano due fondamentali stati di attivazione, ovvero uno stato
tonico e uno stato ritmico. Risultati sperimentali hanno evidenziato la capacità di tali
neuroni di attivarsi ritmicamente in assenza di input esterni, risultando quindi
oscillatori peace-maker per altre strutture dell’encefalo.
46
Per quanto concerne invece l’attività dei neuroni TCR, esistono studi orientati a
verificare il ruolo del sistema talamo-corticale durante i primi stadi del sonno,
quando tale struttura mostra attività di tipo fusiforme. Tale attività oscillatoria
compare nei mammiferi con una frequenza di 7-14 Hz, formando dei fusi della
durata di circa 2 secondi, che ricorrono con un periodo irregolare di 5-10 secondi.
Nella seconda metà degli anni 80 è stato dimostrato che questo tipo di attività
oscillatoria del sistema talamo-corticale non si presenta quando tale sistema viene
disconnesso dai nuclei del sistema reticolare-talamico, mostrando dunque che la
connessione tra le due strutture è fondamentale per una regolare attività del
sistema talamo-corticale. Esistono inoltre altri studi che mettono un evidenza
l’importanza, nell’attività oscillatoria tra i sistemi RE e TCR, di altre variabili, quali
l’intensità del segnale in input, oppure l’entità delle connessioni o delle soglie.
Una schematizzazione dell’attività congiunta delle due strutture prevede la
frequenza delle oscillazioni fortemente dipendente dal tipo membrana, dal
potenziale di membrana e dalle interazioni sinaptiche dei neuroni singoli.
L’evidenza fondamentale risiede nella capacità delle due strutture cerebrali di
lavorare come un unico sistema auto-organizzato che, per mezzo delle dinamiche di
rientro del segnale e della variazione di polarità della membrana neuronale, è in
grado di generare oscillazioni che sono in relazione ai livelli di vigilanza.
Il sistema nervoso, con il suo elevatissimo numero di neuroni, può essere
considerato un sistema caotico, ed è caratterizzato da un numero piuttosto alto di
parametri e variabili. Rappresenta quindi un chiaro esempio di sistema dinamico
complesso, caratterizzato da stati di attivazione più o meno caotici in diversi punti
della sua totalità. Tuttavia, nonostante le conoscenze attuali di fisica e matematica
sui sistemi dinamici caotici siano piuttosto avanzate, non permette la ricostruzione
delle equazioni che governano l’esistenza del sistema che si sta studiando. Sorge
inoltre un altro problema, ovvero, per poter parlare di caos deterministico e
comparare dei diversi sistemi caotici, si dovrebbe poter determinare quanta energia
ai vari sistemi per portarli dallo stato di quiete ad uno stato turbolento o caotico. Ciò
consiste nella ricostruzione esatta delle equazioni di stato che permettano di
prevedere l’evoluzione temporale del sistema. Tale operazione risulta
47
particolarmente complicata nei sistemi dinamici caratterizzati da stati tipici del caos
deterministico.
Studi importanti sono stati effettuati da Freeman nel 1987, mettendo in evidenza
stati di attivazione caotici che precedevano o seguivano stati di attivazione
sincronizzata delle reti neurali. Tali stati di sincronizzazione erano sempre correlati
ad eventi di riconoscimento di alcuni oggetti noti.
Praticamente è stato rilevato che il caos renda possibile l’improvvisa emergenza di
processi di sincronizzazione relativi a diverse realtà significative per il sistema.
Infatti il caos, aumentando i gradi di libertà del sistema, aumenta la flessibilità nel
passaggio a diversi stati di attivazione stabili per qualche dt diverso da zero. Una
conferma parziale al ruolo svolto dal caos è data dall’osservazione dell’attività
cerebrale durante una crisi epilettica: in queste condizioni il sistema appare
fortemente sincronizzato in aree vaste e per periodi piuttosto lunghi rispetto ai
passaggi di stati che avvengono in seguito ad altri eventi mentali.
Si ipotizza quindi che il sistema nervoso, nel corso della sua evoluzione, abbia
maturato delle strategie intrinseche di randomizzazione degli stati di attivazione ed
evitare gli effetti disastrosi dovuti alla sincronia osservabili durante gli attacchi
epilettici.
L’importanza della desincronizzazione appare ancor più evidente se si prende in
esame l’attivazione muscolare e i fenomeni ad essa connessi, infatti una vasta
sincronizzazione dell’attivazione dei diversi motoneuroni porterebbe a fenomeni di
tremolio indesiderati, impedendo la finezza del movimento e un corretto
orientamento nello spazio.
48
EPILESSIA E MODELLI A DINAMICA CAOTICA
Il progresso delle tecnologie biomediche ha portato a un notevole miglioramento
delle capacità diagnostiche, con conseguente abbattimento di costi annessi alla
prevenzione e ad interventi subitanei con terapie mirate ed efficaci. Tale
miglioramento è schematizzabile in tre fasi: incremento delle conoscenze teoriche in
campo fisiologico; un input maggiore in ambito fisico-matematico; lo sviluppo
dell’ingegneria medica applicata. Un esempio di integrazione medico-ingegneristica
è stata l’invenzione dell’elettroencefalogramma. Berger, nel 1920, si accorse
dell’esistenza di un potenziale elettrico nell’encefalo, registrato attraverso una
rudimentale tecnica basata sull’infiggere due aghi d’argento nello scalpo del
paziente ad una certa distanza. Nel 1947 venne fondata la Società Americana di
Elettroencefalografia, cui seguirono studi significativi riguardo le relazioni tra le
caratteristiche variazioni del tracciato ed alcune patologie psichiatriche. La tecnica
sembrò inizialmente capace di coadiuvare le ricerche psichiatriche e neurologiche,
ma il parallelo sviluppo tecnologico la resero definitivamente superata, relegandola
all’unico strumento per una diagnosi sicura del male epilettico.
L’esame elettroencefalografico è caratterizzato da un’elevata complessità, richiede
infatti un’ampia conoscenza della neurofisiologia, delle basi dell’elettrotecnica e una
vasta esperienza in ambito neuropatologico; ma soprattutto un apprendimento
prolungato che solo l’osservazione diretta e la pratica clinica possono fornire.
Accanto alle tecnologie digitali delle apparecchiature moderne, un ruolo
fondamentale è svolto dall’informatica. Il modello computazionale basato su reti
neurali offre un utile progresso nell’elaborazione diagnostica, intervenendo
nell’esame dei segnali, in cui la sua potenza computazionale si è rivelata più
soddisfacente. Il sistema basato su reti neurali è impiegato nell’analisi di tracciati
allo scopo di rilevare anomalie epilettiformi per due principali motivi:
-il tracciato manifestato da encefali epilettici è piuttosto singolare (e dipende dal
tipo di epilessia)
-lo sviluppo di tecniche diagnostiche più affidabili, seppur invasive, quali la TAC o la
biopsia, hanno reso ozioso il suo impiego per rilevare tumori e lesioni cerebrali,
49
mentre lo sviluppo delle scienze psichiatriche ha smentito ogni pretesa
psicodiagnostica dell’esame elettroencefalografico.
GENERALITA’ DEL MALE EPILETTICO
L’epilessia è un disturbo neurologico caratterizzato (non necessariamente) da crisi
convulsive. Può manifestarsi attraverso sintomi positivi o negativi: positivi come
false percezioni, tremori accessi convulsivi, negativi come perdita di coscienza,
cecità o paralisi. I sintomi dipendono dall’area e dal tipo di tessuto cerebrale
interessato. È possibile distinguere una fase tonica dell’accesso, cioè la perdita del
tono posturale da parte del soggetto, ed una fase clonica, accompagnata da
movimenti e scatti delle estremità. Il periodo postictale è il tempo che intercorre tra
l’attacco epilettico ed il normale ristabilimento delle funzioni neurologiche.
È logico supporre che, essendo le cellule nervose eccitabili, gli accessi epilettici
derivino da una variazione dell’eccitabilità dei gruppi neuronali. Le registrazioni
extracellulari permettono il rilevamento di attività sincronizzata da parte di
aggregati cellulari, in questo caso i segnali registrati vengono detti segnali di campo.
Con risoluzioni di tempo lente, i potenziali di campo assumono la caratteristica
forma “a punte”. Tali eventi macroscopici non vanno tuttavia confusi con i normali
potenziali di attivazione registrati dalle singole cellule (gli spikes). L’EEG è
caratterizzato da un insieme di potenziali di campo registrati per mezzo di numerosi
elettrodi posti sullo scalpo del paziente. L’insieme dei siti di collocazione si definisce
“montaggio”. Ciascun elettrodo registra l’attività elettrica in corrispondenza di un
sito sullo scalpo rispetto ad un elettrodo più o meno distante. L’attività elettrica
dell’EEG viene registrata in forma attenuata, alcuni dei principali fattori che portano
al decremento dell’intensità del campo elettrico sono: interferenze fisiologiche,
attenuazione per resistenza dell’osso cranico, del liquido cerebrospinale, della cute.
Perciò è chiaro che le strutture encefaliche localizzate in profondità non influiscono
significativamente alla resa del campo elettrico registrato, ma agiscono per vie
indirette integrando la registrazione della superficie corticale. L’ampiezza dei
tracciati risulta decisamente inferiore rispetto a quanto si registra
intracellularmente.
Quando l’attività di interi aggregati di cellule nervose si sincronizza, per effetto della
sommazione delle correnti, le onde registrate diventano di maggiore ampiezza e
50
sono osservabili brusche deviazioni dell’attività basale. Tale attività sincronizzata
può essere normale, come nel caso dei fusi rilevabili durante il sonno (della durata di
1-2 secondi e caratterizzati da onde di grande ampiezza), oppure può essere
patologica, quindi indizio di un focolaio epilettico.
Ogni neurone di ciascun focolaio epilettico dà luogo ad una caratteristica risposta
elettrica sincronizzata, detta “onda di depolarizzazione parossistica”, costituita da
una repentina depolarizzazione di grande ampiezza e di lunga durata, che al suo
picco presenta un treno di potenziali d’azione, seguita da un’iperpolarizzazione
postuma.
Finchè l’attività elettrica anormale resta circoscritta al focolaio dell’accesso
epilettico, non si hanno manifestazioni cliniche. Nel caso invece di un attacco
epilettico propriamente detto, l’iperpolarizzazione postuma scompare
gradualmente e l’accesso epilettico inizia a diffondersi al di fuori del focolaio
originario. A livello neuronale la membrana non è più in grado di ripolarizzarsi e
genera una serie di potenziali d’azione ad alta frequenza.
È quindi importante evidenziare l’impossibilità di previsione dell’insorgenza degli
accessi epilettici attraverso metodi tradizionali di indagine: non è infatti possibile
analizzare una precisa relazione di causa-effetto tra ambiente esterno e crisi,
51
comportando un’inefficace profilassi: ciò avvalora la scelta di modellizzare il cervello
con un sistema a dinamica non lineare.
Dall’osservazione dei tracciati è possibile osservare nella fase convulsiva l’apparente
casualità temporale del segnale EEG ed il fenomeno dell’intermittenza aperiodica e
pseudo casuale del tracciato, caratterizzato da impulsi elettrici di grande ampiezza. È
proprio quest’ultimo fenomeno a giustificare l’abbandono di una descrizione di tipo
lineare del cervello, a causa dell’assenza di correlazione tra l’ambiente esterno e
l’insorgenza di scariche neuronali. La presenza di impulsi di grande ampiezza indica
che, durante la fase critica, un gruppo di neuroni tende a sincronizzarsi con una
frequenza di ripetizione non costante nel tempo: dinamiche di evoluzione di questa
tipologia sono tipiche di sistemi caotici.
CARATTERISTICHE DELL’ELETTROENCEFALOGRAFIA
L’EEG studia i fenomeni elettrici che si svolgono durante l’attività neuronale. Questi
potenziali sono caratterizzati da oscillazioni continue secondo un ritmo costante in
condizioni di normalità e di riposo, ma che varia durante l’attività funzionale delle
cellule o in condizioni di sofferenza.
52
L’elettroencefalografia è basata proprio su tale principio, ovvero sullo studio delle
oscillazioni di potenziale dell’encefalo e delle loro modificazioni fisiologiche e
patologiche. Lo strumento di cui ci si serve è l’elettroencefalografo, progettato allo
scopo di registrare differenze di potenziale esistenti tra due punti posti sulla
superficie o all’interno della scatola cranica, ed eliminando al contempo le
differenze di potenziale esistenti tra i suddetti punti e la terra. Il segnale
caratteristico è registrato in modo non invasivo attraverso l’utilizzo di piccoli
elettrodi di Ag rivestiti elettroliticamente da AgCl, posti direttamente a contatto con
la pelle. Il segnale all’uscita dell’amplificatore viene digitalizzato e fornito ad un
calcolatore che si occupa della registrazione e visualizzazione.
Gli elettrodi, da 12 a 20, vengono applicati imbevuti di una soluzione salina sulla
cute del capo. I potenziali registrati sullo scalpo rappresentano i potenziali postsinaptici di un’estesa popolazione di neuroni. Per eseguire l’esame
elettroencefalografico il soggetto, seduto o disteso, deve tenere gli occhi chiusi ed
evitare il più possibile di concentrare l’attenzione.
ANALISI DEL TRACCIATO ELETTROENCEFALOGRAFICO
L’EEG presenta particolari caratteristiche di attività, che possono essere relazionate
con le varie fasi del sonno e della veglia, ma anche con alcuni profili patologici quali
l’epilessia e formazioni neoplastiche. Nell’EEG vengono considerate la frequenza e
l’intensità dell’attività elettrica. Un EEG normale di un soggetto sano la frequenza
dell’attività elettrica varia da 1 Hz a 30 Hz, e l’ampiezza da 20mcV a 100mcV. Le
possibili frequenze registrabili sono divise in bande:




Banda delta (0.5-4 Hz)
Banda teta (4-7 Hz)
Banda alfa (8-13 Hz)
Banda beta (13 30 Hz)
Le onde alfa sono di ampiezza intermedia, e sono caratteristiche della veglia
rilassata. L’attività beta, di minor ampiezza, è evidente nel corso di un’intensa
attività mentale. Quando il soggetto rilassato entra in uno stato di all’erta si verifica
la cosiddetta “de sincronizzazione” dell’EEG, con riduzione di onde alfa e aumento di
53
quelle beta. Le onde teta e delta si osservano durante la veglia e sono sintomo di
grave disfunzione cerebrale.
Dal punto di vista teorico sono tre le possibili spiegazioni alla sincronia diffusa
dell’attività cerebrale:
1. Centri pacemaker che agiscono attraverso legami sinaptici diffusi
2. Circuiti riverberanti, comprendenti vie assoniche con estese ramificazioni
3. Accoppiamento elettrico degli elementi neurali
54
Tali elementi non possono escludersi a vicenda.
La molteplicità dei ritmi e le mutevoli relazioni di fase tra le aree cerebrali rendono
necessario nel caso (1) postulare vari pacemaker indipendenti. È stato suggerito che
la formazione reticolare del tronco encefalico sia la base anatomica per la
sincronizzazione bilaterale dei ritmi fisiologici alfa e beta.
Nel caso (2) introdurre i circuiti riverberanti consiste nell’ammettere l’esistenza nel
sistema nervoso centrale di sistemi a controreazione.
Il caso (3) riceve consensi per il fatto che l’attività di una cellula nervosa può essere
influenzata da un campo elettrico esterno. Gruppi neuronali con ritmi spontanei
normali continuano a scaricarsi in sincronia anche dopo il blocco della trasmissione
sinaptica con della nicotina. Un altro fatto essenziale che sta alla base della massima
sincronia delle normali fluttuazioni è relativa inattività del tessuto nervoso.
ALTERAZIONI DEL TRACCIATO ELETTROENCEFALOGRAFICO
Il tracciato EEG può mutare rispetto alla sua forma base media, registrata e
catalogata sulla base dell’esperienza storica maturata su pazienti sani e adulti, in
presenza di alterazioni, fisiologiche e patologiche, dell’attività neuronale. Il
principale fattore di variabilità è costituito dall’età del paziente: anomalie del
tracciato sono frequenti e di minima rilevanza negli infanti fino ai 12 anni, molto
marcate nel caso dei nati prematuri, e negli anziani, nei quali si riscontra un
significativo rallentamento dell’attività di fondo. Anomalie simili si riscontrano nei
casi in cui lo stato di coscienza è ottuso la maggior parte del tempo (dementi, idioti,
o schizofrenici) o in soggetti cui siano stati somministrati farmaci anticonvulsivanti
(come i barbiturici). Producono infine modificazioni dell’attività elettrica i traumi
cranici, le lesioni congenite, le ischemie, e soprattutto le epilessie.
Le modificazioni riscontrate in presenza del male epilettico si possono ricondurre a
tre forme principali: aumento della frequenza e dell’altezza dei potenziali;
rallentamento del ritmo; comparsa del “complesso onda-punta”, costituito da
un’onda ampia e lenta accompagnata da una brevissima e ampia oscillazione
negativa.
55
Nell’epilessia le alterazioni elettroencefalografiche si presentano soprattutto
durante le crisi, di qualsiasi tipo. L’importanza dell’esame EEG nell’epilessia non sta
dunque soltanto nella documentazione obiettiva di una modificazione dinamica
cerebrale che accompagna la crisi, ma soprattutto (almeno a livello di diagnosi) nella
possibilità di svelare con una probabilità percentuale molto alta (e un margine
d’errore piuttosto ristretto) l’esistenza di un’epilessia anche in assenza di una diretta
osservazione della sua manifestazione clinica.
56
L’uso delle reti neurali può avere vantaggi sia perché rende possibile
un’interpretazione neurofisiologica delle unità appartenenti alle reti stesse e delle
micro-caratteristiche ad esse associate, sia perché la loro facilità di implementazione
è correlata al fatto che le unità di delle reti sono associate a leggi di attivazione quali
la regola di Hebb. Oltretutto le reti hanno la possibilità di un funzionamento in
parallelo delle unità in modo tale che venga espressa la ragione per cui molti
processi cognitivi sono molto veloci, infine danno la possibilità di rappresentare e
sperimentare gli effetti di lesioni sull’andamento dei processi cognitivi.
57
BIBLIOGRAFIA
• A.N. Burkitt “A review of the integrate-and-fire neuron model”, 2006.
• C. Leibold “Stability Analysis of Asynchronous States in Neuronal Networks
with Conductance-Based Inhibition”, 2004.
• N. Brunel “dynamics of sparsely connected networks of excitatory and
inhibitory spiking neurons”, 2000.
• S. Ferrari “le reti neurali”
• R. Berne, M. Levy “Principi di fisiologia”
• E. Izhikevich “which model to use for cortical spiking neurons?”, 2004.
• S. Luccioli “Dinamica di modelli realistici del singolo neurone”
• E. Biondi “Introduzione all’ingegneria biomedica”
• R. Miglierina “l’epilessia ed il caos deterministico”, 2003.
• Le Scienze, M. Giugliano “reti bioartificiali di neuroni”, 1999.
• M. Storace “Sistemi dinamici e modelli neuronali”
• M. D’Andreagiovanni “Dispositivi VLSI neuromorfi”, 2001.
• G. Martorelli “emergenza di configurazioni in sistemi neurali caotici”
• Neuroscienze.net “journal of Neuroscience, psychology and cognitive
science”, 2009.
• http://www.synaptics.org/neurbook.htm
• C. Catenacci “darwinismo neuronale, analisi di una teoria biologica della
mente”
• P. Strata “Atlante di plasticità neuronale”
• G. Edelman “Neural Darwinism. The theory of neuronal group selection”,
1998.
• S.H. Strogatz “Nonlinear Dynamics And Chaos”, 1994.
58
• F. Cecconi “Reti neurali applicate allo studio di elettroencefalogrammi”, 2008.
• http://www.piaggio.ccii.unipi.it/bio/corsi/modelli.it
59