DOTTORATO DI RICERCA IN INFORMATICA
XVIII CICLO
SETTORE SCIENTIFICO DISCIPLINARE INF/01 INFORMATICA
Implementazione ed analisi
di reti neurali wetware
Tesi di Dottorato di Ricerca di:
Giovanni Cino
Relatore:
Dott.ssa Rita Pizzi
Coordinatore del Dottorato:
Prof. Vincenzo Piuri
Anno Accademico 2005/06
Ai miei Genitori
Indice
Introduzione ......................................................................................................................................... 1
Capitolo 1
I neuroni e le cellule staminali ..................................................................................... 3
1.1
I neuroni: tra biologia ed informatica .................................................................................. 3
1.2
Il neurone biologico ............................................................................................................. 5
1.2.1
Il potenziale a riposo di membrana .............................................................................. 6
1.2.2
Potenziale d’azione (Spike) ......................................................................................... 8
1.3
Modello del potenziale d’azione .......................................................................................... 9
1.4
Le cellule staminali ............................................................................................................ 10
Capitolo 2
Interfacciamento neuroelettronico ............................................................................. 14
2.1
Sistemi ibridi ...................................................................................................................... 14
2.2
I passi salienti ..................................................................................................................... 15
2.3
Integrazione tra neuroni e circuiti elettronici ..................................................................... 17
2.4
Voltage-clamp e Patch-clamp ............................................................................................ 21
2.5
Micro-Electrode Array (MEA) .......................................................................................... 23
2.6
Voltage-clamp vs Micro-Electrode Array.......................................................................... 25
2.7
Cellule staminali e Micro-Electrode Array ........................................................................ 28
Capitolo 3
Le reti neurali artificiali ............................................................................................. 31
3.1
Intelligenza artificiale classica, non classica e la teoria del connessionismo .................... 31
3.2
Architettura delle reti neurali artificiali ............................................................................. 34
3.3
Reti artificiali che apprendono ........................................................................................... 36
3.3.1
L’apprendimento ........................................................................................................ 37
3.3.2
Le regole per l’apprendimento ................................................................................... 38
3.4
Modelli di rete neurale ....................................................................................................... 41
3.4.1
Rete di Hopfield ......................................................................................................... 41
3.4.2
Self Organizing Map ( SOM ).................................................................................... 43
3.4.3
ITSOM ( Inductive Tracing Self Organizing Map ) .................................................. 48
Capitolo 4
Rete neurale su MEA in forma di ANN ..................................................................... 51
4.1
Studio della configurazione ottimale della rete neurale biologica in forma di ANN ........ 51
4.1.1
Studio del modello ANN di Kohonen ........................................................................ 51
4.1.1.1 Implementazione dell’Algoritmo ........................................................................... 52
4.1.1.2 Esecuzione ............................................................................................................. 53
4.1.1.3 Risultati .................................................................................................................. 53
4.1.2
Studio del modello ANN di Hopfield ........................................................................ 54
4.1.2.1 Implementazione dell’Algoritmo ........................................................................... 55
4.1.2.2 Risultati .................................................................................................................. 55
4.2
Creazione della rete neurale su MEA ................................................................................ 56
4.3
Il modello di Kohonen su MEA ......................................................................................... 59
4.4
Il modello di Hopfield su MEA ......................................................................................... 67
I
Capitolo 5
Analisi dell’apprendimento della rete biologica tramite Il metodo RQA .................. 72
5.1
Risultati della rete di Kohonen........................................................................................... 74
5.2
Risultati della rete di Hopfield ........................................................................................... 76
5.3
Conclusioni ottenete dall’analisi RQA .............................................................................. 78
Capitolo 6
Tecniche classiche per la decodifica dell’ informazione neurale .............................. 79
6.1
Il problema della codifica neurale ...................................................................................... 79
6.2
Identificazione e classificazione degli eventi di spike ....................................................... 81
6.2.1
Spike detection ........................................................................................................... 82
6.2.2
Spike Burst detection ................................................................................................. 84
6.3
Analisi statistiche classiche per la codifica neurale ........................................................... 85
6.3.1
JISI ( Joint Inter Spike Interval) ................................................................................. 85
6.3.2
CISI ( Conditional Cross Inter Spike Interval ) ......................................................... 86
6.3.3
IBIH ( Inter Burst Interval Histogram ) .................................................................... 87
6.3.4
JBIH ( Joint Burst Interval Histogram ) .................................................................... 88
6.3.5
CIBI ( Conditional Cross Inter Burst Interval ) ......................................................... 88
6.3.6
JPSTH ( Joint Peri-Stimulus Time Histogram )......................................................... 89
6.4
Fasi di un progetto per la decodifica di spike train neurali ............................................... 89
6.5
Problematiche legate all’utilizzo di tecniche classiche e algoritmi ................................... 90
Capitolo 7
Sperimentazione di una tecnica basata su una ANN per la decodifica
dell’informazione neurale .................................................................................................................. 93
7.1
Preparazione dei MEA ....................................................................................................... 94
7.2
Sistema di acquisizione e di stimolazione.......................................................................... 97
7.3
Protocollo di stimolazione e di registrazione dei segnali ................................................... 99
7.4
Funzionamento della rete neurale .................................................................................... 101
7.5
Interfaccia grafica e applicazione robotica ...................................................................... 105
7.6
Schema generale dell’apparecchiatura ............................................................................. 111
7.7
Risultati ottenuti ................................................................. Error! Bookmark not defined.
Capitolo 8
Conclusioni e Sviluppi futuri ................................................................................... 118
Bibliografia ...................................................................................................................................... 120
Ringraziamenti ................................................................................................................................. 131
II
Introduzione
Negli ultimi anni sono state condotte numerose ricerche nel campo dell’interfacciamento diretto fra
elettronica e sistema nervoso, principalmente dedicate allo sviluppo di protesi elettroniche di
supporto a deficit neurologici. Nonostante parziali successi, l’impianto diretto di elettrodi nel
cervello ha dato luogo a distruzione del tessuto nervoso, infezioni e rigetto. Per apportare un reale
sviluppo a queste ricerche è necessario quindi utilizzare un metodo di interfacciamento fra neuroni
ed elettronica che si dimostri meno invasivo dei metodi attualmente utilizzati.
Parallelamente la ricerca in campo neurofisiologico può trarre giovamento da moderne tecnologie in
grado di analizzare in dettaglio il comportamento di reti di neuroni, superando il limite attuale
dell’analisi da singolo neurone, evidentemente inadatta ad esplorare la complessità delle
connessioni neurali. Ultilizzando sistemi multielettrodo si possono auspicare nuovi successi nella
ricerca neurofisiologica, in particolare nel campo ancora molto intricato della decodifica del segnale
neurale.
Inoltre i successi della robotica e della bionica indicano il progresso verso sistemi
hardware/software in grado di emulare le funzionalità più evolute del cervello e del corpo umano,
tanto da rendere immaginabili sistemi ibridi umani/elettronici le cui potenzialità sono ancora da
esplorare.
Questa tesi è la descrizione di un lavoro di ricerca condotto nell’ambito del Living Networks Lab,
gruppo del Dipartimento di Tecnologie dell’ Informazione dell’ Università degli Studi di Milano
che si propone di approfondire la tematica dell’interfacciamento fra sistemi hardware/software e
neuroni biologici, utilizzando sistemi a multielettrodo (MicroElectrode Arrays, MEAs) su cui i
neuroni vengono adesi. Ciò permette da un lato la loro miglior sopravvivenza rispetto ai sistemi
invasivi in uso in precedenza, dall’ altra uno studio dettagliato delle interazioni fra neuroni e una
strutturazione di intere reti di neuroni interfacciabili all’elettronica, sulle quali sono possibili
1
Introduzione
operazioni di acquisizione ed analisi di segnali e di stimolazioni di reti di neuroni secondo pattern
complessi che simulano le percezioni sensoriali.
Sono state studiate in particolare alcune architetture di reti neurali tipiche (Kohonen e Hopfield),
per la loro affinità strutturale e comportamentale con le reti neurali biologiche. Utilizzando queste
architetture si è indagato sui meccanismi di apprendimento dei neuroni naturali in modo da valutare
se effettivamente l’agglomerato di neuroni biologici strutturato in una topologia di rete neurale
artificiale (rete wetware, da wet=umido) sia in grado di trattenere una qualsivoglia tipo di
informazione [Kon48][Pot01].
Avendo ottenuto dei risultati affermativi si è passati ad una successiva fase, dove è stato sviluppato
un algoritmo per estrarre e decodificare l’informazione contenuta nella rete di neuroni umani. A
questo scopo è stato necessario implementare
un’interfaccia reti wetware/computer atta a
configurare i pattern di input con i quali le reti vengono stimolate, e a raccogliere gli output
provenienti dai neuroni. Il software è stato scritto nel linguaggio Labview, che controlla la scheda
DAQ National Instruments necessaria all’acquisizione dei segnali in forma digitale.
I neuroni sono stati stimolati da diversi modelli di pattern digitali, in modo da apprenderli secondo
la tecnica consolidata nella prima parte del lavoro di tesi. In seguito i segnali provenienti dai
neuroni sono stati posti in cascata con una rete neurale artificiale ad hoc, sviluppata in C, che funge
da decodificatore. I segnali così decodificati possono fungere da comandi per un attuatore robotico,
che in questo modo risulta guidato dalla risposta neurale naturale a stimoli sensoriali simulati.
Una serie di esperimenti off-line ha permesso di testare i vari moduli biologici ed artificiali prima di
assemblarli in un unico sistema ibrido robotico-biologico.
Nell’ultima parte della tesi si è fatto muovere un piccolo robot attraverso comandi direzionali
provenienti dalle reti di neuroni umani sollecitate da stimoli sensoriali simulati. Come anticipato
dagli esperimenti off-line, il robot si è mosso in modo congruo agli stimoli sensoriali simulati.
Il risultato del lavoro di tesi può essere letto quindi come un progresso sia nell’interpretazione della
dinamica neuronale che nell’implementazione di un prototipo di elaboratore biologico/protesi
bioelettronica.
L’intero lavoro di tesi è stato svolto all’interno del Living Networks Lab, in collaborazione con lo
Stem Cells Research Institute del DIBIT San Raffaele diretto dal professor A.L. Vescovi
2
Capitolo 1
I neuroni e le cellule staminali
1.1 I neuroni: tra biologia ed informatica
Il cervello umano è costituito da 1010 neuroni, collegati fra di loro in una rete molto complessa ed
articolata. Ogni neurone è costituito da un corpo centrale (soma), da un lunga fibra detta assone e da
una serie di ramificazioni di varia grandezza ed estensione dette dendriti [Nic92], [Kan03], [Fia99].
Un neurone comunica con un altro attraverso dei contatti detti sinapsi ed in questo modo un singolo
neurone può essere collegato fino a circa diecimila altri neuroni. Una rete di neuroni interconnessi
prende il nome di rete neurale. La zona del cervello che distingue nettamente l’uomo da ogni altro
essere animale è la corteccia cerebrale, una lamina pieghettata, stretta contro il cranio, di spessore di
circa 4.5 mm, che è deputata ai processi mentali.
Un impulso elettrico viaggia di solito lungo l’assone e, nel momento in cui raggiunge la sinapsi,
cioè il collegamento con il dendrite o con il soma di un altro neurone, provoca la secrezione di
particolari sostanze chimiche, dette neurotrasmettitori ( se ne conoscono oggi circa una trentina di
tipi diversi ), che permettono all’impulso di superare la sinapsi e tornare a propagarsi come impulso
elettrico lungo il secondo neurone. Il neurone si comporta come un elemento logico binario: acceso
(1) se la somma algebrica degli impulsi ricevuti attraverso le varie sinapsi è sufficiente per
stimolare la partenza di un impulso elettrico lungo l’assone e spento (0) nel caso contrario.
La rete neurale opera in parallelo, cioè esegue molte operazioni contemporaneamente, a differenza
dei computer tradizionali che sono sequenziali, cioè eseguono una operazione alla volta. Questa
caratteristica ha suggerito in campo informatico di progettare computer sempre più potenti basati
sul calcolo parallelo.
3
Capitolo 1
I neuroni e le cellule staminali
La memoria può essere considerata un sistema che ha il compito di conservare le informazioni che
provengono dall’ambiente che ci circonda, di organizzarle e di renderle recuperabili in qualsiasi
momento. Ogni persona dispone di una memoria diversa che riflette le diverse esperienze che ha
avuto nel corso della sua vita. Una prima fondamentale distinzione viene operata fra memoria a
breve termine e memoria a lungo termine. La memoria a breve termine dura alcuni secondi o
minuti, mentre quella a lungo termine può durare ore, giorni o anni. In una celebre definizione il
filosofo latino Seneca paragonò la memoria a breve termine ad una scritta sulla sabbia spazzata via
dalle onde e quella a lungo termine ad una scritta scavata sulla pietra.
Strettamente associata alla memoria è la funzione del ricordare, che significa associare qualcosa
proveniente dalla nostra memoria ad un stimolo sensoriale esterno. Quando arriva uno stimolo, la
rete neurale incomincia una complessa attività elettrica che la porta ad associare a quello stimolo un
determinato ricordo a breve termine, che solitamente avrà una vita molto limitata. Se tuttavia
entrano in attività gruppi di neuroni associati alla memoria a lungo termine, allora incominciano ad
affluire tutta una serie di ricordi collegati con lo stimolo iniziale.
Le ricerche di tipo biologico riguardanti il funzionamento del cervello partono dal presupposto che
il cervello possa essere schematizzato come un sistema cognitivo auto-organizzato in grado di
elaborare l’informazione che riceve dall’esterno. Il suo comportamento è molto complesso, perché
non bisogna pensare ad una semplice legge che associa ad ogni stimolo ricevuto una ben
determinata risposta, ma invece considerare che lo stimolo mette in moto nel cervello una
complessa dinamica neurale che associa allo stimolo una rappresentazione particolare, fra le tante
archiviate in memoria. Un semplice stimolo uditivo è in grado di mettere in moto un certo numero
di aree distinte del cervello e di far nascere nella nostra mente un continuo flusso di ricordi.
L’elemento base di questo sistema complesso autoorganizzato è il neurone.
4
Capitolo 1
I neuroni e le cellule staminali
1.2 Il neurone biologico
Fig 1.1 Illustrazione delle principali parti del neurone.
Il neurone rappresenta l’unità strutturale e funzionale del sistema nervoso. Un tipico neurone
possiede, come precedentemente accennato, un corpo cellulare ( soma ), neurofibrille, neurotubuli
e, come la maggior parte delle cellule un nucleo, mitocondri ed altri organuli cellulari [Alb94]. Il
neurone (Fig 1.1) è provvisto di due tipi di prolungamenti cellulari, i dendriti e gli assoni [Gol08],
[Dei65], [Ram94], [She94], [She98]. I dendriti formano di regola numerose ramificazioni che
raccolgono i segnali afferenti (di eccitazione e di inibizione ) provenienti da altri neuroni ( spesso
migliaia ) e che generano attraverso la membrana cellulare del soma una somma dei segnali.
L’assone che si origina in corrispondenza del cono di emergenza del soma, ha il compito di
trasmettere il segnale nervoso efferente ad altri neuroni o agli organi effettori ( cellule ghiandolari o
muscolari ), spesso situati a notevoli distanze. Nel suo percorso spesso l’assone emana dei rami
collaterali che si suddividono ulteriormente in corrispondenza delle loro porzioni distali [Mar82].
Se, a livello del cono di emergenza, la somma dei segnali supera un determinato valore soglia,
allora si genera un potenziale d’azione che si propaga lungo l’assone fino ai bottoni sinaptici.
Dall’apparato del Golgi localizzato nel soma fino alle porzioni terminali dei dendriti e dell’assone si
verifica un trasporto rapido di vescicole contenenti proteine, lipidi, zuccheri, sostanze di
trasmissione ed altro. Questo trasporto anterogrado lungo i neurotubuli avviene grazie ad una
proteina simile alla miosina, la chinesina, la cui attività richiede utilizzo di ATP
(adenosintrifosfato). In senso retrogrado ( dalla periferia al soma ) vengono invece trasportati fattori
di crescita nervosa ( NGF, nerve growth factor ). La membrana plasmatica del soma continua lungo
l’assone e risulta circondata nel SNC da oligodendrociti e nel sistema nervoso periferico da cellule
5
Capitolo 1
I neuroni e le cellule staminali
di Schwann. In alcuni neuroni le cellule di Schwann formano numerosi strati fosfolipidici
concentrici intorno all’assone, il cosiddetto strato mielinico, che funge da isolante per i flussi ionici
e risulta interrotto lungo l’assone ogni 1,5 mm da un cosiddetto nodo di Ranvier. Le fibre nervose
mieliniche sono caratterizzate da una maggiore velocità di propagazione dell’ impulso rispetto alle
fibre nervose amieliniche. La velocità di propagazione aumenta inoltre con il diametro della fibra
nervosa [Alb94].
La sinapsi rappresenta la zona di contatto tra l’assone di una cellula nervosa e un effettore o un altro
neurone. Nei mammiferi in corrispondenza delle sinapsi avviene ( con poche eccezioni ) una
trasmissione chimica e non elettrica. In seguito all’arrivo del segnale elettrico, a livello della
membrana presinaptica vengono liberate mediante esocitosi delle vescicole contenenti un
neurotrasmettitore [Nic92]. Questo diffonde attraverso la fessura sinaptica fino alla membrana postsinaptica, dove genera nuovamente cambiamenti elettrici della membrana.
A seconda del tipo di neurotrasmettitore e del tipo recettoriale inserito nella membrana postsinaptica questa viene eccitata o inibita. Poichè la membrana post-sinaptica non rilascia
neurotrasmettitori, a livello della sinapsi la trasmissione del segnale è unidirezionale. Le sinapsi
possiedono pertanto una funzione valvolare fondamentale per la trasmissione ordinata dell’
informazione, e rappresentano inoltre il luogo in cui la propagazione neuronale può essere
modificata da parte di altri neuroni ( attivazione o inibizione ) [Nic92],[Alb94].
1.2.1 Il potenziale a riposo di membrana
Nelle cellule vive la membrana possiede un potenziale elettrico, Em, che nelle fibre nervose a
riposo viene definito potenziale di membrana a riposo. Tale potenziale varia, a seconda del tipo
cellulare, tra –50 e –100mV ( versante interno della cellula carico negativamente ). Il potenziale si
genera a causa della disomogenea distribuzione degli ioni (Tabella 1.1) tra liquido intracellulare (
LIC ) e liquido extracellulare ( LEC ) [Hod39a].
6
Capitolo 1
I neuroni e le cellule staminali
K+
Na+
Ca2+
H+
ClHCO3-
Concentrazione “effettiva” (mmol/Kg H2O)
Potenziale
di equilibrio
Interstizio (LEC)
Cellula LIC
4,5
160
-95 mV
144
7
+80 mV
1,3
0,0001-0,00001
+125 +310 mV
-3
-4
4*10 (pH 7,4)
10 (pH 7,0)
-24 mV
114
7
-80 mV
28
10
-27 mV
Tabella 1.1 Concentrazioni effettive tipiche e potenziali d’equilibrio dei principali ioni
nel muscolo scheletrico a 37° C.
I seguenti fenomeni sono i principali contribuenti alla formazione del potenziale di riposo:
Mantenimento della distribuzione disomogenea degli ioni: grazie all’attività della Na+K+ATPase, ioni Na+ vengono continuamente pompati fuori dalla cellula, mentre K+ vengono
trasportati all’interno, cosicché nell’ambiente intracellulare la concentrazioni degli ioni K+ risulta
circa 35 volte più elevata, mentre quella degli ioni Na+ è circa 20 volte più bassa rispetto alla
concentrazione di questi ioni nell’ambienta extracellulare. Come in ogni altro tipo di trasporto
attivo, anche la Na+-K+ATPase richiede energia, in questo caso ATP. In caso di carenza di energia
o in seguito all’inibizione della Na+-K+ATPase, il gradiente ionico sui due versanti della membrana
diminuisce e il potenziale di membrana crolla.
Bassa conduttanza degli ioni Na+ a riposo: in condizioni di riposo, la membrana
plasmatica risulta estremamente poco permeabile agli ioni Na+, cosicché la differenza di
concentrazione di Na+ non può essere prontamente annullata con la diffusione passiva degli ioni
all’interno della cellula.
Elevata conduttanza per
gli ioni K+: nella cellula a riposo, la membrana è
discretamente permeabile agli ioni K+ ( circa il 90% della conduttanza complessiva ). A causa
dell’elevata differenza di concentrazione, gli ioni K+ diffondono per tanto dal LIC al LEC. A causa
della loro carica positiva, anche lo spostamento di un ridotto numero di ioni provoca uno
spostamento di cariche sui due versanti della membrana. Questo potenziale di diffusione continua
fino a quasi compensare il gradiente di concentrazione che agisce da forza motrice dell’efflusso di
ioni K+.
7
Capitolo 1
I neuroni e le cellule staminali
1.2.2 Potenziale d’azione (Spike)
Fig 1.2 Rappresentazione schematica classica del potenziale d’azione delle cellule nervose.
Il potenziale d’azione (Fig 1.2) è il segnale ( impulso ) che si propaga attraverso le cellule neurali
lungo l’assone [Adr32], [Hod39a], [Nic92]. L’eccitazione si genera quando il potenziale di
membrana si allontana dal suo valore riposo per assumere valori meno negativi (
predepolarizzazione ). La causa dell’eccitazione può essere l’apertura, a opera di un
neurotrasmettitore, di canali per i cationi situati nella membrana post-sinaptica, oppure
un’eccitazione proveniente dall’ambiente circostante. Se durante l’eccitazione il potenziale di
membrana si avvicina ad un determinato valore critico, il cosiddetto potenziale soglia, allora
vengono attivati canali per gli ioni Na+ voltaggio-dipendenti, ovvero la conduttanza agli ioni Na+
aumenta e tali ioni intraprendono un flusso in entrata alla membrana. Se il potenziale soglia non
viene raggiunto, questa eccitazione locale non provoca alcun ulteriore cambiamento. Se Em supera il
potenziale soglia, si forma allora il potenziale d’azione [Nic92]. Inizialmente viene attivato un
numero progressivamente maggiore di canali per gli ioni Na+, e accelerando la depolarizzazione la
conduttanza agli ioni sodici aumenta ulteriormente. In questo modo Em crolla molto rapidamente (
fase di depolarizzazione ) e raggiunge temporaneamente persino valori positivi come +20 +30 mV .
I canali per gli ioni Na+ si inattivano molto velocemente ( 0,1 ms ), in funzione dei quali il
potenziale s’inverte e viene a ristabilirsi il potenziale a riposo ( fase di ripolarizzazione ). In seguito
8
Capitolo 1
I neuroni e le cellule staminali
alla depolarizzazione si sono aperti numerosi canali per gli ioni K+, e la conduttanza per tale ione è
aumentata ( abbastanza lentamente ) di modo da favorire la ripolarizzazione (Fig 1.3).
Fig 1.3 Si riportano le differenti conduttanze ioniche per gli ioni Na+ e K+. Sono
illustrate le differenti velocità di variazione delle conduttanze per i due differenti ioni.
Poichè spesso la conduttanza agli ioni potassici risulta ancora aumentata quando la membrana ha
già raggiunto il potenziale a riposo, si può verificare un’iperpolarizzazione. A tale fenomeno può
inoltre contribuire un maggiore attività della Na+-K+ATPase. Possono generarsi molti potenziali
d’azione in breve tempo, dal momento che la quantità di ioni che fluiscono attraverso la membrana
è molto bassa. Poco dopo l’inizio di un potenziale d’azione, anche stimoli estremamente intensi non
ne possono innescare un altro, perché nella membrana depolarizzata i canali per gli ioni Na+ non
possono essere attivati ( periodo refrattario ).
1.3 Modello del potenziale d’azione
In una serie di articoli pubblicati a partire dal 1952, A.C. Hodgkin e A.F. Huxley hanno aperto le
porte ad una comprensione dettagliata di come i segnali elettrofisiologici sono trasmessi all'interno
del sistema nervoso [Hod52a], [Hod52b], [Hod52c], [Hod52d]. Da questi lavori è nata la
descrizione del potenziale d’azione (o “spike”).
9
Capitolo 1
I neuroni e le cellule staminali
In via estremamente sommaria possiamo dire che in un neurone, i dendriti e il soma ricevono ed
elaborano l'informazione, mentre l'assone la propaga a distanza (Fig 1.4). Il modo di propagazione
per il quale l'assone è specializzato è il potenziale d'azione (o Spike), una variazione fortemente non
lineare nel tempo che si propaga nello spazio lungo l'assone. Durate dell'ordine dei millisecondi e
variazione di potenziale dell'ordine dei 100 mV sono tipici. Tale fenomeno è oggetto di descrizione
del modello di Hodgkin e Huxley.
Il modello di Hodgkin e Huxley esprime il comportamento elettrico di una cellula nervosa,
descrivendo la corrente totale I di membrana come funzione del tempo e della tensione V di
depolarizzazione di membrana, vedi formula seguente.
I CM (
dV
) (V VK ) g K (V V Na ) g Na (V Vl ) g l
dt
Dove gK , gNa , gl rappresentano le conduttanze (funzioni del tempo e del potenziale di membrana)
dei canali a corrente ionica di potassio, di sodio e a corrente di perdita (leakage current, dovuta
principalmente al cloro), e VK ,VNa ,Vl rappresentano le cadute di tensione su ciascun canale, mentre
CM rappresenta la capacità di membrana per unità di area.
Fig 1.4 Propagazione dell spike l’ungo l’assone
1.4 Le cellule staminali
Una cellula staminale (Fig 1.5) viene comunemente definita come una cellula che si divide (di solito
raramente) dando origine a due cellule diverse tra loro: una cellula figlia è uguale alla cellula madre
10
Capitolo 1
I neuroni e le cellule staminali
( staminale ) mentre l’altra cellula figlia è diversa (progenitore) e, anche se può dividersi numerose
volte, non può più farlo indefinitamente ( perdita della staminalità ) e prima o poi tutta la sua
progenie differenzierà in un solo tipo ( cellula staminale unipotente ) o in diversi tipi ( cellula
staminale multipotente ) di cellule differenziate.
Fig 1.5 La parte A illustra la duplicazione delle staminali. Le figure B e C riportano
rispettivamente la duplicazione di staminali unipotenti e multipotenti.
Questa definizione è teorica poiché non disponiamo di marcatori molecolari che ci permettano di
distinguere tra loro le due cellule figlie di una cellula staminale. Possiamo soltanto derivare questa
definizione da saggi funzionali retrospettivi.
In base alle conoscenze attuali le cellule staminali vengono divise in due gruppi principali: cellule
staminali embrionali e cellule staminali adulte. Questa classificazione risulta essere imprecisa in
quanto tra le cellule staminali adulte sono comprese quelle fetali, presenti negli abbozzi degli
organi, quelle neonatali, isolabili dal cordone ombelicale, e quelle propriamente adulte, presenti in
molti (o forse tutti) gli organi del nostro organismo [Gal03].
Le cellule staminali adulte sono presenti in molti e forse in tutti gli organi dei mammiferi, anche se
il loro numero si riduce probabilmente con l’età [Wes03]. In passato si riteneva che soltanto i tessuti
soggetti a continuo ricambio (sangue ed epiteli) possedessero cellule staminali, necessarie per
sostituire con nuove cellule differenziate le cellule perdute quotidianamente durante tutta la vita
11
Capitolo 1
I neuroni e le cellule staminali
dell’individuo. Ciò spiegava come questi tessuti fossero soggetti principalmente a patologie di tipo
proliferativo (tumori). Al contrario, i tessuti le cui cellule non si rinnovano (o si rinnovano con
estrema lentezza) nella vita adulta (muscolo scheletrico e cardiaco, tessuto nervoso) erano ritenuti
privi di cellule staminali e quindi prevalentemente soggetti a patologie di tipo degenerativo. Le cose
sono cambiate con la dimostrazione, oggi incontrovertibile, che il sistema nervoso centrale e quello
periferico contengono cellule staminali neurali, capaci di proliferare indefinitamente o quasi nelle
opportune condizioni sperimentali e di generare i principali tipi cellulari del sistema nervoso quali
neuroni e glia. Inoltre, anche il cuore, finora ritenuto incapace di rigenerazione, probabilmente
contiene cellule staminali, capaci di generare nuovi cardiociti e forse anche cellule muscolari lisce
ed endoteliali.
Le cellule staminali embrionali sono presenti nella massa cellulare interna ( o embrioblasto ) della
blastocisti, poco prima dell’impianto nella mucosa uterina (Fig 1.6).
Fig 1.6 Dopo la gastrulazione le cellule staminali embrionali ( multipotenti ) diventano
adulte ( unipotenti ). Tra i vari tessuti in cui si riscontrano cellule staminali adulte in
rosso si le cellule neurali cerebrali.
12
Capitolo 1
I neuroni e le cellule staminali
Queste cellule possono essere coltivate in opportune condizioni per lunghi periodi e sono quindi in
grado di generare un numero elevatissimo di cellule figlie le quali mantengono la capacità di
differenziare in tutti i tessuti dell’organismo e per tale motivo sono definite “totipotenti”. Le cellule
staminali embrionali o ES ( dall’inglese: “embryonic stem” cells ) possono essere geneticamente
modificate in vitro mediante sostituzione di un gene sano con uno mutato o viceversa (
ricombinazione omologa ). Quando iniettate nella cavità (blastocele) di una blastocisti ospite, le ES
colonizzano tutti i tessuti dell’embrione chimerico ( così definito perché composto dalla mescolanza
di due genotipi diversi ) compresa la linea germinale.
In riferimento agli esperimenti condotti durante la tesi si precisa che le cellule staminali utilizzate
provengono da tessuti di cervelli ottenuti da feti umani abortiti naturalmente dopo dieci settimane di
gestazione. Le cellule staminali sono state prelevate dal telencefalo e dal diencefalo e differenziate
con apposito protocollo in vitro [Gri01].
13
Capitolo 2
Interfacciamento neuroelettronico
2.1 Sistemi ibridi
Il tentativo di connettere il cervello al calcolatore prende origine dal fatto che entrambi, anche se in
modo diverso, comunicano elettricamente. L’idea di provare ad interfacciare direttamente i due
sistemi è una sfida non solo tecnologica, ma i cui risultati potrebbero portare alla comprensione di
molti problemi irrisolti delle scienze cognitive e della neurofisiologia.
Allo stato attuale delle conoscenze teoriche e della tecnologia a disposizione non siamo in grado di
stabilire che cosa ci riservi il prossimo futuro, ossia se dovremo aspettarci tessuti cerebrali integrati
nei computer oppure chip integrati direttamente nel nostro cervello. Una cosa però è certa:
qualunque siano le ricerche svolte in questo campo, ci aiuteranno a capire meglio l’architettura del
cervello. Tutto ciò porterà ad uno sviluppo di applicazioni scientifico-tecnologiche fino ad ora non
possibili.
Cercare di comprendere come l’informazione venga conservata ed elaborata in una rete di neuroni è
un’operazione alquanto complessa a causa delle numerose variabili in gioco.
Ciò che verrà proposto nelle pagine seguenti è uno studio integrato tra reti nervose e reti neurali
artificiali, un metodo plausibile che consente una comprensione della comunicazione neurale
[Jim00a]. L’utilizzo delle reti neurali artificiali che, come visto nel capitolo precedente, presentano
in maniera semplificata le proprietà delle reti di neuroni, è un approccio diverso ai comuni metodi
di integrazione tra i sistemi biologico-elettronici che si basano su algoritmi tradizionali e indagano
su alcune caratteristiche del segnale.
14
Capitolo 2
Interfacciamento neuroelettronico
Prima di presentare il progetto svolto dal nostro gruppo di ricerca, è indispensabile citare alcuni dei
lavori più significativi ritrovati in letteratura, per meglio comprendere quanto sia nuovo e
innovativo l’argomento trattato.
Ciò che è stato fatto in materia è frutto di studi condotti in tempi recenti a partire dai primi anni
novanta. Ripercorrendo i primi lavori fino a giungere ai giorni nostri, ci si rende conto come
l’introduzione di tecnologie innovative, e le teorie nate a seguito dei primi esperimenti, abbiano
permesso grandi passi avanti in un lasso di tempo piuttosto breve. L’argomento si è così ritrovato
negli ultimi anni al centro di numerosi dibattiti e conferenze in diverse parti del mondo e oggetto di
studio di vari gruppi di ricerca.
Nell’ultimo decennio molti laboratori nel mondo hanno effettuato esperimenti sull’integrazione
diretta neuro-elettronica al fine di sostenere la ricerca neurofisiologica ma anche per sperimentare
dispositivi ibridi, protesi bioelettroniche e computazioni biologiche.
Poiché microelettrodi inseriti nel cervello determinano forme di rigetto e infezioni, le ricerche si
sono avviate verso la sperimentazione di un’adesione diretta tra il tessuto neurale e i circuiti
elettronici, con importanti risultati [Ege88], [Ak94], [Wil94], [Bre95], [Bov96], [Can97], [Jen97],
[Jim00b].
Le ricerche riguardanti campi come la biologia, l’informatica, l’ingegneria, hanno trovato un
comune denominatore. Gli scienziati che si occupano di queste discipline hanno scoperto un modo
di unire gli sforzi, applicando le loro conoscenze in ambiti di ricerca comuni. Lo studio che unisce
queste discipline apparentemente diverse tra loro può essere chiamato “Biomorphic Robotica”.
2.2 I passi salienti
Già nei primi anni novanta il laboratorio di P. Fromhertz presso il Max Plance Istitute di
Monacostabilì per la prima volta un’interfaccia elettrica tra cellule nervose e microstrutture
semiconduttrici, utilizzando i neuroni delle sanguisughe, notoriamente grandi e quindi facili da
manipolare, uniti a transistor disposti su una piastra di silicio [Fro91].
In seguito a questi primi rudimentali esperimenti si è passati a studiare sia la natura microscopica
delle giunzioni neurone-silicio, sia nuovi sistemi ibridi che combinavano neuroni a reti neurali con
dispositivi microelettronici semiconduttori [Kau04]. Tutto questo facendo molta attenzione a
15
Capitolo 2
Interfacciamento neuroelettronico
rispettare la struttura e le proprietà elettriche e utilizzando contatti non invasivi, al fine di descrivere
in modo corretto tali giunzioni e ottimizzare l’interfaccia tra neuroni e chip. Lo scopo di questi
sistemi ibridi era quello di studiare i processi dinamici distribuiti, come l’apprendimento e la
memoria [Fro93], [Lin96], [Sha01].
Nel 1999 sono stati condotti da W. Ditto e dai suoi collaboratori, presso l’università di Atlanta
(Georgia), alcuni esperimenti volti a creare delle semplici computazioni attraverso i neuroni di
sanguisughe. L’esperimento consisteva nel collegare due neuroni tra di loro e ad un computer in
grado di inviare dei segnali in modo selettivo ad ognuno di essi. Ditto è stato in grado di far
compiere ai due neuroni una semplice addizione. Simulazioni al computer hanno mostrato come
grandi gruppi di neuroni possano in linea di principio compiere moltiplicazioni e operazioni
logiche. Le porte aperte da Ditto sono estremamente affascinanti perché prospettano un futuro
lontano in cui i biocomputer saranno in grado di trovare soluzioni adatte a problemi che solo l’uomo
oggigiorno è in grado di risolvere [Gar03].
Nel 1999 un altro gruppo di ricercatori ha condotto degli esperimenti su delle reti neurali coltivate.
Il loro scopo era quello di capire le correlazioni morfologiche dell’apprendimento e della memoria.
Questo progetto, sviluppato al Pine Lab del California Institute of Technology, ha utilizzato sistemi
di neuroni coltivati su di un substrato di silicio. I neuroni prelevati dall’ippocampo di topi sono stati
cresciuti su delle piastre. Questi hanno formato rapidamente delle sinapsi, e hanno sviluppato
spontaneamente complessi schemi di connessione. Stimolando gruppi di neuroni con vari schemi di
potenziali d’azione simulati, si è sperato di osservare dei cambiamenti nelle reti di neuroni. Questi
segnali hanno indotto dei cambiamenti nel numero e nella grandezza delle sinapsi, nella crescita
dendritica e nell’interazione con le cellule gliali [Pin99], [Mah99], [Per96].
Nel 2000 un team di ricercatori della Northwestern University di Chicago, dell’Università
dell’Illinois e dell’Università di Genova ha presentato il risultato delle loro ricerche: la
realizzazione di una creatura ibrida costituita da un corpo meccanico controllato dal cervello di un
pesce. Il robot possiede pochi neuroni prelevati dalla lampreda marina Petromyzon marinus, un
vertebrato primitivo simile alle anguille. Di fronte ad alcuni stimoli luminosi il robot ha presentato
diversi comportamenti: ha seguito la luce, ha evitato la luce, si è messo a “camminare” in circolo.
La ricerca originariamente avrebbe dovuto studiare gli adattamenti delle cellule del cervello di
fronte a stimoli che cambiano in continuazione, tuttavia l’esperimento è andato oltre permettendo di
comprendere in parte come i neuroni comunichino con le macchine artificiali [Reg00].
16
Capitolo 2
Interfacciamento neuroelettronico
Nel 2002 P. Fromherz ha coltivato delle cellule nervose su una piastrina da cui emergevano
minuscoli elettrodi di silicio, rivestiti di un polimero spugnoso: dopo qualche giorno le cellule
nervose hanno stabilito rapporti tra loro, proprio come avviene nel sistema nervoso, ma soprattutto
hanno formato sinapsi con gli elettrodi di silicio, formando una rete biologico-artificiale in cui i
neuroni rispondevano ai segnali elettrici degli elettrodi e questi ultimi ai segnali dei neuroni
[Fro02], [Bel02].
Nel 2003 il gruppo della Duke University [Car03] è riuscito a collegare 320 microelectrodes alle
cellule nel cervello di una scimmia, permettendo di tradurre direttamente i segnali elettrici in
istruzioni per il computer, in grado di spostare un braccio robotico. Questa è la strada per permettere
alle persone disabili di muovere arti paralizzati o protesi elettroniche.
Nel 2005 il gruppo del SISSA di Trieste [Rua05] ha sperimentato la possibilità di utilizzare i
neuroni sul MEAs come “neurocomputers” in grado di filtrare delle immagini digitali
L’elaborazione di reti neurali “miste” potrebbe aprire nuove strade sia nel campo dell’informatica
che in quello medico. Questi esperimenti sembrano fatti apposta per indicare come le cellule
nervose abbiano la proprietà di interconnettersi, di interfacciarsi con materiali non biologici, di
estrarre informazioni da ambienti e realtà artificiali: in altre parole, i neuroni sono dotati della
capacità di associarsi in reti intelligenti e di interfacciarsi con circuiti elettronici, purché questi siano
in grado di recepire i loro segnali e ritrasmetterli alla rete di neuroni.
2.3 Integrazione tra neuroni e circuiti elettronici
Una cellula nervosa ha un diametro di circa 10-100µm ed è avvolta da una membrana composta da
un doppio strato lipidico elettricamente isolante. Il doppio strato lipidico separa gli ioni sodio che
circondano la cellula dagli ioni potassio presenti nell’ambiente intracellulare. Le correnti attraverso
la membrana, in entrambi i sensi, sono mediate da specifici canali proteici per il sodio e per il
potassio con una conduttanza di circa 10-100pS.
I chip di silicio sono rivestiti da un sottile strato di biossido di silicio, che rende i chip perfettamente
inerti alle coltivazione di neuroni, impedendo il danneggiamento delle proprietà elettrofisiologiche.
Questo sottile strato evita la corrosione del silicio e il conseguente danneggiamento delle cellule, in
quanto blocca il trasferimento di elettroni.
17
Capitolo 2
Interfacciamento neuroelettronico
I neuroni sono conduttori di ioni, mentre il silicio è un conduttore di elettroni. Una volta soppressa
la corrente di Faraday all’interno dell’interfaccia del biossido di silicio, l’accoppiamento tra cellule
e chip può essere raggiunto solo attraverso la polarizzazione elettrica. Se il doppio strato lipidico
della cellula è direttamente in contatto con lo strato di biossido di silicio colpito si forma un
compatto dielettrico che non permette il flusso di elettroni (Fig 2.1). Il campo elettrico che
attraversa la membrana cellulare, causato dall’attività neuronale, polarizza il biossido di silicio così
che la struttura elettronica del silicio risulta alterata. Al contrario, il campo elettrico causato dal
voltaggio applicato al chip, polarizza la membrana in modo da alterare le conformazioni dei canali
ionici e delle proteine di trasporto di membrana.
Fig 2.1 Compatto dielettrico tra neurone e chip
Questo accade se la membrana del neurone e lo strato di biossido di silicio sono a stretto contatto tra
loro. Se facciamo crescere un neurone su un chip, il compatto dielettrico non viene a crearsi, perché
le proteine che sporgono dalla membrana cellulare fanno sì che tra il doppio strato lipidico e lo
strato di biossido di silicio si crei una pellicola elettrolitica (Fig 2.2).
La pellicola non è altro che uno spazio conduttore che scherma il campo elettrico e annulla la
polarizzazione dello strato di biossido di silicio e della membrana cellulare. Tra la giunzione
cellula-semiconduttore si forma così uno strato centrale che funge da conduttore planare. Gli strati
di biossido di silicio e della membrana isolano lo spazio conduttore interno dall’ambiente
conduttore del silicio e del citosol. Questo fenomeno disaccoppia elettricamente il chip dalla cellula.
Fig 2.2 Pellicola elettrolitica e conduzione tra cellule e chip
18
Capitolo 2
Interfacciamento neuroelettronico
Le correnti elettriche e la diffusione degli ioni in questa struttura governano la stimolazione e la
registrazione dell’attività dei neuroni sul chip.
Il primo passo per una interfaccia neurone-chip è determinato dal flusso di corrente nello strato
conduttore interno. L’attività del neurone porta correnti ioniche e di spostamento attraverso la
membrana cellulare, e la concomitante corrente lungo lo strato interno crea un potenziale
extracellulare transdotto (TEP) tra la cellula e il chip. Un voltaggio transiente applicato al silicio
porta le correnti di spostamento attraverso lo strato di biossido di silicio.
Nell’interfacciamento neurone-chip, il TEP nello strato conduttore viene registrato da strumenti
voltaggio-sensibili nel chip o nella cellula:
il TEP indotto dal neurone genera un campo elettrico nel biossido di silicio;
il TEP indotto dal chip crea un campo elettrico attraverso la membrana cellulare.
Un potenziale d’azione conduce una corrente elettrica attraverso la membrana della cellula e
attraverso il gap che separa cellula e chip. Il voltaggio extracellulare che modula la struttura a banda
del semiconduttore nasce da una sovrapposizione di tutte le correnti ioniche e capacitive, presenti
nel contatto.
La forma e l’ampiezza del segnale è controllata dall’accumulo e dal rilascio delle conduttanze di
ioni (nella membrana), e dalla specifica conduttanza della giunzione.
Monitorando l’attività dei neuroni si può osservare una certa varietà di segnali che possono in
qualche modo essere compattati in tre classi (Fig 2.3):
A. Il voltaggio extracellulare è proporzionale alla derivata prima del potenziale d’azione.
Questa risposta di tipo A-type avviene quando tutte le conduttanze di ioni sono rilasciate
nella giunzione e le correnti capacitive sono controllate.
B. Il voltaggio extracellulare è proporzionale al potenziale d’azione stesso. Questa risposta di
tipo B-type è stata osservata quando una non specificata conduttanza prevale nel contatto in
modo che una corrente ohmica attraverso la membrana e il gap controlli il voltaggio
extracellulare.
19
Capitolo 2
Interfacciamento neuroelettronico
C. Il voltaggio extracellulare assomiglia all’inversa della derivata prima del potenziale d’azione
(C-type). Il segnale si presenta quando tutte le conduttanze di ioni pertinenti sono
accumulate nella giunzione.
Fig 2.3 Rappresentazione delle tre classi di segnali
Possiamo quindi concludere che l’interfacciamento neuroni-chip è mediato dal potenziale
extracellulare transdotto (TEP). Un grande TEP risulta da grandi correnti attraverso la membrana e
il biossido di silicio, e da una bassa conduttanza della giunzione.
La registrazione e la stimolazione da attività neuronale sono promosse da una piccola distanza tra
membrana e silicio una alta resistenza specifica e un grane raggio della giunzione cellula-silicio..
Una registrazione efficiente richiede un’alta conduttanza ionica (gJM) nella membrana attaccata allo
strato conduttore, mentre un’efficiente stimolazione richiede un’alta capacità area specifica del chip
[Fro03].
La distanza tra cellula e chip (~ 40-100nm) può essere misurata con un metodo detto FLIC
(FLuorescence Interference Contrast), che utilizzando la microscopia, tiene conto dei diversi modi
in cui una luce si comporta di fronte alla superficie riflettente del silicio.
Lo spazio tra neurone e silicio ha una resistenza elettrica che corrisponde ad un sottile film di
elettroliti. La resistenza del film (rJ) è dell’ordine di 10 Mohm, con una resistenza globale (gJ-1)
20
Capitolo 2
Interfacciamento neuroelettronico
intorno a 1 Mohm. Si può osservare che la larghezza dello spazio è più grande dello spessore del
doppio strato, elettricamente diffuso nel biossido di silicio e nella membrana. Potrebbe essere un
obiettivo rendere maggiore la resistenza del film diminuendo la larghezza o aumentando la
resistenza specifica dello spazio.
La stimolazione del neurone attraverso l’interfaccia elettrica senza la presenza di correnti di
Faraday richiede un’alta capacità per area unitaria del chip, per far in modo di iniettare corrente
sufficiente nella giunzione. Sono stati costruiti punti di stimolazione molto efficienti utilizzando
silicio fortemente drogato con un sottile strato di biossido di silicio [Bon02].
2.4 Voltage-clamp e Patch-clamp
La tecnica del blocco di voltaggio o voltage-clamp è stata sviluppata alla fine degli anni quaranta da
Cole [Col49] ed è stata ampiamente sfruttata in quegli anni per studiare le caratteristiche
elettrofisiologiche della membrana dell’assone gigante di calamaro, permettendo a Hodgkin e
Huxley di caratterizzare le conduttanze all’origine del potenziale d’azione (o spike). Questo sistema
consente di misurare l’intensità e la direzione delle correnti ioniche che fluiscono attraverso la
membrana, in funzione del potenziale di membrana che viene imposto, e del tempo. Gli esperimenti
vengono condotti in condizioni ioniche intracellulari ed extracellulari controllate. L’andamento
delle correnti nel tempo è legato alla conduttanza di membrana (G) dalla relazione di Ohm:
I G( Em Eioni )
In blocco di voltaggio si studia quindi come varia la conduttanza di membrana in seguito a
variazioni di potenziale [Col49], [Hod39a].
Il blocco di voltaggio viene ottenuto con un meccanismo a feedback negativo: il segnale del
voltaggio misurato a cavallo della membrana è inviato a un circuito di controllo, un amplificatore
operazionale, che provvede a confrontarlo con il segnale di comando, ovvero con il valore che si
desidera imporre alla membrana (Fig 2.4).
21
Capitolo 2
Interfacciamento neuroelettronico
Fig 2.4 Schema circuitale del blocco del voltaggio
Ogni differenza tra il potenziale di membrana effettivo e il potenziale che si desidera imporre viene
pressoché istantaneamente corretta, fornendo alla membrana corrente di intensità e carica
opportuna. Il sistema è così in grado di mantenere costante il potenziale della membrana, nonostante
vari nel tempo la sua conduttanza totale (per l’apertura o la chiusura di canali ionici).
Ciò che si registra sono l’intensità e la direzione della corrente che è necessario pompare per portare
e mantenere la membrana ai potenziali desiderati, cioè la corrente che si deve fornire per caricare la
componente capacitiva della membrana e per controbilanciare la corrente che fluisce attraverso i
canali, quella che altrimenti determinerebbe la variazione di potenziale.
Per realizzare una registrazione con la tecnica del blocco di voltaggio sono necessari due
microelettrodi in contatto con il citoplasma della cellula e un elettrodo di riferimento immerso nel
bagno di registrazione. Dei primi due citati, uno misura il potenziale di membrana, l’altro serve a
pompare corrente all’interno della cellula.
Prendiamo ora in considerazione un esperimento di registrazione, in voltage-clamp, delle correnti
che fluiscono attraverso la membrana. In seguito a depolarizzazioni crescenti queste correnti
presentano un andamento prima verso il basso (per convenzione questo rappresenta un flusso di
cariche positive entranti) e poi nel tempo la deflessione diventa positiva (flusso di cariche positive
uscenti). Questo andamento delle correnti, anche se a potenziali bloccati, è già indicativo di quanto
avviene nel potenziale d’azione. La corrente entrante è depolarizzante in condizioni fisiologiche e
genererà la fase ascendente del potenziale d’azione. In un tempo successivo si attiva una corrente di
cariche positive uscente, che ci può spiegare la ripolarizzazione della membrana durante lo spike.
La tecnica di patch-clamp, inventata da E. Neher e B. Sakmann [Sak83a], [Sak83b], [Sak83c],
misura il potenziale a cavallo della membrana cellulare utilizzando una micropipetta di vetro
opportunamente forgiata, con un diametro della punta di circa 1µm. La micropipetta di vetro è
riempita da una soluzione elettrolitica. Un filo di argento clorurato è immerso in questa soluzione e
assicura il collegamento con lo strumento di registrazione.
22
Capitolo 2
Interfacciamento neuroelettronico
All’atto della registrazione, la micropipetta viene appoggiata sulla membrana cellulare, quindi viene
applicata una leggera depressione al suo interno migliorando l’adesione della cellula. Il vetro
dell’elettrodo e la membrana cellulare stabiliscono così un contatto ad elevatissima resistenza
elettrica. Se nella membrana sottesa dalla punta della pipetta di vetro è presente anche un solo
canale, è possibile registrare la corrente che lo attraversa. Questa configurazione si chiama cellattached. Da questa configurazione una ulteriore depressione all’interno della pipetta provoca la
perforazione della membrana sottesa alla punta dell’elettrodo, mettendo quindi in continuità la
soluzione della micropipetta con l’interno della cellula. In queste condizioni è possibile registrare le
correnti che fluiscono attraverso tutti i canali presenti nella membrana della cellula. La
configurazione di questo tipo è detta di whole-cell. Esistono altri due tipi di configurazioni che
consentono registrazioni di singolo canale. Dalla configurazione di whole-cell, se la pipetta viene
leggermente allontanata dalla cellula, si stacca un piccolo frammento di membrana. In questo caso
si registra l’attività dei canali rimasti nel pezzettino di membrana e la configurazione è detta di
outside-out, perché la superficie esterna del pezzettino di membrana (outside) rimane rivolta verso
la soluzione extracellulare (out). Un altro tipo di configurazione viene raggiunto partendo ancora
una volta dalla configurazione di cell-attached. Allontanando la pipetta dalla cellula si stacca una
vescicola di membrana. La vescicola esposta all’aria si apre. Una volta riimmersa nel bagno la
superficie interna del pezzetto di membrana (inside) rimarrà rivolta verso la soluzione extracellulare
(out), questa configurazione è detta di inside-out. Tutte queste configurazioni causano dei danni alla
cellula, indispensabili per rilevare il segnale.
Lo schema circuitale per il patch-clamp è concettualmente simile a quello già spiegato per il blocco
di voltaggio (Fig 2.4).
2.5 Micro-Electrode Array (MEA)
Un Micro-Electrode Array (MEA) è un array di microelettrodi su cui è possibile coltivare diversi
tipi di cellule o depositare dissezioni di tessuti per poter effettuare studi di elettrofisiologia in modo
veloce e innovativo (Fig 2.5) [Nov03].
23
Capitolo 2
Interfacciamento neuroelettronico
Fig 2.5 Schema di registrazione elettrofisiologica effettuata con Micro-Electrode
Array
Esso è costituito da un disco di vetro o plastica, dove sono riportati dei piccoli elettrodi. Ogni
singolo elettrodo è connesso tramite una sottile pista isolata ad una piazzola adibita al collegamento
esterno del sistema. Questa può essere connessa al calcolatore tramite appositi connettori che
isolano l’intero sistema dall’ambiente esterno.
Esistono diversi tipi di MEA che, pur essendo utilizzati per il medesimo scopo, presentano
caratteristiche strutturali e proprietà fisiche diverse. La distinzione deriva dal tipo di materiale
impiegato nella costruzione, dalle proprietà strutturali, e dal numero di alloggiamenti per singolo
MEA. Esistono MEA in grado di ospitare un solo campione, altri invece permettono di registrare
contemporaneamente da più campioni.
Se per esempio consideriamo i MEA utilizzati nel protocollo che vedremo nel capitolo successivo,
prodotti dalla Panasonic (Fig 2.6), hanno un numero di microelettrodi pari a sessantaquattro. Gli
strati conduttori che portano il segnale all’ambiente esterno hanno uno spessore di 0,15µm e lo
strato isolante in poliacrilammide che li separa è di 1,5µm.
Fig 2.6 Micro-Electrode Array (MEA)
24
Capitolo 2
Interfacciamento neuroelettronico
I sessantaquattro microelettrodi sono arrangiati in una griglia 8x8 fissati al centro di una piastra di
vetro o plastica 50x50mm con uno spessore di 1,1mm. Ogni elettrodo è 50x50µm e determina un
bassissima impedenza (< di 22 KΩ) critica per avere un buon rapporto segnale rumore. Ne esistono
quattro modelli, con distanza interpolare di 100, 150, 300, 450µm, per permettere misurazioni di
piccole regioni con interazioni a larga scala. Il cilindro entro il quale viene depositato il campione
ha un diametro interno di 20mm ed esterno di 25mm.
Di seguito (Fig 2.7) è mostrato uno schema che illustra come sono disposti i microelettrodi e come
vengono misurate le proprietà sopra citate.
Il nostro gruppo ha utilizzato nei suoi esperimenti dispositivi MEA.
Fig 2.7 Schema rappresentante la disposizione dei microelettrodi
I MEA utilizzati nei primi esperimenti da noi condotti erano costruiti da quattro sezioni separate,
ognuna delle quali a sua volta suddivisa in cinque piccole aree contenenti circa tredici elettrodi
ciascuna. Approssimativamente il numero totale degli elettrodi presenti sull’intero disco
ammontava a circa 300 connessioni. La distanza tra gli elettrodi, in tungsteno, variava in funzione
del layout presente in ogni singola area, mediamente tale distanza si aggirava tra i 70 e i 100µm,
successivamente sono stati utilizzati MEA Panasonic con le caratteristiche descritte.
2.6 Voltage-clamp vs Micro-Electrode Array
La tecnologia dei MEA ha introdotto un nuovo modo per effettuare studi di elettrofisiologia,
eseguiti solitamente con le tecniche del voltage-clamp e patch-clamp.
25
Capitolo 2
Interfacciamento neuroelettronico
Le principali caratteristiche che rendono i MEA un valido strumento per l’elettrofisiologia sono la
non invasività e la possibilità di registrare contemporaneamente su diversi canali l’attività di
materiale biologico vivente. La prima caratteristica permette di poter registrare l’attività cellulare
per lunghi periodi di tempo senza determinare danni al tessuto oggetto di studio. La seconda
permette di poter registrare simultaneamente diversi canali e di poter analizzare i cambiamenti
indotti dalle stimolazioni elettriche [Bor97].
L’attività elettrica delle cellule, pur essendo la stessa, viene registrata diversamente dai due tipi di
dispositivo a causa delle proprietà strutturali e della tipologia di collegamento tra elettrodi e
materiale biologico che caratterizzano i MEA.
I segnali elettrici misurati nello spazio extracellulare sono dovuti al verificarsi dei seguenti eventi
tra lo spazio che separa le cellule dai microelettrodi:
l’attività della cellula che corrisponde alla variazione della conduttanza di membrana
(dovuta hai canali ionici) produce un flusso di corrente attraverso il fluido circostante;
il flusso di corrente attraverso lo spazio conduttore instaura un campo elettrico;
il campo elettrico genera gradienti spaziali di potenziale.
Come si può osservare dai grafici seguenti (Fig 2.8), l’andamento del potenziale extracellulare
registrato
tramite
MEA,
che
corrisponde
all’incirca
alle
correnti
transmembrana,
è
approssimativamente equivalente alla derivata prima del potenziale trasmembrana registrato in
voltage-clamp. Vi è inoltre una stretta relazione tra la frequenza contenuta nel segnale e
l’andamento del segnale registrato [Sch98].
26
Capitolo 2
Interfacciamento neuroelettronico
Fig 2.8 Confronto tra segnali registrati tramite voltage-clamp e segnali registrati
tramite Micro-Electrode Array
Come si osserva dall’immagini (Fig 2.9) l’andamento del segnale registrato con i MEA per correnti
in bassa frequenza è equivalente all’andamento della derivata prima del potenziale, mentre per
correnti ad alta frequenza varia avvicinandosi all’andamento del potenziale.
Fig 2.9 Dipendenza tra la frequenza e andamento del segnale registrato con i MEA (a
sinistra bassa frequenza a destra alta frequenza)
In ascissa, nei due casi sopra mostrati, il tempo è indicato con due scale diverse; rappresentando con
la stessa scala le due correnti avremmo ottenuto, nel secondo caso, un picco rappresentato da
un'unica riga (ciò che accade quando registriamo da soluzioni elettrolitiche).
27
Capitolo 2
Interfacciamento neuroelettronico
Particolare interesse suscita lo studio dei tessuti neurali tramite MEAs. Poiché sappiamo abbastanza
sull’elettrofisiologia del singolo neurone, ma poco sulla dinamica di una rete di neuroni, avere a
disposizione uno strumento come i MEA, che consente di correlare le attività tra i differenti canali e
definire la dinamica della rete, è un passo tecnologico importante [Zec01].
I segnali raccolti dalle reti di neuroni tramite MEA mostrano un’ampiezza tipica nel range di 0.10.4mV (100-400µV), e sono circondati da un rumore biologico e termico.
L’estrazione del segnale reale, espresso come ampiezza in funzione del tempo è fatta grazie
all’impiego di particolari filtri che eliminano il rumore di fondo e rendono il segnale nitido e
analizzabile.
2.7 Cellule staminali e Micro-Electrode Array
Gli esperimenti che vedremo successivamente utilizzano i MEA per registrare l’attività elettrica di
una rete di neuroni [Mae95], [Tur98]. La differenza sostanziale tra quanto ritrovato in letteratura e
quanto verrà presentato riguarda la tipologia di cellule utilizzate e di conseguenza la modalità con
cui queste cellule si connettono tra loro.
Oggetto di studio, in entrambi i casi, sono le cellule del sistema nervoso (gliali e neurali), ma,
mentre nei lavori citati in precedenza il tessuto neurale veniva portato dal vivo ai MEA (Fig 2.10);
nel caso dell’esperimento che troverete nelle prossime pagine le cellule vengono coltivate
direttamente in vitro a partire dalle cellule staminali.
Fig 2.10 Rappresentazione schematica di un tessuto adeso al Micro-Electrode Array
Prima di vedere nel dettaglio l’esperimento, riportiamo alcune proprietà generali di queste cellule,
in modo da comprendere meglio perché sono state utilizzate.
28
Capitolo 2
Interfacciamento neuroelettronico
Il primo carattere distintivo delle cellule staminali è il loro stato altamente indifferenziato. Questo
significa che non possiedono le caratteristiche morfologiche, strutturali, molecolari o antigeniche
che si ritrovano nelle cellule differenziate del tessuto cui appartengono.
Le cellule staminali sono inoltre dotate di capacità proliferativa. La proliferazione è quel processo
che ha come risultato finale la divisione della cellula. Il processo avviene attraverso l’espressione
ordinata e ciclica di pattern di geni caratteristici, i cui prodotti possono variare in modo graduale o
brusco. Se vengono generate due cellule con lo stesso fenotipo (entrambe uguali alla cellula di
origine o entrambe progenitori), la divisione é detta “simmetrica”. Se invece si ottengono due
cellule con fenotipo diverso (una staminale e una progenitrice) si parla di divisione “asimmetrica”.
Caratteristica fondamentale delle cellule staminali è la multipotenzialità, in altre parole, la capacità
di dare luogo a una progenie differenziata comprendente tutti i tipi cellulari del tessuto di
appartenenza o, nel caso delle embrionali, a tutte le cellule dell’organismo adulto. La formazione di
cellule differenziate a partire da cellule staminali avviene dando origine a cellule intermedie, che
costituiscono il cosiddetto “compartimento dei progenitori di transito”, cellule più differenziate
rispetto alle staminali ma che mantengono la capacità di proliferare per un numero limitato e
predeterminato di cicli mitotici, generando alla fine un elevato numero di cellule differenziate. Così,
da una singola divisione di una cellula staminale, grazie al compartimento di transito, vengono
generate numerosissime cellule differenziate.
Un'altra proprietà che caratterizza questo tipo di cellule è l’automantenimento. L'automantenimento
è la capacità di una singola cellula, o di una popolazione cellulare, di perpetuare se stessa; in molti
casi il periodo di automantenimento si estende su tutta la vita dell’organismo, ed in vitro può
permanere in maniera illimitata nelle opportune condizioni sperimentali.
Negli ultimi anni il cervello umano e quello dei roditori hanno dimostrato di possedere cellule
precursori indifferenziate, mitoticamente attive e multipotenti, in grado di rigenerare neuroni e
cellule gliali. Mentre molti esperimenti hanno individuato la presenza di cellule staminali nel
cervello adulto in vivo, testato la proliferazione e la capacità di rigenerarsi, molti altri hanno portato
avanti metodologie che hanno fatto sì che queste stesse cellule staminali potessero espandersi e
maturare in vitro [Ves99].
Grazie ad opportune condizioni chimico-fisiche è possibile generare in vitro un tessuto neurale che
presenta, per quanto sappiamo da diversi studi, caratteristiche simili a quelle riscontrabili in vivo.
29
Capitolo 2
Interfacciamento neuroelettronico
Il vantaggio è quello di poter coltivare cellule direttamente sui MEA, ottenendo così una rete di
neuroni che formi delle connessioni migliori con i microelettrodi, e che quindi sia il più possibile
integrata al circuito artificiale.
30
Capitolo 3
Le reti neurali artificiali
3.1 Intelligenza artificiale classica, non classica e la teoria del connessionismo
La filosofia delle reti neurali artificiali (Artificial Neural Networks, ANN), ispirandosi ai sistemi
biologici visti nel capitolo precedente, considera un numero elevato di processori che hanno una
capacità computazionale elementare, i neuroni artificiali o nodi, connessi ad altre unità dello stesso
tipo (di qui il termine connessionismo che designa questo approccio) [Pit43], [Par90].
Ad ogni connessione è assegnato un peso, cioè può essere più o meno debole in modo tale che un
neurone possa influenzarne un altro in funzione della “forza” della connessione fra i due, proprio
come nei sistemi neurali biologici in cui un neurone (pre-sinaptico) influenza un altro neurone
(post-sinaptico) in funzione del potenziale post-sinaptico della sinapsi fra l’assone del neurone presinaptico e il dendrite del neurone post-sinaptico. Ma più che sulla contrapposizione fra computer
seriale e connessionismo è bene soffermarsi sulla contrapposizione fra intelligenza artificiale (IA)
classica, legata storicamente alla logica dei calcolatori seriali, e l’IA subsimbolica legata
all’approccio connessionista ed alla computazione neurale [Cla76].
L'IA classica si occupa della simulazione dei processi cognitivi superiori adottando un approccio di
elaborazione simbolica [New76].
Lo sviluppo dei sistemi intelligenti, in questo approccio segue la filosofia computazionale tipica dei
calcolatori digitali. Anche il calcolatore, infatti, è fatto di dati e di istruzioni per manipolare dati,
dove sia i dati che le istruzioni sono simboli. Il comportamento intelligente può essere tradotto in un
algoritmo opportuno e riprodotto attraverso il computer.
31
Capitolo 3
Le reti neurali artificiali
Tale approccio metodologico ha portato allo sviluppo di sistemi in grado di risolvere teoremi, in
quanto si pensava che questa fosse l’essenza del comportamento intelligente, mentre si ritenevano
meno degni di attenzione processi quali possono per esempio essere le azioni di movimento del
corpo in risposta ad una serie di stimoli.
In realtà un bambino di un anno riconosce oggetti odori e sapori in base ai quali compie movimenti
in modo più veloce ed accurato del più evoluto programma di IA implementato nel più veloce
supercomputer. Questa evidenza sottolinea da una parte che i compiti di processamento delle
immagini visive non sono banali, dall’altra rinforza la convinzione che il cervello umano sia di gran
lunga superiore ai sistemi intelligenti artificiali e che debba tale superiorità alle caratteristiche della
sua struttura interna. Tale struttura, permette al sistema biologico di avere diverse proprietà
significativamente diverse da quelle dei sistemi artificiali [Her91]:
parallelismo;
robustezza e tolleranza agli errori. Le cellule nervose nel cervello muoiono ogni giorno senza
avere effetti significativi sulla performance totale del sistema;
flessibilità. La struttura si può facilmente adeguare a un nuovo ambiente attraverso
l’apprendimento (non deve essere programmata in Pascal, Fortran o C);
capacità di trattare informazioni confuse, probabilistiche, indefinite o inconsistenti;
struttura piccola, compatta e che dissipa veramente poca energia.
La simulazione della struttura dei sistemi neurali biologici potrebbe portare allo sviluppo di sistemi
artificiali che conservino le caratteristiche del comportamento intelligente dei sistemi biologici. Ciò
rappresenta un cambiamento di prospettiva piuttosto radicale rispetto alla computazione
convenzionale. Il processo di calcolo nella computazione neurale è inteso come “metafora del
cervello” in quanto tenta di modellarne la struttura, non più come “metafora del computer” dei
sistemi artificiali classici, che focalizzavano l’attenzione su un processo, tradotto in un algoritmo
opportuno e realizzato secondo la logica dei computer digitali. In altre parole il connessionismo
utilizza il computer come strumento che consente di simulare i fenomeni tipici dei sistemi neurali
biologici, e il calcolatore in questo modo diviene anche uno strumento di ricerca ma soprattutto una
fonte di ispirazione per sviluppare teorie e modelli della mente [Par86].
Si è più volte ripetuto che le reti neurali artificiali si ispirano ai sistemi neurali biologici. Questo
però non significa certamente avere la presunzione di costruire il cervello artificiale. Tanto più che
le caratteristiche delle reti neurali biologiche riprese dalla computazione neurale artificiale sono
32
Capitolo 3
Le reti neurali artificiali
un’esigua minoranza. Tom Schwartz nel 1989, a questo proposito, nota che i neuroni artificiali sono
solo un’approssimazione dei neuroni biologici in quanto riproducono solo tre dei circa 150 processi
che sono tipici dei neuroni del cervello umano [Sch89].
Pertanto è bene sottolineare che la computazione neurale ha a che fare con le macchine, non con il
cervello. In altre parole l’obiettivo è quello di costruire macchine ispirate a sistemi biologici che
riproducano comportamenti intelligenti e non quello, come si è detto, di ricostruire artificialmente
un cervello biologico. L’obiettivo di costruire tali macchine, d’altra parte, può essere guidato da
diversi scopi: un approccio, che si potrebbe definire ingegneristico, è interessato alla macchina in sé
in funzione delle applicazioni potenzialmente utili a scopo applicativo; un secondo approccio, che si
potrebbe definire scientifico, è interessato alle macchine per le informazioni che possono trarne allo
scopo di saperne di più riguardo ai sistemi intelligenti in generale e quindi anche riguardo ai sistemi
biologici.
La computazione neurale è detta anche subsimbolica: ciò vuol dire che il simbolo non è presente in
modo esplicito in tali sistemi. Non esiste un algoritmo che traduca la realtà percepita, per esempio
attraverso una telecamera, in un insieme di simboli che denotino gli oggetti percepiti nemmeno un
insieme di manipolazioni possibili di tali simboli, come per esempio una serie di regole di
produzione. La conoscenza nei sistemi neurali è distribuita: non è presente da qualche parte in
modo esplicito come simbolo o insieme di simboli, ma il risultato dell’interazione di un numero
elevato di neuroni attraverso le connessioni fra essi [Hay94].
Due sono gli aspetti fondamentali della computazione neurale:
1. si contrappone alla computazione digitale classica dei calcolatori di tipo Von Neumann dal
punto di vista strutturale. I sistemi neurali sono caratterizzati da un parallelismo massiccio e
la conoscenza è distribuita all’interno di tali sistemi [Hak91]. I computer digitali, invece,
centralizzano le risorse computazionali deputandole ad un singolo processore (CPU) e le
operazioni devono essere eseguite in modo seriale;
2. all’interno dell’IA si situa in una dimensione parallela a quella della progettazione di sistemi
simbolici. Non è necessariamente una posizione alternativa, ma un modo diverso di
affrontare il problema della costruzione di sistemi intelligenti: simulare la struttura (il
cervello) diviene funzionale alla produzione di macchine intelligenti, laddove l’IA simbolica
focalizzava l’attenzione più sulla simulazione del processo.
33
Capitolo 3
Le reti neurali artificiali
Infine è opportuno ricordare che la computazione neurale si serve, per la costruzione di modelli dei
processi di percezione, memorizzazione e apprendimento, del il paradigma connessionista - che
presuppone l’equivalenza fra il comportamento dinamico di un qualunque sistema a quello di una
rete di unità interconnesse, in grado di attivarsi in presenza di segnali d’ingresso. Queste reti, come
già detto, sono ispirate ai sistemi neurali biologici. Pertanto è opportuno partire da una descrizione
delle proprietà delle reti neurali biologiche e, soprattutto, dei loro componenti elementari: i neuroni.
3.2 Architettura delle reti neurali artificiali
Un neurone artificiale, che prende il nome di processing element (PE), è l’unità computazionale
atomica di una rete neurale (Fig 3.1). Esso simula diverse funzioni di base del neurone biologico:
valuta l’intensità di ogni input, somma i diversi input e confronta il risultato con una soglia
opportuna. Infine determina quale sia il valore dell’output. Diversi stadi del processo verranno di
seguito discussi uno ad uno. La raffigurazione schematica di un PE è illustrata nella seguente figura.
Ingressi
i1
PE
i2
Uscita
in
Fig 3.1 Un singolo PE (Processing Element), nodo o neurone artificiale. Si osservi che a
diversi ingressi (i1, i2, ..., in) corrisponde un’unica uscita.
Un neurone biologico, come si è detto, riceve diversi ingressi attraverso i dendriti. Così anche il
neurone artificiale (PE o anche nodo) riceve diversi valori in ingresso (i1, i2,..., in). Tutti gli ingressi
vengono sommati ed il risultato costituisce il valore computato dal PE. Se tale valore supera una
certa soglia (Fig 3.2), il neurone produce un segnale di output, o potenziale, altrimenti rimane
silente.
34
Capitolo 3
Le reti neurali artificiali
Ingressi
i1
PE
Soglia
i2
Uscita
Σ
U
U=i1+i2+…+in
P=U-Ө
in
Pot.
Ө
Fig 3.2 Un PE con la soglia. L’uscita viene comparata con la soglia θ per produrre il
Potenziale P.
Come si vede dalla Fig 3.2, l’uscita U sarà data da :
U i1 i2 ... in
Tale caratteristica del PE, quella cioè di sommare algebricamente il valore dei suoi ingressi,
rappresenta la prima funzione implementata dal neurone artificiale: la funzione somma.
Comparando l’uscita U con un opportuno valore di soglia , il potenziale P sarà:
P U
Ingressi
i1=1.5
i2=1
i3=2
w1=0.5
w2=3
PE
Soglia
Σ
Uscita
Pot.
U=1.75
P=0.75
Ө=1
w3=1
Fig 3.3 Esempio di somma pesata. Ogni ingresso i contribuisce alla somma in funzione
del relativo peso w. Il valore della soglia è 1. Con i valori assegnati agli ingressi ed ai
relativi pesi così come si vede in figura, il risultato della somma pesata sarà 1.75,
mentre il potenziale di uscita, comparato con la soglia sarà 0.75. Si osservi che
l’ingresso I3, pur essendo di valore superiore agli altri due ingressi, ha un effetto
inibitorio sulla somma totale per effetto del suo peso w 3=-1.
35
Capitolo 3
Le reti neurali artificiali
Ad ogni ingresso deve essere assegnato un peso, cioè un valore numerico che modula l’impatto che
ha tale ingresso sulla somma totale per determinare il potenziale del PE. In altre parole ogni
ingresso contribuisce in modo maggiore o minore a determinare il superamento del valore di soglia
e l’innesco del potenziale. Anche questa proprietà si ispira, come si è visto nei capitoli precedenti,
ad una caratteristica dei neuroni biologici. La caratteristica in questione è propria delle sinapsi che
l’assone di un neurone crea con il dendrite di un altro neurone.
Dal punto di vista del neurone post-sinaptico, gli ingressi, costituiti dal potenziale di altri neuroni i
cui assoni creano sinapsi sui suoi dendriti, vengono modulati proprio da tali sinapsi: alcuni di essi
avranno un effetto maggiore sulla somma totale, altri addirittura avranno carattere inibitorio, cioè
avranno l’effetto di abbassare il valore della somma totale degli ingressi e, di conseguenza, di
diminuire la probabilità che essa superi il valore di soglia e si inneschi un potenziale. Questa
proprietà dei sistemi biologici viene modellata nei sistemi connessionisti con il concetto matematico
di peso. Il peso di una connessione è un valore numerico per il quale moltiplicare il valore
dell’ingresso. In questo modo l’ingresso avrà un effetto maggiore o minore sulla somma totale degli
ingressi in funzione dell’entità del peso (Fig 3.3). La somma degli ingressi diventerà ora la somma
pesata degli ingressi, ottenendo:
U i1 * w1 i2 * w2 ... in * wn
Matematicamente si può pensare all’ingresso e al peso corrispondente come a vettori del tipo I =
(i1, i2,..., in) e W = (w1, w2,..., wn). Il segnale d’ingresso totale, quello che si è chiamato la somma
degli ingressi, sarà il prodotto scalare di questi due vettori (IW). Si moltiplica cioè ogni
componente del vettore i con il componente corrispondente del vettore w e si sommano tutti i
prodotti (Ingresso1 = i1*w1, Ingresso2=i2*w2 e così via, poi si sommano Ingresso1 + Ingresso2 + ...
+ ingresson). Il risultato sarà uno scalare, la somma pesata degli ingressi; ogni ingresso partecipa
alla somma in modo proporzionale all’entità del peso.
3.3 Reti artificiali che apprendono
Uno dei concetti fondamentali per computazione neurale è quello di apprendimento. E’ necessario
vedere in che modo una rete neurale apprende ad emettere risposte appropriate in relazione a
determinati pattern d’ingresso [Jim99], incominciando a definire il concetto stesso di
apprendimento in ordine alla computazione neurale.
36
Capitolo 3
Le reti neurali artificiali
L’apprendimento potrebbe essere definito come la modifica del comportamento in conseguenza
dell’interazione con l’ambiente e il risultato dell’esperienza che determina l’emergere di nuovi
pattern di risposta agli stimoli esterni. Volendo adattare tale definizione ad una rete neurale, è
necessario definire innanzi tutto cosa si intende per interazione con l’ambiente, stimoli esterni e
pattern di risposta di una rete neurale. Poi bisogna descrivere in che modo la rete neurale accumula
esperienza. Saranno questi gli argomenti dei paragrafi che seguono.
3.3.1 L’apprendimento
La capacità sorprendente di apprendere propria dei sistemi neurali biologici risiede nella loro
grande plasticità a livello microstrutturale [Heb49], [Mar02]. Le sinapsi modificano le loro
proprietà in relazione a particolari stimoli esterni per far sì che il sistema neurale nel suo complesso
produca risposte adeguate a determinati stimolo ambientali. Questa è la caratteristica a cui si
ispirano i sistemi neurali artificiali che apprendono. In altre parole concetti come interazione con
l’ambiente, stimoli e pattern di risposta trovano i loro corrispondenti all’interno della computazione
neurale. Dire che una rete interagisce con l’ambiente significa sostanzialmente affermare che
dall’ambiente riceve gli stimoli attraverso i suoi ingressi ( input ), e risponde attraverso la
produzione di un pattern di uscita ( output ). La risposta della rete neurale deve essere modificata in
modo da diventare il più appropriata possibile al pattern d’ingresso in quel momento. Questo viene
ottenuto variando il valore dei pesi delle connessioni in modo che in presenza di un determinato
pattern in ingresso alla rete si abbia una risposta corrispondente.
La forma della risposta della rete, il pattern di uscita, può essere decisa a priori. In questo caso si
parla di apprendimento supervisionato: l’operatore umano decide che in corrispondenza di un
determinato pattern vi debba essere una determinata risposta. Altrimenti, se la forma della risposta
non è nota a priori, si parla di apprendimento non supervisionato. La differenza fra i due tipi di
apprendimento sta nell’algoritmo che si adotta per far apprendere la rete.
L’algoritmo di apprendimento specifica in che modo vengono modificati i pesi in modo tale da far
sì che la rete apprenda. Successivamente sono illustrati i principi di funzionamento generali delle
due classi di algoritmi di cui si parlava sopra: gli algoritmi con supervisione e quelli senza
supervisione.
La logica su cui si fonda l’algoritmo per l’apprendimento supervisionato è quella di modificare i
pesi delle connessioni in modo tale che, dato un pattern d’ingresso alla rete, il pattern d’uscita
37
Capitolo 3
Le reti neurali artificiali
corrisponda ad una forma già definita a priori. Il più celebre di questi algoritmi è senz’altro quello
chiamato back-propagation [Rum86].
Gli algoritmi di apprendimento non supervisionato seguono una logica sostanzialmente diversa. La
forma dell’output non è conosciuta a priori e l’aggiustamento dei pesi della rete neurale avviene in
base ad alcune valutazioni della qualità del pattern d’ingresso da parte delle funzioni dell’algoritmo
stesso. Per esempio un pattern può avere più elementi attivi, diversi da zero, di un altro: i pesi della
rete verranno modificati in modo tale che presentando in ingresso il primo dei due pattern si avrà
una certa risposta, mentre presentando il secondo se ne avrà un’altra in base al criterio della
numerosità degli elementi attivi.
Di seguito sarà descritto schematicamente il significato dell’applicazione di un algoritmo di
apprendimento supervisionato e non supervisionato.
1. Apprendimento con supervisione significa sostanzialmente che alla rete è necessario fornire degli
esempi e che la modifica dei pesi avviene in base al confronto fra uscita effettiva della rete
(sbagliata, all’inizio) e uscita desiderata. La modifica dei pesi fa sì che l’uscita corretta e quella
desiderata convergano. In questo modo si costruisce la capacità della rete neurale di raggiungere
una struttura interna tale che la stessa struttura reagisca in modo diverso a pattern di ingresso
diversi, fornendo uscite consistenti con tali pattern. In questo caso, ciò avviene in base
all’associazione ingresso-uscita decisa dal supervisore.
2. Apprendimento senza supervisione significa che l’algoritmo di apprendimento è in grado di
identificare differenze fra i pattern di ingresso basandosi solamente su caratteristiche fisiche di tali
pattern. La differenza fondamentale dall’algoritmo di apprendimento supervisionato è che non è
necessario sapere a priori la forma dell’uscita e quindi non è necessario un confronto uscita effettiva
- uscita corretta. La conseguenza, è che non è possibile stabilire a priori quale dei due nodi di uscita
risponderà a ciascuno dei pattern d’ingresso.
3.3.2 Le regole per l’apprendimento
L’apprendimento è quel particolare processo attraverso il quale i parametri (sinaptici) della rete
neurale sono adattati attraverso un continuo processo di stimolazione da parte dell’ambiente in cui
la rete è immersa.
38
Capitolo 3
Le reti neurali artificiali
In particolare durante la fase di apprendimento di una rete composta da vari neuroni i pesi delle
connessioni vengono modificati nel seguente modo:
wij(t)=wij (t-1) + Δwij(t)
Definire quanto vale il Δwij(t) significa definire l’algoritmo che sta alla base dell’apprendimento
della rete.
Una delle più antiche regole di apprendimento, di origine neurofisiologica, fu formulata dal
neuropsicologo Hebb nel 1949 [Heb49].
Nella teoria proposta da Hebb quando l’assone di una cella A è abbastanza vicino per eccitare una
cella B ed è in grado ripetitivamente e persistentemente di provocarne un potenziale d’azione,
alcuni cambiamenti metabolici o processi di crescita prendono parte in una od entrambe le cellule in
modo di aumentare l’efficienza di A nell’eccitare
Ĕ possibile riformulare il postulato in due regole principali :
1)
Se due neuroni che si trovano nelle parti opposte di una sinapsi sono attivi
contemporaneamente allora la sinapsi è rinforzata.
2)
Se due neuroni che si trovano nelle parti opposte di una sinapsi sono attivi asincronamente
allora la sinapsi è indebolita o eliminata.
Questo tipo di sinapsi ( sinapsi Hebbiana ) è dipendente dal tempo, attarverso un meccanismo
altamente locale, dipendente dall’attività di due neuroni.
Considerato un neurone pre-sinaptico j ed uno post-sinaptico i la variazione del peso sinaptico
secondo Hebb sarà:
wij (t ) y i (t ) x j (t )
Dove ancora η rappresenta la velocità di apprendimento.
La legge di Hebb assume quindi che l’apprendimento derivi da un aggiustamento del peso sinaptico
dipendente dal valore dei neuroni connessi alla corrispondente sinapsi.
39
Capitolo 3
Le reti neurali artificiali
La versione computazionale di tale legge , nel caso supervisionato, deve tener conto della differenza
fra la risposta desiderata e quella corrente del neurone.
Denotiamo con di(t) la risposta desiderata del neurone i al tempo t e e con yi(t) la risposta attuale
del neurone. Questo presuppone che all’istante t-esimo stiamo stimolando la rete neurale con un
vettore di ingresso x(t) e che sia nota una serie di istanze di(t) del sistema che vogliamo apprendere.
Ad un certo istante t vale:
ei (t ) d i (t ) yi (t )
dove Δei(t) è l’errore della rete al tempo t del neurone xi al tempo t.
Lo scopo principale dell’algoritmo di apprendimento è quello di minimizzare una funzione costo
basata sul segnale di errore.
Una tipica funzione costo è l’errore quadratico medio:
1
J E ei2 (t )
2 i
Questo però richiede la conoscenza della funzione di aspettazione E del processo statistico in
questione, quindi si preferisce usare una funzione istantanea:
(t )
1
ei2 (t )
2 i
Adesso basta minimizzare questa funzione rispetto ai pesi sinaptici della rete; la regola più usata per
aggiustare i pesi di un neurone è la Delta rule o regola di Widrow-Hoff [Wid60], data da:
wij (t ) ei (t ) x j (t )
dove η rappresenta la velocità di apprendimento la scelta di questo parametro è critica in quanto se
η è troppo basso l’apprendimento potrebbe impiegare troppo tempo per convergere verso un ottimo,
se η è troppo alto l’apprendimento è veloce, ma potrebbe portare all’instabilità del processo.
40
Capitolo 3
Le reti neurali artificiali
3.4 Modelli di rete neurale
Presentiamo qui solo due dei molti modelli esistenti di rete neurale artificiale, come esempi a
supporto dei sistemi di apprendimento supervisionato e non supervisionato [Cam97].
Questi modelli di rete sono stati utilizzati nei nostri esperimenti sia in forma wetware (Hopfield e
SOM) sia in forma software (ITSOM).
3.4.1 Rete di Hopfield
Il fisico J.J. Hopfield in una serie di articoli dal 1982 al 1985 (l'ultimo in collaborazione con D.W.
Tank, [Tan89]) presentò un modello di rete neurale ad alta connessione che porta ora il suo nome e
che rappresentò un'altra forte motivazione per la ripresa delle ricerche nell'area del connessionismo.
La rete di Hopfield [Hop84] è una rete supervisionata che permette di memorizzare dei vettori e
richiamarli successivamente. È inoltre di particolare rilevanza la robustezza della rete, nel senso che
se viene presentato un vettore “vicino” ad uno di quelli memorizzati, quest’ultimo viene
necessariamente richiamato.
La rete consiste di n neuroni a connessione totale senza autoconnessioni, come mostrato in Fig 3.4
Fig 3.4 Schema di una rete di Hopfield con 6 neuroni
Si tratta di una rete completamente connessa a pesi simmetrici, con input bipolare (+/-1 o 0,1).
Tutti i neuroni fungono sia da input che da output.
Gli input sono applicati a tutti i nodi contemporaneamente ed i pesi sono settati secondo la legge
wij xi x j per
= 0
per
41
i j
i=j
Capitolo 3
Le reti neurali artificiali
Nel ciclo di apprendimento ogni output di un neurone è un nuovo input per lo stesso neurone.
Il calcolo del nuovo valore è stabilito dalla funzione
w x
f(xi)= xi se
ij
w x
f(xi) = +1 se
f(xi) = -1 se
Ti wij (soglia, eventualmente nulla)
j
ij
w x
ij
j
Ti
j
Ti
Possiamo vedere un pattern di input come un punto nello spazio degli stati, che mentre la rete itera
si muove verso degli avvallamenti, che rappresentano gli stati stabili della rete.
I valori ultimi dei pesi rappresentano l’output della rete.
Per questo tipo di reti possiamo definire una funzione energia e definita come
E ( x)
1
wij xi x j
2 i, j
La soluzione occorre quando il punto muove nella regione piu’ bassa del bacino di attrazione.
Infatti, essendo per matrici simmetriche con diagonale nulla (come nel nostro caso)
E
wij x j
xi
se xi >0
w
se xi <0
w x
ij
ij
xj 0
j
0
ossia sempre E <=0.
Dopo un certo numero di iterazioni la rete si stabilizzerà in uno stato di minima energia. Ad ogni
minimo corrisponderà un pattern immagazzinato nella rete. Un pattern sconosciuto costituisce un
punto su questo iperpiano che man mano si muove verso un punto di minimo.
Possono esistere stati cosiddetti metastabili , ossia punti di minimo cui non corrisponde alcun
pattern immagazzinato (attrattori spuri).
42
Capitolo 3
Le reti neurali artificiali
3.4.2 Self Organizing Map ( SOM )
La Self-Organizing Map (SOM) è una tra le più importanti architetture di reti neurali ( Kohonen
1982 ). È stata sviluppata principalmente da Teuvo Kohonen tra il 1979 e il 1982, in parte sulla base
di studi neurofisiologici svolti precedentemente [Mal73], [Wil76]. Si tratta di una rete neurale non
supervisionata.
Nella SOM viene definito, come elemento caratteristico, uno strato, detto strato di Kohonen,
costituito da neuroni artificiali disposti spazialmente in modo ordinato. Possono teoricamente
considerarsi strati di Kohonen monodimensionali, bidimensionali, tridimensionali, e anche a più di
tre dimensioni. La dimensionalità tipica per lo strato di Kohonen è di due dimensioni, e a questa ci
si riferirà nel seguito, se non altrimenti specificato. Tale strato di processing elements si evolve
durante l’apprendimento, come vedremo, specializzando le posizioni dei singoli PE come indicatori
delle caratteristiche statistiche importanti degli stimoli di ingresso. Questo processo di
organizzazione spaziale delle caratteristiche di dati di ingresso è chiamato anche “Feature
Mapping”. Le SOM realizzano il feature mapping con una tecnica di apprendimento non
supervisionato, da cui il nome che indica l’auto-organizzazione [Koh90], [Koh91], [Koh93],
[Koh95c].
Una delle più importanti applicazioni è proprio, in generale, la rappresentazione in una mappa,
solitamente bidimensionale, delle topologie associate ai dati di ingresso definiti in spazi con elevata
dimensionalità e, quindi, l’applicazione in problemi di raggruppamento dei dati (data clustering).
Come molte architetture di reti neurali, anche le SOM hanno basi biologiche che ispirano il modello
proposto. Una prima analogia tra il sistema biologico e quello artificiale delle SOM è a livello di
funzionamento macroscopico del cervello. Nel cervello umano, durante la crescita, avviene una
suddivisione in aree specializzate per stimoli di ingresso. In modo analogo nelle SOM, durante
l’apprendimento, si ha la creazione di una mappa nello strato di Kohonen divisa in regioni, ciascuna
delle quali risponde a una particolare regione dello spazio di ingresso.
Un’ulteriore analogia si ha a livello più microscopico, ovvero a livello di tessuto nervoso laminare.
Si può osservare, infatti, come in un tale tipo di tessuto, sotto l’azione di uno stimolo, i neuroni
manifestano attività in modo coordinato. Un gruppo di neuroni contigui si organizza in una “bolla”
ad alta attività, ben delimitandosi da tutti gli altri neuroni a bassa attività. Questo fenomeno di
formazione di bolle viene modellato nella rete di Kohonen, come vedremo, con un meccanismo di
aggiornamento dei pesi esteso al vicinato del PE vincitore.
43
Capitolo 3
Le reti neurali artificiali
Le SOM sono costituite da due strati (Fig 3.5): uno strato unidimensionale di ingresso, con un PE
per ognuna delle N componenti dell’ingresso X=(x1, x2, …, xN) e uno strato, tipicamente
bidimensionale (ma anche unidimensionale o multidimensionale), detto di Kohonen, costituito da M
= MR · MC PE disposti in una griglia bidimensionale di MC PE per riga e MR PE per colonna. Il
generico PE dello strato di Kohonen, verrà indicato con PEr, con r = 1, 2, …, M. Lo strato di
ingresso è completamente connesso allo strato di Kohonen: ogni PE dello strato di Kohonen ha in
ingresso tutti i PE dello strato di ingresso.
Fig 3.5 Illustrazione dei due strati che compongono la rete di Kohonen. In particolare
si nota la struttura bidimensionale dello strato di Kohonen e la sua completa
connessione con la strato di ingresso.
Al generico PE dello strato di Kohonen è associato un vettore di pesi relativi ai collegamenti dai PE
di ingresso. Il vettore associato al generico PEr dello strato di Kohonen sarà indicato con il vettore
Wr = (wr1, wr2, …, wrN).
L’ingresso della rete è costituito da valori definiti nell’insieme dei reali, senza particolari
limitazioni. Tuttavia, nella pratica, è spesso conveniente presentare allo strato di ingresso vettori
normalizzati. I PE dello strato di ingresso hanno l’unica funzione di strato di buffer: non effettuano
nessuna modifica sull’ingresso che gli viene presentato.
Dallo strato di Kohonen viene estratta l’informazione d’uscita. In questo strato i PE vengono fatti
funzionare in competizione. Nel funzionamento base ad ogni presentazione di un ingresso un PE
viene eletto come vincitore. L’informazione di uscita è in questo caso la posizione del PE nella
griglia, ed è quindi una informazione a valori discreti. L’operazione effettuata tra ingresso e uscita è
anche chiamata quantizzazione vettoriale. Lo strato di Kohonen non è comunque semplicemente
definibile come strato di uscita. Esso è soprattutto lo strato cuore della rete in cui l’algoritmo
44
Capitolo 3
Le reti neurali artificiali
competitivo opera.
La prima operazione a cui la rete viene sottoposta è l’inizializzazione. Le variabili fondamentali da
inizializzare sono i vettori dei pesi. Per essi è sufficiente scegliere piccoli valori casuali, facendo
inoltre in modo che non ci siano PE con uguali valori.
La fase successiva consiste nell’apprendimento da parte della rete dei valori di un insieme di
ingresso ( training set ). Durante questa fase i vettori di ingresso vengono presentati alla rete in
modo casuale o ciclico fino al raggiungimento di uno stato di equilibrio, che si manifesta nella
convengenza finale su un unico neurone vincitore dello strato di Kohonen. L’apprendimento nelle
SOM è di tipo non supervisionato [Koh91], [Koh95b].
Non esiste dunque alcun supervisore che durante l’apprendimento proponga il target corretto per
l’ingresso presentato: l’algoritmo usato fa sì che la rete sia in grado di correggere i pesi dopo la
presentazione di ogni ingresso auto-organizzandosi.In particolare, il meccanismo è il seguente:
detto X il vettore d’ingresso presentato durante un ciclo generico d’apprendimento, viene calcolato
quale PE tra i generici PEr dello strato di Kohonen ha vettore dei pesi Wr più vicino ad esso. Tale
PE, eletto come vincitore, verrà indicato con PES.
La vicinanza dei vettori può essere misurata in diversi modi. Un primo modo è quello di misurarla
in termini di prodotto scalare Cr dei vettori dei pesi Wr associati ai PE dello strato di Kohonen con
il vettore di ingresso X, eleggendo come vincitore PES il PE per il quale il prodotto scalare ha valore
massimo (Cs):
N
PES : C S max C r X Wr xi wri
r[1.. M ]
i 1
Un altro modo per calcolare la vicinanza è tramite la distanza euclidea Dr tra i vettori dei pesi Wr
associati ai PE dello strato di Kohonen con il vettore di ingresso X, eleggendo come vincitore PES il
PE per il quale la distanza euclidea è minima (Ds):
PES : DS min Dr X Wr
r[1.. M ]
N
(x
i 1
i
wri ) 2
D’altra parte si può dimostrare che, se i vettori di ingresso e dei pesi sono normalizzati, i due modi
sopra descritti sono equivalenti, ovvero il vettore dei pesi con minima distanza euclidea dal vettore
45
Capitolo 3
Le reti neurali artificiali
di ingresso coincide con il vettore dei pesi a massimo prodotto vettoriale con esso [Koh91].
La SOM prevede a questo punto un meccanismo cosiddetto di inibizione laterale, che e' presente
anche in natura sotto forma di trasformazioni chimiche a livello sinaptico. Nella regione corticale
del cervello, infatti, neuroni fisicamente vicini ad un neurone attivo mostrano legami più forti,
mentre ad una certa distanza da questo iniziano a mostrare legami inibitori. In questa architettura,
ciascun elemento riceve sia stimoli eccitatori da parte degli elementi adiacenti ( la cosiddetta
neighborhood ), sia stimoli inibitori da parte degli elementi più lontani, secondo la cosiddetta forma
"a cappello messicano" (Fig 3.6).
Fig 3.6 Classica forma “ a cappello messicano” che descrive la probabilità di vittoria
di un neurone, appartenente allo strato competitivo della SOM, in funzione della
distanza rispetto al neurone vincente.
L'esistenza della neighborhood è utile per non polarizzare la rete su pochi neuroni vincenti. In tal
modo vengono attivati solo gli elementi con distanza al di sotto di un certo valore, in casi restrittivi
solo l'unità con minima distanza[Piz02a].
Basandoci sulla distanza euclidea d, definita nello strato di Kohonen, tra il generico PEr e il PEs
eletto vincitore. In sostanza si definisce una funzione η(d) che descrive l’entità con cui il generico
PEr. subirà l’aggiornamento W(d) del relativo vettore dei pesi Wr. L’aggiornamento sarà del tipo:
W (d ) (d )( X Wr )
La funzione η(d), tipicamente, ha valori positivi, con massimo per d = 0, ed è decrescente
46
Capitolo 3
Le reti neurali artificiali
all’aumentare di d. Dunque ad ogni aggiornamento i vettori dei pesi dei PE vengono spostati verso
l’ingresso presentato, con una intensità decrescente all’aumentare della distanza dal PE eletto come
vincitore per quell’ingresso. Lo strato di Kohonen è quindi una matrice di PE che vengono fatti
funzionare in competizione e che tende, ciclo dopo ciclo, a far sì che i vettori associati a questi PE
si assimilino ai differenti pattern di ingresso.
La SOM effettua così una quantizzazione vettoriale, ossia una mappatura da uno spazio a molte
dimensioni in uno spazio con numero minore di dimensioni, conservando la topologia di partenza.
In altre parole viene effettuata una forma di clustering di tipo Nearest Neighbor (NN), in cui ogni
elemento dello strato competititvo viene a rappresentare la classe di appartenenza degli elementi di
input. La classificazione NN classifica un pattern a seconda del più piccolo valore ottenuto fra tutte
le distanze da un insieme di pattern di riferimento. Questo metodo è utile per separare classi
rappresentabili da segmenti di iperpiani [Koh95a].
Per questo motivo la SOM classifica bene pattern topologicamente ben distribuiti, ma si trova in
maggiore difficoltà nel caso di distribuzioni non lineari. Inoltre appare evidente l'importanza della
configurazione iniziale dei pesi, che deve essere il più possibile simile alla topologia di input.
L'equazione di aggiornamento dei pesi mostra che minore è il valore della dimensione del vicinato,
minore è il numero di PE il cui vettore dei pesi viene spostato significativamente durante un ciclo di
apprendimento. In questo modo è maggiore la possibilità per i PE di differenziarsi, ovvero è
maggiore il numero di gradi di libertà che ha la rete per auto-organizzarsi e ordinare i dati di
ingresso nella mappa di Kohonen. Maggiori sono i gradi di libertà con cui una rete può adattarsi a
un dato ingresso, maggiori dettagli possono essere appresi e codificati e maggiore risulta,
comunque, la complessità di questo processo di apprendimento.
Una volta che la rete ha appreso, essa può essere utilizzata per fornire risposte in uscita in
corrispondenza ad ingressi presentati.Come già accennato, l’uscita viene estratta dallo strato di
Kohonen, addestrato durante la fase precedente di learning. Il valore di uscita è sostanzialmente la
posizione del PE vincitore su cui la rete converge. Questa può essere indicata con un vettore di M
componenti, tante quanti sono i PE dello strato di Kohonen: U = (u1, u2, …, uM), avente tutte le
componenti a valore zero, tranne quella del PE vincitore (PEs).
In alternativa, in certi casi può essere utile usare come valore di uscita il vettore dei pesi del PE
vincitore: Ws = (ws1, ws2, …, wsN), che è fisso una volta che la rete è stata addestrata.
47
Capitolo 3
Le reti neurali artificiali
Nell’algoritmo base l’apprendimento prevede che ad ogni presentazione di un nuovo ingresso
vengano coinvolti il PE vincitore e i PE del vicinato. Accade quindi che a fine apprendimento i PE
rappresentino con maggiore dettaglio quelle regioni dello spazio di ingresso per le quali sono state
date maggiori informazioni durante l’apprendimento, ovvero per le quali sono stati forniti valori in
ingresso con maggiore frequenza. Questo fenomeno è normalmente un effetto indesiderato.Per
contrastare questo inconveniente è stato proposto un meccanismo, detto di coscienza durante
l’apprendimento [Des88]. Il principio di base del meccanismo è quello di considerare, per
l’elezione del PE vincitore, le distanze tra vettore dei pesi del PE e vettore di ingresso
opportunamente modificate. Queste vengono aumentate se il PE sta vincendo con frequenza
superiore alla frequenza di vittoria uniformemente distribuita (1/M), vengono invece diminuite nel
caso opposto. Tale correzione ha come effetto quello di far diminuire le differenze nelle frequenze
di vittoria dei PE, dovute a ingressi presi con probabilità non uniforme nello spazio di ingresso.
3.4.3 ITSOM ( Inductive Tracing Self Organizing Map )
La SOM ha dei limiti, tra cui quello della difficoltà di risalire all’input una volta generata la
classificazione
All’interno del gruppo Living Networks Lab è stata elaborata un’architettura, chiamata ITSOM
(Inductive Tracing Self Organizing Map), che consente di ovviare ai limiti della SOM. Infatti da
una parte la ITSOM crea direttamente un output, dall’altra opera in tempo reale, eliminando il
tempo necessario alla convergenza della rete e il pericolo che la rete non giunga a convergenza.
Queste caratteristiche sono state utili per l’utilizzo della rete in un sistema robotica funzionante in
tempo reale, come si vedrà nei capitoli successivi.
Osservando la sequenza temporale dei neuroni vincenti della SOM si nota che questa tende a
ripetersi creando una serie temporale costituente attrattori caotici o precisi cicli limite [Erm92],
[Rit86], [Rit88], [Piz02b], [Piz03], e che questi caratterizzano univocamente l’elemento di input che
li ha prodotti. Di fatto la regola di apprendimento fa sì che il peso vincitore rappresenti
un’approssimazione del valore dell’input [Piz98].
All’ interno dell’ architettura ITSOM, ad ogni epoca il nuovo peso vincitore, insieme al peso che ha
vinto nell’epoca precedente, va a costituire un’approssimazione del second’ordine del valore di
input, e così via.
48
Capitolo 3
Le reti neurali artificiali
E’ quindi possibile ricavare il valore dell’input confrontando le configurazioni caratteristiche di
ciascun input con le configurazioni proprie di vettori di cui è noto il valore [Erm92], [Piz98].
Viene così effettuato un vero e proprio processo di induzione, perché una volta prodotta una
quantizzazione vettoriale molti-a-pochi dall’input sullo strato dei pesi, si opera un passaggio pochia-molti da configurazioni note di neuroni vincenti alla totalità degli input. Questa forma di
induzione (Fig 3.7) è molto più fine di quella ricavabile risalendo dall’unico neurone vincente di
una rete SOM portata a convergenza agli input ad esso corrispondenti, perchè i neuroni dello strato
competitivo sono troppo pochi per fornire una classificazione significativa. Altro è far riferimento
ad un insieme di neuroni, la cui configurazione può assumere un’altissima varietà di forme, dalle
quali si potrà discriminare le diverse caratteristiche dell’input.
Fig 3.7 Architettura di una ITSOM.
Va sottolineato che la caratteristica di questa rete è che non necessita di essere portata a
convergenza, perchè le configurazioni di neuroni vincenti raggiungono la stabilità necessaria entro
poche decine di epoche. Si è verificato che per ottenere i migliori risultati la rete non deve
polarizzare su troppo pochi neuroni ma nemmeno disperdersi su tutto lo strato. Un efficiente
algoritmo per riconoscere le configurazioni create dalla rete si basa sul metodo dello z-score. I
punteggi cumulativi relativi a ciascun input vengono normalizzati secondo la distribuzione della
variabile standardizzata z data da
z
x
49
Capitolo 3
Le reti neurali artificiali
Dove µ e’ la media dei punteggi sui vari neuroni dello strato dei pesi e lo scarto quadratico
medio. Fissata una soglia 0 < 1, che costituisce quindi uno dei parametri di questo tipo di rete,
si pone poi
z = 1, se z >
z = 0, se z
In tal modo ogni configurazione di neuroni vincenti è rappresentata da un numero binario formato
da uni e da zeri, tanti quanti sono i pesi dello strato di output. È poi immediato confrontare tra loro
questi numeri binari.
Altri metodi di discriminazione delle configurazioni vincenti sono possibili, tenendo conto che e’
necessario “fuzzificare” la loro composizione numerica, in quanto descrivono attrattori caotici che
sono costituiti da un nucleo ripetitivo con molte variazioni simili nel proprio intorno.
Si è visto che il meccanismo della SOM e’ stato scritto tenendo conto dei meccanismi
neurofisiologici di mappatura degli stimoli sensoriali sulla neocorteccia: risulta infatti che input
simili sono mappati su luoghi vicini della corteccia in modo ordinato e conservativo della topologia
[Koh96].
Sia la SOM che le altre reti neurali artificiali fondano il processo di apprendimento sulla ripetizione
ciclica dello stimolo di input. Anche nel cervello esiste la prova dell’esistenza di circuiti
riverberanti che rinforzano l’impressione dell’informazione di input sulla mappa corticale. Sembra
tuttavia improbabile che tali “loop” si possano ripetere per migliaia di volte alla ricerca di un
bersaglio fisso, anche perchè riesce difficile immaginare che il cervello possa andare in seguito a
riconoscere solo l’ultimo neurone attivato come quello più importante [Piz98].
Appare invece più ragionevole pensare che l’attività di riverbero si esaurisca spontaneamente con
l’esaurirsi della scarica elettrica di attivazione, e che le mappe corticali siano costituite da una
costellazione di neuroni attivati, la cosiddetta traccia mnestica che servirà successivamente al
recupero dell’informazione. Per questo motivo il meccanismo della ITSOM sembra più
fisiologicamente giustificato. Anche il meccanismo induttivo che apprende un numero molto alto di
nuove informazioni sfruttando la traccia mnestica di un nucleo di informazioni preesistenti sembra
ragionevole e confermato da esperimenti neurofisiologici. Il fatto che l’apprendimento non sia un
processo completamente supervisionato ( basato su esempi ), ma nemmeno del tutto non
supervisionato, ed abbisogni quindi di almeno un insieme di punti di riferimento noti, sembra
confermato sia dall’esperienza quotidiana che da numerosi studi [Erm92], [Reg00].
50
Capitolo 4
Rete neurale su MEA in forma di ANN
4.1 Studio della configurazione ottimale della rete neurale biologica in forma di
ANN
Al fine di strutturare opportunamente una rete neurale wetware composta da neuroni biologici su
MEA sulla quale impostare esperimenti di stimolazione, apprendimento e memorizzazione, si sono
sviluppati due modelli software di reti neurali artificiali in modo da identificare i parametri ottimali
sui quali implementare la rete wetware.
Si è inteso infatti pervenire all’implementazione della più semplice rete neurale in grado di
riconoscere un set di pattern digitali differenti, che fungono da stimoli sensoriali simulati.
Dovendo analizzare il comportamento di una rete di neuroni biologici, si è pensato, di concentrarsi
su reti neurali artificiali basate sui modelli di Kohonen e di Hopfield, sia per la loro semplicità
architetturale, sia perchè le reti realizzate secondo questi modelli hanno una certa analogia con
alcune strutture neurobiologiche e una buona capacità di auto-organizzazione.
4.1.1 Studio del modello ANN di Kohonen
Il primo tipo di rete neurale preso in considerazione è stato quello di Kohonen.
51
Capitolo 4
Rete neurale su MEA in forma di ANN
4.1.1.1 Implementazione dell’Algoritmo
Dapprima è stato necessario determinare la configurazione della rete ed in particolare il numero (N)
di neuroni dello strato di input e quello (K) dello strato di output.
Essendo l’implementazione finalizzata alla realizzazione di un circuito composto da neuroni
biologici e materiale conduttore è stato necessario concentrarsi su cosa si voleva che la rete facesse
per trovare poi la minima configurazione possibile (con il minor numero di collegamenti tra i
neuroni) per cui la rete riuscisse comunque a classificare nel migliore dei modi. La scelta della
semplicità architetturale è dettata da esigenze implementative: un numero basso di neuroni
comporta anche un numero basso di collegamenti tra di essi e quindi la realizzazione circuitale
risulta semplificata.
Si è pensato così di realizzare un modello di rete in grado di discriminare tra due diversi ingressi: 0
e 1; e dopo diversi tentativi si è riusciti a definire la minima configurazione che risulta formata da
nove neuroni appartenenti allo strato di input e tre dello strato di output.
Fig 4.1Modello della rete di kohonen implementata
E’ possibile considerare i dati in ingresso come semplici bitmap
Fig 4.2 Bitmap che raffigura il carattere “0”
Fig 4.3 Rappresentazione numerica del carattere “0”
Fig 4.4 Bitmap che raffigura il carattere “1”
Fig 4.5 Rappresentazione numerica del carattere “1”
52
Capitolo 4
Rete neurale su MEA in forma di ANN
L’input x della rete è espresso come un vettore di 0 e 1
La bitmap che rappresenta il carattere 0 avrà una rappresentazione vettoriale del tipo [111101111]
mentre la bitmap che rappresenta il carattere 1 avrà la seguente rappresentazione
vettoriale:[000100111].
Il matrice dei pesi 9x3 racchiude i pesi dei ventisette collegamenti tra i neuroni e viene inizializzata
a valori reali casuali.
4.1.1.2 Esecuzione
Come già espresso precedentemente, nella descrizione della rete di Kohonen è stato necessario,
affinchè la rete potesse riconoscere la bitmap in ingresso, simulare una sorta di addestramento
facendo ciclare l’algoritmo più volte sullo stesso dato in modo che la rete si autorganizzasse per il
particolare tipo di ingresso e la sua risposta convergesse ad un unico neurone vincente. Tale
procedimento è stato effettuato per differenti ingressi.
I parametri η e d (vedi par. 3.4.2) sono stati inizializzati in modo da far convergere la soluzione non
troppo velocemente, e senza farla ricadere in una situazione di indecisione (oscillazione).
In particolare se η è maggiore di 1 l’algoritmo sbaglia più volte in fase di test e si verifica spesso
che il neurone vincente è lo stesso per bitmap differenti.
Come valore ottimale del parametro d si è scelto 0,5 poichè si è visto che per un valore maggiore le
soluzioni convergevano troppo velocemente al nodo con minore distanza dall’input, mentre per
valori troppo inferiori la soluzione ricadeva in uno stato di perenne oscillazione.
4.1.1.3 Risultati
L’algoritmo di Kohonen fornisce in output il “nome” del neurone vincente, cioè di quel nodo della
rete che si è maggiormente rinforzato del corso della computazione.
Si è verificato che durante i cicli di apprendimento delle “bitmap” l’algoritmo si assestava su un
singolo nodo diverso per il caso dela bitmap 1 rispetto a quella raffigurante lo 0.
53
Capitolo 4
Rete neurale su MEA in forma di ANN
Successivamente, provando ad eseguire dei test dando in input un’immagine affetta da rumore,
l’algoritmo rispondeva correttamente, dando in uscita il “nome” dello stesso nodo che era risultato
migliore nell’apprendimento.
Fig 4.6 Pattern “0” con rumore
Fig 4.7 Pattern “1” con rumore
La fase di addestramento è stata forzata per far riconoscere tre diverse bitmap cercando di ottenere
tre differenti risposte. Questo, però, non si è verificato a causa delle ridotte dimensioni della rete.
Quindi la configurazione minima prescelta è funzionale limitatamente all’apprendimento di due
bitmap.
4.1.2 Studio del modello ANN di Hopfield
Il secondo tipo di rete neurale preso in considerazione è stato quello di Hopfield.
54
Capitolo 4
Rete neurale su MEA in forma di ANN
4.1.2.1 Implementazione dell’Algoritmo
L’architettura realizzata per implementare la rete di Hopfield è rappresentato in Fig 4.8 ed è
costituita da 9 neuroni di input/output.
Infatti dalla simulazione software si è evinto che i pattern utilizzati per l’addestramento - gli stessi
utilizzati per la rete di Kohonen – vengono correttamente riconosciuti da una rete di Hopfield con
tale struttura.
Fig 4.8 Modello della rete di Hopfield
La rete non prevede strati di input e di output distinti, tutti i nove nodi (neuroni) che la compongono
ricevono
contemporaneamente
i
segnali
di
ingresso
ed
emettono
quelli
di
uscita.
Il numero di neuroni è tale da poter rappresentare le bitmap 0 e 1 nello stesso formato (matrice 3x3)
utilizzato per gli algoritmi precedenti.
L’output della rete consiste nella configurazione dei nove neuroni della rete.
La particolarità della rete è quella di portare l’input ad uno dei possibili stati che ha imparato a
riconoscere. In questo modo se una bitmap contiene del rumore viene ripulita e l’uscita corrisponde
all’immagine originale. L’uscita è data dallo stato dei nove neuroni che compongono la struttura.
4.1.2.2 Risultati
Come anche nel caso della rete di Kohonene, la rete raggiunge la configurazione propria della
bitmap “0” anche ricevendo i seguenti input:
55
Capitolo 4
Rete neurale su MEA in forma di ANN
Fig 4.9 Pattern “0” con rumore
La rete raggiunge la configurazione propria della bitmap “1” anche ricevendo i seguenti input:
Fig 4.10 Pattern “1” con rumore
4.2 Creazione della rete neurale su MEA
La connessione diretta neuroni-PC ha comportato una serie di problemi non facilmente risolvibili. Il
problema principale è stata la perfetta realizzazione di un interfacciamento neurone/elettrodo,
indispensabile per estrarre ed inviare i segnali elettrici necessari.
Il problema della giunzione tra neurone ed elettrodo è di fondamentale importanza: i materiali
utilizzati devono essere biocompatibili con l’ambiente di coltura dei neuroni, e gli stessi devono
attecchire in modo solidale all’elettrodo per avere la massima conducibilità.
Per i primi esperimenti, si era provato a creare colture di neuroni su un supporto di Kapton
equipaggiato da elettrodi in lega di tungsteno.
Il suddetto materiale risultava biocompatibile con la coltura ma le grosse dimensioni degli elettrodi
impedivano ai neuroni di innestarsi in modo efficace. Si sono provati altri materiali quali dei PCB
(printed circuit board) utilizzati in elettronica per la connessione dei vari componenti, ma i risultati
56
Capitolo 4
Rete neurale su MEA in forma di ANN
sono stati deludenti poiché la non trasparenza del supporto impediva il controllo al microscopio
della cultura.
Successivamente, come si è detto nel Capitolo 2 è stato reperito un MEA idoneo allo scopo (Fig
4.11). Esso è costituito da un disco in vetro dove sono riportati dei piccoli elettrodi in tungsteno.
Ogni singolo elettrodo è connesso tramite una sottile pista isolata ad una piazzola adibita al
collegamento esterno del sistema.
Il disco comprende quattro parti, ognuna delle quali è a sua volta suddivisa in cinque piccole aree
contenenti circa tredici elettrodi ciascuna
Fig 4.11 Sezione di un’area del supporto hardware
Approssimativamente il numero totale degli elettrodi presenti sull’intero disco ammonta a circa 300
connessioni. La distanza tra gli elettrodi si aggira tra i 70 e 100 m.
Fig 4.12 Elettrodi presenti in ogni area
Sul disco con gli elettrodi sono state, allora, installate quattro vaschette per le colture delle cellule
staminali, in modo da realizzare più esperimenti contemporaneamente.
57
Capitolo 4
Rete neurale su MEA in forma di ANN
Fig 4.13 La piastra
In Fig 4.14 è descritta la configurazione circuitale delle quattro aree del supporto hardware di Fig
4.13. La prima area ha permesso di fare l’esperimento sulla rete di Kohonen; la seconda e la terza
sono state realizzate per un esperimento di non località quantistica; la seconda area, inoltre, è
destinata a ricreare una rete di Hopfield: sono stati selezionati nove elettrodi tra quelli presenti, e
sono stati collegati al connettore, otto di essi rappresenteranno i canali verso cui inviare e ricevere i
segnali sui nodi della rete di Hopfield, mentre uno è necessario per depolarizzare il circuito.
La quarta è utilizzata solo per prove di conducibilità dei liquidi di coltura, è in pratica una vaschetta
di controllo contenente solo fibroblasti.
Fig 4.14 Schemi circuitali
58
Capitolo 4
Rete neurale su MEA in forma di ANN
La configurazione circuitale consente di mantenere costante la tensione d’uscita mantenendola
perfettamente squadrata e livellata. E’ possibile variare la tensione in uscita, sia positiva sia
negativa separatamente, da un minimo di 5 mV ad un massimo di 100 mV.
E’ da notare che a causa degli strumenti messi a disposizione per questi esperimenti, non è stato
possibile collocare le cellule esattamente nei punti desiderati; in sostanza, le architetture elettriche
realizzate hanno costituito una sorta di letto sul quale sono state depositate le cellule che hanno
potuto, così, creare collegamenti tra loro al di là di quelli elettrici. Tuttavia si ritiene che questo non
snaturi gli esiti degli esperimenti per i seguenti motivi:
Nel modello di rete presentato da Kohonen i neuroni disposti sullo strato competitivo
sono tra loro connessi e stabiliscono delle relazioni di vicinato tali per cui un segnale
che arriva ad uno solo di essi si propaga anche in un certo intorno. I segnali d’uscita,
inoltre, vengono prelevati da un elettrodo ben preciso il quale, fornisce l’attività delle
cellule realmente poste su di esso.
Nel modello di Hopfield i neuroni sono tutti interamente interconnessi, quindi le
connessioni che si stabiliscono tra le cellule nervose corrispondono alle connessioni
presenti nel modello software.
4.3 Il modello di Kohonen su MEA
Il primo esperimento condotto è stato finalizzato all’analisi del circuito che realizza la rete neurale
di Kohonen. (Fig 4.15):
Fig 4.15 Modello della rete
59
Capitolo 4
Rete neurale su MEA in forma di ANN
Si è predisposta una sequenza di input con i quali stimolare il circuito: bitmap che descrivono i
caratteri 0 e 1:
Fig 4.16 Rappresentano rispettivamente il carattere “0” e “1”
Le nove celle che formano la bitmap corrispondono ai nove collegamenti sullo strato di input della
rete e quindi ai nove canali sulla porta digitale della scheda di acquisizione dati secondo il seguente
schema:
Fig 4.17 Numerazione dei singuli punti della bitmap
I numeri da 1 a 9 rappresentano il canale/neurone di input della rete anche se in realtà il canale
centrale, contrassegnato con il numero nove, sarà sempre lasciato al valore zero; questo permette di
lavorare soltanto con otto canali (1 byte) che dal punto di vista dell’elaborazione semplifica
notevolmente il lavoro.
Fig 4.18 Rappresentazione binaria del carattere “0” e del carattere “1”
60
Capitolo 4
Rete neurale su MEA in forma di ANN
Poichè l’algoritmo classico di Kohonen ha la capacità di classificare esattamente anche pattern
affetti da rumore (vedi Fig 4.9, Fig 4.10), è stata predisposta una configurazione di bitmap che il
modello software aveva riconosciuto correttamente.
Sui nodi di input del circuito sono stati inviati i pattern sopra descritti in diverse configurazioni e a
differenti frequenze e sono stati misurati i segnali di uscita sui tre nodi dello strato di output.
I segnali sono stati acquisiti tramite la scheda Personal Daq/56 della Società IOTECH.Inc La scheda
di acquisizione è dotata di 16 canali di I/O digitali dai quali si possono inviare i segnali provenienti
dal computer verso l’esterno; e da dieci canali differenziali di acquisizione A/D a 22 bit con una
frequenza di acquisizione di 1 MHz (suddivisa tra tutti i canali), dai quali invece, è stato possibile
acquisire i segnali elettrici provenienti dai neuroni. L’intervallo massimo della tensione di input
varia tra -10 V e +20 V. L’intervallo minimo di tensione di input varia tra -31 mV e +31 mV.
Le misurazioni sulle uscite sono state eseguite contemporaneamente rispetto all’invio dei segnali
d’ingresso. E’, inoltre, utile specificare che l’invio di un bit zero sul canale equivale a non inviare
nulla, mentre mandare un bit uno significa far passare una tensione di 0,35 V.
Dapprima si è misurato l’output del circuito prima di sottoporlo a stimoli particolari. Le uscite sui
tre canali sono rappresentate in Fig 4.19.
Fig 4.19 Grafico del comportamento delle cellule senza stimolazioni
Per avere la certezza che tali segnali rappresentassero l’attività dei neuroni, e non un possibile
comportamento conduttivo del liquido di coltura in cui sono inserite le cellule, è stato necessario
61
Capitolo 4
Rete neurale su MEA in forma di ANN
verificare il comportamento del solo siero per la coltura, privo delle cellule nervose. I risultati
ottenuti da tale misurazione sono riportati in Fig 4.20
Fig 4.20 Grafico del comportamento del liquido di coltura senza stimolazioni
Confrontando i risultati si deduce che i segnali di Fig 4.19 rappresentano effettivamente l’attività
elettrica dei neuroni.
Successivamente il circuito è stato sottoposto a particolari stimolazioni durante le quali sono stati
inviati sui canali di input i pattern rappresentanti le bitmap sopra descritte.
In Fig 4.21 sono riportate le risposte all’invio della prima sequenza. L’invio dei segnali è avvenuto
ad una frequenza di 1 Hz, mentre la lettura è avvenuta a 4 Hz, quindi sono state necessarie quattro
letture per poter leggere ogni pattern inviato.
I dati sulle ascisse rappresentano il numero di scansioni effettuate dal dispositivo di acquisizione
dati, cioè, il numero di volte in cui sono avvenute delle letture sui canali.
Dalla lettura 4 alla 7 si può notare l’uscita dei tre canali mentre viene data in input una bitmap zero.
Dalla lettura 8 alla 11 si può notare l’uscita dei tre canali mentre viene data in input una bitmap uno.
Dalla 12 alla 22 si ha la risposta all’invio delle tre bitmap che l’algoritmo software ha classificato
come zero.
Tra 23 e 34 quella per le tre bitmap classificate come uno.
62
Capitolo 4
Rete neurale su MEA in forma di ANN
Fig 4.21 Grafico del comportamento delle cellule all’invio di pattern “0” (in verde) e
pattern “1” (in rosso).
Nella Fig 4.22 sono raccolte le risposte all’invio della stessa sequenza rappresentata in Fig 4.21,
avvenuta però con una frequenza di 2 Hz e ripetuta ad intervalli regolari. La frequenza di lettura è
rimasta del valore di 4 Hz quindi per identificare un pattern sono sufficienti due scansioni.
Dalla lettura numero 6 alla numero 7 si ha la risposta all’invio di una bitmap “zero”.
Dalla 8 alla 9 è stata inviata una bitmap “uno”.
Dalla numero 10 alla numero 15 ha ricevuto tre possibili pattern “uno”.
Dalla 16 alla 21 tre possibili “zero”.
Come si può notare dal grafico il ciclo riprende poi ad intervalli regolari.
63
Capitolo 4
Rete neurale su MEA in forma di ANN
Fig 4.22 Risposta all’invio della seconda sequenza
La stessa sequenza di pattern è stata inviata numerose volte inizialmente con frequenza di 1Hz e
successivamente con frequenza di 2 Hz. Tutti i segnali d’uscita sono stati registrati e hanno
mostrato un comportamento analogo a quello appena descritto: l’uscita in prossimità di bitmap
graficamente simili assume valori piuttosto vicini.
In Fig 4.23 è descritta la risposta del circuito all’invio di sei bitmap raffiguranti l’immagine “zero”.
Il segnale d’uscita sui tre canali in risposta all’input è visualizzato nelle zone di più bassa tensione
(dallo scan 9 al 24, dal 44 al 59, ecc.). Ricordando che la bitmap zero è elettricamente rappresentata
da 11111111, al suo invio viene mandata nel circuito una tensione alta rispetto agli altri pattern,
eppure la risposta è costituita dai segnali più bassi.
64
Capitolo 4
Rete neurale su MEA in forma di ANN
Fig 4.23 Risposta all’invio di sole bitmap “0”
A rendere ancora più probante quanto appena detto si aggiunge il fatto che il comportamento del
solo liquido di coltura è totalmente differente. Essendo un composto organico, si comporta come un
conduttore e in corrispondenza dei pattern zero risponde con valori di tensioni più alti che negli altri
casi (Fig 4.24)
Fig 4.24 Risposta all’invio di sole bitmap “0” sul liquido di coltura
Al termine dell’esperimento si è misurato nuovamente lo stato dei tre segnali di uscita senza
sottoporre il circuito a nessun tipo di input per verificare se le stimolazioni hanno influito o meno
sullo stato dei neuroni. In Fig 4.25 è riportata la risposta dei neuroni dello strato di output.
65
Capitolo 4
Rete neurale su MEA in forma di ANN
Fig 4.25 Comportamento finale delle cellule senza stimolazioni
Si può notare che l’andamento del segnale risulta molto diverso rispetto a quello di Fig 4.19 Grafico
del comportamento delle cellule senza stimolazionimisurato nelle stesse condizioni. Ciò ha fatto
pensare, in una prima analisi, che le cellule nervose avessero, in qualche modo, trattenuto
l’informazione e che un nodo (il canale 1) si fosse rinforzato più degli altri nel corso delle
stimolazioni. Questa considerazione potrebbe apparire un po’azzardata poiché anche il liquido di
coltura, dopo aver subito una serie di stimolazioni assume l’andamento descritto in Fig 4.26.
Fig 4.26 Comportamento finale del liquido senza stimolazioni
66
Capitolo 4
Rete neurale su MEA in forma di ANN
Tuttavia mentre il liquido di coltura ritorna ad avere un comportamento simile a quello precedente
le stimolazioni (Fig 4.20), lo stesso non si può dire per il composto contenente le cellule nervose.
Alla fine dell’esperimento i neuroni sono risultati ancora tutti vivi, dimostrazione che le tensioni e
correnti calcolate sono corrette. Si è constatato che la frequenza più bassa ha dato i peggiori
risultati, poiché le correnti elettriche circolanti nella coltura generano fenomeni d’elettrolisi, e molto
probabilmente anche perché le velocità di trasmissione dei neuroni sono superiori [Sha79]. Inoltre
anche se l’intero sistema era schermato non si è potuto eliminare totalmente il rumore [Sch90].
4.4 Il modello di Hopfield su MEA
Il secondo esperimento condotto è stato finalizzato allo studio del modello di Hopfield (Fig 4.27)
Fig 4.27 Modello della rete
Come si è visto, anche la versione software di questo modello è in grado di classificare i pattern
riportati in precedenza (Fig 4.9, Fig 4.10).
Nell’implementazione wetware, come nel caso di Kohonen il canale/neurone contrassegnato dal
numero 9 sarà sempre lasciato al valore 0; contrariamente a quanto è stato fatto per il modello di
Kohonen, per il modello Hopfield le misurazioni sulle uscite sono state effettuate lasciando rilassare
la rete ed acquisendo i voltaggi 3 ms dopo la fine della stimolazione delle cellule.
Ricordo che l’invio di un bit 0 sul canale equivale a non inviare nulla, mentre mandare un bit 1
significa far passare una tensione di 35 mV.
67
Capitolo 4
Rete neurale su MEA in forma di ANN
Per prima cosa è stata effettuata una lettura sulle cellule prima che fossero sottoposte a qualsiasi
stimolo: i risultati di questa misurazione sono visibili nella Fig 4.28.
0,08
0,06
0,04
Canale 1
0,02
Canale 2
V
Canale 3
Canale 4
0
Canale 5
-0,02 1
94
187 280 373 466 559 652 745 838 931
Canale 6
Canale 7
Canale 8
-0,04
-0,06
-0,08
Fig 4.28 Misurazione libera delle cellule
Successivamente le cellule sono state stimolate da differenti pattern:
bitmap miste
bitmap “0”
bitmap “0” con rumore
bitmap “1”
bitmap “1” con rumore.
In ogni esperimento la sequenza di bitmap è stata presentata 50 volte alla frequenza di 40 hz, la
presentazione corrisponde alla fase di training; dopo ogni fase di training sono state effettuate 50
letture dell’output, a 4 Hz, per confrontare il comportamento della rete neurale.
Nel primo esperimento le cellule sono state stimolate per 50 volte alla frequenza di 40 hz, con sei
diverse sequenze che rappresentano bitmap “0”, “1”, possibili “0” e possibili “1”. I risultati ottenuti
sono visibili in Fig 4.29.
68
Capitolo 4
Rete neurale su MEA in forma di ANN
0,08000
0,06000
0,04000
V 0,02000
0,00000
-0,02000
-0,04000
1
6
11 16 21 26 31 36 41 46
Numero Campioni
Fig 4.29 Misurazione bitmap miste
Poi è stata presentata alle cellule una sequenza di bitmap “0” per 50 volte, alla frequenza di 40 hz,
quindi sono state effettuate 50 letture. I risultati sono visibili in Fig 4.30.
Fig 4.30 Misurazione bitmap "0”
A questo punto è stata presentata alle cellule 50 volte e alla frequenza di 40 Hz una serie di bitmap
“0” affette da rumore. Sono state poi effettuate le 50 letture sull’output. I risultati sono visibili nella
Fig 4.31.
69
Capitolo 4
Rete neurale su MEA in forma di ANN
Fig 4.31 Misurazione bitmap "0" con rumore
L’esperimento successivo ha visto una presentazione della bitmap “1” alle cellule sempre per 50
volte e alla frequenza di 40 hz. Dopo la fase di training sono state effettuate le 50 letture dell’output.
I risultati sono visibili in Fig 4.32.
Fig 4.32 Misurazione bitmap "1"
Infine è stata presentata alle cellule 50 volte e alla frequenza di 40 Hz, una serie di bitmap “1”
affette da rumore. Le 50 misurazioni effettuate sull’output sono visibili nella Fig 4.33.
70
Capitolo 4
Rete neurale su MEA in forma di ANN
Fig 4.33 Misurazione bitmap "1" con rumore
Le misurazioni riportare indicano un diverso comportamento della rete dopo la stimolazione col il
pattern “1” rispetto alla stimolazione con il pattern “0”, puri o affetti da rumore.
Lo stesso comportamento differenziato si mantiene ogni volta che alla rete dopo il training vengono
sottoposti i pattern di test.
71
Capitolo 5
Analisi dell’apprendimento della rete
biologica tramite Il metodo RQA
Un altro tipo di analisi è stato condotto utilizzando la Recurrence Quantification Analysis [ZBI92],
strumento di analisi non lineare che visualizza il comportamento ricorrente della traiettoria di un
sistema dinamico.
Si può dimostrare che [Tak81] una serie temporale uni-dimensionale (nel nostro caso il segnale
proveniente dai neuroni) si può espandere in uno spazio dimensionale maggiore usando una tecnica
chiamata “delay time embedding” la quale ricrea un ritratto della fase spaziale del sistema dinamico
in oggetto a partire da una singola serie temporale (scalare).
Per espandere un segnale uni-dimensionale in un intervallo spaziale m-dimensionale, si sostituisce
ciascuna osservazione contenuta nel segnale originale X(t) con il vettore :
yi = {xi, xi-d, xi-2d, . . . , xi-(m-1)d },
dove i è l’indice del tempo, m è la dimensione embedding , e d è il time delay.
Come risultato abbiamo una serie di vettori:
Y = {y(1), y(2), y(3), . . . , y(N - (m - 1)d)},
dove “N” è la lunghezza della serie originale.
72
Capitolo 5
Analisi dell’apprendimento della rete biologica tramite Il metodo RQA
Ogni stato sconosciuto St al tempo t è approssimato da un vettore di coordinate ritardate Yt = {xt, xtd,
xt-2d,. . .,xt-(m-1)d}.
La Recurrence Quantification Analysis (RQA) è un nuovo strumento quantitativo che può essere
applicato all’analisi di una serie temporale ricostruita con metodo di delay-time embedding.
La RQA è indipendente dalla dimensione dei dati, dalla stazionarietà e da assunzioni sulla
distribuzione statistica dei dati, perciò sembra adatto per i sistemi fisiologici.
RQA dà una veduta locale del comportamento della serie, perchè analizza le distanze di coppie di
punti, e non una distribuzione di distanze. Pertanto a differenza dell’autocorrelazione, RQA è in
grado di analizzare rapidi transienti e di localizzare nel tempo le caratteristiche di una variazione
dinamica: per questo motivo la RQA è lo strumento ideale per l’analisi dei sistemi fisiologici. Una
volta che il sistema dinamico viene ricostruito nel modo sopra delineato, può essere usato un
“recurrent plot” per mostrare come i vettori sono vicini o lontani gli uni gli altri all’interno dello
spazio ricostruito. I vettori preservano la dipendenza temporale nelle serie temporali, in aggiunta
alla dipendenza spaziale.
Essenzialmente il “recurrent plot” è una matrice codificata in colore dove ogni entry [i][j] viene
calcolata come la distanza euclidea tra i vettori Yi e Yj nelle serie ricostruite. Dopo aver calcolato le
distanze vettoriali, queste vengono mappate con dei colori a partire da una “mappa di colori” predefinita e vengono visualizzate come pixel colorati nei posti corrispondenti, come nelle mappe
geografiche in rilevo.
L’osservazione di punti ricorrenti consecutivi nel tempo (che formano linee parallele alla diagonale
principale) è un importante segno di struttura deterministica. Infatti la lunghezza della linea
(ricorrente) diagonale più lunga corrisponde accuratamente al valore del massimo esponente di
Lyapounov della serie.
L’esponente di Lyapounov è un’altra misura di determinismo di una serie, che quantifica la velocità
media di divergenza di traiettorie vicine lungo varie direzioni dello spazio delle fasi. Si dimostra
che i sistemi caotici hanno massimo esponente di Lyapounov positivo.
Per segnali casuali, ci si aspetta una uniformità di distribuzione dei colori su tutta la “recurrent
plot”. Piu’ deterministico è il segnale, più strutturate è il “recurrent plot”
73
Capitolo 5
Analisi dell’apprendimento della rete biologica tramite Il metodo RQA
Il “recurrent plot” adottato calcola le distanze Euclidee tra tutte le coppie di vettori che vengono
trasformate in bande di colori.
Colori caldi come giallo, rosso e arancione sono associati a brevi distanze tra vettori mentre colori
freddi (blu, nero) sono usati per mostrare grandi distanze. I segnali che ripetono distanze fisse tra
vettori sono organizzati, i segnali che non sono ripetitivi sono da considerarsi disorganizzati. In
questo modo otteniamo per i segnali casuali una distribuzione del colore uniforme, ma quanto più
deterministico è il segnale, tanto più strutturato sarà il .” recurrent plot”
Nei nostri esperimenti, l’analisi RQA, ha il solo proposito di mostrare la variazione di
comportamento dei segnali emessi dalla rete biologica dopo l’iniezione di stimoli organizzati.
5.1 Risultati della rete di Kohonen
L’analisi qualitativa dei segnali raccolti nell’esperimento visto nel capitolo precedente effettuato
utilizzando il modello di Kohonen ha fatto emergere alcuni interessanti risultati: a valori
graficamente simili, cioè quando vengono inviate bitmap che si assomigliano, corrispondono valori
simili. In corrispondenza dell’invio della bitmap “0”, costituita dalla sequenza di soli bit 1 che
corrispondo quindi a valori “alti” di tensione, le cellule rispondono con valori di tensione “bassi”: a
rendere più notevole questo comportamento si aggiunge il fatto che il liquido di coltura si comporta
come conduttore e quindi all’invio della bitmap “0” risponde con valori alti.
Al termine della stimolazione si è osservato che l’andamento dei segnali risulta molto diverso da
quello iniziale, cioè prima della stimolazione. Si nota come le cellule abbiamo rinforzato il proprio
segnale mostrando quindi la capacità di immagazzinamento dell’informazione.
Attraverso la Recurrence Quantification Analysis sono stati ottenuti i grafici di Fig 5.1, Fig 5.2, Fig
5.3 e Fig 5.4.
74
Capitolo 5
Analisi dell’apprendimento della rete biologica tramite Il metodo RQA
Fig 5.1Il segnale prima della fase di training
Fig 5.3 Il segnale dopo la fase di training
Fig 5.2 Il segnale durante la fase di training
Fig 5.4 Il segnale alla fine delle stimolazioni
La Fig 5.1 descrive lo stato di organizzazione di un canale prima di ricevere degli stimoli. Essa è
costituita da colori freddi e disorganizzati che segnalano la mancanza di autosimilarità e quindi di
autoorganizzazione della serie temporale.
La Fig 5.2 è calcolata sul segnale ottenuto in fase di stimolazione con il ciclo di pattern descritto in
precedenza, è a sua volta disorganizzata anche se con un andamento molto diverso da quello del
canale di output prima della stimolazione.
Nella Fig 5.3, che corrisponde al segnale emesso da un canale di output in fase di “testing” con il
pattern zero, invece si vedono ampie bande uniformi di colore giallo e rosso, mentre i colori freddi
sono limitati agli estremi del diagramma.
75
Capitolo 5
Analisi dell’apprendimento della rete biologica tramite Il metodo RQA
La Fig 5.4 rappresenta, infine, il Recurrence Plot di un canale di output dopo la fine della
somministrazione dei pattern. In questo caso le bande di colori caldi si sono ulteriormente allargate,
a dimostrazione di un altissimo grado di autoorganizzazione.
E’ evidente da questa analisi che l’introduzione di stimoli organizzati ha modificato il segnale
proveniente dalle cellule aumentandone il contenuto informativo in misura rilevante. Quel che è più
importante, è che l’organizzazione del segnale di output permane anche dopo la cessazione dello
stimolo, lasciando aperta la possibilità di interpretare questo evento come una forma di
apprendimento o memorizzazione.
5.2 Risultati della rete di Hopfield
Abbiamo utilizzato la RQA per analizzare i segnali provenienti dai vari canali di output del modello
Hopfield. Presentiamo qui l’analisi di due diversi canali, il canale 1 e il canale 3. La RQA ha dato
luogo ai grafici di Fig 5.5, Fig 5.6, Fig 5.7 e Fig 5.8.
Fig 5.5 Il canale 1 dopo lo stimolo con la
Fig 5.6 Il canale 3 dopo lo stimolo con la
bitmap "0"
bitmap "0"
76
Capitolo 5
Analisi dell’apprendimento della rete biologica tramite Il metodo RQA
Fig 5.7 Il canale 1 dopo lo stimolo con la
Fig 5.8 Il canale 3 dopo lo stimolo con la
bitmap "1"
bitmap "1"
La Fig 5.5 mostra il canale 1 dopo che le cellule sono state stimolate con il pattern “0”. Si notano
ampie bande di colori caldi al centro e di colori freddi verso l’esterno.
La Fig 5.6 mostra il canale 3 dopo che le cellule sono state stimolate con il pattern “0”. Come si può
vedere pur essendo molto diverso dal grafico del canale 1 mostra comunque una certa
organizzazione del segnale, anche se meno spiccata del canale 1.
La Fig 5.7 mostra il canale 1 dopo la stimolazione attraverso il pattern “1”.
La Fig 5.8 mostra il canale 3 dopo la stimolazione attraverso il pattern “1”. Come si può vedere
anche in questo caso ci sono ampie bande di colori caldi al centro e di colori freddi all’esterno. E’
evidente dall’analisi di queste immagini che agli output degli stessi canali la rete si comporta
diversamente a seconda dei pattern proposti in input, fornendo comportamenti più o meno
organizzati a seconda del canale.
Da questa analisi discende quindi che l’introduzione di stimoli organizzati, come nel caso
dell’esperimento con la rete di Kohonen, ha modificato il segnale proveniente dalle cellule
aumentandone il contenuto informativo in misura rilevante.
La rete presenta un comportamento organizzato di fronte allo stimolo di pattern differenti, ed è in
grado di rispondere selettivamente all’invio di pattern differenti; ma quello che risulta più
importante è che l’andamento dei segnali cambia a seconda dei canali e si differenzia a seconda dei
77
Capitolo 5
Analisi dell’apprendimento della rete biologica tramite Il metodo RQA
pattern (Fig 5.6 e Fig 5.8). Nondimeno pattern simili danno origine a risposte della rete simili.
Questo può far supporre che la rete neurale biologica sia in grado di “codificare” i pattern inviatele.
5.3 Conclusioni ottenete dall’analisi RQA
I risultati preliminari ottenuti da un’analisi qualitativa delle misurazione e dalla Recurrence
Quantification Analysis portino ad affermare, con un buon margine di certezza, che il
comportamento delle cellule dopo la stimolazione tramite pattern digitali ha mostrato una forma di
codifica selettiva in risposta a pattern diversi, evidenziando una forte autoorganizzazione in risposta
agli stimoli inviati.
La stimolazione con pattern uguali o simili (cioè gli stessi pattern ma affetti da rumore) ha dato
luogo a risposte simili, mentre la stimolazione con pattern diversi ha dato luogo a risposte differenti.
Questo tipo di comportamento è stato rilevato sia con la rete neurali di Kohonen che con quella di
Hopfield.
Inoltre è stato evidenziato il persistere dell’effetto di autorganizzazione selettiva anche dopo la fine
delle stimolazioni.
E’ importante infine sottolineare che questi risultati sono stati ottenuti dopo aver sottoposto le reti
ad apprendimento per ripetizione ciclica dei pattern. Di conseguenza le reti rispondono in testing
alla stimolazione di pattern non semplicemente ripetendo la reazione appena ottenuta con quel
pattern, ma “recuperando” la corretta reazione dopo aver in qualche modo memorizzato tutta la
sequenza di diversi pattern. Quindi si può affermare che siano avvenute effettivamente una forma di
apprendimento, memorizzazione e richiamo.
78
Capitolo 6
Tecniche classiche per la decodifica dell’
informazione neurale
6.1 Il problema della codifica neurale
I neurofisiologi generalmente forniscono stimoli e simultaneamente registrano l’attività neurale da
parte della regione cerebrale che si sta studiando. Lo stimolo può essere di natura fisica molto
variabile, come la luce, utilizzata per la stimolazione dei neuroni della retina, o come il suono, per
stimolare l’attività elettrica neurale della corteccia auditoria. La questione sperimentale si concentra
sulla relazione esistente tra un possibile stimolo e una risposta, individuale o di gruppo che sia, in
termini di spike prodotti. Inizialmente gli studi si concentravano sulla risposta che poteva essere
fornita da un’unica unità neuronale [Hod52a], [Cat88].
In tempi più recenti, con l’avvento di tecniche che permettono la registrazione dell’ attività elettrica
di una porzione di rete neurale biologica (ad es. MEA), questo tipo d’analisi è stata superata. Infatti
in ogni piccola porzione del cervello animale, migliaia di spike vengono emessi ogni millisecondo,
e si propagano attraverso una complessa rete costituita da migliaia di connessioni [Nic92].
La Fig 6.1 aiuta ad immaginare la quantità di segnali che vengono emessi dai neuroni di un
organismo, riportandone solamente una piccolissima parte.
79
Fig 6.1 Pattern spazio-temporale delle pulsazioni in termini di spike, da parte di 30
neuroni ( A1-E6, plottati lungo l’asse orizzontale ). Il tempo di registrazione è di soli 4
secondi. Gli spike sono caratterizzati dalle linee verticali nere.
Essendo certo che gli animali rispondo agli stimoli secondo canoni precisi, e che le informazioni
sono trasmesse per mezzo del sistema nervoso, alle varie parti del corpo, tramite segnali elettrici
come quelli nella figura qui sopra riportata, ciò che ci si domanda è : qual’ è l’informazione
contenuta all’ interno dei pattern spazio-temporali? Qual è il codice utilizzato dai neuroni per
trasmettere le informazioni? Come fanno i neuroni che ricevono il segnale a codificarne il
contenuto? Come osservatori esterni al sistema nervoso, possiamo capire qual è il messaggio
contenuto nell’attività elettrica dei neuroni?
Le suddette domande indicano il problema della codifica neurale, uno dei temi più interessanti
della neuroscienza. Risposte ben definite alle domande appena formulate non sono ancora state
trovate. Tradizionalmente si è pensato che la maggior parte, se non tutte, le informazioni rilevanti
fossero contenute nel tasso medio di “firing” del neurone. Il firing rate è definito solitamente da
una media temporale:
np (T )
T
Solitamente il tempo T è posto come T= 1000 ms o T=500 ms, e vengono contati il numero di spike
np( T ) che compaiono all’ interno della finestra temporale considerata [Jim92]. La divisione del
numero di spike per la durata della finestra fornisce il firing rate medio. Il concetto di firing rate
medio è stato ampliamente utilizzato negli studi effettuati nel corso degli ultimi 80 anni. Ci si può
80
infatti rifare a lavori molto datati come quello effettuato da Adrian nel 1928 dove veniva mostrato
che il firing rate dei neuroni muscolari era relazionato con la forza applicata dai muscoli [Adr28].
Nei decenni seguenti, le misurazioni di firing rate sono diventate uno strumento standard per la
descrizione delle proprietà di tutti i neuroni sensoriali o corticali. È chiaro, tuttavia, come un
metodo basato in media temporale trascuri tutte le informazioni presumibilmente contenute nella
sincronizzazione esatta dei punti. Nonostante questa enorme approssimazione di un
sistema
complesso quale può essere considerato la rete di neuroni biologici, è sull’analisi della frequenza
degli spike che si basano i metodi classici per la codifica delle informazioni trasmesse attraverso il
sistema nervoso
6.2 Identificazione e classificazione degli eventi di spike
Nell’ultimo decennio, il progresso nel campo della neuroingegneria ha aperto nuove possibilità di
analisi dell’attività elettrica dei neuroni. Oggigiorno, durante gli esperimenti di neurofisiologia, non
vi è alcuna registrazione di tipo individuale di spike. Ciò avviene in quanto la registrazione avviene
per mezzo di piastre multielettrodo. Tali piastre danno misurazione del voltaggio extracellulare
tramite ognuno degli elettrodi di registrazione, dai quali si registra la simultanea attività di un
numero imprecisato di neuroni facenti parte di una rete biologica. Da questi voltaggi registrati si
possono identificare gli eventi di spike; tale processo di caratterizzazione viene generalmente
definito come “spike sorting”. Lo spike sorting è il processo iniziale obbligatorio per l’analisi di
spike train. Alcuni algoritmi sono stati sviluppati per riuscire ad identificare e classificare gli eventi
di spike registrati durante un esperimento di neurofisiologia [Nat98], ma ad oggi non si è ancora
riuscito a stabilire quale sia il migliore. È stata infatti riscontrata una discordanza di output forniti
dall’analisi delle medesime registrazione elettriche. L’impossibilità di far convergere le soluzioni ad
un risultato unico e certo ci dà la dimensione della complessità del problema della caratterizzazione
di spike e dell’estrazione dell’informazione che si ritiene in essi contenuta. I complessi algoritmi
d’elaborazione sono spesso nascosti all’utente da un’interfaccia utente semplice ed intuitiva
realizzata secondo gli standard Graphical User Interfaces (GUIs), Mouse Driven Events ed i risultati
delle sessioni di analisi sono facilmente condivisibili in quanto compatibili con i più diffusi
strumenti di visualizzazione ed analisi, quali ad esempio Microsoft Excel o Microcal(™) Origin.
81
6.2.1 Spike detection
Gli studi di estrazione dei parametri rilevanti da una popolazione di neuroni sono contraddistinte da
misurazioni a lungo termine ( possono durare minuti o ore ), le quali producono file nell’ordine dei
Gigabyte come risultato di un unico esperimento. La scarsa maneggevolezza dei dati ottenuti,
dovuta alla dimensione, risulta essere un fattore limitante l’analisi dei segnali ottenuti. Un esempio
classico di algoritmi per la determinazione degli spike ( spike detection ) all’interno di segnali
neurofisiologici è rappresentato da quella categoria di algoritmi basati sul metodo della soglia
picco-picco [Per67].
Tali algoritmi permettono di seguire le eventuali oscillazioni del segnale, e di una finestra mobile,
dimensionata in modo tale che possa contenere al più uno spike: idealmente, la sua durata è pari alla
durata degli spikes da individuare; la finestra viene fatta scorrere sul segnale finché la differenza tra
il valore massimo ed il valore minimo del segnale contenuto nella finestra non supera la soglia
picco-picco ( Fig 6.2). Quando questo accade, è segnalato uno spike.
Fig 6.2 Individuazione del picco per mezzo di un algoritmo peak-to-peak threshold. Il
rettangolo tratteggiato rappresenta la finestra mobile che scorre lungo il segnale
registrato mache non trova un valore sufficiente per determinare la presenza di uno
spike. Diversamente nel rettangolo successivo la soglia viene superata e si riscontra
uno spike. La soglia viene di fianco mostraro per mezzo della freccia.
Il valore soglia da utilizzare per la ricerca dei picchi di minimo e di massimo che
contraddistinguono gli spike viene calcolata come un multiplo della deviazione standard ( STD ) del
rumore biologico. In genere si assume che la soglia sia sette volte superiore ad STD. La finestra
mobile scorre lungo il segnale registrato ed identifica gli spike contenuti in esso. I due parametri
necessari per la determinazione degli spike per mezzo della finestra mobile sono: la latenza di spike
e il valore della soglia picco-picco. Una volta immessi tali parametri l’algoritmo segue la variabilità
biologica del segnale e ne estrae caratteristiche rilevanti per ulteriori procedure di analisi. Per
82
stimare il grado di attività della rete in esame, simultaneamente all’ identificazione dei potenziali
d’azione, viene calcolato il firing rate medio.
Un parametro che viene sempre preso in considerazione quanto si tratta la rilevazione di spike è lo
ISI, Inter Spike Interval [Chi04]. L’ inter spike interval è definito come l’intervallo temporale che
intercorre tra due spikes successivi (Fig 6.3) e l’istogramma degli inter spike intervals si costruisce
raggruppando gli ISI.
Fig 6.3 ISI, Inter Spike Interval. Intervallo temporale tra due spike consecutivi ( t a, ta+1 )
L’istogramma ISI (Fig 6.4) fornisce una stima statistica della densità di probabilità di “firing” di
una sequenza di spikes rispetto uno spike di riferimento. Attraverso le ISI può essere osservata
l’attività di “bursting” nei neuroni, dove gli intervalli che intercorrono tra un burst ed il successivo
corrispondono a lunghi intervalli nella distribuzione delle ISI.
Fig 6.4 ISIH, Inter Spike Interval Histogram, fornisce una stima della densità di
probabilità di bursting dei neuroni.
83
6.2.2 Spike Burst detection
Oltre all’ormai nota attività di spike, le reti di neuroni corticali mostrano un comportamento molto
importante, a cui si è gia accennato anche nel paragrafo precedente, a livello neurofisiologico: lo
spike burst [Mal89], [Chi04].
Il burst ( dall’ inglese scoppio ) può essere definito come un insieme di eventi spike molto
ravvicinati nel tempo, tanto da poter essere considerati un’unica entità elettrofisiologica di studio
(Fig 6.5).
Fig 6.5 Registrazione di un burst. La zona interessata dal burst (evidenziata dal
cerchio rosso ) è caratterizzata da un’elevata serie spike ravvicinati.
Anche nel caso della determinazione dei burst (Fig 6.6), l’attività di rilevazione può avvenire per
mezzo di una finestra mobile ( come quella utilizzata per la rilevazione di singoli spike ) che scorre
lungo il segnale elettrofisiologico registrato. La determinazione da parte dell’ algoritmo può
avvenire in due modi differenti, considerando un burst come una sequenza di pochi spike molto
ampi, o come pacchetti di spike caratterizzati da un livello di attività tenue ma duraturo nel tempo.
Fig 6.6 In rosso dall’alto sono riportati: gli spike rilevati dall’algoritmo e il segnale
registrato. In basso in verde troviamo gli ISIH relativi alla registrazione.
84
L’immagine della Fig 6.6 illustra la tipologia dei file registrati dagli algoritimi per la rilevazione di
spike e burst. Tali risultati costituiscono il punto di partenza per le successive analisi statistiche.
6.3 Analisi statistiche classiche per la codifica neurale
Lo studio della codifica dell’ informazione neurale è basata sull’ implementazione di analisi
statistiche [Ben71] che considerano l’ attività sincronizzata della rete di neuroni come la somma di
piccole attività di spike [Moo66], [Sha96], [San02], [Chi04].
Per studiare il livello di sincronizzazione dell’attività della rete e rilevare le variazioni significative
dovute a stimolazione elettriche dall’esterno, sono stati implementati algoritmi per lo svolgimento
di funzioni statistiche classiche [Pap73][Lui99][Sar80]. Si possono infatti trovare algoritmi per lo
studio della densità di probabilità di burst ( ISIH ), della funzione di autocorrelazione per mezzo di
JISIH ( joint ISI histogram ) e della funzione di cross correlazione tramite CISIH ( cross ISI
histogram ) per stimare la sincronizzazione relativa all’ attività di spike. Altra classica osservazione
compiuta è quella di JPSTH ( Joint Peri-Stimulus Time Histogram ), che mette in risalto la possibile
attività sincronizzata di due neuroni.
Cambiando la scala del tempo, è possibile estrarre informazioni simili dall’ attività di burst,
utilizzando IBIH ( Inter Burst Interval Histogram ), il cross IBIH e joint IBIH.
6.3.1 JISI ( Joint Inter Spike Interval)
Dato uno spike di riferimento, la JISI è un’analisi statistica costruita a partire da due variabili: l’ISI
che precede lo spike di riferimento e l’ISI che lo segue (Fig 6.7), calcolata per tutti gli spikes del
treno.
Fig 6.7 Illustrazione delle variabili in gioco per la trattazione di JISI
85
Gli intervalli pre-ISI e post-ISI sono rappresentati in un piano cartesiano, pertanto il risultato della
JISI è un istogramma tridimensionale. La formula che permette tale operazione è la seguente:
J ( x , y )
N a 1
(t
a 2
a 1
t a x ) (t a t a 1 y )
dove x e y indicano l’intervallo post e pre ISI.
Fig 6.8 Le due rappresentazioni sono modi differenti per presentare l’analisi JISI. Le
coordinate (x,y,z) dell’ istogramma descrivono rispettivamente valore di pre-spike,
post-spike e frequenza di spike. Utilizzando la color map, le due dimensioni (x,y)
descrivono pre e post-spike,la terza dimensione ( frequenza ) è data dal colore rosso.
Per quanto concerne l’interpretazione dei grafici riportati in Fig 6.8 bisogna dire che:
la
distribuzione dell’istogramma JISI fornisce una stima statistica della probabilità che l’occorrenza di
uno spike sia legata allo spike precedente e al successivo. Ciascun punto della JISI è descritto dalle
coordinate: (x, y, z) = (post-ISI, pre-ISI, numero di occorrenze) e quando si verificano dei
raggruppamenti di punti in una zona è molto plausibile che esista una dipendenza tra le post-ISI e le
pre-ISI. Raggruppamenti orizzontali o verticali sono indice di indipendenza tra gli intervalli pre e
post-ISI.
6.3.2 CISI ( Conditional Cross Inter Spike Interval )
Con la CISI si cerca di stimare la probabilità che si verifichi attività caratterizzata da un particolare
ISI a partire dall’occorrenza di uno spike nel neurone di riferimento, un certo intervallo dopo che il
neurone condizionante abbia emesso,a sua volta, uno spike. Pertanto il calcolo dell’istogramma
86
CISI bisogna avere un file di riferimento ed un file condizionante. Siano: A lo spike train di
riferimento; B lo spike train condizionante; la relazione della CISI è espressa dalla:
C ( x , y )
N a 1
(t
a 1
a 1
t a x ) (t a t b y )
Dove x è post-ISI, y pre(cross)ISI e tb l’istante dell’ occorrenza impulso nel treno B (Fig 6.9).
Fig 6.9 Nella parte superiore dell’ immagine si riporta il treno dello spike di
riferimento. Nella parte inferiore vi è il treno dell’ impulso condizionante.
Se i punti formano una banda orizzontale, allora esiste una correlazione tra il cross-intervallo ed il
post-intervallo, rispetto lo spike di riferimento. Bande verticali di punti, invece, indicano che non
esiste alcuna correlazione tra gli intervalli delle occorrenze rispetto un particolare spike di
riferimento. In altre parole, l’attività dei neuroni di riferimento è indipendente dall’attività dei
neuroni condizionanti.
6.3.3 IBIH ( Inter Burst Interval Histogram )
Si è pensato di eseguire, per le sequenze di bursts, lo stesso tipo d’indagine statistica adottata per gli
spike trains. Ovviamente le occorrenze considerate non sono più i singoli picchi, bensì i pacchetti
d’attività; pertanto la finestra d’esame deve essere dell’ordine delle centinaia di millisecondi ed il
periodo d’esame, cioè la durata massima dell’IBI, deve essere dell’ordine delle decine di secondi.
La formula per il calcolo dell’istogramma IBI è:
I ( )
N a 1
(t
a 1
a 1
ta )
Dove t è l’intervallo tra due burst consecutivi ( IBI ) (Fig 6.10).
87
Fig 6.10 Rappresentazione grafica di un IBI, che rappresenta la distanza nel tempo tra
due eventi di burst consecutivi
6.3.4 JBIH ( Joint Burst Interval Histogram )
Questo tipo di elaborazione calcola l’istogramma delle distanze temporali tra un burst di riferimento
e, rispettivamente, quello che lo precede e quello che lo segue. La formula che permette questa
operazione è la seguente:
J ( x , y )
N a 1
(t
a 2
a 1
t a x ) (t a t a 1 y )
x e y indicano l’intervallo post e pre-IBI (Fig 6.11).
Fig 6.11 Rapprentazione degli intervalli considerati nello studio di JIBI.
6.3.5 CIBI ( Conditional Cross Inter Burst Interval )
Analogamente alla CISI, con la CIBI si cerca di stimare la probabilità che si verifichi attività
caratterizzata da un particolare IBI a partire dall’occorrenza di un burst nel neurone di riferimento,
un certo intervallo dopo che il neurone condizionante abbia prodotto,a sua volta, un burst. Pertanto
anche per il calcolo dell’istogramma CIBI bisogna avere un file di riferimento ed un file
condizionante.
C ( x , y )
N a 1
(t
a 1
a 1
t a x ) (t a t b y )
88
x, post-IBI; y pre(cross)-IBI ; t b istante di occorrenza del burst.
6.3.6 JPSTH ( Joint Peri-Stimulus Time Histogram )
L’ analisi joint peri-stimulus time histogram è la logica estensione della single-neuron PSTH.
Mentre PSTH mostra il numero di spike prodotti da un singolo neurone per unità di tempo, JPSTH
mostra, per mezzo di un istogramma bidimensionale, la conta del numero di spike al tempo u per un
dato neurone 1, e quella per un dato tempo v per il neurone 2 (Fig 6.12).
Fig 6.12 PST joint histogram. Plot diagonale di due single-neuron PSTH, a dare
JPSTH. I due PSTH sono disegnati in verde sugli assi delle ascisse e ordinate.
La diagonale mostrata in Fig 6.12 fornisce per ogni tempo t il tasso di firing simultaneo per i due
neuroni considerati. Viene spesso utilizzata una modificazione di JPSTH, chiamata JPSTH
normalizzato. Il JPSTH normalizzato serve per eliminare l’ errore che si può commette osservando
come dipendenti gli eventi di firing di due neuroni ad elevata attività di spike, che in realtà sono
indipendenti l’uno dall’ altro, senonchè casualmente hanno spike sovrapposti nel tempo. Il JSPTH
normalizzato della coppia dei tempi (u,v) definisce la loro correlazione di Pearson del firing dei
neuroni 1al tempo u, e del neurone 2 al tempo v. Sommando le diagonali di tutti i JSPTH prodotti
durante l’ intero studio riferito a tutta la rete neurale in esame, si ottiene il cross-correlogramma
normalizzato.
6.4 Fasi di un progetto per la decodifica di spike train neurali
Gli algoritmi per la decodifica di spike train sono tecniche matematiche utilizzate in neuroscienza
per studiare come i pattern di spike train, di un singolo neurone o di un’insieme di essi,
rappresentino gli stimoli esterni e segnali biologici. L’analisi di decodifica si sviluppa generalmente
in due fasi: la fase di codifica e quella di decodifica (Fig 6.13). Durante la fase di codifica, l’attività
89
di spiking neurale è caratterizzata come funzione del segnale biologico. Al contrario, nelle fase di
decodifica, tale relazione viene invertita, ed il segnale biologico viene stimato a partire dall’ attività
neurale.
Fig 6.13 Decodifica della posizione tramite l’attività spike di neuroni di ratto. (a)
Analisi di codifica nella quale la relazione tra lo stimolo biologico (traiettoria del ratto,
vedi pannello ”posizione”) e l’attività di spike viene stimata come “recettività del
campo” da parte di tre neuroni. (b) Analisi di decodifica nella quale la “ recettività di
campo ” viene utilizzata dall’algoritmo Bayesiano per predirre la posizione ( linea
nera sottile) del ratto nell’ ambiente tramite una registrazione di dell’ attività di spike
del ratto durante la fase di decodifica. La regioni di confidenza nella determinazione
della posizione è mostrata nel pannello centrale.
Tra i primi studi sviluppati con un approccio di questo tipo vi sono quelli effettuati con neuroni
della corteccia cerebrale di ratto per la decodifica del segnale legato al movimento (Fig 6.13).
Algoritmi basati su “ reverse correlation ” sono stati utilizzati per studiare gruppi di neuroni
rappresentanti l’informazione nei sistemi visivo-motori. Tali algoritmi sono stati pensati per lo
svolgimento della fase di codifica. Per la seconda fase ( decodifica ) vengono utilizzati algoritmi
Bayesiani, i quali devono assegnare il corretto significato biologico ( nel caso di Fig 6.13 si tratta
della traiettoria del ratto ) alla registrazione dell’ attività di spike di un dato gruppo di neuroni.
6.5 Problematiche legate all’utilizzo di tecniche classiche e algoritmi
Come si può facilmente intuire, quello della comprensione del meccanismo di trasmissione dell’
informazione biologica da parte di neuroni umani non è un problema di facile risoluzione. La
90
registrazione simultanea di spike train multipli prodotti da un’ elevato numero di neuroni apre
un’interessante finestra sulla concertazione del lavoro che avviene all’ interno di una rete neurale.
Senza lo sviluppo d’innovative metodologie, nel prossimo futuro, le possibilità di comprendere il
suddetto meccanismo di trasmissione risultano essere fortemente ridotte [Bro04].
Infatti gli attuali metodi d’analisi dei segnali presentano ad oggi una serie di problematiche tecniche
e teoriche che portano all’ ottenimento di risultati non molto convincenti. A parte alcune eccezioni i
risultati ottenuti appaiono fortemente limitati dall’ incapacità di compiere analisi in grado di
considerare molte unità neurali connesse tra loro contemporaneamente. L’accuratezza dei risultati
ottenuti tramite “spike sorting” sembra essere molto influenzata dall’ accuratezza dei risultati delle
registrazioni elettriche ottenute dalle prove sperimentali. Questa situazione rende precaria l’analisi
dei dati, in quanto la registrazione dell’attività neurale mostra delle differenze significative a
seconda del numero di neuroni implicati nell’analisi, del numero degli elettrodi di registrazione,
della geometria di tali elettrodi e della modalità di connessione dei neuroni. Diventa chiaro come ad
un problema di natura già complessa, come quello trattato, si vadano ad aggiungere ulteriori
variabili che giocano un ruolo determinante per l’ottenimento di risultati corretti. Le formule
applicate per l’estrapolazione delle caratteristiche dei segnali, nelle analisi statistiche effettuate,
sono deficitarie di queste particolari specifiche. In altre parole è possibile sostenere che il modello
matematico non è sufficientemente accurato, e che il suo livello di astrazione è troppo elevato. La
delicatezza dei segnali elettrici risulta essere ancora più affascinate ( e al tempo stesso problematica
per chi ne affronta lo studio ) se si considera l’elevatissimo livello di articolazione dell’
informazione trasportata. Basti pensare all’innumerevole quantità di movimenti possibili ad ogni
singola parte del corpo umano, e che per ognuno di essi vi deve essere una differente produzione e/o
interpretazione degli spike train.
Successiva, ancora più dura, ma certamente interessante è la sfida che alcuni gruppi all’
avanguardia nel mondo hanno intrapreso occupandosi
della costruzione di sistemi prostetici
artificiali, caratterizzati da un interfacciamento diretto macchina-cervello. La prima grande
complicazione da affrontare rispetto agli studi classici sinora qui trattati, riguarda la necessità di una
corretta elaborazione dei dati in tempo reale. La quantità di dati con la quale si deve trattare risulta
essere molto elevata. In tutti i metodi presentati in questo capitolo per l’analisi dei segnali neurali
questa variabile non è mai stata considerata. Le due fasi espresse nel paragrafo precedente ( fase di
codifica e di decodifica ) vengono infatti svolte in maniera distanziata nel tempo. Dalla fase di
codifica si cercano di estrapolare quelle che sono le basi matematiche che poi l’algoritmo, scritto in
un secondo tempo, dovrà utilizzare come fondamento per la propria implementazione. Affinché i
91
risultati ottenuti nella fasi di codifica possano essere considerati attendibili, si ha la necessità di
svolgere un certo numero di registrazioni prolungate nel tempo. In questo modo i file generati
durante le registrazioni sono di elevate dimensioni ( non inferiori al Gb ). Una macchina che deve
essere in grado di compiere le proprie funzioni in tempo reale non può considerare accettabili tempi
di elaborazione superiori al secondo. Riassumendo si può affermare che l’algoritmo necessario per
un simile esperimento è un algoritmo in grado di svolgere ambedue le fasi ( codifica e decodifica )
in un tempo inferiore ad un secondo, basandosi su modelli matematici che ad oggi nessuno sembra
in grado di elaborare, e con la capacità di variare in tempo reale alcuni dei propri parametri di
decodifica a seconda dei risultati
di codifica
ottenuti in continuo durante l’acquisizione del
segnale dalle cellule neurali. Vedremo nei successivi capitoli come la tecnica messa a punto dal
Living Networks Lab sia in grado di fare l’analisi e la decodifica dei dati in tempo reale..
92
Capitolo 7
Sperimentazione di una tecnica basata su
una ANN per la decodifica
dell’informazione neurale
93
7.1 Preparazione dei MEA
Prima di entrare in merito all’esperimento, è bene fornire alcune informazioni sulla preparazione dei
MEA. Le cellule staminali si prestano molto bene ad essere utilizzate in questo tipo di esperimenti,
per le proprietà di adattamento e proliferazione che le caratterizzano. Queste cellule, sotto apposite
condizioni, sono in grado di differenziarsi e maturare sui MEA senza richiedere dissezioni multiple.
Prima di essere utilizzati i MEA, assemblati mediante silicone, devono essere lavati accuratamente.
Esiste un preciso protocollo di lavaggio che è indispensabile seguire al fine di renderli idonei ad
ospitare le cellule. Questo protocollo che riportiamo di seguito consiste in:
lavare in alcool 70% la piastra servendosi di un bastoncino di cotone;
lasciare la piastra per 6 ore sotto l’acqua corrente, possibilmente distillata;
lasciare la piastra per 6 ore in alcool 70%;
lavare con 4 brevi risciacqui la piastra con detergente non saponato e acido;
sciacquare con alcool 70%;
lavare con acqua distillata;
lasciare in acqua distillata sotto raggi UV ventiquattrore;
aspirare l’acqua e lasciare asciugare sotto cappa sterile.
Al termine del processo di lavaggio è possibile fare aderire il matrigel ai MEA. Il matrigel è
composto essenzialmente da laminina, collagene IV, proteoglicani, entactina e nidogeno. Esso è una
molecola di adesione ricavata dal sarcoma di verme, che si trova allo stato liquido a 4° C e gelifica
a 37° C su plastica o vetro in soli venti minuti. Il matrigel deve gelificare sui MEA formando lo
strato necessario ad ospitare le cellule. Per impedire il distaccamento del matrigel e quindi delle
cellule adese dopo soli 2 o 3 giorni, il processo di gelificazione è prolungato a ventiquattro ore. In
questo modo il matrigel si stabilizza perfettamente permettendo la maturazione cellulare nei
venticinque giorni successivi.
Le staminali neurali, che si trovano sotto forma di neurosfere, sono dissociate meccanicamente e
piastrate sul matrigel come singole cellule. Per ogni MEA si piastrano circa 50000 cellule staminali
singole in presenza di fattori di crescita come FGF2 (basic fibroblast growth factor), GDNF (glial
cell line-derived neurotrophic factor), BDNF (brain-derived nurotrophic factor), CTNF (ciliary
neurotrophic factor). Questi fattori di crescita servono rispettivamente per:
FGF2 fondamentale per la neurogenesi e viene rilasciato dalle neurosfere;
94
GDNF previene l’apoptosi dei neuroni e migliora la crescita di assoni e dendriti;
BDNF permette la sopravvivenza e il differenziamento dei neuroni in vitro ed è coinvolto
nelle sinapsi;
CTNF aumenta la proliferazione, aumentando l’attività metabolica e riducendo lo stress
da differenziamento.
Dopo l’esposizione delle cellule staminali ai fattori di crescita per circa dieci giorni e la loro
rimozione, l’aggiunta di un medium di controllo arricchito con FCS 2% (fetal calf serum 2%)
permette la generazione dei neuroni seguiti da astroglia e oligodendrociti.
Un’interessante considerazione deriva dall’osservazione al microscopio del MEA al quindicesimo
giorno, quando sono ben visibili delle zone senza più matrigel dove le cellule poggiano direttamente
sugli elettrodi che formano il circuito del MEA (Fig 7.1).
Fig 7.1 Immagine al microscopio dei neuroni connessi agli elettrodi del MEA
Osservando il MEA si può vedere come ogni elettrodo è connesso attraverso un sottile percorso
isolato ad un collegamento esterno. Di tutti i collegamenti situati nel supporto, alcuni fungono da
input, altri da output, ed altri ancora mettono a massa il sistema.
Il MEA viene collegato all’apposita morsettiera di collegamento (Fig 7.2) per facilitarne la
connessione al sistema di acquisizione.
95
Fig 7.2 Micro-Electrode Array connesso alla morsettiera di registrazione
I MEA vengono posti dentro ad un box termoregolato. La temperatura viene mantenuta costante
grazie una sonda termometrica, posta all’interno del suddetto box, connessa ad un circuito
elettronico di controllo che provvede ad alimentare alcune resistenze. Queste sono situate
all’interno dell’alloggiamento delle vaschette delle cellule, al fine di mantenere la temperatura
costante a 37° C. Le resistenze sono realizzate in carbone e alimentate in corrente continua. Per
ottenere una buona schermatura da disturbi di natura elettromagnetica, l’intero contenitore,
realizzato in plexiglass, è rivestito con una rete d’ottone con maglia da 1mm.
Il box termoregolato non risolve il problema dell’ossigeno e dell’anidride carbonica che dovrebbero
essere mantenuti ai livelli ottimali (ossigeno 20%, anidride carbonica 5%), per permettere alle
cellule una migliore sopravvivenza. Per ovviare a questo problema, poiché non è possibile
effettuare le registrazioni mantenendo le cellule in un incubatore insieme al box termoregolato,
viene utilizzato un buffer Tyrode che permette di mantenere il PH e i livelli di glucosio necessari
alle cellule. Questo particolare buffer è costituito da 250ml di soluzione madre contenente NaCl e
KCl, 0,5ml di CaCl2 1M, 0,5ml di MgCl2 1M e 1,5gr di glucosio, per un PH finale di 7.4. Il buffer
viene aggiunto al medium di coltura poco prima delle registrazioni. L’aggiunta del Tyrode mantiene
le cellule stabili, ovvero senza scatenare la formazioni di vescicole apoptotiche per un tempo
sufficiente a terminare le registrazioni (circa due ore).
A causa delle limitazioni imposte dagli strumenti a disposizione, non è possibile collocare le cellule
esattamente nei punti desiderati. Le architetture elettriche realizzate hanno costituito una sorta di
letto sul quale sono state depositate le cellule che hanno creato collegamenti tra loro al di là di quelli
elettrici.
96
7.2 Sistema di acquisizione e di stimolazione
Dagli elettrodi posti a contatto con le cellule viene prelevato, tramite un cavo schermato, il segnale
elettrico da misurare.
Fig 7.3 Schema del circuito della board interposta tra i neuroni biologici e il computer
97
Il segnale entra in un preamplificatore ad alta impedenza d’ingresso per una prima amplificazione e
successivamente passa attraverso due filtri Notch, accordati sulla frequenza di 50Hz, al fine di
eliminare eventuali disturbi generati dalla rete elettrica. Dopo i filtri il segnale subisce un’ulteriore
amplificazione e tramite accoppiamenti isolati viene trasferito alla scheda d’acquisizione istallata a
bordo del computer di gestione e di registrazione.
La board in Fig 7.3, sviluppata dal nostro gruppo, viene utilizzata oltre che per filtrare e
disaccoppiare i segnali provenienti dal MEA anche per veicolare il segnale di stimolazione ai
neuroni biologici, il segnale proviene da un generatore interno, transita attraverso dei relé allo stato
solido per essere inviato alle cellule. I relé, per decidere a quali elettrodi sul MEA devono essere
mandati gli stimoli, sono comandati esternamente tramite l’uscita digitale della scheda di
acquisizione in sintonia con il relativo software di gestione.
Tutto il circuito elettronico (Fig 7.3) è completamente isolato e racchiuso in uno spesso contenitore
metallico il cui corpo viene connesso ad un conduttore di terra.
Al fine di evitare che eventuali segnali spuri possano influenzare il sistema di amplificazione, si è
provveduto ad isolare completamente tutto il circuito elettronico della sezione di preamplificazione.
I segnali analogici entranti (acquisizione) e uscenti (dopo amplificazione) sono completamente
isolati dal mondo esterno tramite circuiti elettronici realizzati dalla Texas Instruments; questi
circuiti impediscono di fatto qualsiasi accoppiamento tra i circuiti esterni e quelli interni.
Anche i segnali digitali di controllo sono completamente disaccoppiati dal circuito interno tramite
fotoaccoppiatori.
In questa maniera gli elettrodi connessi alle cellule non vengono a contatto in nessun modo con il
mondo esterno di misura/controllo. Quattro batterie ricaricabili a ioni di litio provvedono ad
alimentare tutti i circuiti elettronici: in questo modo viene garantita una tensione pulita.
Tutto il sistema, alloggiamento vaschette e circuito di preamplificazione, è connesso a terra.
La nostra board viene controllata dal computer tramite la scheda multifunzione della National
Instruments modello NI6052E DAQ, ed ha le seguenti caratteristiche necessarie per un corretto
trattamento delle grandezze analogiche e digitali in gioco [Gib93]:
velocità 333 kS/s a 16bit;
frequenza di acquisizione 10 kHz;
16 input analogici;
98
2 output analogici;
8 linee I/O digitali.
7.3 Protocollo di stimolazione e di registrazione dei segnali
L’esperimento riportato nelle pagine seguenti è stato applicato a tre tipi di culture:
Neuroni ottenuti dalla coltivazione di cellule staminali neurali umane;
Cellule staminali neurali indifferenziate;
Neuroni ottenuti dalla coltivazione di cellule staminali neurali umane sottoposte a
trattamento con tetratossina (TTX).
La TTX è un’alcaloide che appartiene al gruppo delle neurotossine. Il trattamento con TTX
determina il blocco del trasporto degli ioni sodio attraverso la membrana plasmatica, ciò si traduce
in una profonda modificazione dell’eccitabilità e nel blocco della conduzione dell’ impulso nervoso.
Il protocollo dell’esperimento che sotto riportiamo si basa sul presupposto che una rete di neuroni
umani può essere trattata come una rete neurale artificiale. L’esperimento necessita quindi di una
fase di training e di una fase di testing.
Nella fase di training le cellule sono state sottoposte per diverse volte a stimoli sensoriali simulati
da pattern digitali. Alle cellule sono stati forniti quattro pattern, che per comodità sono stati indicati
con le quattro direzioni canoniche (avanti, indietro, destra, sinistra). Questa in realtà è una
convenzione, determinata dal fatto che il fine ultimo di questa applicazione è far muovere un robot.
Non vi è infatti alcun tipo di correlazione tra gli stimoli forniti e la reale informazione che si riflette
a livello biologico. Ciò che interessa è guidare i neuroni alla memorizzazione ed all’apprendimento
di pattern sensoriali verificando che vi sia una risposta coerente da parte della rete di neuroni
riprodotta in vitro.
Nella vaschetta contenente le cellule sono stati attivati otto canali utili per riprodurre la stimolazione
sensoriale. Questi canali sono stati selezionati dai sessantaquattro elettrodi a disposizione imitando
il processo pochi-a-molti molti-a-pochi che caratterizza il sistema nervoso.
Ogni pattern è costituito da una matrice di otto bit per otto bit. Ogni bit ha la durata di 300ms a
300mV ognuno. Le cellule sono state quindi stimolate per 2.4 secondi. La stimolazione è stata
seguita da un secondo di pausa ed è stata ripetuta per dieci volte. Ognuno dei quattro pattern è stato
99
somministrato dieci volte per permettere alla rete di neuroni collocata sui MEA di rafforzare alcune
connessioni e non altre, in modo tale da apprendere la configurazione dei pattern e ricordarla
successivamente.
Al termine della decima stimolazione è stata attivata la registrazione della risposta delle cellule
nervose. Tale risposta è servita a fare apprendere alla rete neurale artificiale le quattro direzioni.
I pattern forniti sono schematizzati di seguito (Fig 7.4). Per ciascun pattern, le ordinate
rappresentano gli otto canali attivati contemporaneamente, mentre in ascissa è riportato il tempo.
Ogni casella mi rappresenta un bit, se la casella è annerita significa che è stato fornito lo stimolo,
altrimenti lo stimolo è nullo.
Fig 7.4 Pattern F,
B , L, R inviati alla rete di neuroni.
Terminata la fase di training si è passati a testare l’apprendimento della rete di neuroni (fase di
testing). Nella fase di testing si è inviata alla rete di neuroni una stimolazione corrispondente ad uno
dei quattro pattern. Tale stimolazione, della durata di 2.4 secondi è stata seguita da una registrazione
della risposta delle cellule nervose. I pattern sono stati forniti in maniera casuale. Lo stimolo
generato è stato acquisito dalla rete neurale, la quale ha classificato tale risposta, sulla base di
quanto ricevuto nella fase di training, individuando una specifica direzione.
100
Il segnale di stimolazione è un segnale alternato a bassa tensione che può essere preimpostato nel
circuito di preamplificazione come un segnale in onda quadra. La scelta di un segnale alternato è
per evitare fenomeni di elettrolisi all’interno delle colture delle cellule.
Nella figura sottostante (Fig 7.5) è mostrato un esempio di segnali inviati ai MEA durante
l’esperimento: come si può vedere vengono inviati contemporaneamente otto stimoli in zone
differenti dei MEA.
Fig 7.5 Esempio di segnali di stimolazione inviati alle cellule
7.4 Funzionamento della rete neurale
Il fine ultimo dell’esperimento, come detto, è quello di far apprendere dei pattern di segnali a un
circuito di neuroni creato in vitro.
Poiché a priori non conosciamo nulla dei segnali in uscita dai MEA, per capire se vi sia stato o
meno l’apprendimento dei pattern potremmo ricorrere a strumenti informatici classici, andando ad
estrarre particolari proprietà dal segnale e utilizzando degli algoritmi per decifrare l’informazione.
Questo però non garantirebbe la riuscita dell’esperimento, perché la decodifica del contenuto
informativo di una rete di neuroni come si è visto non è possibile con i metodi classici, che si
applicano, con evidenti limitazioni, allo studio dell’andamento di singoli segnali.
Nel sistema presentato, invece di effettuare questo tipo di processazione ai dati, si ricorre
all’utilizzo di sistemi complessi, come le reti neurali. Le reti neurali, grazie a proprietà come la
flessibilità, la gradualità del cambiamento, l’adattamento progressivo e la capacità di operare per
analogia, riescono a classificare i segnali uscenti dati, dai segnali in input. Tutto questo senza
101
limitare l’informazione a particolari proprietà del segnale, come la frequenza di spike. L’utilizzo
delle reti neurali risolve questo problema andando a considerare l’insieme dei segnali in parallelo.
La rete neurale utilizzata è una ITSOM, descritta in precedenza, le cui caratteristiche generali sono
state ampiamente trattate precedentemente. L’obiettivo della rete, generata in linguaggio C, è la
classificazione dei segnali provenienti dai neuroni in una delle quattro direzioni: avanti, indietro,
destra e sinistra.
Sappiamo che una rete neurale artificiale necessita di due fasi: una fase di addestramento (o
training) e una fase di validazione (o testing).
Nel caso di una rete neurale ITSOM, la prima fase serve per generare gli z-score di riferimento
utilizzati poi per la classificazione, mentre la seconda fase è la vera e propria classificazione dei
segnali direzionali grazie agli z-score acquisiti nella fase precedente.
Prima però di poter utilizzare la rete neurale, è indispensabile definire alcuni parametri di
fondamentale importanza che incidono profondamente sul suo comportamento, che sono:
il numero di neuroni dello strato di input;
il numero di neuroni dello strato competitivo (o di Kohonem);
il numero di epoche per campionamento;
il tasso di apprendimento (ε) e il tasso di dimenticanza (α);
il valore soglia utilizzato nel calcolo degli z-score (τ);
la dimensione totale del file contenente i campioni da analizzare intesa come numero di
campioni presenti.
I valori ottimali dei suddetti parametri sono stati ottenuti per via empirica eseguendo una serie di
test offline utilizzando campioni di dati ottenuti da esperimenti mirati.
Per poter classificare, la rete deve innanzitutto memorizzare i quattro stati indicanti lo spostamento,
acquisendo i segnali di risposta delle cellule nella fase di training.
La ITSOM acquisisce tali informazioni attraverso una matrice di valori decimali in virgola mobile
(double per il linguaggio C). Questa matrice ha le dimensioni di 10000 x 8, dove diecimila è il
numero di campionamenti e otto sono i canali da cui vengono prelevati i segnali. Una volta iniziata
la fase di training la rete scarta tutti i file di addestramento precedenti al decimo. Arrivato il decimo
102
file di training indicante lo spostamento, la rete inizia a generare gli z-score che serviranno per il
confronto nella fase successiva all’esperimento: il testing.
La rete acquisisce quindi 80.000 dati racchiusi in una matrice bidimensionale composta da otto
colonne e diecimila righe. Essa non viene analizzata in un'unica volta, ma si divide il numero totale
di dati (rappresentati da valori di potenziale) per il numero di z-score di riferimento da generare per
ogni direzione in ogni campionamento. Tale nuovo valore viene diviso per il numero di neuroni di
input ottenendo il numero di campionamenti necessari per processare tutti i dati (Vedi diagramma
mostrato in Fig 7.6). Tramite test empirici si è scelto di generare otto z-score di riferimento per ogni
direzione. In pratica, ogni neurone ha in ogni campionamento otto valori di 0 e 1, che indicano il
suo stato vincente o perdente risultante dall’elaborazione di quella parte di dati in input.
80.000 dati
Suddivisi in una
matrice da
8x10.000
:
1. Numero di
z-score per ogni
direzione
:
2. Numero di
neuroni in input
Stabilito da test
empirici assume
valore 8 per ogni
direzione.
80.000:8 =10.000
Il numero di
neuroni in input è
500.
10.000:500=20
=
Numero di
campionamenti
necessari per
processare tutti i
dati
Il numero di
campionamenti
per ogni
direzione è 20.
Da cui deriva la
matrice mostrata
in Figura 4.7
Fig 7.6 Diagramma che illustra il calcolo della matrice tridimensionale degli z-score di
riferimento
103
Prendendo i valori di tutti i venti neuroni per campionamento si ha uno z-score di riferimento.
Esiste una matrice tridimensionale per ogni direzione e in essa si memorizzano tutti gli z-score di
riferimento (Fig 7.7).
Fig 7.7 Matrice tridimensionale in cui si memorizzano gli z-score di riferimento (esiste
una matrice per ogni direzione)
Per ogni campionamento si determina il neurone vincente in base alla distanza minima, quindi si
provvede a punire o premiare tale neurone mediante la modifica dei pesi. La premiazione del
vincente si compie spostando il valore del peso verso il valore della media degli input di una
percentuale di tale distanza, determinata dal tasso di apprendimento (ε). Si tiene conto delle vittorie
di ogni neurone e si definisce un numero oltre al quale è meglio scoraggiarne ulteriori. In questo
caso e in caso di neuroni perdenti, secondo il metodo della “coscienza” precedentemente descritto,
si attua una punizione mediante un lieve allontanamento del peso dal valore medio degli input,
questa volta grazie ad una percentuale indicata dal tasso di dimenticanza (α). Più precisamente in
questa fase si applicano le seguenti regole:
Se il neurone viene selezionato per la prima volta come vincente viene premiato:
Winew Wiold (Wiold )
Se il neurone raggiunge una determinata soglia di vittorie e viene riselezionato come
vincente, viene punito e il contatore che tiene traccia delle volte che ha vinto viene azzerato:
Witnew Wiold (Wiold )
104
Se il neurone non è fra quelli vincenti allora viene punito:
Witnew Wiold (Wiold )
Nelle formule Winew rappresenta il nuovo valore di peso che viene assegnato al neurone, mentre
Wiold il valore del peso prima del nuovo assegnamento.
Il tasso di apprendimento (ε) indica quanto vengono premiati i neuroni vincenti, il tasso di
dimenticanza (α) indica invece quanto vengono puniti i neuroni. Tasso di apprendimento e di
dimenticanza (ε,α) sono delle costanti comprese tra 0 e 1.
Questa fase viene ripetuta per un dato numero di epoche al fine di generare la serie temporale di
vittorie e approssimazioni necessarie alla creazione degli z-score significativi. Questi ultimi
vengono poi calcolati mediante l’algoritmo descritto precedentemente e si arriva a rappresentare
con sequenze di 1 e 0 le configurazioni dei neuroni vincenti per ogni campionamento.
La differenza tra le fasi di training e di testing è data dal fatto che nella prima fase non si procede a
classificare gli z-score generati, ma li si memorizza in un’apposita matrice. Si hanno così i
riferimenti rappresentanti le configurazioni dei neuroni vincenti in relazione ai diversi pattern di
training ricevuti in input.
Tutto questo non avviene nella fase di testing, dove si procede invece alla classificazione. Una volta
generati gli z-score si procede al confronto con quelli memorizzati nella matrice e non appena si
riscontra una corrispondenza nella configurazione degli z-score si classifica quel segnale di test
come indicante quella direzione. Si memorizza la classificazione e la si invia all’applicazione
grafica.
7.5 Interfaccia grafica e applicazione robotica
Utilizzando il linguaggio Labview è stato sviluppato un programma di controllo del sistema
utilizzato per:
il controllo del flusso degli esperimenti
la generazione dei pattern sensoriali simulati
l’acquisizione dei segnali
l’interfacciamento con la rete neurale
la generazione dei segnali di controllo degli attuatori del robot
105
LabView è un ambiente grafico con funzionalità incorporate per l’acquisizione, l’analisi delle
misure e la presentazione dei dati, che garantisce la flessibilità di un potente linguaggio senza la
complessità dei tradizionali tool di sviluppo. Esso offre avanzate capacità di acquisizione, analisi e
presentazione in un unico ambiente.
Il programma sviluppato è composto da varie interfacce grafiche tramite le quali è possibile
interagire col sistema. In Fig 7.8 è mostrata l’interfaccia tramite la quale è possibile effettuare il
training della rete biologica che comporta la somministrarzione di pattern digitali (Fig 7.4).
FASE DI TRAINING
01111110 = 0*2^7+1*2^6+1*2^5+1*2^4+1*2^3+1*2^2+1*2^1+0*2^0 = 126
Fig 7.8 E’ l’interfaccia grafica che ci permette di fare il training. Ciò che viene
mostrato è la somministrazione della sesta colonna del pattern R che corrisponde
all’invio del valore 126. Dall’ultima colonna si evince che questa è la terza volta che
viene somministrato il pattern R.
Il sorgente del programma è rappresentato dal flusso logico dei blocchi in Fig 7.9 dove si vede il
pattern R rappresentato sotto forma di array composto dalla sequenza di numeri decimali
24,24,24,24,255,126,60,24 durante la fase di stimolazione viene fatto ciclare l’indice dell’array in
modo da prelevare il singolo valore corrispondente ad una colonna del pattern, questo valore viene
passato al blocco che controlla la scheda NI6052E DAQ che a sua volta comanda la board di
stimolazione dei neuroni della rete neurale biologica (Fig 7.3)
106
Fig 7.9 Flusso del programma che permette la somministrazione di pattern per
ottenere il training della rete biologica
Come da protocollo di sperimentazione dopo che e’ avvenuta la somministrazione di un pattern per
10 volte si acquisisce il segnale proveniente dai neuroni biologici e lo si inoltra alla rete neurale
artificiale ITSOM (Fig 7.10)
Fig 7.10 Il primo blocco attiva l’acquisizione dei segnali il secondo invia i segnali
acquisiti alla rete neurale ITSOM
107
La rete neurale, costituita da una DLL sviluppata in C ed incapsulata/linkata in Labview (Fig 7.11) ,
elabora le informazioni e provvede a generare gli z-score inerenti al pattern somministrato.
Durante la fase di test lo z-score generato dalla rete ITSOM viene confrontato con quelli
precedentemente immagazzinati nella fase di training.
Una volta terminata l’elaborazione dei dati, questa restituisce, sotto forma di numero intero, la
direzione in cui dovrà muoversi il robot. Questo valore potrà essere utilizzato sia per pilotare a
video un robot virtuale sia per muovere degli attuatori robotica collegati al computer.
Fig 7.11 In basso a sinistra c’e’ il blocco che effettua il link con la DLL il resto del
diagramma è il codice che permette di generare i segnali elettrici per controllare il
robot
Nel caso della visualizzazione sullo schermo il programma in base al numero ricevuto posiziona
l’immagine nel seguente modo e il robot si muove nelle seguenti direzioni:
1 verso il basso (direzione del robot indietro);
2 verso l’alto (direzione del robot avanti);
3 verso destra (direzione del robot destra);
4 verso sinistra (direzione del robot sinistra).
108
Avviando l’applicazione si visualizza uno spazio bianco nel quale si muoverà l’immagine
rappresentante il robot (Fig 7.12), oppure se è attivo il sistema di connessione al telecomando ad
infrarossi si avrà il movimento del robot stesso (Fig 7.14).
Fig 7.12 Interfaccia LabView per la visualizzazione dei movimenti del robot e dei
segnali delle cellule campionati in tempo reale
Un esempio dei segnali generati per comandare l’attuatore robotica sono mostrati in Fig 7.13.
Fig 7.13 Esempio di come devono essere i segnali in uscita che comandano il robot
109
Un’apposita scheda gestisce l’invio dei segnali infrarossi che consentono al robot di muoversi. Per
quanto riguarda il robot reale, la durata minima del comando è di un secondo, la massima non ha
limiti ma dipende dallo spazio disponibile per i movimenti. La distanza tra un comando e l’altro
deve essere uguale o maggiore di 5 ms.
La velocità media di spostamento in avanti/dietro del robot è di circa 80 cm/s mentre per lo
spostamento a destra e a sinistra sono necessari comandi con tempo maggiore per far ruotare il
robot su se stesso. Anche i tempi di attivazione di ogni singolo comando dovrebbero essere variabili
in modo da trovare sperimentalmente la migliore performance.
I segnali di pilotaggio del trasmettitore a infrarossi che comanda il robot provengono dalla porta
parallela del computer.
Fig 7.14 Robot comandato a infrarossi
110
7.6 Schema generale dell’apparecchiatura
Dopo aver visto tutte le componenti hardware e software prodotte per eseguire il protocollo
dell’esperimento, vediamo di capire, osservando lo schema riportato di seguito (Fig 7.15), come
tutte queste parti siano interconnesse tra loro.
Fig 7.15 Schema che mostra la connessione tra tutte le apparecchiature sopra illustrate
Le parti software, indicate per convenzione nel computer, sono costituite dal programma per la
generazione dei pattern e dalla rete neurale. Questa accoglie gli stimoli in uscita dai MEA (indicati
con il riquadro blu) grazie alla scheda d’acquisizione e rielabora gli input inviando un segnale
direzionale al robot.
Come si osserva dallo schema, le diverse componenti sono tutte isolate tra loro e dall’ambiente
esterno, questo per evitare fenomeni di disturbo del segnale.
Possiamo riassumere la fase di training con lo schema riportato in Fig 7.16:
111
FASE DI TRAINING
Generazione ed invio dei segnali, tramite controller, ai neuroni
I neuroni ricevono le stimolazioni e producono un output
che viene accolto dalla scheda di acquisizione
L’applicazione registra le risposte dei neuroni in appositi file
Viene segnalata la presenza di un file alla ITSOM
La rete genera gli z-score di riferimento
x4
Fig 7.16 Schema riassuntivo della fase di training
Nella fase di testing la rete neurale artificiale non ha più movimenti da memorizzare, ma solo
segnali che devono essere classificati, quindi devono essere confrontati con le quattro
configurazioni binarie memorizzate in training. Prima del confronto, i valori devono essere
trasformati in z-score con una procedura analoga a quanto descritto sopra. L’intera procedura
relativa allo schema sopra mostrato può essere riassunto per la fase di testing come riportato di
seguito (Fig 7.17).
L’esecuzione della fase di testing, come si vede, comporta il movimento del robot virtuale o, se
connesso, di quello reale.
112
FASE DI TESTING
Nell’applicazione sono presenti i tasti delle quattro direzioni,
premendone uno si genera il segnale che viene inviato ai neuroni
I neuroni ricevono lo stimolo e producono una risposta
che viene accolta dalla scheda di acquisizione
Viene segnalata la presenza di un file pronto all’applicazione dedicata,
la quale ne estrae i contenuti e lo passa alla rete neurale
La rete neurale artificiale elabora i dati ricevuti
e cerca di classificare il segnale
Il segnale classificato viene inviato all’applicazione grafica
che visualizza il movimento / al robot che genera il movimento
Fig 7.17 Schema riassuntivo della fase di testing
La potenzialità dell’intero sistema presentato in questo capitolo permette di memorizzare in appositi
file i segnali in uscita, e quindi di ripetere virtualmente l’esperimento. Questo consente di agire offline sui parametri della rete neurale con il fine di migliorarne le prestazioni.
113
7.7 Risultati ottenuti
Nonostante la mancanza di interpretazione neurofisiologica dettagliata del tracciato del segnale, la
rete di ITSOM ha permesso di distinguere informazioni differenti contenute nei segnali. Possiamo
mostrare che pattern simili provocano segnali in uscita che generano attrattori caotici simili che
corrispondono allo stesso codice ITSOM, mentre pattern differenti producono attrattori caotici che
corrispondono a codici differenti.
Nella Tabella 7.1 rappresentiamo il codice generato dalla ITSOM che elabora i segnali emessi dalle
cellule dopo che queste sono state stimolate con pattern “R” (Fig 7.4 ). La Tabella 7.1 ci mostra che
la ITSOM ha generato lo sesso codice per tutti pattern “R”.
In questo esempio la rete neuronale analizza la sequenza di campioni provenienti da otto elettrodi
dopo aver ricevuto una stimolazione “R” ripetuta venti volte.
In questo caso durante la competizione della rete “vince” 5 volte il nodo 1, 0 volte il nodo 2, 0 volte
il nodo 3, 3 volte il nodo 5 e così via. Dopo il calcolo del punteggio per mezzo della procedura zscore otteniamo il codice alla prima riga della Tabella 7.1. Con il secondo pattern “R”, la rete vince
4 volte nel nodo1, 0 nel nodo 2, 0 nel nodo 3, 3 nel nodo 4 e così via, ma la procedura z-score
fornisce i medesimi codici. E così via.
La prima volta che si presenta il
Pattern “R”
La seconda volta che si presenta
il Pattern “R”
La terza volta che si presenta il
Pattern “R”
La quarta volta che si presenta il
Pattern “R”
La quinta volta che si presenta il
Pattern “R”
…
1
0
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
0
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
…
Tabella 7.1 z-score ottenuto alle presentazione di pattern di tipo “R”
La taratura della rete è stata ottimizzata secondo i risultati degli esperimenti off-line descritti in
precedenza.
114
Nella fattispecie si è utilizzato un tasso di apprendimento 0,1 , un numero di epoche pari a 50 e 12
neuroni nello strato competitivo (sotto questo numero di neuroni la rete non classifica più
correttamente).
L’esperimento off-line con taratura ottimizzata aveva raggiunto una percentuale di classificazione
media pari al 60% (Tabella 7.3). Va tenuto presente che una scelta casuale sarebbe al più del 25% o
anche molto inferiore, considerando che non è scontato che il classificatore riesca ad identificare
almeno un pattern.
Abbiamo concluso che 12 neuroni dello strato competitivo sono sufficienti a discriminare i segnali
in uscita dalla rete biologica in seguito allo stimolo proveniente dai quattro pattern. La
configurazione migliore utilizzando i primi 400ms è riportata in (Tabella 7.2):
Intervallo temporale analizzato
Numero di campioni esaminati
Tasso di apprendimento
Numero di neuroni dello strato di input
Numero di neuroni nello strato di output
Numero di epoche
1-400ms
32000
0,1
500
12
50
Tabella 7.2 Parametri della rete neurale dopo il processo di taratura
Questo risultato è stato completamente confermato nell’esperimento on-line.
Le percentuali di classificazione dei “pattern F” e “pattern B” raggiungono valori considerevoli di
classificazione, 80% e 83,33%, mentre per quanto riguarda i “pattern R” e “pattern L”, che
rappresentano le direzioni laterali, la percentuale è del 42,86%. Se eliminiamo i segnali spuri emessi
dai neuroni, che la rete non riconosce, le percentuali di classificazione corrette si innalzano
notevolmente e nel caso dei pattern B si raggiunge una classificazione del 100%.
Input 1-400ms
Classificati correttamente
Non classificati correttamente
Non classificati
Totale dei pattern forniti
% Classificati
% Classificati correttamente
Pattern F
4
1
0
5
100%
80%
Direzioni
Pattern B
Pattern L
5
3
0
3
1
1
6
7
83,33%
85,71%
83,33%
42,86%
Pattern R
3
3
1
7
85,71%
42,86%
Tabella 7.3 Classificazione dei pattern in funzione della direzione
115
Totale
15
7
3
25
88%
60%
Percentuale di classificazione nelle quattro direzioni
100%
80%
60%
Non classificati
40%
Non classificati correttamente
20%
Classificati correttamente
0%
Pattern F Pattern B Pattern L Pattern R
Totale
Direzioni
Fig 7.18 Istogramma relativo alla classificazione in funzione della direzione
Per valutare l’efficienza del classificatore è stato adottato il metodo delle matrici di confusione.
Per ogni matrice di confusione si possono definire quattro importanti parametri:
False Positive (FP): è la probabilità che un pattern sia stato erroneamente classificato come
appartenente ad un altro pattern.
False Negative (FN): è la probabilità che uno specifico pattern sia stato erroneamente
classificato non nel suo specifico pattern.
True Positive (TP): è la probabilità che un pattern sia stato correttamente classificato come
appartenente ad uno specifico pattern.
True Negative (TN): è la probabilità che un pattern sia stato correttamente classificato come non
appartenente ad uno specifico pattern.
Considerando una tabella di confusione come ad esempio quella del pattern F (Tabella 7.4);
possiamo quindi collocare questi quattro parametri nel modo seguente:
Matrice di confusione pattern F
F
Non F
TP
FN
F
FP
TN
Non F
Tabella 7.4 Esempio di matrice di confusione
Ora è possibile definire altri due importanti indici che indicano la bontà del classificatore:
Sensibilità: è la probabilità che il test sia positivo dato che un determinato pattern possiede le
caratteristiche di quella classe di appartenenza.
Sensibilità = (TP / ( TP + FN))*100
Specificità: è la probabilità che il test sia negativo dato che un determinato pattern non possiede
le caratteristiche di quella classe di appartenenza.
Specificità = (TN / (TN + FP))*100
Utilizzando il metodo delle matrici di confusione è possibile analizzare la bontà del classificatore:
116
Per cui si sono costruite delle matrici di confusione a due classi come riportato di seguito in Tabella
7.5, Tabella 7.6, Tabella 7.7, Tabella 7.8.
Matrice di confusione pattern F
F
Non F
4
0
F
1
17
Non F
Tabella 7.5 Matrice di confusione pattern F
Matrice di confusione pattern B
B
Non B
5
6
B
0
11
Non B
Tabella 7.6 Matrice di confusione pattern B
Matrice di confusione pattern L
L
Non L
3
1
L
3
15
Non L
Tabella 7.7 Matrice di confusione pattern L
Matrice di confusione pattern R
R
Non R
3
0
R
3
16
Non R
Tabella 7.8 Matrice di confusione pattern R
Alla luce di queste considerazioni riportiamo, nella seguente tabella (Tabella 7.9), i valori di
sensitività e specificità di tutti e quattro i pattern:
Sensitività
Specificità
Pattern F
100%
94,44%
Pattern B
45,45%
100%
Pattern L
75%
83,33%
Pattern R
100%
84,21%
Totale
80,11%
90,50%
Tabella 7.9 Sensitività e specificità
La sensitività (accuratezza) media di astrazione del modello è dell’80,11%, mentre la specificità
(precisione) è del 90,50%..
Dall’osservazione dei dati ottenuti possiamo considerare il modello di classificatore efficiente ed
affermare che è rappresentativo del comportamento della rete neurale biologica.
117
Capitolo 8
Conclusioni e Sviluppi futuri
Questa serie di esperimenti ci permette di mostrare da una parte la capacità di sviluppare un
sistema hardware/software in grado di interagire con i neuroni e farli memorizzare ed apprendere
percezioni simulate, dall’altra la capacità da parte di una opportuna ANN di decodificare, in tempo
reale, le reazioni dei neuroni fino a riuscire a pilotare gli attuatori del robot.
In letteratura non vi sono attualmente lavori che abbiano ottenuto questo genere di risultati: infatti
in nessun caso si è giunti a decodificare i segnali in modo da verificare se una rete di neuroni abbia
o meno effettivamente appreso. Ciò che viene fatto in letteratura è affidare alla rete di neuroni
stessa il compito di autorganizzarsi sotto l’azione di stimoli esterni e di imparare a finalizzare il
proprio comportamento. Quindi il vantaggio della nostra tecnica è da una parte la capacità di
interpretare la semantica dei segnali, dall’altra di poter in questo modo guidare l’apprendimento
fino a raggiungerne l’efficacia voluta.
Tutti i ricercatori che nel mondo effettuano esperimenti di apprendimento su culture di neuroni
partono dal presupposto che nel segnale neurale debba essere analizzata la sola forma di “spike”
conosciuta e la sola frequenza di output, o il solo timing di singolo spike, e ponendo limiti di
voltaggio e di tempo (in input).
Come si può osservare analizzando i risultati da noi descritti, questi sembrano suggerire l’esistenza
di una forma di apprendimento neurale diverso da quello “classico” basato sull’analisi delle sole
frequenze di spike o meglio ancora in base alla assunzione che tutte le risposte neurali siano nella
sola forma di potenziale d’azione, quindi con stessa ampiezza, forma e durata, sempre, a
prescindere dal tipo di stimolo fornito in input. La rete neurale artificiale ci ha permesso di
decodificare l'andamento dei segnali in senso complessivo. Questo ci permette di ipotizzare una
forma di risposta neurale codificabile anche in base alle ampiezze degli spike e soprattutto in base
all’organizzazione interna, probabilmente complessa e non lineare, del loro succedersi. Questo
ovviamente non ci permette di escludere la forma di risposta “classica”, ma non preclude l’esistenza
di altre forme di “codice neurale” ad oggi sconosciute.
118
0 Conclusioni e Sviluppi futuri
Il gruppo Living Networks Lab sta attualmente partecipando al progetto europeo FlashPoM, in cui
verranno testati speciali MEA con piste litografate su base di polimeri. Le piste permetteranno di
guidare i neuroni a depositarsi in siti specifici senza spostarsi, in modo da associare singole cellule a
singoli elettrodi. Grazie a questi MEA innovativi sarà a breve possibile studiare con dettaglio il
comportamento specifico di connessioni di due o più neuroni, con grandi vantaggi dal punto di vista
della ricerca neurofisiologica. Inoltre questi MEA permetteranno di strutturare reti wetware con
architetture controllate e razionalizzate.
Un altro futuro sviluppo è l’ottimizzazione della rete ITSOM mediante lo studio di un nuovo
algoritmo di identificazione degli attrattori caotici. Attualmente è stato studiato un metodo basato
sullo score totale dei neuroni vincenti che off-line ha dimostrato prestazioni migliori.
Il passo successivo riguarda l’aumento in complessità del sistema ibrido. Saranno implementate reti
wetware con un maggior numero di elettrodi e quindi in grado di recepire pattern più complessi. In
questo modo sarà possibile dotare il robot di sensori che consentono di passare da stimoli sensoriali
simulati a stimolazioni reali provenienti dall’ambiente.
Un sistema wetware di adeguata complessità potrebbe quindi essere interfacciato anche a sistemi
robotici complessi. A questo scopo è in fase iniziale la collaborazione con il gruppo del Prof. Giulio
Sandini, dell’Istituto Italiano di Tecnologia di Genova nell’ambito del progetto europeo BabyBot,
allo scopo di verificare la fattibilità di un interfacciamento fra reti neurali wetware e sistemi
robotica avanzati.
Al di là delle applicazioni robotiche, la cui utilità spazia dal campo industriale a quello sanitario a
quello domotico, si può prevedere che gli sviluppi futuri di un sistema di questo tipo possano
portare anche ad altre ricadute: da un lato il miglioramento della conoscenza delle funzionalità di
apprendimento e di memorizzazione delle reti di neuroni biologiche; dall’altro lato lo sviluppo di
dispositivi ibridi elettronici-biologici, comprendenti la possibilità sia di computazione biologica, sia
di protesi bioniche non invasive capaci di migliorare o sostituire funzionalità nervose danneggiate.
119
Bibliografia
[Adr28]
Adrian, E.D., 1928.“The basis of sensation: The action of the sense organs”. New
York: W. W. Norton & Company.
[Adr32]
Adrian, E.D., 1932. “The Mechanism of Nervous Action: Electrical Studies of the
Neurone”. Philadelphia: Univ. Pennsylvania Press.
[Aki94]
Akin, T., Najafi, K., Smoke, R.H. and Bradley, R.M., 1994. “A micromachined
silicon electrode for nerve regeneration applications“. IEEE Trans Biomed Eng 41,
305-313 .
[Alb94]
Albert, B.,
Bray, D.,
Lewis, J., Raff, M., Roberts, K., Watson, J.D., 1994.
“Molcular Biology of the Cel”l, 3rd ed. New York: Garland.
[Bel02]
Bels, B. and Fromherz, P., 2002.”Transistor array with an organotypic brain slice:
field potential records and synaptic currents”. European Journal of Neuroscience 15,
999-1005.
[Ben71]
Bendat, J. S., Piersol, A. G., 1971. “Random Data: Analysis and Measurements
Procedures”, Wiley-Interscience, Nueva York.
[Bon02]
Bonifazi, P. and Fromherz, P., 2002. “Silicon Chip for Electronic communication
between nerve cells by non-invasive interfacing and analog-digital processing“.
Advanced Material 17.
[Bor97]
Borkholder, D.A., Bao, J., Maluf, N.I., Perl, E.R. and Kovacs, G.T., 1997.“
Microelectrode arrays for stimulation of neural slice preparations“. J. Neuroscience
Methods 7, 61- 66.
120
Bibliografia
[Bov96]
Bove, M., Martinoia, S., Grattarola, M. and Ricci, D., 1996.”The neuron-transistor
junction: Linking equivalent electric circuit models to microscopic descriptions”.
Thin Solid Films 285 ,772-775.
[Bre95]
Breckenridge, L.J., Wilson, R.J.A., Connolly, P., Curtis, A.S.G., Dow, J.A.T.,
Blackshaw,
S.E.
and
Wilkinson,
C.D.W.,
1995.“Advantages
of
using
microfabricated extracellular electrodes for in vitro neuronal recording”. J
Neuroscience Research 42 ,266- 276.
[Bro04]
Brown, E.N., Kass, R.E., Mitra, P.P., 2004.“Multiple neural spike train data
analysis : state-of-the-art and future challenges“. Nature Neuroscience 7, 456-461.
[Cam97]
Silvio Cammarata, 1997.“Reti neuronali. Dal Perceptron alle reti caotiche neurofuzzy”, Etaslibri
[Can97]
Canepari, M., Bove, M., Mueda, E., Cappello, M., Kawana, A., 1997.”Experimental
analysis of neural dynamics in cultured cortical networks and transitions between
different patterns of activity”. Biological Cybernetics 77 ,153-162.
[Car03]
J.M. Carmena, M.A. Lebedev, R.E. Crist, J.E. O'Doherty, D.M. Santucci, D.F.
Dimitrov, P.G. Patil, C.S. Henriquez, 2003.” Learning to control a brain-machine
interface for reaching and grasping by primates”. M.A.L. PLoS 1 , pp.193-208.
[Cat88]
Catterall, W.A., 1988.“Structure and function of voltage-sensitivr ion channels”.
Science 242, 30-61.
[Chi04]
Chiappalone, M., Novellino, A., Vato, A., Martinoia, S., Vajda, I., van Pelt, J.,
2004.“Analysis of the bursting behavior in developing neural networks“. 2nd
Symposium IMEKO, IEEE, SICE. Genova (Italy), June 14-16.
[Cla76]
Clark, K.L., Cowell, D.F., 1976.”Programs, Machines, and Computation“. McGrawHill, New York.
[Col49]
Cole, K. S., 1949.“Dynamic electrical characteristics of the squid axon membrane”.
Arch. Sci. Physiol. 3:253-258.
[Dei65]
Deiters, O. F. K., 1865. “Untersuchungen über Gehirn und Rückenmark des
Menschen und der Saügethiere“. Braunschweig,Germany: Vieweg pp. 1-318.
121
Bibliografia
[Des88]
Desieno, D., 1988.”Adding a conscience to competitive learning”. in: Proc.
ICNN'88, Interna- tional Conference on Neural Networks, IEEE Service Center,
Piscataway, N J, pp. 117-124.
[Ege88]
Egert, U., Schlosshauer, B., Fennrich, S., Nisch, W., Fejtl, M., Knott, T., Müller, T.
and Hammerle H., 1988.“A novel organotypic long-term culture of the rat
hippocampus on substrate integrated microelectrode arrays”. Brain Resource Protoc
2 , 229-242.
[Erm92]
Ermentrout, B., 1992.“Complex Dinamics in WTA Neural Networks with slow
inhibition”. Neural Networks 5, 403-409.
[Fia99]
Fiala, JC, Harris, KM:, 1999.“Dendrite Structure. In: Dendrites”. eds. G.Stuart,
N.Spruston, M.Häusser,Oxford University Press
[Fro02]
Fromherz, P., 2002.“Electrical Interfacing of Nerve Cells and Semiconductor chips“.
Chemphyschem, vol 3, pp. 276-284.
[Fro03]
Fromherz, P., 2003.“Neuroelectronic interfacing: semiconductor chip with ion
channels, nerve cells, and brain“. Martinsried, Germany.
[Fro91]
Fromherz, P., Offenhäusser, A., Vetter, T., Weis, J., 1991.“A Neuron-SiliconJunction: A Retzius-Cell of the Leech on an Insulated-Gate Field-Effect Transistor”.
Science 252, 1290-1293.
[Fro93]
Fromherz, P., Muller, C. O., Weis, R., 1993.“Neuron-Transistor: electrical transfer
function measured by the Patch-Clamp technique“. Phys. Rev. Lett. 71, 4079-4082.
[Gal03]
Galli, R., Gritti, A., Bonfanti, L., Vescovi, A.L., 2003. “Neural stem cells: an
overview”. Circ Res. Apr 4; 92(6):598-608. Review.
[Gar03]
Garcia, P.S., Calabrese, R.L., DeWeerth, S.P., Ditto, W. , 2003.“Simple Arithmetic
with Firing Rate Encoding in Leech Neurons: Simulation and Experiment”.
Proceedings of the XXVI Australasian computer science conference 16, Adelaide,
55–60.
[Gib93]
Gibson, J.D., 1993.”Principles of Digital and Analog Communications”. Macmillan,
second edition.
122
Bibliografia
[Gol08]
Golgi C., 1908.”La doctrine du neurone, theorie et faits”. In Les prix Nobel 1906
(ed. K. B. Hasselberg, S. O. Pettersson, K. A. H. Mörner, C. D. Wirse´n & M. C. G.
Santesson), pp. 1–31. Stockholm: Imprimerie Royale, Norstedt & Söner.
[Gri01]
Gritti A., Galli R., Vescovi A.L., 2001. “Culture of stem cell of central nervous
system”, Federoff ed., Humana Press III edition, 173-197.
[Hak91]
Haken, H., 1991.”Synergetic computers and cognition (A top-down approach to
neural nets)”. Springer.
[Hay94]
Haykin, S., 1994.”Neural networks (A comprehensive foundation)”. MacMillan Coll.
Pub.
[Heb49]
Hebb, D., 1949.“The Organization of behaviour”. John Wiley.
[Her91]
Hertz, J., Krogh, A., Palmer, R., 1991.“Introduction to the Theory of Neural
Computation”. Perseus Books, Cambridge (MA).
[Hod39a]
Hodgkin, A.L., Huxley. A.F., 1939. “Action potentials recorded from inside a
nerve fiber”. Nature 144, 710-711.
[Hod39b]
Hodgkin, A., Huxley, H.,1939.”Electrical signal of nervous activity”. Philadelphia:
Univ. Pennsylvania Press
[Hod52a]
Hodgkin, A.L., Huxley. A.F., 1952. “A quantitative description of membrane current
and its applications to conduction and excitation in nerve”. J. Physiol (Lond) 117,
500-544.
[Hod52b]
Hodgkin, A.L., Huxley, A.F., and Katz, B.,1952.”Measurement ofcurrent voltage
relations in the membrane of the giant axon of Loligo”. J.Physiol.116:424-448.
[Hod52c]
Hodgkin, A. L., and Huxley, A.F.,1952.”Currents carried by sodium and potassium
ions through the membrane of the giant axon of Loligo”. J.Physiol.116:449-472.
[Hod52d]
Hodgkin, A.L., and Huxley, A.F.,1952.”The components of membrane conductance
in the giant axon of Loligo”. J.Physiol.116:473-496.
123
Bibliografia
[Hopf84]
Hopfield, J.J., 1984.”Neural Networks and Physical Systems with Emergent
Collective Computational Abilities”. Proc. Nat. Acad. Sci US, 81.
[Jen97]
Jenkner, M. and Fromherz, P., 1997.“Bistability of membrane conductance in cell
adhesion observed in a neuron transistor”. Phys Rev Lett 79, 4705-4708.
[Jim00a]
Jimbo, Y. and Robinson, H.P.C., 2000.”Propagation of spontaneous synchronized
activity in cortical slice cultures recorded by planar electrode arrays”.
Bioelectrochemistry 5 ,107-115.
[Jim00b]
Jimbo Y, Kawana A, Parodi P, Torre V., 2000.“The dynamics of a neuronal culture
of dissociated cortical neurons of neonatal rats”. Biol Cybern 83:1–20.
[Jim92]
Jimbo, Y., Kawana, A., 1992.”Electrical stimulation and recording from cultured
neurons using a planar array”. Bioelectrochem. Bioeng. 40, 193-204.
[Jim99]
Jimbo Y, Tateno T, Robinson HPC, 1999.“Simultaneous induction of pathwayspecific potentiation and depression in networks of cortical neurons” Biophys J
76:670–678.
[Kan03]
Kandel, E., Schwartz, J., Jessell, T., 2003.”Principi di Neuroscienze”. CEA,
Edizione
[Kau04]
R. Alexander Kaul, Naweed I. Syed, Peter Fromherz, 2004.”Neuro Semiconductor
Chip with Chemical Synapse between Identified Neurons”.Physical Review Letters
9203(3):8102.
[Koh90]
Kohonen, T., 1990.“The Self-Organizing Map”. Proceedings of the IEEE 78, 14641480.
[Koh91]
Kohonen, T., 1991.”Self-organizing maps: optimization approaches”. In Kohonen,
T., Mäkisara, K., Simula, O., and Kangas, J., editors, Artificial Neural Networks.
Proceedings of ICANN'91, International Conference on Artificial Neural Networks,
volume II, pages 981-990, North-Holland, Amsterdam.
[Koh93]
Kohonen, T.,
1993.“Physiological interpretation of the self-organizing map
algorithm”. Neural Networks 6, 895-905.
124
Bibliografia
[Koh95a]
Kohonen, T., 1995a.“The adaptive-subspace SOM (ASSOM) and its use for the
implementation of invariant feature detection”. In Fogelman-Soulié, F. and Gallinari,
P., editors, Proceedings of ICANN'95, International Conference on Artificial Neural
Networks, volume 1, pages 3-10. EC2 & Cie, Paris.
[Koh95b]
Kohonen, T., 1995b.“Emergence of invariant-feature detectors in self-organization”.
In Palaniswami, M., Attikiouzel, Y., Marks II, R. J., Fogel, D., and Fukuda, T.,
editors, Computational intelligence. A dynamic system perspective, pages 17-31.
IEEE Press, New York, NY.
[Koh95c]
Kohonen, T., 1995c.“Self-Organizing Maps”. Springer, Berlin.
[Koh96]
Kohonen, T., 1996.”Emergence of invariant-feature detectors in the adaptivesubspace self-organizing map”. Biological Cybernetics 75, 281-291.
[Kon48]
Konorski, J., 1948.”Conditioned reflexes and neuron organization”. Cambridge:
Cambridge Univ.Press.
[Lin96]
Lindner, J.F., and Ditto, W., 1996.“Exploring the nonlinear dynamics of a
physiologically viable model neuron“. AIP Conf. Proc. 1, 375-385.
[Lui99]
Luise, M., Vitetta, G. M., 1999.”Teoria dei Segnali”. Mc Graw-Hill, Milano.
[Mae95]
Maeda E, Robinson HPC, Kawana A.,1995.“The mechanism of generation and
propagation of synchronized bursting in developing networks of cortical neurons”. J
Neurosci 15:6834–6845.
[Mah99]
Maher, M.P., Pine, J., Wright, J. and Tai, Y.C., 1999.”The neurochip: a new
multielectrode device for stimulating and recording from cultured neurons“.
Neuroscience Methods 87,45-56.
[Mal73]
Von der Malsburg, C., 1973.“Self-organisation of orientation sensitive cells in the
striate cortex“. Kybernetik 14, 85 -100.
[Mal89]
Mallat, S.G., 1989.“A theory for multiresolution signal decomposition: the wavelet
representation“. IEEE Trans. Pattern Anal. Mach. Intell. 11, 674–693.
125
Bibliografia
[Mar02]
Marom S, Shahaf, 2002.“Development, learning and memory in large random
networks of cortical neurons: lessons beyond anatomy”. Q Rev Biophys 35:63–87.
[Mar82]
Martinez Martinez, P.F.A. 1982. “Neuroanatomy: Development and Structure of the
Central Nervous System.” Philadelphia: Saunders.
[Moo66]
Moore G.P., Perkel D.H., and Segundo J.P.,1996.”Statistical analysis and functional
interpretation of neuronal spike data”. Annu Rev Physiol 28: 493–522.
[Nat98]
Thomas Natschläger, 1998.“Networks of Spiking Neurons: A New Generation of
Neural Network Models”. In Jenseits von Kunst. Passagen Verlag
[New76]
Newell, A., Simon, H.A., 1976.”Computer Science as Empirical Inquiry: Symbols
and Search”. in Mind Design II, John Haugeland.
[Nic92]
Nicholls, J.G., Martin, A.R., Wallace, B.G. 1992. “From Neuron to Brain: A
Cellular and Molecular Approach to the Function of the Nervous System”, 3rd ed.
Saunderland, M.A.: Sinauer.
[Nov03]
Novellino A et al, 2003.”Behaviors from an electrically stimulated spinal cord
neuronal network cultured on microelectrode arrays”. Neurocomputing.
[Pap73]
Papoulis, A., 1973.”Probabilità, variabili aleatorie e processi stocastici”.
Boringheri, Torino.
[Par86]
Parisi, G., 1986. “A memory that forgets”. J. Phys. A 19, L617-L620.
[Par90]
Parisi, D., 1990.”Connessionismo: origine e sviluppo al centro dello studio
dell’intelligenza”. Sistemi intelligenti, vol.2 pag. 364-426.
[Per67]
Perkel, D.H., Gerstein, G.L., Moore, G.P., 1967.“Neuronal Spike train and
stochastic point processes”. J. Biophys. 7, 391–418.
[Per96]
Perry, V., 1996.”Microglia in the developing and mature central nervous system”. In
KR Jessen,WD Richardson (eds.) Glia cell development: basic principles & clinical
relevance, pp.123-140 Oxford: Bios,
126
Bibliografia
[Pin99]
Pine, J., 1999.“Cultured neural networks: Multielectrode arrays for stimulating and
recording hippocampal neurons”. California Institute of Technology.
[Pit43]
Pitt, W., Mc Culloch, W., 1943.“A logical calculus of the ideas immanent in
nervous activity”. Bulletin of Mathematical Biophysics 5, 115-133.
[Piz02a]
Pizzi, R., 2002.”Sistemi dinamici e autorganizzanti”. Università Statale di Milano,
Polo Didattico e di Ricerca di Crema - Note del Polo.
[Piz02b]
Pizzi, R., de Curtis, M., Dickson , C., 2002.”Evidence of Chaotic Attractors in
Cortical Fast Oscillations Tested by an Artificial Neural Network”. In: J. Kacprzyk
(Eds.), Advances in Soft Computing. Physica Verlag.
[Piz03]
Pizzi, R., de Curtis, M., Dickson, C., 2003.”The Binding Problem: Evidence of
Chaotic Attractors in Cortical Fast Oscillations Tested by an Artificial Neural
Network. Advances in Soft Computing“, J. Kacprzyk ed., Physica Springer Verlag.
[Piz98]
Pizzi, R.,
Sicurello, F.,
Varini, G.,
1998.”Development of an inductive self-
organizing network for real-time segmentation of diagnostic image”.
3rd
International Conference of Neural Networks and Expert Systems in Medicine and
Healthcare , 44-50, Pisa, 2-4 Settembre, Ifeachor ed.
[Pot01]
Potter, S.M., 2001.“Distributed processing in cultured neuronal networks”. In:
Nicolelis (Ed.), Progress in Brain Research, M.A.L. Elsevier Science B.V .
[Ram94]
Ramon y Cajal, 1994.”Textura del sistema Nervioso del Hombre y los Vertebrados
(1894-1904); Histology of the Nervous System of man and vertebrates”.Oxford
Univ. Press.
[Reg00]
Reger, B.,
Fleming, K.M.,
Sanguineti, V.,
Alford, S.,
Mussa- Ivaldi, F.A.,
2000.”Connecting Brains to Robots: An Artificial Body for Studying the
Computational Properties of Neural Tissues”. Artificial Life 6, 307-324.
[Rit86]
Ritter, H., Schulten, K., 1986.”On the Stationary State of Kohonen’s Self-Organizing
Sensory Mapping”. Biological Cybernetics 54, 99-106.
127
Bibliografia
[Rit88]
Ritter, H., Schulten, K., 1988.”Convergence properties of Kohonen’s Topology
Conserving Maps : Fluctuations, Stability, and Dimension Selection”. Biological
Cybernetics 60, 59-71.
[Rua05]
Ruaro , M.E., Bonifazi, P., and Torre, V. , March 2005.”Toward the Neurocomputer:
Image Processing and Pattern Recognition with Neuronal Cultures”. IEEE
Transactions on Biomedical Engineering, 3.
[Rum86]
Rumelhart, D.E., McClelland, J.L., 1986.“Parallel distributed processing”. 2
volumi. Cambridge: The MIT Press.
[Sak83a]
Sakmann B., Neher E., 1983.”Single-channel recording”. Plenum Press, New York
and London, 497 p.
[Sak83b]
Sakmann, B.; Neher, E.,1995.”Geometric parameters of pipettes and membrane
patches. In: Single-Channel Recording”. (Eds. Sakmann, B.; Neher E.) Plenum
Press.
[Sak83c]
Sakmann, B.; Stuart, G. J., 1995.“Patch-pipette recordings from the soma, dendrites,
and axon of neurons in brain slices. In: Single-Channel Recording”. (Eds. Sakmann,
B.; Neher, E.) Plenum Press.
[San02]
Sanger, T.D., 2002.“Decoding Neural Spike Trains: Calculating the Probability
That a Spike Train and a External Signal Are Related“. J. Neurophysiol. 87, 16591663.
[Sar80]
Sarwate, D. V. and Pursley, M. B., 1980.”Crosscorrelation Properties of
Pseudorandom and Related Secuences”. Proc. IEEE, Vol. 68.
[Sch89]
Schwartz, J.T., 1989. “The New Connectionism: Developing Relationships Between
Neuro-science and Artificial Intelligence”.S. R. Graubard, ed., The Artificial
Intelligence Debate: False Starts, Real Foundations (Cambridge, MA: MIT Press).
[Sch90]
Schwartz, M. , 1990. “Information Transmission, Modulation, and Noise”. McGrawHill Book Co., Nueva York.
[Sch98]
Schatzthauer,
R. and Fromherz, P., 1998.“Neuron-silicon junction with voltage
gated ionic currents“. European Journal of Neuroscience 10 ,1956-1962.
128
Bibliografia
[Sha01]
Shahaf G, Marom S., 2001.”Learning in networks of cortical neurons”.Journal. of
Neuroscience 21: 8782-8788
[Sha79]
Shanmugan, K. S., 1979.”Digital and Analog Communication”. John Wiley and
Sons, Nueva York.
[Sha96]
Shao X.M. and Tsau Y., 1996.”Measure and statistical test for cross-correlation
between paired neuronal spike trains with small sample size”. J Neurosci Methods
70: 141–152
[She94]
Shepherd G.M.,1994.“Neurobiology”. 3rd Edition Oxford University Press.
[She98]
Sheperd, G.M., Harris, K.M., 1998. “Three-dimensional sructure and composition of
ca3-ca1 axons in rat hippocampal slices: Implications for presynaptic connectivity
and compartmentalization”. The Rournal of Neuroscience 18-20.
[Tak81]
Takens, F., 1981. “Detecting strange actractors in turbulence”. In: Rand, D.A.,
Young, L.S. (Eds.), Dynamical Systems and Turbulence—Lecture Notes in
Mathematics, vol. 898. Sprinter-Verlag.
[Tan89]
D.W. Tank and J.J. Hopfield, 1989. “Neural architecture and biophysics for
sequence recognition in Neural Models of Plasticity”. Academic Press, 363-377,
[Tur98]
Turrigiano G.G., Leslie K.R., Desai N.S., Rutherford L.C., Nelson S.B., 1998.
“Activity-dependent scaling of quantal amplitude in neocortical neurons”. Nature
391:892–896.
[Ves99]
Vescovi, A.L., Gritti, A., Galli, R., Parati, E., 1999 Aug.”Isolation and intracerebral
grafting of nontransformed multipotential embryonic human CNS stem cells“. J
Neurotrauma; 16(8):689-93.
[Wes03]
Westerlund et al, 2003. “Stem cells from the adult human brain develop into
functional neurons in culture”. Experimental cell research.
[Wid60]
Widrow, B. & Hoff, M.E. 1960.”Adaptive switching circuits”. IRE WESCON
Convention Record, Part 4 , 96-104
129
Bibliografia
[Wil76]
Willshaw, D. J., Von der Malsburg, C., 1976.“How patterned neural connections
can be set up by self-organization”. Proc. R. Soc. B194, 431-445.
[Wil94]
Wilson, R.J., Breckenridge, L., Blackshaw, S.E., Connolly, P., Dow, J.A.T., Curtis,
A.S.G., and Wilkinson, C.D.W., 1994.“Simultaneous multisite recordings and
stimulation of single isolated leech neurons using planar extracellular electrode
arrays”. Neuroscience Methods 53 ,101-110.
[Zbi92]
Zbilut JP, Webber CL, 1992. “Embeddings and delays as derived from
quantification of recurrent plots”, Phys. Lett. 171
[Zec01]
Zeck, G. and Fromherz, P., 2001.”Noninvasive neuroelectronic interfacing with
synaptically connected snail neurons on a semiconductor chip”. Proceedings of the
National Academy of Sciences 98 ,10457-10462.
130
Ringraziamenti
Sono molte le persone che sento di dover ringraziare per l’aiuto che mi hanno dato in questi quattro
lunghi anni di lavoro di ricerca. Questo lavoro di tesi costituisce il sunto di anni di apprendimento
non solo scientifico ma il risultato di un cammino di vita estremamente intenso ed istruttivo. Voglio
ringraziare le tante persone con cui ho avuto l’onore ed il piacere di lavorare, i colleghi con cui ho
condiviso tanti mesi, i mie genitori, mio fratello, e gli amici che mi sono stati sempre vicino. Li
citerò così come verranno in mente, cercando di non dimenticare nessuno, ma so già che è
impossibile.
Innanzitutto voglio esprimere la mia gratitudine alla Dott.ssa. Rita Pizzi per la pazienza con cui ha
seguito i miei lavori, per le sue intuizioni geniali, per gli innumerevoli stimoli e consigli, per
l’appoggio costante che mi ha sostenuto in questi anni. Un grazie particolare va anche al genio
dell’elettronica Danilo Rossetti senza il quale tutto questo sarebbe stato molto difficile da realizzare.
Ringrazio anche tutti gli altri componenti del Living NetWorks Lab: Daniela Marino, Andrea
Fantasia, Francesca Gregori, Fabrizio Gelain e in modo particolare i tesisti che si sono succeduti in
questi anni di cui sono stato Correlatore: Ruggero Rizzo, Fabio Mombelli, Roberto Rossoni e
Damiano Carne.
Ringrazio il Prof. Giovanni Degli Antoni per avermi appoggiato nelle fasi iniziali della mia tesi.
Ringrazio il Prof. Angelo Vescovi dello Stem Cells Research Institute (DIBIT-S. Raffaele) per
averci fornito il supporto tecnico/biologico per fare gli esperimenti
Infine un grazie va ai miei amici: Giuliano Caione, Raffaella Ciccarello, Alessandro Arena, Marco
Barutta, Salvatore Centonze, Pierfausto Martina, Maria Bertolami, Eugenia Caricato, Pierandrea
Caione, Vincenzo Ciancia, Luca Tarantino, Francesca Interrante, Pasquale Tedesco, Daniele Arletti
e Salvatore Pagano; ognuno alla sua maniera mi ha aiutato e mi è stato vicino in tutti questi anni.
Grazie a tutti.
131