Confronto fra reti neurali classiche e quantistiche su

UNIVERSITÀ DEGLI STUDI DI MILANO
Facoltà di Scienze Matematiche, Fisiche e Naturali
Corso di Laurea in Informatica
Confronto fra reti neurali classiche e
quantistiche su architettura wetware
Relatore:
Prof.ssa Rita PIZZI
Correlatori:
Prof. Giovanni DEGLI ANTONI
Dott. Andrea FANTASIA
Tesi di laurea di:
Alessandro FIORENTINO
Mat. 530014
Anno Accademico 2001/2002
“La coscienza è l’unico teatro in cui si rappresenta tutto quanto
avviene nell’universo, il recipiente che contiene tutto e al di fuori del
quale non esiste nulla”
(Erwin Schrödinger)
Indice
Introduzione .......................................................................................................... 1
1. Neuroni e cellule staminali ............................................................................. 4
1.1
Il neurone biologico ................................................................................ 4
1.2
Le cellule staminali ................................................................................. 8
1.3
1.2.1
Le cellule staminali embrionali....................................................... 9
1.2.2
Le cellule staminali adulte ............................................................ 12
La memoria: un archivio della mente.................................................... 14
2. Interfaccia neurone-silicio ............................................................................ 17
2.1
I primi esperimenti di interfaccia .......................................................... 17
2.2
L’esperimento del Max Planck di Monaco ........................................... 23
2.3
Reti neuronali biologiche: crescita e sinapsi......................................... 29
2.4
Conclusioni ........................................................................................... 33
3. Alla ricerca della coscienza .......................................................................... 34
3.1
Le macchine “pensanti”: i primi cinquant’anni .................................... 34
3.2
La non computabilità del pensiero cosciente ........................................ 36
3.3
I microtubuli.......................................................................................... 39
3.4
Microtubuli e coscienza ........................................................................ 44
4. Introduzione al quantum computing........................................................... 46
4.1
Introduzione .......................................................................................... 46
4.2
Macchine di Turing quantistiche........................................................... 50
4.3
Un approccio fisico-matematico al quantum computing ...................... 55
4.4
Che cos’è un quantum computer........................................................... 59
4.5
Circuiti .................................................................................................. 62
4.6
L’implementazione fisica di un quantum computer.............................. 65
4.7
Vantaggi e svantaggi ............................................................................. 66
4.8
Il principio di non località e il teorema di Bell ..................................... 67
5. Reti neurali artificiali classiche.................................................................... 70
5.1
Introduzione alle reti neurali classiche.................................................. 70
5.2
Caratteristiche generali delle reti neurali .............................................. 71
5.3
5.2.1
Leggi di apprendimento ................................................................ 73
5.2.2
Architettura dei collegamenti........................................................ 74
La rete di Hopfield ................................................................................ 77
6. Quantum neural networks ........................................................................... 82
6.1
Introduzione alle quantum neural networks.......................................... 82
6.1.1
Fuzzy Neural Networks ................................................................ 82
6.1.2
Entangled Neural Networks .......................................................... 83
6.2
Un semplice modello di neurone quantistico ........................................ 87
6.3
Dalla rete di Hopfield alla quantum associative memory ..................... 90
6.4
6.5
6.3.1
Reti neurali associative ................................................................. 90
6.3.2
Reti neurali olografiche................................................................. 92
6.3.3
Reti neurali associative quantistiche ............................................. 93
La simulazione del modello quantistico................................................ 96
6.4.1
Il nostro modello ........................................................................... 96
6.4.2
L’algoritmo ................................................................................. 100
6.4.3
L’implementazione del modello ................................................. 102
Alcuni output....................................................................................... 105
7. Il progetto..................................................................................................... 108
7.1
La scheda di acquisizione dati ............................................................ 108
7.1.1
7.2
Caratteristiche tecniche ............................................................... 109
L’applicazione..................................................................................... 111
7.2.1
Inizializzazione della scheda di acquisizione.............................. 111
7.3
7.2.2
Acquisizione analogica ............................................................... 112
7.2.3
Scrittura digitale .......................................................................... 113
Il “circuito vivente”............................................................................. 116
7.3.1
Realizzazione circuitale .............................................................. 116
7.3.2
Il materiale biologico .................................................................. 120
8. Gli esperimenti ............................................................................................ 122
8.1
L’esperimento sulla rete di Hopfield................................................... 122
8.2
Analisi dei risultati .............................................................................. 124
8.3
8.2.1
Analisi qualitativa dei segnali ..................................................... 124
8.2.2
I metodi di analisi........................................................................ 128
8.2.3
I risultati precedenti..................................................................... 128
8.2.4
I nuovi risultati ............................................................................ 130
La non località..................................................................................... 133
8.3.1
Analisi dei risultati ...................................................................... 136
Conclusioni e sviluppi futuri ............................................................................ 138
Bibliografia ........................................................................................................ 141
Ringraziamenti .................................................................................................. 146
Introduzione
Negli ultimi anni sono stati condotti numerosi studi ed esperimenti
riguardo l’impianto di microelettrodi applicati a circuiti elettronici ed interfacciati
con tessuto nervoso con lo scopo di analizzare l’attività neuronale. Tuttavia gli
ultimi esperimenti tendono a sostituire i microelettrodi in favore di un’interfaccia
diretta tra neurone e silicio, ottenuta coltivando le cellule direttamente sulle
piastrine di silicio. Pionieri in questo campo sono i ricercatori del Max Planck di
Monaco che conducono le loro ricerche da ormai più di dieci anni.
Questo lavoro di tesi si inserisce in un progetto di ricerca più ampio che
coinvolge, oltre all’università degli Studi di Milano, anche il Laboratorio Cellule
Staminali del DIBIT - Ospedale San Raffaele di Milano, dal quale provengono le
coltivazioni di cellule staminali e presso il quale sono state effettuate le
misurazioni.
Questa tesi è il naturale proseguimento di un precedente lavoro che aveva
lo scopo di indagare le architetture neurali basate sui modelli software e realizzate
attraverso l’utilizzo di neuroni biologici connessi tra loro con del materiale
conduttore. L’obiettivo della tesi è l’implementazione di reti neurali quantistiche
su architettura wetware, lo studio della risposta naturale delle cellule staminali
neurali stimolate secondo precisi pattern e il confronto dei risultati con le risposte
teoriche classiche e quantistiche. Sono stati anche portati avanti nell’ambito della
tesi alcuni esperimenti sulla non località e le sue possibili implicazioni a livello
macroscopico.
La tesi presenta una semplice descrizione sia del neurone biologico che
2
Introduzione
delle cellule staminali neurali utilizzate nell’architettura wetware.
Vengono poi introdotti i principali esperimenti presenti in letteratura
riguardanti l’interfaccia tra neurone e silicio e la crescita di reti neurali biologiche
coltivate, indagando su problemi e possibilità di una coltivazione di questo
genere, con particolare attenzione per la ricerca svolta presso il Max Planck di
Monaco.
Vengono in seguito esposte le teorie di Roger Penrose ed altri riguardo alla
non computabilità del pensiero cosciente, alla teoria quantistica dei microtubuli ed
alla possibile relazione tra microtubuli e coscienza.
A partire dalla tesi di Church-Turing e dalle macchine di Turing
“classiche” si descrivono le macchine di Turing probabilistiche e quelle
quantistiche, introducendo la teoria del quantum computing. Vengono esposti i
principali concetti fisici e matematici alla base di questa disciplina: la
sovrapposizione degli effetti in un sistema fisico, la funzione d’onda come
descrizione del sistema, il collasso della funzione d’onda e la decoerenza dello
stato di sovrapposizione. Viene anche descritto il principio quantistico della non
località.
Vengono descritte brevemente le reti neurali artificiale classiche e le loro
caratteristiche generali con particolare attenzione al modello di Hopfield. A partire
da questo modello vengono descritti alcuni modelli di reti neurali quantistiche, in
particolare il modello che è la controparte quantistica del modello di Hopfield.
Attraverso l’utilizzo del pacchetto software Mathematica 4.0 corredato con
il package QuCalc, sviluppato ad hoc per i calcoli quantistici, è stato
implementato
e descritto un modello di rete neurale quantistica. Lo scopo
dell’algoritmo è quello di trovare una qualche analogia tra le risposte reali delle
cellule sottoposte a stimolazione e le risposte teoriche.
Gli esperimenti di invio e acquisizione dei segnali sono stati effettuati con
la scheda di acquisizione Personal Daq/56 della IOTECH, un modulo hardware
dedicato alla calibrazione degli impulsi ed un software, sviluppato in una tesi
precedente, per l’invio dei pattern alle cellule e per la lettura delle loro reazioni.
Gli ultimi esperimenti condotti riguardano il modello di Hopfield e il
Introduzione
3
principio di non località. I risultati ottenuti confermano quelli dei precedenti
esperimenti, evidenziando risposte organizzate e specifiche delle cellule ai diversi
pattern proposti.
E’ in fase di analisi il confronto fra gli output della rete di Hopfield
wetware con la simulazione quantistica, mentre gli esperimenti di non località
hanno dato risultati interessanti il cui preciso significato fisico è tuttavia da
indagare ulteriormente.
Capitolo 1
Neuroni e cellule staminali
1.1
Il neurone biologico
Il cervello umano è sicuramente la struttura più complessa dell’universo e
può essere considerato come una enorme rete neurale. Circa cento miliardi di
neuroni costituiscono i nodi di tale rete.
Studiare la struttura biologica e la fisiologia del cervello è un compito
tutt'altro che facile. Tuttavia a partire dall'inizio del nostro secolo sono stati fatti
dei grandissimi passi in avanti in questo campo e sono stati raggiunti notevoli
risultati studiando i danni e le disfunzioni riportate da persone cerebrolese.
In questo modo i neuroscienziati sono riusciti a capire che tutte le attività
intelligenti sono controllate dalla parte esterna del cervello chiamata corteccia
cerebrale. La corteccia è a sua volta divisa in diverse regioni specializzate: ogni
regione controlla una determinata facoltà cognitiva. I neuroscienziati, inoltre, sono
riusciti a ricostruire la struttura cellulare del cervello e a capirne almeno in parte il
funzionamento.
La struttura di ogni neurone è complessa: dal corpo cellulare (soma), di
dimensioni comprese tra i 5 e 100 micron, partono numerose propaggini, di due
tipi diversi che corrispondono ai due diversi canali di comunicazione tra neuroni:
gli assoni e i dendriti. Gli assoni rassomigliano a dei fili di lunghezza molto
variabile (a partire da 0.1 millimetri fino a qualche metro) di sezione costante.
Lungo ogni assone principale si possono avere più propaggini assoniche. I
dendriti invece differiscono sensibilmente dagli assoni perchè tendono ad
assottigliarsi all’allontanarsi dal corpo cellulare; la loro lunghezza varia molto
Capitolo 1 – Il neurone, le cellule staminali e la memoria
5
meno di quella degli assoni (da 10 micron a 1 millimetro). Le funzioni degli
assoni e dei dendriti sono molto differenti; mentre i dendriti convogliano
l’informazione verso il corpo cellulare del neurone, gli assoni portano all’esterno
il segnale prodotto dal neurone. I dendriti, pertanto, rappresentano i canali di input
mentre gli assoni quelli di output (figura 1).
Figura 1: Il neurone
Il neurone è dotato di una membrana che separa l’ambiente intracellulare
da quello extracellulare. In condizioni di riposo si stabilisce una differenza di
potenziale elettrico fra l’interno e l’esterno della cellula, causata dalla differente
composizione chimica tra queste due regioni: all’interno della cellula si ha
Capitolo 1 – Il neurone, le cellule staminali e la memoria
6
predominanza di potassio, mentre all’esterno prevale il sodio (entrambi in forma
ionica). Queste differenti concentrazioni sono dovute alle proprietà di
semipermeabilità della membrana che, in assenza di perturbazioni elettriche,
lascia fluire verso l’interno solo il potassio e rappresenta invece una barriera per il
sodio. L’interno della membrana è a potenziale negativo rispetto all’esterno (la
differenza di potenziale è di alcuni millivolts). Ogni neurone può ricevere dai
neuroni ai quali è collegato un insieme di segnali di origine chimica elettrica. La
somma dei segnali provenienti dagli altri neuroni altera il valore del potenziale
all’esterno del corpo cellulare; se questo supera un certo valore di soglia la
permeabilità della membrana varia drasticamente, lasciando penetrare all’interno
del corpo cellulare gli ioni di sodio e ciò crea un impulso di corrente, generato
sulla superficie della cellula, che propaga l’informazione da un neurone ad an
altro. Questo segnale caratteristico (detto spike) viene poi propagato lungo gli
assoni. La tipica attività di un neurone consiste, quindi, nella trasmissione di una
serie di impulsi elettrici. Tale serie rappresenta un segnale di una certa intensità,
la cui frequenza costituisce un’ulteriore informazione.
Si può modellare il neurone come un sistema a due stati: uno è quello di
riposo; cioè quando la somma dei segnali che provengono dagli altri neuroni è
minore di un certo valore di riferimento (soglia) allora il neurone non emette
alcun segnale, cioè non propaga l’informazione che gli giunge; quando invece tale
somma supera la soglia il neurone passa nello stato attivo e comincia a trasmettere
l’informazione agli altri neuroni ai quali è collegato.
La connettività del sistema è determinata dalle sinapsi che sono degli
ispessimenti che si formano ai punti di contatto tra ramificazione assoniche e
dendritiche di due neuroni. L’interazione di due neuroni collegati da una sinapsi
può essere più o meno forte a seconda delle caratteristiche fisiche della
connessione. In prima approssimazione si possono distinguere due tipi di
connessioni; le sinapsi piuttosto sottili (dello spessore di circa 2 nanometri) e le
sinapsi più spesse (fino a 50 nanometri).
Le prime vengono dette sinapsi eccitatorie. Esse hanno una bassa
resistenza (un valore basso della soglia) e ciò consente al segnale di propagarsi
Capitolo 1 – Il neurone, le cellule staminali e la memoria
7
quasi intatto sino al dendrite del neurone ricevente che si attiva. Per le sinapsi
spesse la situazione è più complessa; si tratta di sinapsi chimiche che, in certi casi,
possono portare ad un innalzamento della soglia e pertanto ad inibire l’attivazione
del neurone ricevente: esse vengono definite sinapsi inibitorie. Il discreto
funzionamento del cervello anche in caso di lesioni (proprietà di fault tolerande
del cervello) evidenzia il carattere non localizzato dell’elaborazione. Vari
esperimenti hanno messo in evidenza la relazione tra l’azione di uno stimolo e
l’efficacia delle connessione sinaptica; si è visto che questa varia se lo stimolo è
somministrato ripetutamente. Sembra stabilito che solo le sinapsi relative a
neuroni sensori stimolati dall’esterno tendono a rafforzarsi. Questo legame tra
stimolo ed efficacia sinaptica è considerata la base per ogni tentativo di costruire
una teoria dell’apprendimento. A tale proposito ha notevole rilevanza l’ipotesi di
Hebb secondo la quale, se un neurone A ed un neurone B tendono ripetutamente
ad essere eccitati simultaneamente, questa concordanza di fase induce ad un
aumento delle sinapsi tra A e B (si dice che la sinapsi viene rafforzata). Secondo
questa ipotesi solo la correlazione tra l’attività di due neuroni è responsabile del
rinforzo delle sinapsi tra i due.
Il tempo di commutazione di un neurone (acceso-spento) è di un
microsecondo contro un nanosecondo di un elaboratore: solo che nel cervello le
connessioni sono in gran numero e molto dense.
La capacità di memoria del cervello è stimata in 4*1015 bit con una
capacità di elaborazione di 4*1016 bit/secondo. E’ possibile comparare questi dati
con il più avanzato computer: ASCI White (maggio 2000) costituito da 32768
processori POWER3-II a 375 megahertz ognuno dei quali esegue 4 calcoli in
virgola mobile contemporanemente. Questa macchina ha una memoria locale di
16384 gigabyte e 195 terabyte (1.71*1015 bit) di memoria esterna su disco. La
prestazione di picco del sistema è di 10 teraflop (1.28*1014 bit/secondo). La rete
permette però di sfruttare solo una frazione di questa potenza teorica [Ani01].
Capitolo 1 – Il neurone, le cellule staminali e la memoria
1.2
8
Le cellule staminali
Le cellule nervose, a differenza delle altre cellule dell'organismo umano,
non vanno incontro a ricambio. Il rinnovamento dei neuroni comporterebbe anche
la distruzione dei collegamenti neuronali e per questo motivo risulta attualmente
impossibile poter prelevare cellule nervose dal tessuto cerebrale senza
danneggiarlo.
Un’importante scoperta scientifica avvenuta negli ultimi anni e tuttora in
fase di studio riguarda l’isolamento e l’utilizzo delle cellule staminali, dalle quali
è possibile creare nuovi i futuri neuroni per poterli utilizzare negli esperimenti di
ricerca.
Le cellule staminali non mostrano le caratteristiche tipiche di alcun tessuto
particolare ma sono contraddistinte da due capacità: moltiplicarsi a volontà, dando
vita a copie innumerevoli di se stesse; e differenziarsi in cellule di più tipi diversi.
Quando una popolazione di staminali si divide, alcune cellule figlie sono ancora
staminali, identiche alle madri, che mantengono intatta la riserva; altre figlie
iniziano invece un ciclo di trasformazioni che le porterà a divenire cellule
differenziate di un determinato tessuto. Anche le staminali, in realtà, sono molto
diverse tra loro; differiscono nella capacità di proliferare, di produrre un tessuto
oppure un altro, di rispondere a determinati segnali che ne guidano lo sviluppo.
Non si tratta però di differenze che balzano all'occhio: viste al microscopio, queste
cellule sono simili l'una all'altra. Le diversità sono più sottili e consistono nel
corredo di proteine che ciascuna staminale produce in un dato momento della sua
vita; le proteine sono necessarie per recepire determinati segnali e cambiare il
proprio comportamento di conseguenza. La presenza di determinate proteine e
l'assenza di altre contraddistingue ciascun tipo di staminale, proprio come la
presenza dei prolungamenti contraddistingue le cellule nervose. Quando i
ricercatori conoscono le proteine tipiche delle staminali di loro interesse, possono
metterle in luce e identificare così le cellule.
Una volta differenziate, le cellule perdono quasi del tutto la capacità di
proliferare. Nei tessuti soggetti a un ricambio rapido, come l'epidermide o il
Capitolo 1 – Il neurone, le cellule staminali e la memoria
9
sangue, per rimpiazzare le perdite resta anche nell'adulto una riserva di staminali,
rispettivamente alla base della pelle e nel midollo osseo. Queste cellule, però,
sono in grado di rigenerare solo il tessuto cui appartengono, o comunque una
gamma ristretta di tessuti. E' chiaro comunque che, per conquistare una completa
capacità rigenerativa, l'uomo non può contare sulle sue scarne doti naturali;
occorre imparare a prelevare cellule staminali adatte a generare i tessuti da
riparare, oppure "ringiovanire" le cellule già differenziate, restituendo loro la
capacità di proliferare. Le cellule staminali dovrebbero poi essere indotte a
svilupparsi nel senso voluto, fino a ottenere tessuti o addirittura interi organi da
introdurre nel corpo per riparare la lesione. Questa possibilità è apparsa per la
prima volta realizzabile quando, sul finire del 1998, due gruppi di scienziati hanno
annunciato di avere isolato e fatto crescere in laboratorio cellule staminali
pluripotenti1, prelevate da embrioni e feti umani. Queste cellule, che si indicano
come cellule staminali embrionali, sono state la prima fonte a cui si è potuto
pensare di attingere. Restano però due grossi ostacoli da superare. Il primo è di
natura tecnica: il fatto che queste cellule siano potenzialmente in grado di formare
qualsiasi tessuto non vuol dire che, nel concreto, si sia capaci di farle differenziare
a piacimento per ricavarne i tessuti desiderati. Il secondo è un ostacolo etico: per
prelevare le staminali bisogna inevitabilmente distruggere l'embrione, il che, per
chi lo ritiene già un individuo umano a pieno titolo, è inaccettabile.
1.2.1 Le cellule staminali embrionali
Nel novembre del 1998, dopo almeno sei anni di tentativi, l'équipe di
James Thomson, dell'Università del Wisconsin, [Th&Al] ha reso noto di aver
isolato e fatto crescere in laboratorio le staminali pluripotenti prelevate da
embrioni umani. Ben prima che nella specie umana, le staminali erano state
1
Le cellule staminali pluripotenti mantengono le capacità proliferative durante tutta la vita
dell'individuo e nell'adulto sono in grado di ripopolare il comparto delle cellule differenzianti in
quei tessuti che presentano un alto ricambio cellulare dovuto a morte cellulare (ad esempio,
l'epidermide) o alla continua produzione di cellule specializzate. Le cellule staminali pluripotenti
sono presenti nell'embrione, nel feto ed in alcuni precisi distretti tissutali ben riconoscibili
nell'individuo adulto.
10
Capitolo 1 – Il neurone, le cellule staminali e la memoria
ricavate, nel 1981, [EvK81] da embrioni di topo; l'esperienza accumulata in questi
animaletti è stata preziosa per accertare in quale stadio dello sviluppo embrionale
dei mammiferi sono presenti le staminali pluripotenti e come si possa convincerle
a crescere in coltura senza che si differenzino. Per guidare lo sviluppo delle
staminali in laboratorio, si impiegano le stesse sostanze che ne dirigono il destino
all'interno dell'organismo. Durante lo sviluppo dell'embrione, ogni cellula viene
spinta a differenziarsi verso un determinato destino piuttosto che un altro da una
fitta serie di segnali che scambia ininterrottamente con le altre; i segnali sono
molecole di varia natura e sono detti, nell'insieme, fattori di crescita. I fattori di
crescita segnalano alle cellule che li ricevono quali geni esprimere o spegnere e
dunque quali proteine produrre; al variare dei fattori che riceve, la cellula produce
un insieme di proteine differente e man mano cambia forma, prende a funzionare
in
modo
diverso;
procede,
cioè,
lungo
un
determinato
percorso
di
differenziamento. Molti fattori di crescita sono stati individuati e possono essere
estratti dai tessuti o prodotti in laboratorio. Dopo innumerevoli tentativi, Thomson
è infine riuscito a mettere a punto il cocktail giusto: nel brodo da lui utilizzato, le
staminali di blastocisti umane ricevono un segnale che indica loro non di
differenziarsi ma di restare pluripotenti. Va precisato che le sostanze che danno
questo segnale restano in gran parte ignote; le staminali, infatti, devono essere
coltivate in compagnia di un altro tipo di cellule (i fibroblasti di topo), che
evidentemente producono fattori di crescita sconosciuti, ma indispensabili per
evitare il differenziamento. A pochi giorni da Thomson, il gruppo statunitense
guidato da John Geahart, della Johns Hopkins University di Baltimora, ha fatto un
annuncio analogo. La fonte era diversa: gli abbozzi delle gonadi di feti di uno o
due mesi; nei genitali dell'embrione infatti, come ha scoperto Geahart, alcune
cellule restano pluripotenti molto più a lungo che nel resto del corpo. Sia le
staminali di Thomson che quelle di Geahart hanno dimostrato proprietà molto
simili e sono, dunque, linee di cellule staminali pluripotenti umane. Con due anni
di ritardo si è affacciato sulla scena un terzo concorrente: il gruppo di Martin Pera
e Alan Trounson, della Monash University di Melbourne in Australia, che è
riuscito anch'esso a isolare e coltivare le staminali embrionali umane inserendosi
Capitolo 1 – Il neurone, le cellule staminali e la memoria
11
nella corsa. La sfida è divenuta a questo punto di imparare a controllare il
comportamento di queste cellule in laboratorio.
Anche sotto questo profilo le ricerche sul topo sono state punti di partenza
preziosi. Dalle staminali embrionali del topo sono state ricavate di volta in volta
cellule nervose, muscolari, endoteliali (che rivestono l'interno dei vasi sanguigni)
e del sangue. La chiave è sempre la stessa: il controllo delle condizioni in cui
crescono le cellule. Giocando con il brodo di coltura, aggiungendovi questo o quel
fattore di crescita e ponendo le staminali a contatto con un tipo di cellule o con un
altro, si può orientarne il differenziamento. Le ricette si scoprono spesso per
tentativi ed errori. A volte si parte da fattori di crescita noti e si cercano le dosi e
le combinazioni giuste; in altre occasioni si sfrutta un brodo in cui crescono bene
le cellule di un certo tipo. In un esperimento, per esempio, le staminali, messe nel
brodo che si usa di norma per le cellule degli alveoli polmonari, si sono
differenziate in tessuto polmonare. Riguardo alle cellule umane, gli studi sono
proceduti in fretta. L'équipe australiana di Pera, partendo dall'osservazione fortuita
che alcune staminali in coltura tendono spontaneamente a trasformarsi in cellule
nervose o muscolari, ha per prima ottenuto in laboratorio neuroni umani. La
Geron Corporation, un'azienda biofarmaceutica statunitense, dal canto suo, ha
annunciato di aver prodotto i tre tipi principali di cellule nervose, nonché cellule
del fegato e del muscolo cardiaco. Un'équipe israeliana dell'Università di Haifa,
che aveva collaborato con Thomson, è riuscita a indirizzarne lo sviluppo in
svariate direzioni grazie a varie combinazioni di fattori di crescita.
Per il momento comunque il controllo sulle staminali embrionali, e
specialmente su quelle umane, resta piuttosto scarso. Anche solo coltivarle è
un'impresa: vari studiosi che le hanno ricevute da Thomson hanno faticato non
poco per riuscire a farle crescere senza che perdessero le loro preziose
caratteristiche. Non è ancora accertato, inoltre, se le cellule ottenute in vitro
rispecchino davvero sotto ogni aspetto i tessuti a cui sembrano assomigliare. In
definitiva le staminali embrionali sono potenti ma capricciose e restano difficili da
domare. Più docile, forse al prezzo di una minor vivacità, è l'altro grande gruppo
di cellule a cui si spera di ricorrere per la terapia riparativa: le staminali dei tessuti
Capitolo 1 – Il neurone, le cellule staminali e la memoria
12
adulti, dette cellule staminali adulte.
1.2.2 Le cellule staminali adulte
La visione tradizionale vuole che nell'adulto permangano solo pochi tipi di
cellule staminali, limitate in sostanza ai tessuti soggetti a un forte ricambio. La
stessa visione vuole inoltre che le staminali adulte, sebbene indifferenziate,
abbiano ormai il destino segnato e non siano in grado di formare tessuti diversi da
quello a cui appartengono; sono cioè multipotenti ma non pluripotenti. Entrambe
le convinzioni sono state fortemente ridimensionate negli ultimi anni. Cellule
staminali sono spuntate dai tessuti adulti più svariati, a partire da quello privo per
eccellenza di capacità autoriparativa: il sistema nervoso centrale. Quando sono
stati identificati i fattori che fanno crescere il tessuto nervoso, si è infatti
constatato che dal tessuto cerebrale di topi adulti, messo in coltura con la giusta
combinazione di fattori, si formano tutti i tipi principali di cellule nervose. Nel
sistema nervoso centrale dei mammiferi adulti si trova quindi una riserva di
cellule multipotenti, le staminali neurali, che in seguito, nel 1999, sono state
individuate con precisione dal gruppo di Jonas Frisén, del Karolinska Institute di
Stoccolma. Quale sia la loro funzione nessuno sa dirlo con certezza;
evidentemente non hanno un grosso ruolo riparativo, visto che sono incapaci di
entrare in azione per riparare le lesioni, e una delle ipotesi avanzate è che
prendano parte ai processi della memoria e dell'apprendimento. Ancor più inattesa
è stata la seconda sorpresa: la "trasformazione del cervello in sangue". All'inizio
del 1999 un'équipe guidata da Angelo Vescovi, dell'Istituto neurologico Carlo
Besta di Milano, ha reso noto che le staminali neurali sono in grado di
differenziarsi in cellule mature del sangue. La dimostrazione è avvenuta nei topi.
Gli animaletti sono stati irradiati, per distruggere le staminali emopoietiche del
midollo osseo. Di norma, in questi casi, per ricostituire le cellule emopoietiche si
trapianta un midollo sano. In questo esperimento, invece, i ricercatori hanno
iniettato nel sangue dei topi un certo numero di staminali neurali, modificate
geneticamente in modo da colorarsi di blu quando entrano a contatto con un
Capitolo 1 – Il neurone, le cellule staminali e la memoria
13
reagente chimico ed essere quindi facilmente riconoscibili. Dopo qualche
settimana, nel midollo dei topi sono state trovate staminali emopoietiche che si
coloravano di blu: a dispetto di quanto si era sempre ritenuto, le staminali neurali
sono state in grado di insediarsi nel midollo e di riconvertirsi, mettendosi a
produrre cellule del sangue. Le staminali adulte, dunque, hanno il destino segnato
solo fintanto che restano nel proprio tessuto e continuano a ricevere i segnali di
differenziamento tipici del tessuto stesso. Ma la capacità di formare tessuti diversi
non va del tutto persa e in un ambiente nuovo le cellule sono ancora sensibili a
segnali diversi.
Altri studiosi hanno mostrato capacità di trasformazione analoghe per altri
tipi di staminali. Per vedere fino a che punto si spingesse tanta versatilità, lo
svedese Frisén ha provato a iniettare le staminali neurali (modificate per colorarsi
in blu) all'interno di embrioni molto precoci di topo, allo stadio di blastocisti. I
topolini nati da questa manipolazione erano sani e identici a topolini normali e i
loro tessuti apparivano del tutto normali al microscopio. Quando però venivano
trattati con il reagente che colora di blu le staminali neurali, in alcuni casi si
vedevano comparire strisce azzurre, non solo nel tessuto nervoso ma anche
nell'intestino, nel fegato, nel cuore, nel rene e in altri tessuti. Le staminali
introdotte si erano quindi integrate perfettamente in tutti questi tessuti, tanto che
non si potevano distinguere dalle cellule originali del topolino se non dopo la
colorazione. La gamma di vie di differenziamento possibili, dunque, è davvero
ampia. Nell'uomo, per ovvi motivi, non si possono fare esperimenti simili.
Qualche informazione è stata raccolta con studi in coltura: Vescovi, per esempio,
ha osservato che le staminali neurali umane, crescendo a contatto con i precursori
delle cellule muscolari, si trasformano a loro volta in cellule muscolari ben
differenziate [Dos02].
Capitolo 1 – Il neurone, le cellule staminali e la memoria
1.3
14
La memoria: un archivio della mente
La memorizzazione di un determinato evento sensoriale proveniente da
uno qualsiasi dei nostri organi di senso richiede tre fasi: la sua registrazione, il suo
immagazzinamento e infine la sua rievocazione. La nostra esistenza è
caratterizzata dal susseguirsi di un numero enorme di eventi, ma non tutti vengono
ricordati allo stesso modo. Alcuni non vengono addirittura percepiti, altri lasciano
in noi tracce indelebili, tanto che vengono ricordati anche a distanza di molti anni,
mentre altri ancora sopravvivono per pochi giorni o svaniscono in pochi minuti.
Possediamo, dunque, due tipi di memoria funzionalmente distinti, una instabile e
dissipativa detta memoria a breve termine e una duratura detta memoria a lungo
termine.
Il consolidamento dell’informazione, cioè il suo passaggio a una forma di
memorizzazione stabile e duratura nel tempo, sembra richiedere modificazioni
permanenti a carico dei circuiti sinaptici. Così tra i neuroni coinvolti nel processo
di memorizzazione si formerebbero alcune nuove sinapsi, mentre altre verrebbero
stabilizzate e altre ancora potrebbero decadere.
Negli ultimi anni è stato possibile identificare le regioni connesse al
problema di memorizzazione e alcune loro connessioni. I ricordi si originano
quasi sempre da impressioni sensoriali. Quella visiva è stata la prima ad essere
studiata per identificare le zone coinvolte nella percezione della sensazione e nella
sua integrazione in un’esperienza percettiva.
L’osservazione di un’immagine stimola le cellule nervose della retina2 che,
attraverso il nervo ottico, portano l’informazione ad un’area del cervello situata
sulla sua superficie posteriore e detta corteccia visiva. La via prosegue
convogliando le informazioni dalla corteccia visiva alla corteccia temporale
inferiore situata nel lobo temporale; lungo questa via l’informazione viene anche
elaborata, riguardo forma, colore, struttura, dimensione dell’oggetto in esame, ma
via via che le informazioni si avvicinano alle stazioni terminali della via nervosa
2
Coni e bastoncelli.
15
Capitolo 1 – Il neurone, le cellule staminali e la memoria
offrono un’immagine dell’oggetto sempre più ampia, comprensiva cioè di
caratteristiche sempre più complesse. Alla stazione terminale, nella corteccia
temporale inferiore, l’immagine dell’oggetto risulta così completa.
In modo del tutto simile, anche se avvalendosi di stazioni di sosta poste in
altre zone specifiche del cervello, arrivano al cervello informazioni relative agli
altri organi di senso: udito, tatto, gusto ecc…
E’ stata formulata un’ipotesi plausibile su come si formano i ricordi di
riconoscimento. Le strutture cerebrali interessate sono l’ippocampo e l’amigdala.
Esse si trovano sulla superficie interna del lobo temporale e presentano estese
connessioni con la corteccia temporale inferiore. Entrambe mediano la
memorizzazione delle percezioni visive tant’è che la loro rimozione danneggia la
memoria basata sul riconoscimento visivo e provoca amnesia totale. Vi sono
anche altre stazioni tra cui il diencefalo, costituito da talamo e ipotalamo. Il
diencefalo, l’amigdala e l’ippocampo, tra loro connessi danno origine ad un
circuito della memoria che li rende automaticamente necessari al processo. La
memorizzazione non dipende quindi dai contributi individuali di ciascuna di
queste zone ma dalla loro attività combinata in un unico circuito. I nuclei del
talamo sono a loro volta collegati con una parte della corteccia posta sotto la parte
anteriore del cervello.
In definitiva la stazione terminale del sistema visivo si collega a due
circuiti
della
memoria
che
si
originano
una
nell’amigdala
e
l’altro
nell’ippocampo. Entrambi si avvalgono di alcune parti del diencefalo e della
corteccia prefrontale. Tutte e tre le strutture inviano a loro volta segnali alla
regione proencefalica inferiore. Essa infatti attraverso le numerose connessioni
con la corteccia agirebbe sull’area sensoriale attraverso la liberazione di
acetilcolina, un neurotrasmettitore, che forse unitao ad altri neurotrasmettitori,
indurrebbe modificazioni permanenti nelle sinapsi del gruppo di neuroni
interessati
a
quel
determinato
ricordo
visivo.
Questo
comporterebbe
l’archiviazione della percezione, ossia la formazione di uno schema particolare di
connessioni che corrisponde a un ricordo permanente. I depositi dei ricordi si
troverebbero quindi nelle stesse aree corticali.
Capitolo 1 – Il neurone, le cellule staminali e la memoria
16
Esistono però altre forme di ricordo oltre a quelle di mero riconoscimento
di un oggetto o di un volto. Talora il ricordo viene evocato da un’esperienza
sensoriale diversa da quella che lo ha originato. Così un profumo può portarci alla
mente l’immagine di un fiore o una voce può richiamare alla mente il volto di una
persona. Meccanismi di richiamo incrociato come questi fanno supporre che nel
magazzino dei nostri ricordi le diverse aree corticali interessate al deposito siano
tra loro collegate.
L’associazione tra i diversi tipi di memoria sarebbe mediata dall’amigdala
che, inviando connessioni di ritorno alle diverse aree sensoriali della corteccia,
può suscitare ricordi diversi. L’ippocampo invece risulterebbe più direttamente
coinvolto nel riconoscimento spaziale dell’oggetto.
In un animale selvatico la vista dell’uomo scatena la paura, ma se gli viene
asportata l’amigdala non si manifesta più un tale timore.
L’amigdala non solo fa acquisire un peso emotivo alle percezioni
sensoriali ma permetterebbe anche alle emozioni di selezionare il nostro modo
percettivo. L’amigdala rappresenta il filtro grazie a cui solo quegli stimoli che
hanno un significato emotivo riusciranno a catturare la nostra emozione. Questa
attenzione selettiva può essere mediata dall’amigdala in virtù delle sue
connessioni con le strutture profonde del cervello implicate nella risposta emotiva
e le aree sensoriali della corteccia cerebrale.
E’ stato verificato che molti neuroni dell’amigdala producono endorfine e
che molti neuroni corticali, facenti parte delle vie di elaborazione sensoriale,
dispongono di recettori per questi ormoni, tanto più numerosi quanto più ci si
avvicina alle stazioni terminali delle vie sensoriali.
Lo stato emotivo influenza così la realtà che percepiamo: lo stesso
paesaggio può sembrarci un giorno meraviglioso e un altro giorno neppure degno
di uno sguardo. Lo stesso meccanismo permettere di imprimere nella nostra
memoria eventi con un’intensa carica emotiva.
Capitolo 2
Interfaccia neurone-silicio
2.1
I primi esperimenti di interfaccia
I cervelli e i computer lavorano entrambi elettricamente, è una sfida
intellettuale e allo stesso tempo tecnologica cercare di interfacciare direttamente i
due sistemi.
Allo stadio attuale delle nostre conoscenze teoriche e della nostra
tecnologia non siamo in grado di stabilire che cosa ci riservi il prossimo futuro, se
dovremmo aspettarci tessuti cerebrali integrati nei computer oppure chip integrati
direttamente nel nostro cervello. Le uniche cose che possiamo attenderci sono
solo domande a cui non sappiamo dare ancora una risposta: se lo straordinario
sviluppo della fisica allo stato solido delle componenti elettroniche insieme alla
neurofisiologia, ci permetteranno di “accoppiare” sistemi elettronici e biologici
eccitabili tramite ioni, se riusciremo a sviluppare i necessari concetti fisici per
l’accoppiamento iono-elettronico e le dinamiche di reti neuroelettroniche ibride.
Una cosa però è certa: qualunque siano le ricerche svolte in questo campo, ci
aiuteranno a capire meglio l’architettura del cervello e porteranno a uno sviluppo
di applicazioni mediche e scientifiche innovative.
Già dai primi anni novanta sono state condotte con successo delle ricerche
in tal senso, stabilendo per la prima volta un interfaccia elettrica tra cellule
nervose e microstrutture semiconduttrici in entrambe le direzioni. In particolare
vennero utilizzati i neuroni delle sanguisughe, notoriamente grandi e quindi facili
da manipolare, uniti a transistor disposti su una piastra di silicio [Fro&Al].
Capitolo 2 – Interfaccia neurone-silicio
18
Dopo questi primi, rudimentali, passi iniziali sono state seguite due precise
direzioni:
1. “Verso il basso”, viene studiata la natura microscopica della
giunzione neurone-silicio rispetto alla sua struttura e le sue
proprietà elettriche. Lo scopo è una completa descrizione fisica
della giunzione per ottimizzare l’interfaccia neuroelettronica,
(figura 1).
2. “Verso l’alto”, si assemblano semplici sistemi ibridi che
combinano neuroni con dispositivi microelettronici semiconduttori.
Qui lo scopo è una supervisione di numerosi neuroni in una rete
definita da contatti non invasivi tra le cellule e il substrato
semiconduttore, e questo è necessario per lo studio di processi
dinamici distribuiti come l’apprendimento e la memoria.
Figura 1: Cellule nervose di un topo coltivate su di un chip
Capitolo 2 – Interfaccia neurone-silicio
19
Oltre al “semplice” studio della giunzione neurone-silicio e di tutte le sue
implicazioni, sono stati svolti anche molti altri esperimenti differenti per scopo e
natura [Fro02].
Nel 1999 sono stati condotti dal professor William Ditto e i suoi
collaboratori, presso l’università di Atlanta, Georgia, in collaborazione con
l’università di Bordeaux, Francia, alcuni esperimenti volti a creare delle semplici
computazioni attraverso i neuroni di sanguisughe.
L’esperimento consiste nel collegare due neuroni tra di loro e di collegarli
entrambi con un computer in grado di inviare dei segnali selettivamente ad
entrambi. La difficoltà maggiore nella gestione dei segnali sta nel fatto che questi,
nei sistemi biologici, non possono essere trattati come segnali digitali di tipo
“acceso” o “spento”, quindi le istruzioni software che governano l’invio dei
segnali utilizzano una branca della matematica nota come “teoria del caos”.
Attraverso questa teoria Ditto è stato in grado di far compiere ai due neuroni una
semplice addizione.
In realtà, attraverso delle simulazioni al computer, Ditto e Sudeshna Sinha,
presso l’Istituto di Scienze Matematiche di Madras, India, hanno mostrato come
grandi gruppi di neuroni siano in grado di compiere moltiplicazioni e operazioni
logiche [Dit99].
Le porte aperte da Ditto sono estremamente affascinanti perché ci si
prospetta un futuro in cui i biocomputer saranno in grado di trovare da soli, senza
l’aiuto di nessun programmatore, le soluzioni adatte ai vari problemi e forse di
sostituire in certi campi addirittura l’uomo.
Recentemente, nel 2002, un team di ricercatori guidati da Catherine
Schmidt dell’Università di Austin, Texas, è riuscito a posizionare un
semiconduttore esattamente nel punto desiderato della superficie di una cellula
nervosa umana, fatto di fondamentale rilevanza visto che fino ad ora le cellule
nervose utilizzate erano solo quelle di topi, sanguisughe e lumache.
Queste ricerche sono importanti sia a livello teorico sia per i loro
potenziali risvolti applicativi: la possibilità di venire in aiuto di chi soffre di
problemi neurologici cronici e degenerativi, come epilessia e morbo di Parkinson,
Capitolo 2 – Interfaccia neurone-silicio
20
e anche di chi ha perso il controllo delle funzioni motorie, ad esempio
conseguenze di un ictus.
L’obiettivo finale è quello di usare un dispositivo elettronico per aggirare
il danno inflitto a certe porzioni del cervello e permettere agli impulsi neurali di
arrivare comunque a stimolare un muscolo oppure un braccio meccanico.
E’ stato utilizzato un sistema di elettrodi inseriti nel cervello che hanno
permesso di tradurre in istruzioni per un computer i segnali elettrici trasmessi
dalle cellule neurali responsabili delle funzioni cognitive. Questi esperimenti,
condotti a partire già dal 1998, avevano l’obiettivo a breve termine di stabilire la
possibilità di una linea di comunicazione con pazienti colpiti da paralisi totale.
Solo di recente i ricercatori hanno aperto la strada alla messa a punto di
congegni in grado di far svolgere a questi stessi pazienti semplici compiti di
routine come accendere e spegnere la luce. Sono infatti riusciti a dimostrare che è
possibile interpretare i messaggi neurali emessi dal cervello di una scimmia da
laboratorio e usarli per controllare un braccio robotico connesso ad un computer
[Vig02].
Nel 2000 un team di ricercatori della Northwestern University di Chicago,
dell’Università dell’Illinois e dell’Università di Genova, hanno presentato il
risultato delle loro ricerche: la creazione di una strana creatura ibrida costituita da
un corpo meccanico controllato dal cervello di un pesce.
Sensori di luce alloggiati nel corpo meccanico forniscono al cervello gli
stimoli esterni. Il tessuto cerebrale processa queste informazioni per generare dei
segnali che vengono inviati al motore del robot per cambiare direzione in risposta
agli stimoli dell’ambiente.
Il robot possiede pochi neuroni prelevati dalla lampreda marina
Petromyzon marinus, un vertebrato primitivo simile alle anguille. Per creare
questo “animale artificiale” i ricercatori hanno estratto il cervello e parte della
corteccia sotto anestesia totale e l’hanno mantenuta in una soluzione salina
ossigenata e refrigerata; hanno poi isolato un gruppo di poche cellule note con il
nome di cellule di Müller. Queste cellule sono responsabili dell’interazione tra i
Capitolo 2 – Interfaccia neurone-silicio
21
segnali provenienti dai sensori e i comandi inviati alle parti meccaniche, nonchè
aiutano l’orientamento della lampreda stessa. I neuroni tuttavia non sono stati
posti all’interno del corpo meccanico ma sono stati collegati ad esso con dei cavi.
Di fronte ad alcuni stimoli luminosi il robot ha presentato diversi
comportamenti: ha seguito la luce, ha evitato la luce, si è messo a “camminare” in
circolo.
La ricerca originariamente avrebbe dovuto studiare gli adattamenti delle
cellule del cervello di fronte a degli stimoli che cambiano in continuazione,
tuttavia Mussa-Ivaldi sostiene che capire come i neuroni comunichino con le
macchine artificiali è già un risultato importante [Mus00] [Re&Al].
Dal 1999 un altro gruppo di ricercatori conduce degli esperimenti sulle
“reti neurali coltivate”. Il loro scopo è quello di capire le correlazioni
morfologiche dell’apprendimento e della memoria. Vengono utilizzati sistemi di
neuroni coltivati su di un substrato di silicio, sviluppato al Pine Lab, pionieri in
questo campo.
I neuroni utilizzati vengono prelevati dall’ippocampo dei topi e vengono
fatti crescere sulla piastrina: questi formano rapidamente delle sinapsi e
sviluppano spontaneamente complessi schemi di connessione. Stimolando gruppi
di neuroni con vari schemi di “ potenziali d’azione simulati” si spera di osservare
dei cambiamenti morfologici nelle reti di neuroni così coltivate, che possono
indicare come i neuroni, nei cervelli viventi, cambiano per imparare qualcosa di
nuovo. Questi segnali possono indurre cambiamenti nel numero o nella grandezza
delle sinapsi, nella crescita dendritica, nella formazione di spine dendritiche o
nella interazione con le cellule gliali [Pot&Al].
Studiando come l’attività elettrica influenza la morfologia neuronale, e
come a sua volta questi cambiamenti influenzano le proprietà elettriche della rete
stessa, saremo in grado di avere preziosi parametri per lo studio delle reti neurali
artificiali su computer.
Questo ci permetterà di sviluppare sistemi di apprendimento artificiali che si
avvantaggiano dell’adattamento intelligente presente nei sistemi biologici.
Capitolo 2 – Interfaccia neurone-silicio
Figura 2: L'esperimento di Potter
22
23
Capitolo 2 – Interfaccia neurone-silicio
2.2
L’esperimento del Max Planck di Monaco
Di particolare rilevanza sono gli ultimi esperimenti condotti da Peter
Fromherz presso il Max Planck Institute of Biochemistry che mostrano come in
questi
ultimi
anni
si
siano
fatti
passi
da
gigante
nello
studio
e
nell’implementazione, tuttavia ancora allo stato embrionale, di interfacce tra
neuroni e chip in silicio.
Il silicio è adatto a fungere da substrato elettronicamente conduttivo per tre
ragioni:
1. Attualmente è disponibile una tecnologia molto avanzata e ben
stabilita dei semiconduttori per fabbricare dispositivi elettronici
microscopici.
2. Una crescita di una strato di biossido di silicio sopprime i processi
elettrochimici
che
possono
portare
alla
corrosione
e
al
danneggiamento delle cellule.
3. I chip di silicio rivestiti di biossido di silicio sono perfetti substrati
inerti per la coltura di cellule nervose.
Le cellule nervose, che hanno un diametro di 10-100 µm, sono circondate
da una membrana elettricamente isolante. Un sottile strato, spesso circa 5nm,
separa l’elettrolite intracellulare dall’ambiente. La corrente elettrica attraverso la
membrana è mediata da specifici canali proteici per il sodio e il potassio con una
conduttanza di circa 10-100 pS.
I neuroni e gli elettroliti sono conduttori di ioni, mentre il silicio è un
conduttore di elettroni. Una volta soppressa la corrente di Faraday all’interno
dell’interfaccia dal biossido di silicio, l’accoppiamento tra cellule e chip può
essere raggiunto solo attraverso la polarizzazione elettrica. Tuttavia, quando una
cellula nervosa cresce su di un supporto solido, non ci si deve aspettare che la
membrana lipidica e il biossido di silicio formino un dielettrico coerente che possa
perfettamente mediare un’interazione capacitiva.
Capitolo 2 – Interfaccia neurone-silicio
24
Le molecole delle proteine, che si protendono dalla membrana della cellula
e che si depositano sul substrato, danno vita a una pellicola elettrolitica tra la
cellula e il chip: questo fenomeno disaccoppia elettricamente il chip e la cellula.
Si crea allora una struttura a “sandwich” in cui un sottile strato conduttivo viene
separato dagli ambienti conduttivi di silicio e citoplasma grazie a sottili pellicole
isolanti di biossido di silicio e membrane lipidiche (figura 3).
Figura 3: Modello di contatto cellula-semiconduttore
La giunzione cellula-semiconduttore ha la natura fisica di un nucleo
conduttore isolato.
Le correnti elettriche e la diffusione degli ioni in questa struttura a
“sandwich” governano la stimolazione e la registrazione dell’attività neuronali sul
chip.
L’eccitazione di una cellula nervosa, un fatto dovuto al potenziale
d’azione, consiste in una veloce apertura dei canali di sodio con un concomitante
flusso di corrente all’interno della cellula e in una ritardata apertura dei canali di
potassio con un flusso di corrente diretto verso l’esterno.
Durante un potenziale di azione, le correnti capacitive e ioniche scorrono
attraverso la membrana del contatto. La corrente è spinta attraverso la resistenza
del nucleo dando così origine nella giunzione ad un voltaggio extracellulare Vj(t)
dipendente dal tempo. Se sufficientemente forte, questo stimolo è in grado di
influenzare la membrana cellulare, in particolare può aprire i canali di ioni
Capitolo 2 – Interfaccia neurone-silicio
25
controllati dal voltaggio, in modo tale da ottenere eventualmente un potenziale
d’azione.
L’efficienza dell’accoppiamento neurone-silicio dipende dalla resistenza
della giunzione e dalla corrente che attraversa la membrana cellulare collegata alla
stessa giunzione, ma non solo: è importante capire anche quale debba essere la
distanza che separa il chip dalla cellula e quale sia la sua resistenza elettrica.
La misurazione della distanza tra chip e cellula viene fatta attraverso una
procedura denominata FLIC ( fluorescence interference contrast) che si basa su
alcune proprietà del silicio, tra le quali quella di riflettere la luce visibile (figura
4).
Figura 4: Fluorescence interference contrast (FLIC)
Sono stati fabbricati chip in silicio con piazzole microscopiche di biossido
di silicio (2,5 x 2,5 µm2, con un’altezza di circa 20 nm) su cui sono state coltivate
cellule neurali per studiare il gap che divide la cellula dal chip.
Negli esperimenti condotti si è potuto notare che la distanza misurata si
attesta attorno ai 109 nm. Questa “grande” distanza è causata dalle forze
entropiche delle molecole proteiche che sono ancorate alla membrana e sono usate
per isolare il chip in modo da sviluppare la crescita cellulare.
Sono state utilizzati diversi tipi di cellula e vari tipi di rivestimenti: il
risultato migliore che si è ottenuto è di 40 nm.
Capitolo 2 – Interfaccia neurone-silicio
26
Per quanto riguarda invece la resistenza del gap tra cellula e chip, in base
ad alcune misurazioni ed anche alla teoria questa si attesta attorno ai 10 MΩ.
E’ molto affascinante combinare in un singolo esperimento due
fondamentali campi della scienza moderna, la tecnologia genetica e quella dei
semiconduttori, e osservare la diretta interazione degli elementi fondamentali
della dinamica del cervello e dei transistor: i canali di ioni nelle membrane e i
canali di elettroni dei transistor. Cerchiamo però di capire meglio come funziona
questa interazione.
Un potenziale d’azione conduce una corrente elettrica attraverso la
membrana della cellula e attraverso il gap che separa cellula e chip. Il voltaggio
extracellulare Vj(t), che modula la struttura a banda del semiconduttore, nasce da
una sovrapposizione di tutte le correnti, ioniche e capacitive, presenti nel contatto.
La forma e l’ampiezza del segnale è controllata dall’accumulo e dal rilascio delle
conduttanze di ioni (nella membrana) e dalla specifica conduttanza della
giunzione.
Monitorando l’attività dei neuroni di sanguisughe, lumache e topi, si
possono osservare una certa varietà di segnali che possono in qualche modo essere
compattati in tre classi (figura 5):
1. Il voltaggio extracellulare è proporzionale alla prima deriva del
potenziale d’azione. Questa risposta di tipo A-type avviene quando
tutte le conduttanze di ioni sono rilasciate nella giunzione e le
correnti capacitive sono controllate.
2. Il voltaggio extracellulare è proporzionale al potenziale d’azione
stesso. Questa risposta di tipo B-type è stata osservata quando una
non specificata conduttanza prevale nel contatto in modo che una
corrente Ohmica attraverso la membrana e il gap controlli il
voltaggio extracellulare.
3. Il voltaggio extracellulare assomiglia all’inverso della prima deriva
del potenziale d’azione. Il segnale si presenta quando tutte le
conduttanze di ioni pertinenti sono accumulate nella giunzione. Un
Capitolo 2 – Interfaccia neurone-silicio
27
intera classe di segnali (C-type) è stata trovata per la selettiva
accumulazione di vari canali di ioni nei neuroni delle sanguisughe
e dei topi.
Figura 5: Le tre classi di segnali
La stimolazione del neurone attraverso l’interfaccia elettrica senza la
presenza di correnti di Faraday richiede un’alta capacità per area unitaria del chip,
per far in modo di iniettare corrente sufficiente nella giunzione. Punti di
stimolazione molto efficienti sono stati costruiti utilizzando silicio fortemente
drogato con un sottile strato di biossido di silicio (figura 6) [Fro02].
Capitolo 2 – Interfaccia neurone-silicio
28
Figura 6: I punti di stimolazione
I neuroni delle sanguisughe possono essere stimolati da un singolo
voltaggio (un impulso) applicato ai punti di stimolazione sotto il neurone. Tuttavia
il meccanismo della stimolazione non è ancora del tutto chiaro ed alcuni risultati
ottenuti sono ancora da interpretare. Sappiamo che uno stimolo dà origine ad un
voltaggio extracellulare Vj(t) con velocità esponenziale che si presenta nel gap tra
la membrana e il chip. Quando siamo in presenza di una giunzione B-type, come
sempre accade con i neuroni delle sanguisughe, il voltaggio Vj(t) inietta una
corrente nel neurone che ha come conseguenza la stimolazione del neurone stesso.
Quando siamo invece in presenza di una giunzione A-type, la stimolazione del
neurone avviene tramite un voltaggio molto forte e improvviso applicato al chip.
Quello che non è ancora chiaro è il ruolo, fondamentale, dell’apertura dei canali di
ioni, che resta ancora un problema da studiare in dettaglio.
Capitolo 2 – Interfaccia neurone-silicio
2.3
29
Reti neuronali biologiche: crescita e sinapsi
Una volta stabilita l’interfaccia elettrica di un singolo neurone, il passo
successivo e affascinante è quello di creare una vera e propria rete neurale
biologica interfacciata con il chip. Se i neuroni potessero essere uniti tra di loro
attraverso ben definite connessioni sul chip, sarebbe possibile studiare
sperimentalmente le complete dinamiche delle reti neurali biologiche. Uno dei
nostri scopi sarebbe l’implementazione di una rete neurale simmetrica dove le
forze sinaptiche sono “calcolate” in base agli stimoli dell’attività neuronali e dove
sarebbe possibile attraverso la registrazione dell’attività neurale stessa provare una
qualche forma di memoria associativa.
Per la costruzione di piccole reti neurali biologiche sono stati utilizzati i
neuroni degli invertebrati grazie alle loro grandi dimensioni, alla facilità di
manipolazione e soprattutto all’efficienza delle giunzioni neuro-elettriche.
I percorsi della matrice proteica extracellulare, dove far sviluppare le
connessioni, sono stati creati con la fotolitografia UV [F&S94]. Posizionando una
cellula in un’area di “partenza” si è osservato un preciso sviluppo delle
biforcazioni secondo i pattern stabiliti [Fro&Al] (figura 7).
Figura 7: Crescita dei neuriti sui pattern chimici
Capitolo 2 – Interfaccia neurone-silicio
30
Tuttavia sussistono due problemi fondamentali con la guida chimica qui
utilizzata:
1. Inizialmente i neuriti seguono le guide chimiche tracciate, ma nelle
fasi successive si accorciano ed escono dalle linee guida (figura 7).
2. I neuriti seguono tutti i pattern guida e non è possibile controllarne
la crescita su un solo pattern oppure in una specifica direzione.
Attualmente non siamo in grado, facendo crescere i neuroni in coltura, di
ottenere delle connessioni sinaptiche tra i neuriti. Tuttavia alcuni piccoli passi in
questa direzione sono stati fatti: sono stati isolati dei singoli neuroni di lucertola e
sono stati fatti crescere su di un chip sotto certe condizioni [Pri00]. Sono stati
creati i pattern attraverso la fotolitografia e sono stati fatti crescere i neuroni uno
di fronte all’altro: dopo l’incontro si è potuto vedere come si fosse creata una
sinapsi tra i due neuriti.
Purtroppo però per riuscire a creare una rete neurale in grado anche solo di
fare semplicissime computazioni dobbiamo superare tutta una serie di
problematiche:
1. La formazione della rete deve essere in qualche modo controllata
durante la crescita dei neuroni.
2. La struttura di crescita della rete deve essere meccanicamente
stabilita.
3. Le reti neurali create attraverso pattern chimici in definite posizioni
devono essere assemblate.
Il primo passo per l’interfacciamento tra una rete neurale e il chip è stata
l’implementazione di un semplice circuito neuroelettronico con un neurone
elettronicamente stimolato e uno per la registrazione delle risposte.
Un ulteriore passo in avanti è stato quello di posizionare i neuroni sopra i
punti di stimolazione e lasciarli crescere liberamente in modo da unire i loro
Capitolo 2 – Interfaccia neurone-silicio
31
neuriti attraverso dei collegamenti sinaptici. Tuttavia le forze di interazione dei
neuriti hanno spostato le cellule dai punti di stimolazione e quindi l’interfaccia tra
due neuroni è avvenuta in pochissimi casi. Per ovviare questo problema sono stati
creati dei “picchetti” attorno ai punti di stimolazione, attraverso la fotolitografia
(figura 8). Il loro scopo è quello di imprigionare il neurone in modo che le forze in
gioco non possano spostare il neurone stesso.
Figura 8: Rete neurale
Purtroppo anche se si riesce in qualche modo a controllare lo spostamento
del neurone, non si può dire lo stesso della sua crescita. Nel corso
dell’esperimento non è stato possibile cercare di creare una vera e propria
topologia della rete neurale attraverso precise connessioni, considerando anche il
numero dei neuroni che si potrebbe voler connettere. Una soluzione, che gli
sienziati intendono proporre è quella di una rete, diciamo, “caotica”, ossia lasciar
crescere i neuroni liberamente sul substrato di silicio e studiarne dopo le risposte
ad eventuali stimoli esterni.
In conclusione non possiamo ancora sapere se questa nuova tecnologia
sarà utilizzabile in biologia, medicina e anche nell’information technology.
Tuttavia i primi passi e le prime implementazioni sono in un certo senso
Capitolo 2 – Interfaccia neurone-silicio
32
incoraggianti e di sicuro molto stimolanti, tanto più che questo tipo di ricerca è
molto trasversale e coinvolge una grande quantità di discipline differenti.
Per migliorare questi risultati preliminare, per quanto riguarda i
semiconduttori, è necessario costruire le microstrutture in grado da una parte di
registrare le risposte dei neuroni tenendo conto del rumore, e dall’altra di essere in
grado di stimolare i neuroni in modo “corretto”.
Per quanto riguarda invece le cellule, è necessario sviluppare una
tecnologia in grado di far crescere i neuroni in modo predicibile e controllato per
poter creare reti neurali con precise caratteristiche topologiche.
Capitolo 2 – Interfaccia neurone-silicio
2.4
33
Conclusioni
In conclusione possiamo affermare che la ricerca sull’interfaccia neurone-
silicio sta facendo passi da gigante ogni giorno sempre più strabilianti. In effetti è
difficile dare una precisa catalogazione di tutti gli esperimenti che sono stati fatti
in questi ultimi anni, sia per scopo che per natura.
Ad esempio l’esperimento condotto da Fromherz al Max Planck di
Monaco, tra l’altro uno dei pionieri in questo campo, pone la sua attenzione sugli
aspetti prettamente fisici della giunzione tra cellula e silicio, studiandone i
comportamenti dal punto di vista elettrico. Di sicuro sarà la base per successivi e
più complessi esperimenti, in cui si porrà soprattutto l’attenzione sulle cellule
stesse e sul loro comportamento, in particolare sulla loro aggregazione e sulla
possibilità di farle crescere secondo un determinato schema morfologico.
Tuttavia ci sono molti altri team di ricerca che si occupano della questione,
portando avanti ricerche che sono anche molto differenti da quella di Fromherz e
che hanno scopi del tutto diversi: ad esempio le ricerche di Ditto volte a creare
delle “computazioni biologiche”; le ricerche in campo medico di Catherine
Schmidt o ancora la creazione fantascientifica di un cyborg da parte di MussaIvaldi, Vittorio Sanguinetti et al., e infine, ma non meno importanti, le ricerche di
Potter per cercare di capire come gli aspetti morfologici del cervello possano
influenzare l’apprendimento e la memoria.
Capitolo 3
Alla ricerca della coscienza
3.1
Le macchine “pensanti”: i primi cinquant’anni
La storia delle macchine pensanti si sviluppa nella seconda metà del
Novecento. Il suo percorso non è affatto lineare perché via via tecnologia e
discipline della mente umana si chiariscono reciprocamente ambiti e definizioni.
A loro volta, i mass media (insieme alla forza del cinema fantascientifico)
propongono miti, esaltano successi e creano scenari non sostenibili dal punto di
vista realizzativo. Le delusioni per risultati sperati non raggiunti sono ancora più
cocenti e il percorso è tutto un susseguirsi di affannose accelerazioni e repentine
scomparse dalla scena.
In questi ultimi 50 anni il ruolo del calcolatore elettronico è stato
determinante: ha creato quel substrato comune sul quale tecnologi, scienziati e
umanisti hanno potuto confrontarsi, ma soprattutto ha dato l’occasione a filosofi,
psicologi e neuroscienziati di formulare teorie che l’elaboratore stesso avrebbe
potuto validare o confutare.
In questi cinquant’anni abbiamo assistito all’avvento della cibernetica,
della bionica, della robotica, delle reti neurali, della loro scomparsa e del loro
riapparire sotto la dizione di connessionismo. Abbiamo atteso i calcolatori della
quinta generazione e, subito dopo, i biochip ci sono stati presentati come i
componenti dei calcolatori della sesta generazione. Abbiamo visto macchine
pensanti virtuali come i robot-software e come i virus che infestano Internet,
inquietanti creature della Vita Artificiale. Hanno permesso di rivisitare migliaia di
anni del pensiero dell’essere umano. Sicuramente il calcolatore elettronico non è
Capitolo 3 – Alla ricerca della coscienza
35
stato decisivo in questo processo di chiarificazione, ma è stato il deus ex machina
cha ha permesso una nuova riflessione e sistematizzazione delle discipline relative
allo studio della mente e del cervello. La filosofia (o le filosofie) della mente, la
scienza cognitiva, la psicologia cognitiva e le neuroscienze sono, oggi, in grado di
definire ambiti e contesti in cui il costruttore dovrà muoversi, anche se,
paradossalmente, il calcolatore elettronico potrebbe non essere il componente
d’elezione attorno al quale progettare macchine intelligenti o coscienti.
Nell’ambito delle tematiche della coscienza artificiale ci si deve
interrogare su cosa s’intende per coscienza, ossia la capacità da parte di un
soggetto umano di fare esperienza dei propri pensieri, di se stesso e del mondo. La
coscienza è stata la grande assente della ricerca scientifica nel Novecento: adesso i
tempi stanno cambiando e la letteratura sull’argomento sta dilagando, impegnando
studiosi e premi Nobel che provengono dalle discipline più disparate (Roger
Penrose, Gerard Edelman e Francis Crick). Fino a oggi si sono applicate al
problema della coscienza le categorie di Galileo, di successo nello spiegare i
fenomeni fisici, ma insufficienti nello spiegare i fenomeni mentali.
Quando un essere umano fa esperienza del mondo (ossia percepisce colori
e sapori, oppure prova dolore e piacere) coglie degli aspetti qualitativi della realtà,
che la scienza galileiana non è in grado di misurare. Tuttavia le qualità esistono:
anche se da Cartesio in poi esse sono state relegate in una dimensione spirituale
che non può venire trattate scientificamente. Finora è stato possibile eludere il
problema perché non vi erano le condizioni tecnologiche per poter costruire un
essere cosciente artificiale. Finora la progettazione di artefatti (automobili, ponti,
satelliti, computer) non ha richiesto la comprensione della coscienza. Oggi che i
robot iniziano ad avvicinarsi all’essere umano - sia come capacità di calcolo sia
come struttura fisica — il problema non può più essere evitato.
In particolare l’eminente fisico teorico, Roger Penrose, nel suo libro
“Ombre della mente” fornisce una particolare visione della coscienza, della sua
non computabilità e della sua possibile “dimora” biologica [Ta&Al].
36
Capitolo 3 – Alla ricerca della coscienza
3.2
La non computabilità del pensiero cosciente
Negli ultimi anni i nostri sensi sono stati ampiamente estesi dalla
tecnologia, sia moderna che antica: basti pensare ad esempio alla vista, aiutata da
strumenti quali occhiali, microscopi, videocamere ecc…per non parlare delle
nostre capacità di calcolo, amplificate enormemente dalle capacità dei moderni
calcolatori. La tecnologia quindi evolve accrescendo nello stesso momento le
nostre capacità fisiche e mentali e la nostra abilità nel compiere azioni di routine.
Ma ci si chiede che cosa avvenga nelle operazioni mentali non di routine che
richiedono autentica intelligenza e comprensione, se sia ragionevole parlare in
termini scientifici di simili cose o se la scienza non sia assolutamente in grado di
affrontare questioni sull’intelligenza e la coscienza umana.
Sono state fatte molte congetture a proposito della possibile creazione di
un’intelligenza artificiale (AI) che sia in grado di simulare esattamente l’attività
dell’uomo, sia fisica che mentale. Possiamo inquadrare tutte queste teorie in
quattro punti di vista:
1. Ogni pensiero è computo: il senso della consapevolezza è suscitato
puramente
e
semplicemente
dall’esecuzione
di
computi
appropriati.
2. La consapevolezza è una caratteristica dell’azione fisica del
cervello: e mentre qualsiasi azione fisica può essere simulata
computazionalmente, la simulazione computazionale non può di
per sé suscitare consapevolezza.
3. Un’appropriata azione fisica del cervello suscita la consapevolezza,
ma questa azione fisica non può neppure essere adeguatamente
simulata computazionalmente.
4. La consapevolezza non può essere spiegata in termini fisici,
computazionali o di altro tipo scientifico.
Capitolo 3 – Alla ricerca della coscienza
37
Il punto di vista 1 afferma che qualsiasi procedimento all’interno del
cervello è comunque generato da un algoritmo, anche estremamente sofisticato e a
noi sconosciuto. La consapevolezza, come anche l’intelligenza e qualsiasi altra
caratteristica “umana”, quindi deriverebbero esclusivamente da procedimenti di
calcolo molto complessi. Questa tesi prende anche il nome di IA forte.
Il punto di vista 2, noto come IA debole, afferma che è possibile simulare
computazionalmente il comportamento della mente umana, almeno per quanto
riguarda il suo comportamento esterno. Secondo 2 quindi un robot potrebbe
comportarsi esattamente come un essere umano senza però possederne la
consapevolezza.
Il punto di vista 3 afferma che gli effetti esterni della coscienza non
possono essere adeguatamente simulati in modo computazionale.
Il punto di vista 4 nega completamente la posizione del fisicalismo e
considera la mente e tutte le sue manifestazioni come qualcosa di interamente
inspiegabile in termini scientifici: è il punto di vista del misticismo.
Secondo Roger Penrose il punto di vista 3 è quello che più si avvicina ad
un’interpretazione e ad uno studio sulla coscienza. Penrose afferma che esiste un
qualcosa che va al di là delle conoscenze del mondo fisico che abbiamo raggiunto
finora e che necessitiamo di una nuova fisica, che lui identifica con la fisica
quantistica, che ci possa portare a un qualche risultato. Sostiene inoltre che la
coscienza è qualcosa che va oltre la semplice esecuzione di un algoritmo, seppur
sofisticatissimo, nel nostro cervello.
Nel 1930 il matematico Kurt Gödel dimostrò inconfutabilmente che
nessun sistema formale3 di valide regole matematiche di dimostrazione può essere
sufficiente, neppure in linea di principio, a dimostrare tutte le proposizioni vere
dell’ordinaria aritmetica. Penrose, partendo da questo teorema, giunge alla
conclusione che la comprensione matematica è qualcosa tipico dell’essere umano
e che non può in nessun caso essere simulata computazionalmente su di un
calcolatore.
3
Un sistema in cui sono definite, una volta per sempre, le formule di ragionamento matematico
permesse in un’area specifica, includendo anche quelle richieste per trattare gli insiemi infiniti.
Capitolo 3 – Alla ricerca della coscienza
38
Quando un matematico si trova di fronte ad un teorema da dimostrare
oppure davanti ad un problema da risolvere, utilizza tutte le regole che conosce
ma utilizza anche quella “fantasia matematica” che non scaturisce da nessun
insieme di regole e che nemmeno il matematico riesce a definire, ed è proprio
questa fantasia, o meglio “comprensione matematica”, che non può essere
simulata computazionalmente.
A sostegno di questa tesi Penrose esamina il problema della terminazione
di un algoritmo. Non è possibile creare un algoritmo che determini se un
procedimento di calcolo termina oppure no. Infatti se l’algoritmo termina non ci
sono problemi, ma se l’algoritmo non termina allora non è possibile stabilire se
proseguirà all’infinito, anche dopo svariati anni di calcolo, oppure si arresterà
producendo un qualche risultato.
In pratica il teorema di Göedel ci dice che un insieme di regole, di
qualsiasi tipo è insufficiente per stabilire il problema dell’arresto. Tuttavia questo
teorema deve essere visto sotto una luce più ampia, perché in verità afferma che le
intuizioni disponibili ai matematici umani, sono al di là di qualsiasi sistema
formalizzabile come un insieme di regole. Le regole possono, a volte, sostituire
parzialmente la comprensione, ma non possono mai sostituirla del tutto [Pen94].
Capitolo 3 – Alla ricerca della coscienza
3.3
39
I microtubuli
L’azione del cervello, secondo il punto di vista convenzionale, deve essere
interpretata sulla base della fisica essenzialmente classica, o almeno questa è la
strada che molti studiosi hanno intrapreso. Si ritiene infatti che il cervello sia
attraversato da impulsi nervosi di tipo “acceso o spento” esattamente come accade
per le correnti dei circuiti di un computer e che quindi non esistano fenomeni
quali la sovrapposizione degli effetti o altri fenomeni prettamente quantistici.
I biologi tuttavia concordano che alla base dei fenomeni elettrici e
soprattutto chimici che governano il cervello possano esistere fenomeni di tipo
quantistico, che però non sono visibili nella scala macroscopica.
Di conseguenza si crede in larga misura che sia appropriato descrivere il
funzionamento globale del cervello in modo classico, in cui le più sottili e
misteriose caratteristiche della fisica quantistica non entrino a farne parte.
Tuttavia, in base ad un osservazione fatta già nel lontano 1938, il fisico
Herbert Fröhlich suggerì un possibile ruolo per effetti quantistici collettivi in
sistemi biologici. Questo lavoro nacque dall’osservazione di un fenomeno
osservato all’interno delle membrane biologiche che condusse Fröhlich a proporre
la presenza in cellule attive di effetti vibrazionali, che sarebbero in risonanza con
radiazione elettromagnetica a microonde, a 1011 Hz, come risultato di un
fenomeno di coerenza quantistica4 biologica. Esistono ora alcune prove
sperimentali proprio per questo tipo di effetto previsto da Fröhlich.
Sebbene sia incoraggiante trovare una chiara possibilità che la coerenza
quantistica abbia un qualche ruolo all’interno dei sistemi biologici, tuttavia non vi
è ancora alcun legame tra questo e l’attività del cervello. Inoltre il modello
connessionista del cervello sembra essere abbastanza ragionevole, al di là del
grandissimo numero di connessioni tra i neuroni, ed efficacemente simulabile su
di un calcolatore, dato che i segnali sono abbastanza “grandi” da essere
4
Questo fenomeno si riferisce a circostanze in cui un gran numero di particelle può cooperare
collettivamente in un singolo stato quantico che rimane sostanzialmente non correlato con
l’ambiente.
Capitolo 3 – Alla ricerca della coscienza
40
macroscopici e quindi classicamente interpretabili.
Penrose propone al riguardo un’idea molto affascinante, partendo da
semplici considerazione fatte sui parameci, organismi unicellulari, infatti se
dobbiamo credere che i neuroni siano le sole cose che controllano le azioni degli
animali, allora il paramecio pone una seria ipoteca su queste considerazioni, visto
che è in grado di aggirare ostacoli, ritirarsi davanti ai pericoli, interagire con
l’ambiente e nuotare tramite le ciglia, il tutto senza possedere minimamente un
sistema nervoso e non essendo un neurone. Come può ottenere tutto questo senza
avere una singola sinapsi? Ci deve essere un qualche sistema di controllo che
Penrose identifica con il citoscheletro, una struttura proteica che mantiene la
forma della cellula. Sembra che il citoscheletro giochi per il paramecio il ruolo di
scheletro, sistema muscolare, gambe, sistema di circolazione sanguigna e sistema
nervoso.
I neuroni, essendo cellule, possiedono anche loro un citoscheletro; questo
significa che anche i neuroni possiedono un proprio sistema nervoso!
Il citoscheletro è formato da molecole proteiche disposte in strutture di
vario tipo, actina e filamenti intermedi, tra cui i microtubuli. Essi sono costituiti
da tubi cilindrici cavi con diametro esterno di circa 25 nm e interno di circa 14
nm. Ciascun microtubulo è un polimero formato da proteine chiamate tubuline.
Ciascuna tubulina è un dimero, cioè formata da due parti essenzialmente separate
chiamate α-tubulina e β-tubulina. E’ una coppia di proteine globulari con una
forma quasi ad arachide e disposte secondo un reticolo esagonale leggermente
obliquo su tutta la lunghezza del tubo.
Ciascun dimero di tubulina può esistere in due configurazioni geometriche
differenti chiamate conformazioni. Vi sono prove che queste due conformazioni
corrispondano a due stati differenti di polarizzazione elettrica del dimero, dovuti
al fatto che un elettrone, situato al centro della giunzione tra α-tubulina e βtubulina, può spostarsi da una posizione a un’altra (figura 1).
Capitolo 3 – Alla ricerca della coscienza
41
Figura 1: Il microtubulo
Il centro di controllo del citoscheletro è il centrosoma, costituito da due
cilindri di microtubuli che formano una “T” separata.
Può sembrare strano che all’interno di una cellula ci siano due centri di
controllo: da una parte il nucleo che contiene il materiale genetico e dall’altra il
centrosoma. In effetti si ipotizza che la presenza di queste strutture sia dovuta ad
un’antica “infezione”: le cellule che abitavano la terra vennero infettate da un
organismo (forse uno spirochete) composto da proteine citoscheletriche, in seguito
i due organismi si adattarono alla coesistenza [Sag76].
Ma qual è allora il ruolo dei microtubuli e del citoscheletro? Hameroff,
neurobiologo che ha collaborato con Penrose alla famosa teoria OR, sostiene che
possano avere un ruolo di automi cellulari dove i segnali complessi potrebbero
essere trasmessi ed elaborati lungo i tubi come onde di stati di diversa
polarizzazione elettrica delle tubuline, grazie alla loro conformazione. Lo stato di
ciascun dimero sarebbe influenzato dagli stati di polarizzazione di ciascuno dei
suoi vicini dando origine a certe regole specifiche che governerebbero la
conformazione di ciascun dimero in funzione della conformazione dei suoi vicini.
Questo consentirebbe a tutti i tipi di messaggio di essere trasmessi ed elaborati
lungo ciascun microtubulo. Sembra che questi segnali che si propagano siano
rilevanti per il modo con il quale i microtubuli trasportano varie molecole e per le
varie reciproche connessioni tra i microtubuli vicini (MAP), proteine associate ai
microtubuli.
Capitolo 3 – Alla ricerca della coscienza
42
Ma qual è allora l’importanza dei microtubuli per i neuroni? In realtà non
ne sappiamo ancora a sufficienza da poter trarre qualche conclusione, tuttavia
sappiamo che i microtubuli corrono lungo gli assoni e i dendriti, pur non
coprendone l’intera lunghezza, si estendono fino alle terminazioni presinaptiche
dell’assone e anche nei dendriti, e tramite l’actina contrattile, una proteina, nelle
spine dendritiche che formano la parte postsinaptica di una fessura sinaptica.
Queste spine sono soggette a crescita e degenerazione, per mezzo della quale le
interconnessioni del cervello subiscono continui e sottili cambiamenti. E’ proprio
per questo motivo che si pensa che i microtubuli giochino un qualche ruolo
fondamentale nella plasticità del cervello.
Figura 2: Il neurone e i microtubuli
Inoltre formano una rete comunicante molto estesa grazie proprio alle
MAP.
Penrose afferma che la non computabilità della comprensione umana sia
dovuta a qualche fenomeno di coerenza quantistica su larga scala e che il luogo
fisico dove avverrebbero tali fenomeni siano proprio i microtubuli. Hameroff
Capitolo 3 – Alla ricerca della coscienza
43
aveva proposto, già nel 1974, che i microtubuli potessero agire come “guide
d’onda dielettriche” grazie alle loro conformazioni. Forse gli stessi tubi cavi
servono per fornire un isolamento efficace che consentirebbe allo stato quantico
nel suo interno di rimanere non correlato con l’ambiente esterno per un periodo di
tempo sufficientemente apprezzabile. A questo proposito è interessante notare i
risultati di Emilio del Giudice e i suoi colleghi dell’Università di Milano (1983),
in cui emergono dei segnali, confinati all’interno di una regione citoplasmatica, le
cui dimensioni sono proprio quelle del diametro interno dei microtubuli. Questo
conferirebbe valore alla tesi di Hameroff.
Ma vi è un altro fatto importante da notare: i tubi stessi sembrano essere
vuoti. Il termine “vuoto” in questo caso però si riferisce al fatto che contengano
solo acqua, ma in una qualche forma che sembra “organizzata”5. Questa
organizzazione dell’acqua sembra che possa favorire in qualche modo la
possibilità di oscillazioni quantistiche coerenti dentro i tubi stessi.
Queste idee aprono scenari molto affascinanti e altrettanto complessi da
studiare. In realtà non sappiamo se tutti questi studi ci possano portare
effettivamente verso una comprensione del funzionamento del cervello. Infatti
l’interpretazione classica del cervello stesso sembra ancora essere la migliore dato
che non si è ancora dimostrato la presenza di effetti quantistici nelle cellule e
soprattutto la loro relazione con i segnali elettrici, macroscopici e quindi
classicamente interpretabili, presenti nei neuroni.
5
Stato ordinato dell’acqua chiamato anche “acqua vicinale”.
Capitolo 3 – Alla ricerca della coscienza
3.4
44
Microtubuli e coscienza
La prova che il fenomeno della coscienza sia in qualche modo correlato
con il citoscheletro e con i microtubuli viene in genere ottenuta prendendo in
considerazione ciò che fa sì che la coscienza sia assente: gli anestetici generali,
ossia il protossido d’azoto, etere, cloroformio, alitano, isofluorano, xeno..
Gli anestetici generali hanno l’incredibile proprietà di “spegnere”
temporaneamente la coscienza, comunque in modo del tutto reversibile se le
concentrazioni non sono troppo alte. Tuttavia è molto difficile dare
un’interpretazione prettamente chimica del fenomeno, dato che sono moltissime le
sostanze anestetizzanti e anche diverse tra di loro: basti pensare allo xeno che è un
gas nobile e quindi inerte. Vi dev’essere un altro fenomeno che può spiegare
l’azione degli anestetici.
E’ stato proposto, da Hameroff e Watt nel 1983, che gli anestetici possano
agire tramite le loro interazioni di van der Waals, la forza di interazione tra
molecole che hanno momenti di dipolo elettrico, che interferiscono con le normali
azioni di “passaggio” della tubulina. I dimeri di tubulina infatti possono avere due
conformazioni differenti a causa di un elettrone posto al centro che può occupare
due distinte posizioni. La forma globale del dimero dipenderebbe da questa
posizione che può essere influenzata dalle forze di van der Waals esercitate da
sostanze vicine. Quando gli anestetici si diffondono nelle cellule nervose le loro
proprietà dielettriche possono interrompere le azioni dei microtubuli provocando
la perdita della coscienza.
A sostegno di questa tesi, che però non ha una descrizione dettagliata e
accettata in generale, si può notare che è il citoscheletro ad essere direttamente
attaccato dagli anestetici, dato che si sono riscontarti gli stessi effetti di perdita
della coscienza o immobilizzazione sia in animali superiori che in organismi
unicellulari come il paramecio. In quest’ultimo caso non è chiaro se sia attaccato
il centrosoma o le ciglia, ma risulta comunque evidente che è il citoscheletro ad
esserne interessato.
Questo però non vuol dire che il paramecio abbia una qualche coscienza:
Capitolo 3 – Alla ricerca della coscienza
45
in realtà potrebbero essere necessarie molte altre cose che facciano sorgere una
consapevolezza o un intelligenza (neuroni, connessioni sinaptiche ecc…). Se
infatti non fosse così allora tutte le singole cellule avrebbero una loro coscienza e
il fegato sarebbe deputato ad essere sede di coscienza quanto il cervello.
In conclusione le ipotesi e le idee qui elencate sono molto affascinanti e
anche discutibili. Costituiscono comunque nuove strade verso lo studio del
cervello e del suo funzionamento. Quello che comunque risulta chiaro è che non
sarà possibile studiare i fenomeni di “coscienza”, “intelligenza” e “mente” senza
considerare nuovi punti di vista, in particolare quelli forniti dalla fisica
quantistica.
Capitolo 4
Introduzione al quantum computing
4.1
Introduzione
I computer sono diventati uno strumento essenziale della nostra società.
Un problema che oggi si pone in conseguenza della diffusione dei
computer è la sicurezza nella comunicazione tra computer in una rete. Un
documento segreto scambiato tra due computer potrebbe essere intercettato e letto
da una terza parte non autorizzata. Per evitare tale problema vengono studiati i
sistemi crittografici (RSA e altri). Questi sistemi si basano sulla fattorizzazione in
numeri primi di grandi numeri interi che può richiedere molti anni per essere
risolta anche sui più potenti computer a nostra disposizione. Attualmente quindi la
crittografia e tutti i suoi algoritmi si basano su una deficienza degli attuali
computer. Questi sistemi sono largamente utilizzati nelle comunicazione tra
computer, sia per la loro facilità di implementazione che per la loro difficoltà ad
essere risolti e quindi decrittati.
Tuttavia nel 1994 P. Shor, nel Laboratorio Bell della AT&T, scoprì che
questa fattorizzazione può essere computata molto più velocemente con un
modello di computer chiamato “quantum Turing machine”, che sta alla base del
“quantum computing”. Tale scoperta ha riportato di colpo l’attenzione sul
quantum computing, grazie al quale è teoricamente possibile penetrare anche gli
algoritmi crittografici più complessi e sofisticati in un tempo relativamente breve
(polinomiale).
Una proposizione centrale nell’ambito della teoria della computabilità è la
seguente congettura nota come tesi di Church-Turing:
Capitolo 4 – Introduzione al quantum computing
47
“La classe delle funzioni intuitivamente calcolabili coincide con la classe delle
funzioni calcolate da macchine di Turing.”
In sostanza, tale congettura, ormai universalmente accettata e corroborata
da numerose evidenze, stabilisce che concetti intuitivi ma vaghi quali algoritmo,
procedura di calcolo, macchina calcolatrice, vengono esattamente catturati dal
modello di calcolo proposto da Alan Turing nel 1936. Una macchina di Turing è
definita da un insieme di regole su un nastro di input-output di lunghezza infinita
che ne definiscono il comportamento. Il nastro è suddiviso in celle che
contengono un simbolo oppure sono vuote. La macchina, attraverso una testina,
analizza il nastro, una cella alla volta, iniziando dalla cella che contiene il simbolo
più a sinistra nel nastro.
Ad ogni passo, la macchina legge un simbolo sul nastro e in accordo al suo stato
interno corrente decide il suo prossimo stato interno, e scrive un simbolo sul
nastro e decide se spostare o meno la testina a sinistra o a destra di una posizione.
All’inizio degli anni ‘80, la tesi di Church-Turing è stata oggetto di
profonda revisione (soprattutto da parte della comunità dei fisici) sulla base della
seguente osservazione: da un punto di vista “reale”, qualsiasi procedimento di
calcolo viene realizzato da un sistema fisico che accetta in ingresso dei simboli,
pure realizzati mediante sistemi fisici, e produce altri simboli in uscita. Per tale
motivo, qualsiasi sistema di calcolo, e, di conseguenza, qualsiasi sua
formalizzazione, deve sottostare alle leggi che governano la natura.
Ora, è noto e comprovato da numerose esperienze, che qualsiasi fenomeno
naturale può essere appropriatamente descritto nell’ambito della teoria della fisica
quantistica, in contrapposizione al precedente corpus di conoscenze fornito dalla
fisica classica. In virtù dunque di questa nuova prospettiva che pone l’accento
sulla plausibilità fisica, oltre che teorica, di qualsiasi formalizzazione sulla
nozione di calcolo, ha senso interrogarsi sulla consistenza della tesi di ChurchTuring, e quindi del modello classico di macchina di Turing, rispetto alla teoria
quantistica.
Capitolo 4 – Introduzione al quantum computing
48
A questo proposito, i lavori pionieristici di Feynman, Benioff, Deutsch ed
Albet mettono ben in evidenza che, da un punto di vista fisico, il modello
originale (deterministico) di macchina di Turing rappresenta un sistema
fondamentalmente classico, dominato com’è da un determinismo laplaciano: data,
infatti, la configurazione della macchina ad un dato istante e nota la sua dinamica
(funzione di transizione), è possibile determinare univocamente e con certezza la
configurazione della macchina stessa all’istante successivo.
Sappiamo che ciò non è possibile nell’ambito della teoria quantistica, in
cui ogni sistema evolve passando da una sovrapposizione di stati possibili
all’altra. Non solo: è anche immediato constatare che il modello originale di
macchina di Turing non rende conto di alcuni tipici fenomeni quantistici quali la
sensibilità all’osservazione, l’interferenza quantistica ecc, fenomeni che, tra
l’altro, non vengono resi neppure dalla generalizzazione probabilistica delle
macchine di Turing.
Per soddisfare, dunque, questa nuova plausibilità fisica richiesta dai
modelli di calcolo, Feynman e Benioff nel 1982 hanno sviluppato il concetto di
macchina di Turing quantistica (QTM) [Ben82]. Tale concetto è stato
formalizzato ed ulteriormente motivato da Deutsch nel 1985 [Deu85].
I computer classici, quelli correntemente utilizzati, si basano su 0 e 1, i bit,
mentre i quantum computer si basano sulla sovrapposizione di 0 e 1 (0 con una
certa percentuale e 1 con una certa percentuale), i cosiddetti qubit.
Esiste una ragione ben precisa per cui ci si aspetta la nascita “reale” dei
quantum computer: è inevitabile che lo sviluppo della tecnologia informatica
richieda un aumento progressivo della potenza di calcolo dei processori. Ma
creare CPU sempre più veloci richiede una integrazione di CPU su larga scala che
possiamo considerare in un aumento della densità dei transistor di una CPU.
Tuttavia questi transistor hanno limiti fisici ben precisi e man mano che ci si
avvicina alle dimensioni degli atomi il loro comportamento diventa quantistico.
Risulta quindi utile capire i comportamenti quantistici di atomi, elettroni per
creare un nuovo paradigma di computazione e per creare fisicamente computer
quantistici molto più piccoli ma esponenzialmente più veloci della loro
Capitolo 4 – Introduzione al quantum computing
49
controparte classica. Rimane ancora molto lavoro da svolgere per creare quantum
computer che possano essere utilizzati nelle applicazioni scientifiche e
commerciali.
Ad esempio, oltre alla fattorizzazione, scegliere opportunamente i migliori
pesi per una rete neurale è un problema che può trarre vantaggio dal parallelismo
quantistico del quantum computation.
Capitolo 4 – Introduzione al quantum computing
4.2
50
Macchine di Turing quantistiche
Per descrivere il concetto di macchina di Turing quantistica è utile
sfruttare un altro concetto, molto simile alla QTM, che è la macchina di Turing
probabilistica (PTM).
È noto che la computazione di una PTM M (ad unico nastro) su un dato
input può essere descritta mediante un grafo i cui nodi sono le configurazioni di
M, ed in cui esiste un arco di peso p ∈ [0, 1] dal nodo c1 al nodo c2 se la
transizione c1→ c2 accade con probabilità p. Il seguente diagramma descrive una
possibile computazione di M:
Figura 1: Possibile diagramma di computazione della PTM M
Le probabilità associate agli archi vengono desunte da una funzione di
transizione di M, δ , che deve essere definita in modo tale che la somma dei pesi
di tutti gli archi uscenti da un nodo (configurazione) sia 1. Facendo riferimento al
grafo in figura 1, si osserva facilmente che, dopo due passi di computazione, M si
troverà nella configurazione:
c3 con probabilità p1 p3 = s3
c4 con probabilità p1 p4 + p2 p5 = s4
c5 con probabilità p2 p6 = s5
Equivalentemente, possiamo dire che, dopo il secondo passo di
Capitolo 4 – Introduzione al quantum computing
51
computazione, M si trova nella sovrapposizione di configurazioni
Ψ = s 3 c 3 + s 4 c 4 + s 5 c5
In generale, dunque, possiamo pensare che al tempo t la macchina M si
trovi in uno “stato”
ψ(t) = ∑ s i c i
i∈N
che è un vettore nello spazio infinito-dimensionale generato dai versori
{c
i
: i ∈ N, c i è una configurazione di M }
In particolare, osservando la macchina al tempo t, troveremo M nella
configurazione ci con probabilità si. È altresì immediato osservare che
∑
i∈N
s i = 1. Non è difficile, data la funzione di transizione di M, costruire una
matrice U in cui l’elemento (i, j)esimo rappresenta la probabilità di passare dalla
configurazione cj alla configurazione ci. Sfruttando tale matrice, è semplice
verificare che t passi di computazione di M vengono riassunti dall’espressione
ψ(t) = U t ψ(0)
dove ψ(0) = 0 è la sovrapposizione iniziale di M.
Veniamo ora alla definizione di macchina di Turing quantistica. Una QTM
Q è definita in maniera del tutto analoga ad una PTM M, solamente la probabilità
di passare da una configurazione all’altra è ora data dal quadrato del modulo di un
numero complesso chiamato ampiezza della transizione. Un “analogo quantistico”
del grafo di una PTM potrebbe essere il seguente:
52
Capitolo 4 – Introduzione al quantum computing
Figura 2: Possibile diagramma di computazione della QTM M
Ad esempio l’ampiezza della transizione c1→ c2 è α1 ∈ C, mentre la
corrispondente probabilità è |α1|2.
Chiaramente avendo una situazione “locale”, dobbiamo richiedere che
k
∑α
i =1
i
Figura 3: Consistenza locale della funzione di transizione per una QTM
Le ampiezze seguono le regole delle probabilità, per cui, sempre
riferendoci a figura 2, dopo due passi di computazione la macchina Q si troverà in
c3 con ampiezza α1 α3 = γ3
e probabilità | γ3|2
c4 con ampiezza α1 α4 + α2 α5 = γ4
e probabilità | γ4|2
c3 con ampiezza α2 α6 = γ5
e probabilità | γ5|2
53
Capitolo 4 – Introduzione al quantum computing
Analogamente al caso probabilistico, possiamo pensare che ad ogni istante
t, la macchina Q si trovi nella sovrapposizione
Ψ(t) = U t Ψ(0)
dove l’elemento (i, j)esimo di U è ora l’ampiezza della transizione cj → ci.
Chiaramente per ogni sovrapposizione di Q del tipo Ψ(t) = ∑i∈N γ i c i
essere soddisfatto il vincolo
∑
k
i =1
γi
2
= 1 , cioè,
Ψ(t)
deve
deve avere modulo
unitario. Ciò, in sostanza, equivale a richiedere che U mappi vettori unitari in
vettori unitari. Tale condizione si esprime dicendo che l’operatore U di macchine
quantistiche deve essere unitario.
Osservando il nostro dispositivo di calcolo quantistico al tempo t ed
essendo questo nello stato Ψ(t) = ∑i∈N γ i c i
troveremo Q nella configurazione
ci con probabilità | γi|2.
Poniamo ora che Q al tempo t si trovi nella sovrapposizione
Ψ(t) = γ 1 c1 + γ 2 c 2
e sia ora l’ampiezza delle transizioni c1→ c3 e c2→ c3
(figura 4).
Figura 4: Osservazione ed interferenza su una QTM
Capitolo 4 – Introduzione al quantum computing
54
Osservando all’istante t-esimo troveremo Q in c1 (c2) con probabilità | γ1|2
(|γ2|2); stimando la probabilità p1 che all’istante successivo Q assuma la
configurazione c3 si ottiene che
p1 = |α|2 (| γ1|2 + | γ2|2)
Lasciamo evolvere indisturbata Q sino al tempo t + 1 e valutiamo la
probabilità p2 di osservare la macchina nella configurazione c3. Otteniamo
l’ampiezza di c3 come α(γ1 + γ2) da cui
p2 = |α|2 | γ1 + γ2|2
Chiaramente p1 ≠ p2.
Dall’esempio appena descritto possiamo quindi verificare che nelle QTM
vengono formalizzati anche fenomeni di interferenza distruttiva tipici del mondo
quantistico modellato dalla QTM stessa.
Queste ed altre proprietà delle QTM, non implementabili su PTM, oltre a
conferire un connotato di plausibilità fisica al modello rappresentano proprietà
cruciali su cui si basa il disegno degli algoritmi quantistici.
Capitolo 4 – Introduzione al quantum computing
4.3
55
Un approccio fisico-matematico al quantum computing
La “sovrapposizione lineare” è strettamente relazionata con il concetto di
combinazione lineare tipico della matematica. Per esempio, in uno spazio
vettoriale con basi x e y, ogni vettore v può essere definito come combinazione
lineare delle basi stesse: v = ax + by. In qualche modo il vettore v può essere visto
come i vettori x e y nello stesso momento. Nella meccanica quantistica questo
principio si applica alle variabili fisiche di un sistema fisico. Lo spazio vettoriale
utilizzato è quello di Hilbert le cui basi sono i valori classici normalmente
associati al sistema fisico.
I sistemi quantistici sono descritti da una funzione d’onda Ψ che esiste in
uno spazio di Hilbert. Lo spazio di Hilbert ha un insieme di stati, ϕ i , che
formano una base, e il sistema è descritto dallo stato quantistico Ψ ,
Ψ = ∑ ci ϕi
i
Si dice che
Ψ
è in una sovrapposizione lineare di stati ϕ i
e, in
generale, i coefficienti ci sono numeri complessi. Per esempio, la posizione di un
elettrone che orbita attorno al nucleo è una sovrapposizione di tutte le possibili
posizioni in uno spazio tridimensionale, dove ogni possibile posizione è una base
per lo spazio di Hilbert ed ha una certa probabilità, finita, di essere l’attuale
posizione.
Uno degli aspetti meno intuitivi della teoria quantistica è questo: a livello
microscopico l’elettrone non è in nessuna posizione nell’orbita, ma piuttosto è in
una sovrapposizione di tutte le possibili posizioni, che è comunque uno stato ben
definito. In un certo senso è in tutte le posizioni nello stesso momento. Tuttavia, a
livello macroscopico o classico, la posizione di un elettrone è ben definita in uno
spazio tridimensionale. Questa apparente contraddizione non è stata ancora
Capitolo 4 – Introduzione al quantum computing
56
pienamente compresa ma è spiegata comunemente in questo modo: un sistema
meccanico quantistico rimane in una sovrapposizione delle sue basi fino a quando
non interagisce con l’ambiente.
Coerenza/Decoerenza sono principi legati all’idea della sovrapposizione
lineare. Un sistema quantistico si dice in uno stato di coerenza se si trova in una
sovrapposizione lineare delle sue basi. Il risultato è che nel momento in cui un
sistema, che si trova in una sovrapposizione lineare, interagisce in qualche modo
con l’ambiente, deve “scegliere” istantaneamente uno dei possibili stati e
“collassare” ad esso soltanto. Questo collasso è appunto chiamato decoerenza ed è
governato da una funzione d’onda Ψ.
I coefficienti ci sono chiamati ampiezze della probabilità, e il valore di |ci|2
fornisce la probabilità che la funzione Ψ collassi in uno stato ϕ i . La funzione
d’onda Ψ descrive un sistema fisico reale che deve collassare precisamente ad
uno stato. Inoltre le probabilità espresse dai coefficienti devono avere come
somma 1, parliamo in questo caso della condizione di unitarietà:
∑c
2
i
=1
i
Consideriamo ad esempio il caso di una variabile fisica discreta: lo spin.
Lo spin system più semplice è un sistema a due stati, chiamato “spin-1/2 system”,
le cui basi sono in generale rappresentate nel modo seguente:
•
Il simbolo ↑ che rappresenta lo stato di “spin-up”
•
Il simbolo ↓ che rappresenta lo stato di “spin-down”
In questo semplice esempio la funzione d’onda Ψ è una distribuzione su
due valori e uno stato coerente Ψ è una sovrapposizione lineare dei due stati di
57
Capitolo 4 – Introduzione al quantum computing
spin-up ↑ e spin-down ↓ . Ad esempio si potrebbe scrivere:
2
Ψ =
5
↑ +
1
5
↓
Fino a quando il sistema mantiene la sovrapposizione lineare , è cioè
coerente, non si può dire se è nello stato di spin-up o di spin-down. Classicamente
dovrebbe essere l’uno o l’altro, ma questo avviene solo quando il sistema
interagisce con l’ambiente e collassa in un preciso stato e il risultato può essere lo
stato di spin-up con la seguente probabilità:
↑Ψ
2
2
 2 
= 
 = 0.8
 5
Il semplice sistema di spin a due stati appena descritto è utilizzato come
unità di base del quantum computation. Si parla in questo caso di “quantum bit”, o
più semplicemente qubit, e gli stati ↑ e ↓ vengono rinominati in 1 e 0 .
Diamo qui di seguito la definizione di alcuni termini usati nel calcolo
quantistico.
Operatori: sono operatori su uno spazio di Hilbert che descrivono come
una funzione d’onda si trasforma in un’altra funzione d’onda. Generalmente sono
denotate con la lettera maiuscola e un “cappuccio”, ad esempio Â, e possono
essere rappresentati come matrici che agiscono su vettori. Usando gli operatori,
l’equazione degli autovalori può essere scritta nel seguente modo:
∧
A ϕi = a i ϕi
dove gli ai sono gli autovalori. Le soluzioni ϕ i
di questa equazione sono
chiamate autostati e possono essere utilizzati per costruire le basi dello spazio di
Capitolo 4 – Introduzione al quantum computing
58
Hilbert da utilizzare. Nel formalismo quantistico tutte le proprietà sono
rappresentate come operatori i cui gli autostati sono le basi per lo spazio di Hilbert
associato a quella proprietà i quali autovalori sono i valori quantici permessi per
quella proprietà. E’ da sottolineare come gli operatori nella meccanica quantistica
debbano essere operatori lineari e inoltre deve valere la seguente proprietà:
†  =  † = Î
dove Î è l’operatore identità e  † è il complesso coniugato trasposto di Â.
Interferenza: è un fenomeno tipico delle onde. I picchi d’onda che sono in
fase interferiscono costruttivamente mentre quelli che sono fuori fase
interferiscono distruttivamente. Questo è un fenomeno comune a tutti i tipi di
onda meccanica, da quelle acquatiche e quelle ottiche. Recenti esperimenti hanno
dimostrato che l’interferenza può essere applicata alla probabilità delle onde della
meccanica quantistica.
Entanglement: da un punto di vista puramente computazionale
l’entanglement sembra abbastanza intuitivo:è semplicemente il fatto che possono
esistere correlazioni tra differenti qubit. Per esempio se un qubit si trova nello
stato 1 , un altro sarà nello stato 0 . Tuttavia, da un punto di vista strettamente
fisico, l’entanglement è ancora poco conosciuto.
L’entanglement è un fenomeno completamente quantistico e non ha
nessun “cugino” nella fisica classica, come accade per esempio per l’interferenza.
Recenti esperimenti hanno dimostrato che dividendo una particella in due,
le due particelle risultanti assumono spin differenti; nel caso in cui una delle due
particelle così create dovesse cambiare lo spin, ad esempio per l’interazione con
l’ambiente, questo cambiamento sarebbe istantaneamente comunicato all’altra
particella che assumerebbe di conseguenza spin opposto.
Capitolo 4 – Introduzione al quantum computing
4.4
59
Che cos’è un quantum computer
Un quantum computer possiede varie caratteristiche che lo rendono
differente dagli attuali computer e che gli consentono di svolgere computazioni
che non potrebbero essere svolte dai computer classici.
Nei quantum computer quindi l’espressione “bit” è completamente
differente da quella dei computer classici. I bit classici sono le unità minime per
manipolare i dati, e sono espressi in notazione binaria di 0 e 1. Nei quantum
computer, come abbiamo visto, i bit non sono espressi solo come 0 e 1 ma anche
come sovrapposizione di 0 e 1. Un bit nel paradigma classico corrisponde quindi a
un qubit nel paradigma quantistico.
Il qubit ha due stati di base, gli stati 0 e 1, che sono equivalenti ai bit
classici. Nei computer classici, ad esempio, il bit 0 corrisponde allo stato di 0V e
il bit 1 corrisponde allo stato di 5V, più il voltaggio di base che può essere di 3,5V
o 5V a seconda della tecnologia utilizzata, TTL o CMOS. Nei quantum computer
i movimenti degli elettroni sono largamente accettati come espressione fisica dei
qubit. Gli elettroni hanno dei movimenti interni che corrispondono agli spin e
hanno due valori intrinseci, chiamati appunto spin-up e spin-down. Per esprimere
i qubit è estremamente conveniente se allo spin-up viene associato lo stato 1 e allo
spin-down viene associato lo stato 0. I due stati vengono denotati in questo modo:
0 e 1 .
Il qubit rimane in uno stato in cui non è certo se sia |0› oppure |1›
(sovrapposizione lineare) fino a quando non interagisce con l’ambiente
(decoherence). Da quanto detto gli spin degli elettroni, tra tutti i fenomeni
quantistici, sono considerati i migliori per esprimere i qubit.
Classical computer: 0 o 1 …..bit
Quantum computer: sovrapposizione di 0 e 1 …. Qubit
Nei quantum computer gli stati 0 e 1 sono espressi in forma matriciale.
Capitolo 4 – Introduzione al quantum computing
60
L’equazione
x =a1 +b0
esprime la sovrapposizione di un singolo qubit con gli stati 0 e 1 in forma
matriciale. I coefficienti a e b sono numeri complessi e prendono il nome di
ampiezza della probabilità.
Nel caso di due o più qubit essi sono espressi nel seguente modo:
Computer classico
01
(2 bit)
01010101
(8 bit)
Quantum computer
|01›
(2 qubit)
|01010101›
(8 qubits)
I qubit possono essere espressi con il prodotto cartesiano di matrici di
singoli qubit. Il numero di elementi della matrice è n x n, dove n è il numero di
qubit utilizzati. Questo indica che le colonne di bit nella QC sono differenti da
quelle nei computer classici.
Capitolo 4 – Introduzione al quantum computing
Da un qubit si ottiene:
Nel caso di n qubit:
61
Capitolo 4 – Introduzione al quantum computing
4.5
62
Circuiti
Descriviamo ora le differenze tra circuiti nei computer classici e
quantistici che risultano dalle differenze nelle colonne di bit precedentemente
menzionate.
I circuiti elettronici sono spesso espressi con i seguenti tre principali
elementi:
I due bit originali di input non possono essere recuperati dall’output di una
porta AND oppure OR. I circuiti elettronici dei computer classici non sono quindi
reversibili.
E’ possibile creare circuiti anche molto complessi con solo questi tre
elementi. Tali circuiti attualmente sono le componenti dei computer.
Nei quantum computer esistono gli stessi circuiti AND, OR e NOT nei
quantum computer ma non sono le unità più piccole. Infatti l’elemento più piccolo
è il CNOT (Controlled-NOT) utilizzato per rappresentare le porte AND, OR e
NOT dei computer classici.
Ecco una rappresentazione del CNOT:
63
Capitolo 4 – Introduzione al quantum computing
Il CNOT è espresso dalla seguente matrice unitaria quadrata:
Il CNOT inverte un qubit solo quando lo stato del qubit di controllo è 1 .
Ecco la tabella di come agisce.
IN
Control
0
1
OUT
Target
0
1
0
1
Control
0
1
Target
1
1
1
0
Nei quantum computer i circuiti possono essere espressi tramite matrici
come pure colonne di qubit. Il CNOT è espresso da una matrice quadrata. Come
visto per il diagramma del circuito CNOT, la dimensione del lato della matrice è,
Capitolo 4 – Introduzione al quantum computing
64
nel caso di 2 qubit, 22, questo significa che il circuito svolge un semplice calcolo
matriciale su una colonna di qubit, l’input. Il risultato è un output di qubit.
Ecco un esempio che ha come input 01 :
Il qubit di output risulta uguale all’input:
Questo fatto indica che il numero dei qubit di output è uguale a quello
degli input. Quindi, a differenza dei computer classici, un quantum computer dà in
output lo stesso numero di qubit ricevuti in ingresso. Inoltre risulta reversibile, che
è una proprietà che deriva direttamente dalla matrice.
Figura 5: Esempio
Nei quantum computer possiamo costruire vari circuiti usando non solo
Capitolo 4 – Introduzione al quantum computing
65
AND, OR e NOT creati con il CNOT, ma anche varie matrici. Questi circuiti
hanno eccellenti performance. Tuttavia le matrici per i quantum computer devono
soddisfare alcune condizioni:
•
Devono essere unitarie con il numero di elementi pari a 2n con n
intero positivo arbitrario.
•
4.6
Gli elementi che operano sui qubit sono gli operatori unitari.
L’implementazione fisica di un quantum computer
Ci si chiede che forma dovrebbe assumere l’hardware di un quantum
computer e qual è la tecnologia richiesta per creare una macchina realmente
funzionante, facendo uso degli spin degli elettroni. La risposta è che si richiede
una tecnologia molto avanzata e sofisticata per controllare queste piccole
particelle, tecnologia che è ancora agli inizi del suo sviluppo e che non sarà
disponibile ancora per qualche tempo per le applicazioni scientifiche e
commerciali di tutti i giorni.
Si parte dalla supposizione che un elettrone esista in uno spazio. L’elettrone è il
qubit. Lo spin dell’elettrone di trova in una sovrapposizione lineare, è cioè
contemporaneamente spin-up e spin-down. Vengono effettuate delle operazioni
per cambiare la direzione dello spin e far decadere lo stato in uno dei due stati 0
o
1 . Una tale operazione può essere eseguita tramite la luce o
l’elettromagnetismo.
Ad esempio ecco un’operazione NOT eseguita su di un elettrone:
Capitolo 4 – Introduzione al quantum computing
66
Con due o più qubit si suppone che gli elettroni “volino” in parallelo.
Questo ci dà l’impressione che costruire quantum computer sia molto difficoltoso
a causa delle operazioni molto accurate che devono essere eseguite sugli elettroni
una volta catturati. Un quantum computer dovrebbe essere molto piccolo e al
tempo stesso molto veloce.
4.7
Vantaggi e svantaggi
Vantaggi:
• Processing: algoritmi migliori rispetto alla loro controparte
classica, utilizzati per risolvere problemi.
• Algoritmi: algoritmi che sono più efficienti rispetto alla loro
controparte classica. Inoltre sono reversibili ed è possibile ottenere
l’input dal loro output. Ad esempio:
ƒ
Addizione
Sottrazione
ƒ
Calcolo esponenziale
Logaritmi
• Hardware: elettroni, molto veloci e piccoli.
Svantaggi:
• Implementazione: implementare un quantum computer tuttora
Capitolo 4 – Introduzione al quantum computing
67
sembra un’operazione molto difficile. Inoltre il computer
risulterebbe molto grande.
• Coerenza: uno stato coerente si potrebbe facilmente alterare dando
vita ad una soluzione errata.
Questi sono solo alcuni degli svantaggi e dei vantaggi offerti dalle due
tecnologie. Comunque i quantum computer potrebbero essere anche usati insieme
unendo alle normali CPU odierne una QCPU (quantum CPU), ma tutto questo
dipenderà dallo sviluppo della QC e soprattutto della sua implementazione fisica
che risulta ancora molto difficile.
4.8
Il principio di non località e il teorema di Bell
Nel 1935 Albert Einstein e due suoi colleghi, Boris Podolsky e Nathan
Rosen (EPR), svilupparono un esperimento per dimostrare come la meccanica
quantistica fosse incompleta: nacque così il famoso paradosso di EPR.
Einstein, Podolsky e Rosen immaginarono due sistemi fisici che
inizialmente sono liberi di interagire in modo da essere descritti da una singola
equazione di Schrodinger. Una volta separati, i due sistemi sono ancora descritti
dalla stessa equazione d’onda e la misurazione di un osservabile del primo sistema
determina una misurazione indiretta dell’osservabile corrispondente del secondo
sistema. Similmente, la misura di un altro osservabile del primo sistema determina
ancora una misura indiretta dell’osservabile corrispondente del secondo sistema,
anche se i due sistemi non sono più fisicamente collegati. Tuttavia la meccanica
quantistica proibisce la conoscenza simultanea di più di un osservabile
mutuamente non commutabile dei due sistemi. Il paradosso di EPR sta proprio in
questa contraddizione: dati i due sistemi accoppiati, è possibile misurare un
osservabile A del primo sistema e un osservabile B del secondo sistema, rivelando
tuttavia entrambi osservabili per entrambi i sistemi, in contraddizione con quanto
affermato dalla meccanica quantistica.
In sostanza il significato di questo esperimento è il seguente: se la
68
Capitolo 4 – Introduzione al quantum computing
meccanica quantistica è valida, essa implica che in certi esperimenti specifici
esistano necessariamente influenze istantanee “non-locali” tra particelle lontane, a
dispetto quindi che la velocità della luce sia la velocità massima nell’universo. Le
influenze in questione si propagherebbero con velocità infinita e questo era
considerato del tutto inaccettabile dai tre fisici. In altri termini si avrebbe avuto
una violazione del “principio di località” che Einstein, forse suo unico errore,
considerava intoccabile. Postularono quindi l’esistenza di alcune “variabili
nascoste locali” dei sistemi fisici non ancora conosciute e da qui la convinzione
che ci fosse incompletezza e incoerenza nella teoria quantistica.
Nel 1964 John Bell propose un meccanismo per testare l’esistenza di
queste variabili nascoste sviluppando così le famose “disuguaglianze di Bell”.
Mostrò che se queste diseguaglianze fossero state soddisfatte, non sarebbe potuta
esistere una teoria delle variabili nascoste locali come affermavano EPR.
Consideriamo due fotoni precedentemente uniti in unico stato: dopo la
separazione ciascun fotone avrà un valore di spin per ciascuno dei tre assi e
ciascun spin potrà assumere due valori distinti, spin-up e spin-down. Chiamiamo
x+ lo spin-up dell’asse x, y- lo spin down dell’asse y e così via. Misuriamo ora lo
spin di un asse di una del primo fotone e lo spin di un altro asse dell’altro fotone.
Se il paradosso di EPR fosse corretto, ciascun fotone avrebbe simultaneamente le
proprietà per lo spin su tutti e tre gli assi.
Effettuiamo ora delle misurazioni su un insieme di fotoni e indichiamo con
N(x+, y-) il numero di fotoni con x+ e y-, con N(x+, y+) il numero di fotoni con
x+ e y+ e così via. È facile dimostrare statisticamente che per un insieme di fotoni
vale la seguente:
N(x +, y-) = N(x +, y-, z +) + N(x +, y-, z −)
(1)
Chiamiamo ora n[x+, y+] il numero di misurazioni di coppie di fotoni in
cui il primo fotone ha spin x+ e il secondo y+. Utilizziamo la stessa dicitura per
tutte le altre possibilità: n[x+, y-], ecc…Questo è necessario perché questo è tutto
ciò che è possibile misurare. Non è possibile misurare entrambi gli x e y sullo
Capitolo 4 – Introduzione al quantum computing
69
stesso fotone. Bell ha dimostrato che se la (1), che indica proprietà reali, è vera,
anche la seguente deve essere vera:
n[x +, y + ] = n[x +, z + ] + n[ y -, z -]
Il "Teorema o diseguaglianza di Bell" può riassumersi dicendo che
qualsiasi teoria locale, che assume che determinate coppie di particelle correlate
separate ed inviate verso rivelatori lontani abbiano proprietà definite anche prima
di essere sottoposte a test, non può riprodurre la distribuzione probabilistica
prevista dalla meccanica quantistica allorché si considerino non solo misure
"simmetriche/opposte" ma anche test su posizioni intermedie.
Negli anni ’70 l’esperimento di Bell fu realizzato da vari ricercatori, che
finalmente verificarono la validità della meccanica quantistica con i suoi
paradossi, la sua non oggettività e la sua non-località. Alcuni fisici però
obiettarono che gli esperimenti non erano stati condotti in maniera rigorosa,
adducendo varie critiche. Così furono effettuati esperimenti sempre più sofisticati
e precisi, fino all’esperimento di Aspect et al nel 1982, che viene considerato
decisivo per la validità della meccanica quantistica.
Il principio di “località” di Einstein può essere violato in certi casi che si
riscontrano in particolari sistemi quantistici, anche se le influenze “istantanee”
sono soggette a molte limitazioni e non intaccano la validità della teoria della
relatività: in parole povere non è possibile accelerare una particella fino a farle
raggiungere la velocità della luce o velocità superiori. Possono tuttavia esistere
delle strane influenze non locali (da qui “principio di non località”) tra particelle
quantistiche che in origine erano connesse e che poi sono state allontanate.
Capitolo 5
Reti neurali artificiali classiche
5.1
Introduzione alle reti neurali classiche
Le reti neurali artificiali classiche (CLANN) nascono come simulazioni
delle strutture nervose presenti nel tessuto cerebrale.
Il cervello dell’uomo è costituito da un grandissimo numero di neuroni
10
(10
circa), ognuno dei quali riceve molti segnali diversi in input, attraverso le
connessioni sinaptiche dei suoi dendriti, ed emette un solo segnale in output lungo
il proprio assone che viene poi smistato ad altre sinapsi di altri neuroni.
Sostanzialmente il neurone somma tutti i segnali di input e se questa somma
supera una certa soglia, detta soglia di attivazione, emette un segnale in output,
altrimenti rimane quiescente. La soglia può variare nel tempo grazie a particolari
sostanze chimiche, ma variano nel tempo anche l’intensità e il numero delle
sinapsi: da ciò deriva la “plasmabilità” del cervello e l’apprendimento.
Le connessioni tra i neuroni non sono rigidamente stabilite al momento
della nascita ma variano continuamente. Queste connessioni quindi hanno la
possibilità di rinforzarsi, indebolirsi, crearsi e distruggersi, il tutto in base alle
interazioni con l’ambiente esterno.
Un’altra caratteristica fondamentale del cervello è la non localizzazione di
concetti e processi mentali, che sono invece distribuiti tra un gran numero di
neuroni. Non esiste quindi un neurone adibito al riconoscimento di una forma o di
una voce, ma il ricordo della forma o della voce è distribuito in varie zone del
cervello.
Il sistema nervoso è quindi una gigantesca rete neurale naturale a cui si
71
Capitolo 5 – Reti neurali artificiali classiche
ispira la teoria delle reti neurali artificiali, costituite da decine, centinaia o migliaia
di neuroni artificiali e utilizzate per la soluzione di molti problemi tecnici e
scientifici. Alcuni neuroni sono di input e ricevono sostanzialmente i dati iniziali
del problema, altri neuroni sono di output e forniscono la soluzione del problema,
altri ancora sono definiti intermedi (o nascosti) perché sono interni ad una scatola
nera di cui si vede solo l’input e l’output.
Le reti neurali sono parallele per costituzione, poiché ogni neurone calcola
la sua attivazione indipendentemente dagli altri. Ogni neurone rappresenta più
concetti e ogni concetto è rappresentato da più neuroni, realizzando così una
rappresentazione distribuita. Grazie alla distribuzione dell’informazione un
parziale decadimento di alcuni neuroni all’interno della rete non comporta danni
gravi al sistema, comunque sempre proporzionali alla perdita subita: diciamo che
la degradazione della rete è “dolce” (graceful degradation).
Sono in grado di apprendere i problemi in base ad una casistica di esempi
(apprendimento con supervisione) o anche in modo autonomo (apprendimento
senza
supervisione).
Non
utilizzano
conoscenze
esplicite
ma
quelle
implicitamente contenute negli esempi loro esposti. Ne consegue una maggiore
fedeltà di rappresentazione del mondo reale e una maggiore capacità di
generalizzazione: la rete infatti è in grado di rispondere anche in presenza di input
ad essa sconosciuti oppure di input inquinati (rumorosi).
Una rete di N neuroni può avere un numero enorme di architetture a
seconda del tipo di connessione tra i neuroni stessi. In generale però si utilizzano
solo alcune architetture standard.
5.2
Caratteristiche generali delle reti neurali
Il neurone artificiale è talvolta denominato neurodo o Processing Element
o unità. Un neurone i può assumere diversi stati:
1. Gli stati 0 o 1: neurone binario.
2. Gli stati -1 e 1: neurone bipolare.
72
Capitolo 5 – Reti neurali artificiali classiche
3. Tutti gli stati compresi tra un valore minimo e uno massimo,
tipicamente 0 e 1: neurone a valori continui
Lo stato Si(t) del neurone evolve discretamente nel tempo 1, 2,..,t,..,T.
Ogni neurone riceve N input Sj(t) da altrettanti neuroni j, attraverso sinapsi di
valore Wij (pesi sinattici), con un input netto:
NETi = ∑
j
dove
ϑ
i
[W S (t ) −ϑ ]
ij
j
i
è una soglia caratteristica, che simula la soglia di attivazione del
neurone biologico.
Lo stato successivo Si(t +1) viene calcolato con un’opportuna legge che
viene chiamata “legge di attivazione”:
Si(t +1) = F(Pi)
dove F è anche denominata “funzione di trasferimento”. Le funzioni di
trasferimento più comuni sono:
1. Funzione identità, lineare senza saturazione:
F(P) = P
o
F(P) = KP
2. Funzione lineare con saturazione:
F(P) = min (Smax , max(0,KP))
3. Funzione a gradino o di Heavyside:
F(P) = signum(P)
con valori binari (0,1) o bipolari (-1,1).
73
Capitolo 5 – Reti neurali artificiali classiche
4. Funzione logistica o sigmoide:
F(P) = 1/(1 + e-kP)
con valori continui tra 0 e 1, derivabilità e saturazione asintotica: per
P→± ∞
5. Funzione tangente iperbolica:
F(P) = (ekP - e-kP)/( ekP + e-kP)
derivabile, con valori continui tra -1 e 1 e saturazione asintotica.
5.2.1 Leggi di apprendimento
Esistono due tipi principali di apprendimento: supervisionato e senza
supervisione.
Apprendimento supervisionato
Si basa sulla disponibilità di una collezione di coppie [dati del
problema/soluzione
corrispondente].
Questa
collezione
di
coppie
viene
generalmente ripartita in due insiemi:
1. Training set: è l’insieme utilizzato per l’apprendimento della rete.
2. Validation set: è l’insieme che consente di verificare, ad addestramento
concluso, che la rete non si sia limitata a memorizzare i casi del
training set, ma che abbia acquisito la facoltà di generare soluzioni
appropriate ad input a lei ignoti, manifestando così la sua capacità di
generalizzazione.
Durante l’apprendimento, per ogni coppia [input/output desiderato] del
training set, la rete riceve in input i dati di ingresso I e restituisce un output O che
nelle fasi iniziali risulta in generale diverso dall’output desiderato D. La rete
commette quindi un errore che è [I-D] e quindi un errore quadratico medio E su
tutte le coppie del training set. L’algoritmo di apprendimento opera in modo da
Capitolo 5 – Reti neurali artificiali classiche
74
minimizzare l’errore E apportando progressivamente variazioni positive o
negative ai pesi sinattici.
Nella fase di apprendimento i pesi sinattici W vengono modificati con un
opportuno algoritmo. Gli algoritmi più utilizzati sono:
1. Legge di Hebb.
2. Legge del gradiente.
3. Legge di Kohonen.
Apprendimento senza supervisione
L’apprendimento senza supervisione invece non fa riferimento ad una
casistica di esempi da fornire come addestramento. La rete impara a rispondere in
modo ordinato alla statistica degli stimoli esterni che le vengono sottoposti, autoorganizzando la propria struttura in modo tale che stimoli simili attivino neuroni
vicini e stimoli diversi attivino neuroni lontani.
L’apprendimento senza supervisione è inoltre di tipo competitivo: per
ogni input vengono attivati più neuroni, ma solo quello con attivazione maggiore
vince la competizione e viene premiato con una modifica dei propri pesi, in modo
da “sintonizzarlo” maggiormente con quel tipo di input. Questo tipo di
apprendimento è utilizzato dalla rete di Kohonen. [Cam97]
5.2.2 Architettura dei collegamenti
Le reti neurali si differenziano in base alla loro architetture, cioè in base
alla connessione dei loro neuroni e alla loro disposizioni su uno o più strati. Si
possono identificare diverse topologie di rete, di seguito alcuni semplici esempi.
Reti completamente connesse (non stratificate)
In una rete di questo tipo ogni neurone è collegato bidirezionalmente con
tutti gli altri neuroni. Le connessioni sono rappresentate da una matrice quadrata
W di dimensione 2N x 2N con N numero dei neuroni, il cui generico elemento wij
Capitolo 5 – Reti neurali artificiali classiche
75
rappresenta il peso sinattico tra il neurone i e il neurone j (figura 1).
Figura 1: Rete completamente connessa
Reti stratificate
In una rete di questo tipo i neuroni sono organizzati in strati in modo che
ogni neurone sia connesso con tutti i neuroni dello strato successivo. Non esistono
connessioni tra strati non adiacenti e tra neuroni dello stesso strato. Il numero di
strati e di neuroni che la rete deve possedere dipende dal tipo di problema che la
rete stessa è chiamata a risolvere.
Figura 2: Rete stratificata ad uno strato
Capitolo 5 – Reti neurali artificiali classiche
76
Lo strato di ingresso di figura 2 ha il solo compito di passare allo strato
successivo l’input ricevuto dall’esterno: per questo motivo la rete mostrata in
figura 2 ha un solo strato.
Figura 3: Rete stratificata con uno strato nascosto
La figura 3 mostra una rete che possiede uno strato nascosto, così definito
perché non ha collegamenti con l’esterno. Possono esistere uno o più strati
nascosti che hanno il compito di costruire opportune rappresentazioni interne
degli stimoli forniti in ingresso in modo da facilitare il compito della rete.
Le connessioni tra i neuroni di una rete stratificata sono rappresentate
mediante tante matrici quante sono le coppie di strati adiacenti. Ogni matrice
contiene i pesi delle connessioni tra le coppie di neuroni di due strati adiacenti.
Capitolo 5 – Reti neurali artificiali classiche
5.3
77
La rete di Hopfield
Dal 1982 al 1985 il fisico J.J. Hopfield in una serie di articoli (l'ultimo in
collaborazione con D.W. Tank, [Ta&Ho]) presentò un modello di rete neurale ad
alta connessione che porta ora il suo nome e che rappresentò una forte
motivazione per la ripresa delle ricerche nell'area del connessionismo.
La rete di Hopfield permette di memorizzare dei vettori e richiamarli
successivamente. È inoltre di particolare rilevanza la robustezza della rete; cioè se
viene presentato un vettore “vicino” ad uno di quelli memorizzati, quest’ultimo
viene anch’esso richiamato.
La rete consiste di n neuroni a connessione totale, senza autoconnessioni
come mostrato in figura 4.
Figura 4: Una rete di Hopfield con 6 neuroni
Detto wij il peso della connessione tra il neurone i ed il neurone j si ha che:
w ij = w ji per i ≠ j
w ij = 0
per i = 0
Inoltre ad ogni neurone i è associata una soglia θi.
Capitolo 5 – Reti neurali artificiali classiche
78
Al tempo t il neurone i si trova in uno stato binario:
+ 1
s i (t ) = 
− 1
Il potenziale al quale si trova il neurone i al tempo t è:
Pi = ∑ ( wij s j ) − θ i
i≠ j
La legge di attivazione del neurone i è:
 1 se Pi ≥ 0
(1)
s i (t + 1) = 
- 1 se Pi < 0
Tale legge di attivazione viene usualmente applicata in modo asincrono,
cioè sequenzialmente. La sequenza può inoltre essere una sequenza random.
Supponiamo ora che i pesi wij siano stati assegnati e sia
s(t) = (s1 (t ),..., s n (t ))
Alla rete è associata una funzione E, denominata energia per un’analogia
formale con l’energia meccanica, che diminuisce monotonicamente nel tempo t.
[Cam97].
E ( s) = −
1
∑ wij si s j + ∑j θ i S j
2 i≠ j
Allora si ha:
δE
= − Pi
δsi
Capitolo 5 – Reti neurali artificiali classiche
79
Pertanto se Pi ≥ 0 per la (1) si ha che:
2
∆si = si (t + 1) − s i (t ) = 
0
quindi
∆E =
δE
∆si = − Pi ∆si ≤ 0
δsi
Se invece Pi < 0 sempre per la (1) si ha che:
− 2
∆si = si (t + 1) − si (t ) = 
0
e anche in questo caso
∆E =
δE
∆si = − Pi ∆si ≤ 0
δsi
Ne segue che E è una funzione non crescente dello stato del sistema come
conseguenza della legge di attivazione (1); il sistema evolve verso uno stato
caratterizzato da un’energia minima.
Viene descritto ora il procedimento per scegliere i pesi wij in modo da
memorizzare m forme distinte.
E’ necessario normalizzare le m forme in m vettori binari ortogonali sk,
con k =1,..., m, e tali che:
s k si = nδ kt
Una scelta possibile per i pesi è la seguente:
80
Capitolo 5 – Reti neurali artificiali classiche
 θj =0
m

w
=
 ij ∑ s ki s kj
k =1

 wii = 0
j = 1,.., n
i≠ j
(2)
La (2) può anche essere scritta più sinteticamente nella forma:
m
wij = ∑ ( s ki s kj − nδ ij )
k =1
infatti si può verificare che:
m
wij = ∑ ( s ki s kj − nδ ij ) = nm − mn = 0
k =1
Con la scelta (2) risulta:
n
1 m

E ( s) = − ∑ ( s k s ) 2 − ∑ s ki2 si2 
2  k =1
i =1

Quindi E(s) risulta limitata inferiormente nell’insieme degli stati. Più
precisamente:
E ( s) ≥
− n2m
2
in quanto s k s ≤ n
Le m forme memorizzate s1 ,..., s n corrispondono ai minimi locali della
funzione E(s).
La rete funziona perciò nel modo seguente. Essendo E(s) non crescente, se
Capitolo 5 – Reti neurali artificiali classiche
81
ad essa viene presentato un vettore s', “leggermente” diverso da sl, la dinamica
della rete dopo un certo tempo essa si rilasserà sul minimo locale più prossimo a s'
cioè sl . In base ad esperimenti si vede che se N è il numero di neuroni, si possono
memorizzare m = 0.14N forme. [Ani01]
Capitolo 6
Quantum neural networks
6.1
Introduzione alle quantum neural networks
Esistono tre diversi tipi di reti neurali artificiali quantistiche: il primo
modello è quello delle fuzzy neural networks (FNN), che sono ancora classiche
ma con delle funzioni di attivazione quantistiche; il secondo modello è quello
delle entangled neural networks (ENN) descritte da Weigang [Wei99], mentre il
modellocon il maggior numero di studi e implementazioni è quello delle reti
neurali quantistiche di tipo associativo.
6.1.1 Fuzzy Neural Networks
Uno degli svantaggi delle reti neurali classiche è la loro incapacità a
classificare dati appartenenti a regioni in cui c’è una sovrapposizione fra classi,
dal momento che utilizzano regioni di decisione dai confini netti. Questo ha
motivato la nascita delle fuzzy neural networks, che sono delle reti classiche ma
con alcune caratteristiche quantistiche. Possiamo considerarle a metà strada tra le
reti classiche e quelle quantistiche.
Questo tipo di reti è in grado di rappresentare l’incertezza del set di dati di
training. Più specificatamente, possono identificare la sovrapposizione fra classi
potendo approssimare l’appartenenza ad una classe con qualsiasi grado di
approssimazione.
Sono quindi molto utili per classificare dati contenenti incertezza. La
principale differenza fra reti convenzionali e FNN è la forma delle funzioni di
Capitolo 6 – Quantum Neural Networks
83
attivazione delle unità nascoste. Invece delle funzioni sigmoidi ordinarie, le unità
nascoste delle FNN contengono funzioni di attivazione multilivello. Ciascuna
funzione di attivazione è formata come sovrapposizione di funzioni di attivazione
sigmoidi spostate di intervalli “quantici”.
Questi intervalli aggiungono un ulteriore grado di libertà che può essere
utilizzato nel processo di apprendimento per catturare e quantificare la struttura
dello spazio di input.
Una FNN è una rete feedforward, una generalizzazione di un perceptrone
multistrato con una strato nascosto. Le unità nascoste hanno una speciale funzione
di attivazione e le unità di output hanno in genere una funzione di attivazione
logistica. Ogni unità di output rappresenta una classe.
La funzione di apprendimento utilizza due differenti passaggi: nel primo i
pesi sono aggiornati usando una standard backpropagation. Nel secondo le
rappresentazioni fuzzy (i cosiddetti livelli quantici) vengono aggiornati da un
algoritmo di minimizzazione rispetto ai valori di output delle unità nascoste. Se si
pone a zero i livelli quantici si ottiene una normale rete feedforward.
6.1.2 Entangled Neural Networks
Una entangled neural network è formata da due neuroni, che chiamiamo
neurone A e neurone B, una sorgente EPR che genera coppie di particelle
entangled, e alcune connessioni, sia classiche che quantistiche. L’operazione di
una ENN è come il teletrasporto, ma con la possibilità di apprendimento. Inoltre
non c’è interazione come nelle ANN il che riduce il problema della decoerenza.
Per capire il funzionamento di una ENN è necessario fare una breve
introduzione sul principio del teletrasporto quantistico: un sistema per il
teletrasporto è dato da un trasmettitore (neurone A), un ricevitore (neurone B),
una sorgente EPR, un canale classico ed uno quantistico.
A e B vogliono comunicare. Ciascuno riceve una delle particelle entangled
dalla sorgente EPR che ha la coppia ϕ0= 1/√2(|00> + |11>).
84
Capitolo 6 – Quantum Neural Networks
A vuole mandare lo stato del qubit φ = a|0> + b|1> a B. Allora decodifica
il qubit φ e la sua metà della coppia entangled:
⊗ ϕ0 = 1/√2(a|0> ⊗ ((|00> + |11>) + b|1> ⊗ ((|00> + |11>) =
1/√2(a|000> + a|011> + b|100> + b|111>)
A ora applica CNOT ⊗ I e H ⊗ I ⊗ I a questo stato, dove CNOT è il
gate controlled-NOT, I la trasformata di identificazione e H quella di Hadamard.
Si ottiene alla fine:
½(|00> (a|0> + b|1>) + |01>(a|1> + b|0>) + |10>(a|0> - b|1>) + |11>(a|1> - b|0>))
A controlla i primi due bit e B controlla l’ultimo. A misura i primi due
qubit ottenendo uno di |00>,|01>,|01> e |11> con uguale probabilità. Poi manda il
risultato della misura a B come due bit classici. Lo stato quantistico di B verrà
proiettato su (a|0> + b|1>),(a|1> + b|0>),(a|0> - b|1>) o (a|1> - b|0>) a seconda
della misura di A.
B riceve i due bit classici da A. Sa anche come decodificare la sua unità
della coppia EPR:
Bit ricevuti
Stato
Trasf. Di decodifica
00
a|0>+b|1>
I
01
a|1>+b|0>
X
10
a|0>-b|1>
Z
11
a|1>-b|0>
Y=ZX
dove
I= 1 0
01
X= 1 0
0 1 (NOT)
Y= 0 -1
10
Z=
10
0 -1 spostamento di fase
85
Capitolo 6 – Quantum Neural Networks
Per sviluppare un sistema intelligente supponiamo di avere tre unità: I, II,
III. Studiamo l’unità II.
Il neurone A, il neurone B e la sorgente EPR costituiscono un’unità di base
ENN. Sia ad A che a B arriva una delle particelle entangled EPR ϕ0= 1/√2(|00> +
|11>).
Nel neurone A definiamo lo stato di un qubit φ = a|0> + b|1>
per
rappresentare un fattore di decisione, ad esempio la temperatura della stanza è
calda con probabilità |a|2 o bassa con probabilità |b|2.
Il neurone A riceve informazione da un’altra unità (es. la I) e vuole
trasmettere il qubit φ al neurone B. Applica allora la decodifica di φ e della sua
metà EPR. Lo stato iniziale è:
φ ⊗ ϕ0 = 1/√2(a|0> ⊗ ((|00> + |11>) + b|1> ⊗ ((|00> + |11>) =
1/√2(a|000> + a|011> + b|100> + b|111>).
A applica ora CNOT ⊗ I e H ⊗I ⊗ I. Nel neurone A possiamo misurare
i primi due bit e nel B l’ultimo, chiamato chiave decisionale
τ. Usando τ
possiamo misurare i primi due qubit per avere uno di |00>, |01>, |01> e |11> con
una certa probabilità. Il risultato della misura è definito chiave di misura ν .
Usando l’algoritmo di Grover [Gro96], la probabilità secondo |t> è
amplificata a |p|2 e le altre ridotte a |q|2, dove:
|p|2 + 3|q|2 = 1 e |p|2
>>|q|
2
.
Allora ν (che è uguale a τ con probabilità |p|2 ) viene mandata a B con due
bit classici.
Dopo l’applicazione dell’algoritmo di Grover, a seconda della misura di
A(ν) lo stato del qubit di B è proiettato in (a|0> + b|1>), (a|1> + b|0>), (a|0> b|1>) o (a|1> - b|0>) rispettivamente. Queste sono combinazioni di stati di
ampiezza (0 e 1) e di fase (+ e -).
86
Capitolo 6 – Quantum Neural Networks
Quando il neurone B riceve i due bit classici (ν) da A, può misurare uno
dei quattro stati:
ν
Stato
ν
Stato
00
a|0>+b|1>
10
a|0> - b|1>
01
a|1>+b|0>
11
a|1> - b|0>
Lo stato del qubit in B può essere misurato e trasmesso all’unità 3.
87
Capitolo 6 – Quantum Neural Networks
6.2
Un semplice modello di neurone quantistico
Nel gruppo delle reti neurali quantistiche di tipo associativo sono descritti
in letteratura vari modelli. Vengono presentati qui di seguito quelli ritenuti più
interessanti e pertinenti rispetto al nostro lavoro.
Il più semplice neurone artificiale classico è il perceptrone che riceve in
input n valori bipolari (o binari) {ij} ed è definito come un vettore di pesi w = (w1,
w2,…, wn)T, con una soglia ϑ e una funzione di output f:
n

 1 se ∑ w ji j > ϑ
f =
j=1
− 1
altrimenti
A partire da questo semplice modello, che questo non può risolvere
funzioni non linearmente separabili, sviluppiamo un analogo quantistico che
riceve in input gli stessi valori {ij} [Ven98]. Il modello quantistico è simile in
tutto e per tutto al modello classico con la sola differenza che il singolo vettore w
dei pesi, viene sostituito da una funzione d’onda Ψ (w, t ) in uno spazio di Hilbert
le cui basi sono i vettori dei pesi w classici. La funzione d’onda rappresenta le
ampiezze di probabilità (in genere complesse) per tutti i possibili vettori dei pesi
nello spazio dei pesi insieme alla condizione di normalizzazione che, per ogni
istante t stabilisce che:
∫
∞
−∞
2
Ψ dw = 1
In questo modo il vettore dei pesi del perceptrone è stato sostituito da una
sovrapposizione quantica di molti vettori di pesi che al momento dell’interazione
88
Capitolo 6 – Quantum Neural Networks
con l’ambiente decorrono in un vettore di pesi classico, in accordo con le
2
probabilità date da Ψ .
Ad esempio consideriamo la funzione bipolare con un singolo input e un
singolo output, che inverte il suo input (NOT). Per semplicità facciamo in modo
che i pesi siano limitati:
− π < wj < π
Per fare in modo che il neurone impari questa funzione è necessario
trovare Ψ (w, t ) e la soglia ϑ . Assumiamo per semplicità che la Ψ(w, t ) è
invariante rispetto al tempo e concentriamo la nostra attenzione solo su w che in
questo caso è un vettore uni-dimensionale. Trovare Ψ significa risolvere un
problema uni-dimensionale della scatola rigida, comune a molti problemi
elementari di meccanica quantistica, le cui soluzioni sono della forma:
Ψ (w0 ) = A sin(
nπ
w0 )
a
dove A è la costante di normalizzazione, n = 1,2,3,…,w0 è il singolo
elemento di w e a = 2π (ma può essere anche diverso).
Ψ rappresenta l’ampiezza di probabilità di un dato vettore peso w. In un
neurone quantistico i vettori peso esistono in sovrapposizione coerente di tutti i
possibili vettori peso nello spazio dei pesi con ampiezza di probabilità diversa da
zero. Quando la sovrapposizione dei vettori peso interagisce con il suo ambiente
(ad esempio incontra un input) deve collassare in uno stato base – un vettore peso
classico entro i confini − π < w j < π , secondo una probabilità governata da | Ψ |2.
In caso di semplici funzioni come NOT e TRUE qualsiasi vettore peso
sia scelto al momento del collasso , si otterrà l’output corretto.
Questi sono casi semplici. Ma nache nel caso generale le soluzioni
saranno sempre equivalenti a quelle di un parallelepipedo n dimensionale in modo
Capitolo 6 – Quantum Neural Networks
89
che Ψ abbia sempre la forma generale riportata sopra. Questo non sarebbe vero in
generale se si usassero altri modelli fisici, come ad esempio oscillatori armonici o
atomo di idrogeno. Inoltre il tempo non è stato incorporato nelle funzioni.
Per quanto riguarda il training, si tratterà di variare Ψ , che è governata
dall’equazione di Schroedinger. In essa l’unica variabile che può essere cambiata
è il potenziale U, quindi Ψ può essere variata variando U. Si tratta ancora di
capire esattamente gli n, e anche quali operatori assicurino un corretto collasso
della funzione d’onda. Si dovrà trovare un operatore analogo ad una forma
matriciale per il vettore di input. Quindi l’idea della sovrapposizione lineare può
essere applicata non solo al vettore peso di un neurone, ma anche ai suoi input, ai
suoi output, e alla sua funzione di attivazione.
90
Capitolo 6 – Quantum Neural Networks
6.3
Dalla rete di Hopfield alla quantum associative memory
La rete di Hopfield permette di memorizzare dei vettori e richiamarli
successivamente, definiamo una rete di questo tipo “associativa”. Come si vedrà
più sotto il formalismo matematico delle reti neurali associative di Hopfield è
analogo al formalismo della teoria quantistica, a partire quindi da questo modello
è quindi possibile costruire, in via teorica, una memoria associativa quantistica.
Grazie a numerose simulazioni del modello quantistico di Hopfield è stata
effettivamente realizzata una memoria parallela, distribuita e indirizzabile in base
al contenuto, un riconoscimento di pattern in forma compressa e, limitatamente,
una capacità di predizione basata sul data set di apprendimento [Arb95, Ges90,
Hay94]. Il modello presentato qui di seguito è stato sviluppato da Perus [Per99].
6.3.1 Reti neurali associative
Il modello di rete neurale di Hopfield è descritto dalle seguenti equazioni
che rappresentano la dinamica dell’attività dei neuroni:
N
r
r
q i (t 2 = t 1 + δt) = ∑ J ij q j (t 1 ) oppure q(t 2 ) = Jq(t 1 )
(1)
i =1
a cui si associa la legge di apprendimento di Hebb definita dalle seguenti
equazioni:
P
P
r r
J ij = ∑ vik v kj oppure J = ∑ v k v kT
k =1
(2)
k =1
dove qi rappresenta l’attività corrente dell’i-esimo neurone. Lo stato della
r
rete con N neuroni è descritto da q = (q1 ,..., q N ) . vik rappresenta l’attività dell’i-
91
Capitolo 6 – Quantum Neural Networks
r
esimo neurone quando prende parte alla codifica del k-esimo memory pattern v k .
L’equazione (1) descrive la sommatoria dei segnali pesati dalla forza delle
connessioni sinaptiche (Jij) che un neurone riceve in ingresso da tutti gli altri
neuroni. L’equazione (2) stabilisce invece che la forza di ciascuna connessione
sinaptica viene aumentata quando i suoi due neuroni sono entrambi attivi o
inattivi, e viene diminuita se la loro attività risulta scorrelata. La matrice J della
(2) viene chiamata “matrice di memoria”.
Questo è uno dei più semplici algoritmi utili per la modellizazione del
cervello, per il data processing ed è quantisticamente implementabile.
Riscriviamo ora le equazioni (1) e (2) nella descrizione continua delle
r
attività dei neuroni e delle sinapsi alla posizione r e al tempo t:
r
r r r
r
q( r2 , t 2 = t 1 + δt) = ∫ J( r1 , r2 )q( r1 , t 1 )d r1
(1b)
P
r r
r
r
J( r1 , r2 ) = ∑ v k (r1 )v k (r2 )
(2b)
k =1
r
r
r
Il richiamo della memoria è effettuato da q output = Jq input = Jq ′ . Questo può
essere analizzato come segue:
r
r r
r
r
r
r  r
r
P
q( r2 , t 2 ) = ∫ J( r1 , r2 )q ′( r1 , t 1 )d r1 = ∫ ∑ v k ( r1 )v k ( r2 )q ′( r2 , t 1 )d r1 =
 k =1

r
r 1 r
r
r 2 r
1 r
2 r
∫ v (r1 )q ′(r1 , t 1 )dr1 v (r2 ) + ∫ v (r1 )q′(r1 , t 1 )dr1 v (r2 ) + ... +
[
]
... +
[
]
[∫ v (rr )q′(rr , t )drr ]v (rr ) = Av (rr ) + B
P
P
1
1
1
1
1
2
2
dove A = 1 (“segnale”), B = 0 (“rumore”)
r
Nella (4) dobbiamo scegliere un input q ′ che sia molto
r
piuttosto che agli altri v k con k ≠ 1 . Nello stesso tempo, l’input
r
essere ortogonale a tutti gli altri v k con k ≠ 1 . In questo caso,
r
r
all’attrattore v 1 e così v 1 è richiamato.
(4)
r
simile a v 1
r
q ′ dovrebbe
r
q converge
Capitolo 6 – Quantum Neural Networks
92
6.3.2 Reti neurali olografiche
Se al modello appena descritto aggiungiamo l’evoluzione oscillatoria
dell’attività neuronale otteniamo un modello biologicamente più plausibile
[Hak91, Sch94]. A questo punto le variabili della rete neurale diventano dei valori
complessi ( q j = q j 0 e
iϕ j
, dove ϕ j è la fase. Questo è molto simile alle dinamiche
quantistiche e presenta aspetti analoghi all’interferenza ottica olografica nel senso
di seguito descritto.
Sutherland, Manger, Soucek e altri [Sut&Al] hanno simulato con successo
la generalizzazione quantistica del modello di Hopfield con data set concreti. Il
risultato è un modello olografico di rete neurale che si pone a metà strada tra le
CLANN e le QNN.
Una sequenza di k coppie di vettori di input-output è stata utilizzata per
l’apprendimento. Ciascuna componente di input e di output oscilla con una
specifica ampiezza di attività e con una specifica fase. La k-esima coppia di inputoutput è la seguente:
k
k
k
r
vettore di input : s k = (s1k e iθ1 , s k2 e iθ 2 ,..., s kN e iθ N ) con i = - 1
k
k
k
r
vettore di output : o k = (o1k e iϕ1 , o k2 e iϕ 2 ,..., o kM e iϕ M )
Per codificare questi pattern, li lasciamo “interagire” in un modo che è
matematicamente equivalente all’interferenza ottica della “object wave” (OW) e
della “reference wave” (RW). Nell’olografia la OW è l’onda che è direttamente
riflessa dall’oggetto la cui immagine sarà memorizzata nell’ologramma. Nella
OW l’informazione della forma dell’oggetto è codificata o modulata. La RW è la
seconda onda riflessa dall’oggetto, ma è indiretta (ad esempio attraverso uno
specchio). Queste due onde, che trasportano le informazioni sull’oggetto da due
differenti punti di vista, vengono fatte interagire sulla placca olografica.
L’interazione costruttiva o distruttiva determina il grado locale di trasparenza
93
Capitolo 6 – Quantum Neural Networks
ottica della placca olografica, in modo che codifichi le correlazioni tra i pattern (le
componenti di memoria nel caso delle reti olografiche). Matematicamente, una
piccola porzione dell’onda è equivalente all’attività di un neurone, e l’interazione
delle onde è equivalente all’interazione tra neuroni con attività oscillatorie. Da
qui l’analogia tra reti neurali e olografia.
Utilizzando una legge di apprendimento analoga a quella di Hebb, simile
all’equazione (2), calcoliamo la forza di connessione tra due neuroni h e j:
N
J hj = ∑ s hk o kj e
− i (θ hk −ϕ kj )
k =1
P
r r
oppure j = ∑ o k ( s k * ) +
k =1
Ciascun Jhj codifica la sovrapposizione delle ampiezze delle correlazioni
degli input-output locali e le differenze di fase e angolazione nell’esponente. In
questo modo la matrice di tutte le correlazioni delle ampiezze moltiplicata con le
corrispondenti differenze di fase rappresenta un ologramma (ad esempio la
memoria).
Nel modello di rete olografica simulata da Sutherland, un pattern
memorizzato può essere ricostruito , analogamente all’equazione (4), facendo
interagire un input chiave con la memoria:
N
N P
r
r
-i(θ
o′ = J s ′ ⇔ ∑ J hjs′h e iθ′ =∑∑ s kh o kj e
h
h =1
k
k
h −ϕ j
h =1 k =1
)
s′h e iθ ′ = o j e
h
iϕ 1j
Il metodo di richiamo olografico di un pattern è simile in tutto e per tutto
al metodo di richiamo della rete di Hopfield classica.
6.3.3 Reti neurali associative quantistiche
A partire dai modelli appena descritti introduciamo il loro corrispettivo
quantistico, con le fasi ϕ implicitamente incorporate nelle funzioni d’onda
94
Capitolo 6 – Quantum Neural Networks
Ψ = Aexp(iϕ ) con A ampiezza. Le equazioni della rete neurale vengono
semplicemente “tradotte” in un formalismo quantistico in modo da preservare la
capacità di information-processing. Consideriamo le seguenti corrispondenze
( ⇔ ):
q⇔Ψ
q′ ⇔ Ψ ′
vk ⇔ ψ k
J⇔G
Tenendo conto di questa lista di corrispondenze, tutte le descrizioni fatte
per le reti neurali classiche e olografiche sono anche valide nel modello
quantistico.
Per prima cosa vengono codificati i pattern in specifici stati quantici,
quindi gli stati vengono fatti interagire tra di loro in modo da creare una memoria
quantica, ed infine per ricostruire un pattern quantico è necessario che lo stato,
descritto dalla funzione d’onda, collassi.
La dinamica dell’interazione degli stati quantici è descritta dalla seguente
equazione:
r
r
r
r
r
Ψ ( r2 , t 2 ) = ∫∫ G( r1 , t 1 , r2 , t 2 )Ψ ( r1 , t 1 )d r1 dt oppure Ψ (t 2 ) = GΨ (t 1 )
1
(7)
con (7) ⇔ (1)
L’apprendimento della rete è dato da:
P
P
r
r
r r
r
r
r
r
G( r1 , t 1 , r2 , t 2 ) = ∑ψ k (r1 , t1 ) * ψ k (r2 , t 2 ) oppure G( r1 , r2 ) = ∑ψ k (r1 ) * ψ k (r2 ) (8)
k =1
k =1
con (8) ⇔ (2)
con ψ k stati energeticamente stabili. Supponiamo quindi di aver
95
Capitolo 6 – Quantum Neural Networks
codificato una qualche informazione all’interno di essi: le funzioni d’onda sono
diventate dei “quantum pattern”. In questo caso la matrice G costituisce la
cosiddetta “quantum memory”.
Come per le reti neurali classiche, il processo di apprendimento è il
r
risultato dell’interazione quantistica di qubits, descritto dalla funzione Ψ ( r , t) .Le
r
r
interazioni sono descritte dai pesi G( r1 , t1 , r2 , t 2 ) che sono gli elementi della
matrice G.
Il metodo di richiamo della quantum memory è simile alla (4):
r
r r
r
r
r
r  r
r
P
Ψ ( r2 , t 2 = t 1 + δ t) = ∫ G( r1 , r2 )Ψ ′( r1 , t 1 )d r1 = ∫ ∑ψ k ( r1 ) *ψ k ( r2 )ψ ′( r1 , t 1 )d r1 =
 k =1

r
r 1 r
r
r 2 r
1 r *
2 r *
∫ψ (r1 ) Ψ ′(r1 , t 1 )d r1 ψ (r2 ) + ∫ψ (r1 ) Ψ ′(r1 , t 1 )dr1 ψ (r2 ) + ... +
[
]
[
[
]
]
r
r
r
r
r
... + ∫ψ P ( r1 ) * Ψ ′( r1 , t 1 )d r1 ψ P ( r2 ) = Aψ 1 ( r2 ) + B
dove A = 1 (“segnale”), B = 0 (“rumore”)
(9)
con (9) ⇔ (4)
Nella (9) è necessario scegliere un input Ψ ′ che sia molto simile a ψ 1 . Se
la condizione, che l’input deve essere simile ad uno dei pattern memorizzati, non
viene soddisfatta, la risposta della rete non sarà univoca.
Capitolo 6 – Quantum Neural Networks
6.4
96
La simulazione del modello quantistico
La necessità di creare un modello di rete neurale quantistica nasce
direttamente dal progetto di interfaccia neurone-silicio per confrontare i risultati
teorici di evoluzione della rete con i risultati delle misurazioni delle cellule
staminali. Questo confronto ci permetterà di capire, o di intuire, se i neuroni
hanno un comportamento quantistico oppure si comportano solo classicamente.
6.4.1 Il nostro modello
La rete neurale quantistica è costituita da 8 qubit totalmente connessi e
inizializzati in modo random. Lo spazio di Hilbert su cui la rete opera è quindi di
28.
Figura 1: La rete neurale quantistica con 8 bit
97
Capitolo 6 – Quantum Neural Networks
Lo stato iniziale della rete è definito dal prodotto tensoriale dei qubit ed è
un vettore unitario costituito da 28 elementi:
 ... 
 
 ... 
qbit1 ⊗ qbit2 ⊗ ... ⊗ qbit8 =  ...  28 elementi
 
 ... 
 ... 
 
}
0
 
1
0
 
1 1 0 0
001 =   ⊗   ⊗   =  
0 0 1 0
0
 
0
0
 
Figura 2: Prodotto tensoriale di 3 qubit
La rete evolve in modo asincrono operando localmente di volta in volta su
una coppia di qubit scelti a caso, secondo la seguente trasformazione unitaria:
00
α 00 + β 11
01
δ 01 + γ 10
10
γ 10 − δ 01
11
α 11 − β 00
Con α, β, δ, γ, parametri complessi. Negli stati 01 e 10 i parametri δ e
γ possono essere settati a seconda delle necessità ma sempre rispettando il vincolo
di unitarietà:
98
Capitolo 6 – Quantum Neural Networks
2
δ +γ
2
2
=α +β
2
=1
La matrice unitaria che opera la trasformazione sui due qubit scelti a caso
è una matrice di dimensione 22x 22:
α 0 0

0 δ γ
T̂ = 
0 γ −δ

β 0 0

−β

0 
0 

α 
La matrice T̂ si ottiene dalla combinazione lineare delle seguenti quattro
matrici insieme ai parametri α, β, δ, γ:
1 0

 = 
 0 0
0 1

B̂ = 
0 0
0 0

Ĉ = 
0 1
0 0

D̂ = 
1 0
T̂ =
(αÂ) ⊗  + (γÂ) ⊗ Ĉ − ( β B̂) ⊗ B̂ + (γB̂) ⊗ D̂ +
+ (γD̂) ⊗ B̂ + ( β D̂) ⊗ D̂ - (δĈ) ⊗ Â + (αĈ) ⊗ Ĉ
Le matrici unitarie  , B̂ , Ĉ , D̂ , operano ciascuna localmente su un solo
qubit, infatti la loro dimensione è di 21 x 21. Lo stato degli altri sei qubit della rete
rimane lo stesso, infatti su ognuno di essi opera localmente la matrice identità.
99
Capitolo 6 – Quantum Neural Networks
 1 0

Î = 
0 1
La trasformazione globale dell’intera rete è una matrice 28 x 28 Γ̂ , ottenuta
moltiplicando tensorialmente coppie di matrici
 , B̂ , Ĉ , D̂ , con 6 matrici
identità Î , rispettando nel prodotto la posizione dei 2 neuroni che interagiscono e
combinando linearmente questi prodotti con i parametri α, β, δ, γ.
Ad esempio la trasformazione globale di una rete costituita da 4 qubit in
cui è stata scelta la coppia di qubit (1,4) è la seguente:
Qubit 1
Qubit 2
Qubit 3
Qubit 4
Γ̂ =
(αÂ) ⊗ Î ⊗ Î ⊗  + (γÂ) ⊗ Î ⊗ Î ⊗ Ĉ − ( β B̂) ⊗ Î ⊗ Î ⊗ B̂ + (γB̂) ⊗ Î ⊗ Î ⊗ D̂ +
+ (γD̂) ⊗ Î ⊗ Î ⊗ B̂ + ( β D̂) ⊗ Î ⊗ Î ⊗ D̂ - (δĈ) ⊗ Î ⊗ Î ⊗ Â + (αĈ) ⊗ Î ⊗ Î ⊗ Ĉ
{}
La sequenza di trasformazioni Γ̂i associate alle scelte casuali dei 2 qubit
fa evolvere la rete in modo quantistico unitario:
Ψ = ∏ Γˆ i Ψ0
i
dove Φ 0 è lo stato classico iniziale della rete, fino al momento in cui
avviene l’osservazione dello stato globale e il conseguente collasso della funzione
d’onda (evoluzione non unitaria). Quindi la rete assume uno degli stati classici
100
Capitolo 6 – Quantum Neural Networks
{Φ } con probabilità data dal modulo quadrato dell’ampiezza
j
cj
2
dello stato
nella scomposizione lineare
Ψ = ∑c jΦ j
j
Questo modello è compatibile con la teoria di Penrose-Hameroff [Pen89]
[Pen94].
6.4.2 L’algoritmo
L’algoritmo che simula l’evoluzione della rete quantistica neurale è il
seguente:
Inizializzazione della rete
1) Inizializzazione degli 8 qubit.
2) Inizializzazione dei parametri α, β, δ, γ con α=1, β=0, δ = γ = 1
2
3) Prodotto tensoriale degli 8 qubit che definisce un vettore di partenza di
28 componenti che rappresenta lo stato quantistico iniziale della rete
neurale.
Evoluzione quantistica della rete
4) Selezione random della coppia di qubit.
5) Calcolo della matrice unitaria Γ̂ che opera la trasformazione globale
della rete neurale in base alla coppia di qubit selezionata al passo 4.
6) Calcolo del nuovo stato quantistico della rete ottenuto dal prodotto
scalare della matrice Γ̂ per il vettore di stato.
7) I passi 4, 5 e 6 vengono ripetuti N volte.
Capitolo 6 – Quantum Neural Networks
101
 a b   x   ax + by 

.  = 

 c d   y   cx + dy 
Figura 3: Prodotto scalare di una matrice per un vettore
Osservazione e collasso della funzione d’onda
8) Estrazione casuale dal vettore di stato della componente classica jesima con probabilità di estrazione |cj|2.
9) Aggiornamento del vettore di stato: la componente j-esima estratta
viene posta uguale a 1 e tutte le altre componenti del vettore vengono
poste a 0. Questo equivale a porre Ψ = Φ j .
10) Si ripetono i passi dal 4 al 9 per K volte.
Capitolo 6 – Quantum Neural Networks
102
6.4.3 L’implementazione del modello
L’algoritmo è stato implementato utilizzando il pacchetto software
Mathematica 4.0. Questo pacchetto ci ha permesso di evitare l’implementazione
di operazioni matriciali e quantistiche e di concentrarci principalmente sullo
sviluppo dell’algoritmo stesso.
Inizializzazione della rete
Capitolo 6 – Quantum Neural Networks
Evoluzione quantistica della rete
103
Capitolo 6 – Quantum Neural Networks
Osservazione e collasso della funzione d’onda
104
105
Capitolo 6 – Quantum Neural Networks
6.5
Alcuni output
0
Configurazione di partenza (a): q i =   con i = 1..8
1
1
Configurazione di partenza (b): q i =   con i = 1..8
0
Tutti i qubit sono impostati a 1 (a) e a 0 (b)
Il vettore che definisce lo stato iniziale (a) è: 11111111
Il vettore che definisce lo stato iniziale (b) è: 00000000
Output (b)
Output (a)
1
11111111
1
00000000
2
11111111
2
00000000
3
11111111
3
00000000
4
11111111
4
00000000
5
11111111
5
00000000
6
11111111
6
00000000
7
11111111
7
00000000
8
11111111
8
00000000
9
11111111
9
00000000
10
11111111
10
00000000
11
11111111
11
00000000
12
11111111
12
00000000
13
11111111
13
00000000
14
11111111
14
00000000
15
11111111
15
00000000
16
11111111
16
00000000
17
11111111
17
00000000
18
11111111
18
00000000
19
11111111
19
00000000
20
11111111
20
00000000
106
Capitolo 6 – Quantum Neural Networks
1
Configurazione di partenza: q1 = q3 = q4 = q5 =  
 0
0
q2 = q6 = q7 = q8 =  
1
Il vettore che definisce lo stato iniziale è: 01000111
Output
1
01010110
2
00010111
3
11110000
4
11110000
5
01000111
6
01101001
7
00111001
8
00111001
9
01101010
10
01111000
11
10111000
12
10101001
13
00101011
14
10010011
15
00100111
16
01100110
17
01000111
18
11000011
19
00011011
20
10100011
107
Capitolo 6 – Quantum Neural Networks
1
Configurazione di partenza: q3 = q5 = q7 =  
0
0
q1 = q2 = q4 = q6 = q8 =  
1
Il vettore che definisce lo stato iniziale è: 11010101
Output
1
11010011
2
11101001
3
01110101
4
01110011
5
01101011
6
01011011
7
11001110
8
11011010
9
11110010
10
11010011
11
01110011
12
10101110
13
00101111
14
00101111
15
01100111
16
01100111
17
01101011
18
11000111
19
11001101
20
01100111
Ad ogni passo la rete viene fatta evolvere quantisticamente per N=10 volte
prima dell’osservazione e quindi del collasso della funzione d’onda. Il tutto viene
ripetuto per K=20 volte. Quando i qubit assumo tutti lo stesso valore, 0 o 1, la rete
rimane in uno stato di equilibrio.
Capitolo 7
Il progetto
7.1 La scheda di acquisizione dati
L’interfacciamento tra il circuito neurale composto da cellule biologiche e
le applicazioni software necessarie per l’elaborazione dei segnali provenienti dal
suddetto circuito è stato realizzato con l’ausilio di un dispositivo di acquisizione
dati.
Il dispositivo che si è scelto è il Personal Daq/56 dell’IOTECH (figura 1).
Figura 1: Dispositivo Personal Daq/56
Esso è un apparecchio per l’acquisizione dei dati che si avvale dell’utilizzo
della porta USB. Tanto più il dispositivo si avvicina al punto della misurazione,
maggiore sarà l’esattezza dei dati ottenuti, poichè meno inquinati dal rumore; per
109
Capitolo 7 – Il progetto
questo motivo l’apparecchio può essere situato fino a cinque metri di distanza dal
computer al quale è collegato.
Il collegamento tra il Personal Daq e il Personal Computer avviene
attraverso la porta USB che è in grado di garantire sia l’alta velocità di
comunicazione sia l’alimentazione al dispositivo.
E’ possibile utilizzare più dispositivi Personal Daq collegati tra loro in
cascata
a
seconda
del
numero
di
segnali
che
si
devono
trattare
contemporaneamente. Negli esperimenti sviluppati nel corso del lavoro che si sta
descrivendo, è stato necessario analizzare un massimo di otto canali, quindi è
bastato un unico dispositivo.
La scheda di acquisizione è dotata di due porte digitali ognuna composta
da otto canali dai quali si possono inviare i segnali provenienti dal computer verso
l’esterno; e da due porte analogiche, ciascuna formata da cinque canali
differenziali (o dieci asimmetrici), dai quali, invece, è stato possibile acquisire i
segnali elettrici provenienti dal circuito esterno.
7.1.1 Caratteristiche tecniche
Il collegamento con USB
Il collegamento con la porta USB risulta ideale per le applicazioni di
acquisizione dati. Attraverso esso è possibile sia fornire l’alimentazione alla
periferica collegata sia disporre di un’alta velocità di trasferimento dei dati che
permette l’acquisizione in tempo reale senza avere la necessità di aggiungere una
memoria supplementare nel dispositivo di acquisizione.
Il collegamento USB sostiene i dati di trasferimento fino a 12 Mbytes al
secondo.
Isolamento ottico
Il dispositivo Personal Daq/56 è isolato otticamente dall’elaboratore che lo
ospita. Uno sbalzo di tensione eventualmente applicato alla scheda di
Capitolo 7 – Il progetto
110
acquisizione, non avrà dunque nessun effetto sul personal computer e ciò permette
di effettuare misure più esatte e non intaccate da un eventuale rumore.
Intervalli di input
E’ possibile selezionare gamme di valori differenti per ogni canale di
acquisizione. Un canale, ad esempio, può essere utilizzato per la tensione (volt) ed
un altro per la temperatura. Il software associato al Personal Daq imposta
automaticamente le unità di misura appropriate per il tipo di parametro
selezionato.
L’intervallo massimo della tensione di input varia tra -10 V e +20 V
L’intervallo minimo di tensione di input varia tra -31 mV e +31 mV.
Configurazione Analogica degli input
Il dispositivo Personal Daq comprende dieci canali per l’acquisizione di
input analogici che possono essere utilizzati tutti in modo asimmetrico, in modo
differenziale o come come combinazione degli input asimmetrici e differenziali
con, al massimo, dieci collegamenti.
Il numero di canali dell'entrata analogica può essere aumentato utilizzando
uno o più moduli di espansione. Esistono due tipi di moduli di espansione: il
primo tipo permette di aggiungere venti input asimmetrici (o dieci differenziali),
un secondo tipo aggiunge quaranta input asimmetrici (oppure venti differenziali).
Input/Output digitale
Ognuno dei canali digitali può essere programmato come canale
d’ingresso o come canale di uscita.
Le linee digitali possono essere acquisite come componenti di
un’eventuale sequenza analogica e possono essere lette oltre cento volte al
secondo; le linee di uscita possono essere aggiornate in qualunque momento
dell’acquisizione. [Daq01]
Capitolo 7 – Il progetto
111
7.2 L’applicazione
Poiché il software DaqView associato al dispositivo hardware non prevede
la possibilità di impostare sequenze cicliche di invio di segnali digitali di output, è
stato necessario creare un’applicazione “ad hoc” per le nostre necessità.
Per realizzare le procedure che implementano l’interfaccia e la gestione
della scheda di acquisizione si sono utilizzate le funzioni di gestione della
periferica contenute nel file pdaqx.dll
L’applicazione è stata realizzata nel linguaggio Pascal ad Oggetti in
ambiente Delphi. Sono state implementate soltanto le funzionalità di supporto alle
misurazioni realmente eseguite e descritte nel capitolo successivo.
7.2.1 Inizializzazione della scheda di acquisizione
L’inizializzazione della periferica stabilisce un canale di comunicazione
tra l’applicazione e la scheda di acquisizione dati. L’apertura di tale canale fa sì
che nessun’altra applicazione possa interfacciarsi con la periferica prima che sia
avvenuta la sua chiusura.
L’inizializzazione è realizzata attraverso la sezione di codice che segue.
daqGetDeviceCount(@deviceCount);
daqGetDeviceList(@deviceList[0], @deviceCount);
UnitData.handle := -1;
for deviceIndex := 0 to (deviceCount) do
begin
daqGetDeviceProperties(deviceList[deviceIndex].daqName, @deviceProps);
if ((deviceProps.deviceType = PersonalDaq55) or
(deviceProps.deviceType = PersonalDaq56)) then
begin
UnitData.handle := daqOpen(deviceList[deviceIndex].daqName);
break;
end;
end;
112
Capitolo 7 – Il progetto
La procedura daqGetDeviceCount rileva quante periferiche sono collegate
e ad ognuna di esse la procedura daqGetDeviceList assegna un nome.
Se il valore del parametro handle restituito dalla suddetta procedura è -1 la
periferica ha generato un errore e l’applicazione viene terminata, in caso contrario
il dispositivo viene aperto attraverso la procedura daqOpen creando il canale di
comunicazione per lo scambio di dati che rimmarrà attivo fino a che non si esegue
la procedura daqClose.
7.2.2 Acquisizione analogica
La finestra dell’applicazione che gestisce la lettura dei segnali provenienti
dal circuito esterno è rappresentata in figura 2.
Figura 2: Schermata dell’acquisizione
E’ possibile impostare il numero di canali analogici da cui si desidera
acquisire dati, la frequenza di lettura, espressa in Hz, e il numero di scansioni per
113
Capitolo 7 – Il progetto
la frequenza impostata; la combinazione di questi ultimi due parametri determina
la durata della lettura. Esiste inoltre la possibilità di specificare il nome del file in
cui salvare i risultati dell’operazione di acquisizione.
Se la sequenza di istruzioni di inizializzazione è avvenuta con successo nel
seguito del programma ci si riferirà al dispositivo di acquisizione dati attraverso il
suo handle impostato in fase di inizializzazione.
Vengono ora descritte le principali istruzioni che permettono la lettura sui
canali analogici.
Inizialmente è necessario impostare una serie di parametri utili per
configurare il tipo di acquisizione.
L’acquisizione viene settata per poter leggere da zero a scancount (numero
di scan impostati dall’utente)
daqAdcSetAcq(UnitData.handle, DaamNShot, 0, ScanCount);
La frequenza di acquisizione viene assegnata uguale al valore freq
determinato dall’utente.
daqAdcSetRate(UnitData.handle, DarmFrequency, DaasPostTrig, freq, @actualRate);
Successivamente viene configurato un buffer buf per la memorizzazione
dei dati analogici letti.
daqAdcTransferSetBuffer(UnitData.handle, buf, scanCount, DatmWait);
Infine, la procedura
daqAdcArm(UnitData.handle);
attiva la possibilità di effettuare il trasferimento di dati;
solo quando viene
invocata la procedura
daqAdcTransferStart(UnitData.handle);
il suddetto trasferimento ha effettivamente inizio.
7.2.3 Scrittura digitale
La finestra dell’applicazione che gestisce l’invio di segnali digitali verso il
Capitolo 7 – Il progetto
114
circuito esterno è rappresentata in figura 3.
Figura 3: Schermata dell’invio di bitmap
Attraverso tale interfaccia è possibile disegnare il tipo di bitmap che si
desidera inviare alla scheda; impostare il numero di cicli della sequenza scelta, il
tempo di attesa (in ms) tra due sequenze successive e il nome del file in cui
salvare la configurazione inviata. Anche se le bitmap sono rappresentate da nove
celle in realtà soltanto otto di esse risultano significative per la descrizione
dell’immagine. La cella centrale che corrisponderebbe al canale nove viene
ignorata, per semplicità; considerare otto canali (un byte) semplifica notevolmente
i calcoli.
La seguente sezione di codice esegue l’invio dei segnali sul dispositivo
Personal Daq/56 collegato.
for i:=1 to contBitmap do
begin
daqIOWrite(UnitData.handle, DiodtPDaqDigIO, DiodpPDaqPort1, 0, DioepP1, digVal[i]);
delay(intervallo);
Capitolo 7 – Il progetto
115
daqIOWrite(UnitData.handle, DiodtPDaqDigIO, DiodpPDaqPort1, 0, DioepP1, 0);
delay(intervallo);
end;
La procedura daqIOWrite invia contemporaneamente sugli otto canali
digitali della porta DiodpPDaqPort1 la bitmap digVal[i]
Il ciclo viene eseguito per tutte le bitmap “disegnate” dall’utente; i segnali
che descrivono una bitmap vengono inviati per il tempo (in ms) specificato dalla
costante intervallo.
Capitolo 7 – Il progetto
116
7.3 Il “circuito vivente”
7.3.1 Realizzazione circuitale
La connessione diretta neuroni-PC ha comportato una serie di problemi
non facilmente risolvibili con i pochi mezzi attualmente a disposizione. Il
problema principale è stata la perfetta realizzazione di un interfacciamento
neurone/elettrodo, indispensabile per estrarre ed inviare i segnali elettrici
necessari.
Il problema della giunzione tra neurone ed elettrodo, è di fondamentale
importanza: i materiali utilizzati devono essere biocompatibili con l’ambiente di
coltura dei neuroni, e gli stessi devono attecchire in modo solidale all’elettrodo
per avere la massima conducibilità.
Inizialmente, si è provato a creare colture di neuroni su un supporto di
Kapton (film in polyimide utilizzato per cavi in avionica) equipaggiato d’elettrodi
in lega di tungsteno.
Il suddetto materiale risultava biocompatibile con la coltura ma le grosse
dimensioni degli elettrodi impedivano ai neuroni di innestarsi in modo efficace,
probabilmente per problemi d’elettrolisi i neuroni migravano lontano dagli
elettrodi.
Si sono provati altri materiali quali dei PCB (printed circuit board)
utilizzati in elettronica per la connessione dei vari componenti, ma i risultati sono
stati deludenti poiché la non trasparenza del supporto impediva il controllo al
microscopio della cultura.
Successivamente è stato reperito un supporto idoneo allo scopo (Figura 4).
Esso è costituito da un disco in vetro dove sono riportati dei piccoli elettrodi in
tungsteno.
Ogni singolo elettrodo è connesso tramite una sottile pista isolata ad una
piazzola adibita al collegamento esterno del sistema.
117
Capitolo 7 – Il progetto
Il disco comprende quattro parti, ognuna delle quali è a sua volta suddivisa
in cinque piccole aree contenenti circa tredici elettrodi ciascuna (Figura 4).
Figura 4: Sezione di un’area del supporto hardware
Approssimativamente il numero totale degli elettrodi presenti sull’intero
disco ammonta a circa 300 connessioni.
La distanza tra gli elettrodi (Figura 5) varia in funzione del layout presente
in ogni singola area, mediamente tale distanza si aggira tra i 70 e 100 µm.
Figura 5: Elettrodi presenti in ogni area
Capitolo 7 – Il progetto
118
Gli esperimenti
Sulla base dei risultati precedenti, ottenuti da una precedente tesi di laurea,
si sono realizzati ulteriori esperimenti. Per questo scopo si è utilizzato sempre lo
stesso supporto per realizzare la giunzione dei neuroni con il mondo esterno e su
di esso sono state installate quattro vaschette per le colture in modo da realizzare
più esperimenti contemporaneamente (Figura 6).
Figura 6: Supporto hardware gli esperimenti
È stata rimossa la morsettiera e sostituita con un connettore con 40 pin. Il
cavo di collegamento è un conduttore flat a 40 conduttori schermato contro le
emissioni EMI.
In figura 7 è descritta la configurazione circuitale delle quattro aree del
suppporto hardware di figura 6. La prima area ha permesso di rifare l’esperimento
della rete di Kohonen; la seconda e la terza sono state realizzate per un
esperimento di non località quantistica e la quarta è utilizzata solo per prove di
conducibilità dei liquidi di coltura; la seconda area, inoltre, è destinata a ricreare
una rete di Hopfield: sono stati selezionati nove elettrodi tra quelli presenti, e sono
stati collegati al connettore, otto di essi rappresenteranno i canali verso cui inviare
e ricevere i segnali sui nodi della rete di Hopfield, mentre uno è necessario per
depolarizzare il circuito.
Capitolo 7 – Il progetto
119
Figura 7: Schemi circuitali del secondo esperimento
Il circuito elettronico del generatore di pattern è stato completamente
rifatto (figura 8). Tale circuito non necessita di un microprocessore, ma riceve i
pattern direttamente dalla porta digitale della scheda d’acquisizione e fornisce in
uscita le corrette tensioni da inviare ai neuroni. Per evitare il problema
dell’elettrolisi ogni bit generato è preceduto da un impulso negativo avente lo
scopo di depolarizzare l’elettrolita della cultura. È stato migliorato il generatore di
tensione costante che prevede in uscita, su ogni singolo segnale, un circuito
operazionale che si preoccupa di generare gli impulsi necessari.
La nuova configurazione circuitale consente di mantenere costante la
tensione d’uscita mantenendola perfettamente squadrata e livellata. E’ possibile
variare la tensione in uscita, sia positiva sia negativa separatamente, da un minimo
di 5 mV ad un massimo di 100 mV.
Capitolo 7 – Il progetto
120
Figura 8: Circuito elettronico per il controllo della tensione
7.3.2 Il materiale biologico
Anche se fino a questo momento si è parlato di neuroni per indicare la
materia biologica utilizzata negli esperimenti, è doveroso fare alcune precisazioni.
All’interno della vaschetta costruita attorno al circuito elettrico (Figura 6) è stato
inserito un liquido all’interno del quale sono presenti una certa percentuale di
cellule nervose: neuroni, astrociti e oligodendrociti.
Le suddette cellule nervose sono state ricavate a partire da cellule
staminali prelevate da tessuti cerebrali di feti che hanno subito aborti spontanei.
[Gr&Al]
Le cellule staminali sono state poste in una soluzione progettata ad “hoc”
per favorirne il differenziamento e dopo alcuni giorni quando, seppur non ancora
mature, possono dirsi cellule nervose, vengono inserite in un liquido di coltura: un
composto organico basato su siero bovino con ph neutro che contiene delle
sostanze indispensabili per il nutrimento delle cellule.
E’ da notare che a causa degli strumenti messi a disposizione per questi
esperimenti, non è stato possibile collocare le cellule esattamente nei punti
desiderati; in sostanza, le architetture elettriche realizzate hanno costituito una
sorta di letto sul quale sono state depositate le cellule che hanno potuto, così,
Capitolo 7 – Il progetto
121
creare collegamenti tra loro al di là di quelli elettrici. Tuttavia si ritiene che questo
non snaturi gli esiti degli esperimenti per i seguenti motivi:
•
Nel modello di rete presentato da Kohonen i neuroni disposti sullo
strato competivo sono tra loro connessi e stabiliscono delle relazioni
di vicinato tali per cui un segnale che arriva ad uno solo di essi si
propaga anche in un certo intorno. I segnali d’uscita, inoltre,
vengono prelevati da un elettrodo ben preciso il quale, fornisce
l’attività delle cellule realmente poste su di esso.
•
Nel modello di Hopfield i neuroni sono tutti interamente
interconnessi quindi, le connessioni che si stabiliscono tra le cellule
nervose corrispondono alle connessioni presenti nel modello
software.
Capitolo 8
Gli esperimenti
8.1
L’esperimento sulla rete di Hopfield
Il primo esperimento condotto è stato finalizzato allo studio del modello di
Hopfield descritto nei paragrafi 5.3 e 6.3. Questo modello è in grado di
classificare semplici pattern come quelli qui riportati, anche affetti da rumore:
PATTERN “0”
PATTERN “1”
POSSIBILI PATTERN “0”
POSSIBILI PATTERN “1”
123
Capitolo 8 – Gli esperimenti
Le nove celle che formano il pattern (o bitmap) corrispondono ai nove
neuroni costituenti la rete e che sono collegati con la porta digitale della scheda di
acquisizione secondo il seguente schema:
1
8
7
2
9
6
3
4
5
Il canale/neurone contrassegnato dal numero 9 sarà sempre lasciato al
valore 0; questo ci permette di lavorare soltanto con 8 canali/neuroni (1 byte) che
dal punto di vista elaborativo semplifica di molto il lavoro.
La bitmap “0” è costituita dalla sequenza
{1,1,1,1,1,1,1,1}
La bitmap “1” è costituita dalla sequenza
{0,0,0,0,1,1,1,1}
Le possibili bitmap “0” sono costituite dalle sequenze
{0,1,1,1,0,1,1,1}
{0,1,1,1,1,1,1,1}
{1,1,1,1,1,1,0,1}
Le possibili bitmap “1” sono costituite dalle sequenze
{0,0,0,0,1,1,1,0}
{0,0,0,0,0,1,1,1}
{0,0,0,1,1,1,1,0}
Le misurazioni sulle uscite sono state effettuate dopo la stimolazione delle
cellule. L’invio di un bit 0 sul canale equivale a non inviare nulla, mentre mandare
un bit 1 significa far passare una tensione di 35 mV.
Capitolo 8 – Gli esperimenti
8.2
124
Analisi dei risultati
8.2.1 Analisi qualitativa dei segnali
Per prima cosa è stata effettuata una lettura sulle cellule prima che fossero
sottoposte a qualsiasi stimolo: i risultati di questa misurazione sono visibili nella
figura 1.
Misurazione prima della stimolazione
0,08
0,06
0,04
Canale 1
0,02
Canale 2
V
Canale 3
0
Canale 4
Canale 5
-0,02 1
94
187 280 373 466 559 652 745 838 931
Canale 6
Canale 7
Canale 8
-0,04
-0,06
-0,08
Figura 1: Misurazione libera delle cellule
Successivamente le cellule sono state stimolate da differenti pattern:
bitmap miste, bitmap “0”, bitmap “0” con rumore, bitmap “1” e bitmap “1” con
rumore. In ogni esperimento la sequenza di bitmap è stata presentata 50 volte alla
frequenza di 40 hz, fase di training; dopo ogni fase di training sono state effettuate
50 letture dell’output per confrontare il comportamento classico e quantistico
della rete neurale.
125
Capitolo 8 – Gli esperimenti
Nel primo esperimento le cellule sono state stimolate per 50 volte alla
frequenza di 40 hz, con sei diverse sequenze che rappresentano bitmap “0”, “1”,
possibili “0” e possibili “1”. I risultati ottenuti sono visibili in figura 2.
Sequenza
Pattern
11111111
=
0
00001111
=
1
10111111
=
Possibile 0
10011111
=
Possibile 0
00001110
=
Possibile 1
00000111
=
Possibile 1
0,08000
0,06000
0,04000
0,02000
-0,04000
Figura 2: Misurazione bitmap miste
46
41
36
31
26
21
16
11
6
-0,02000
1
0,00000
126
Capitolo 8 – Gli esperimenti
Poi si presenta alle cellule una sequenza di bitmap “0” per 50 volte, alla
frequenza di 40 hz, quindi vengono effettuate 50 letture. I risultati sono visibili in
figura 3.
0,08000
0,06000
0,04000
0,02000
49
45
41
37
33
29
25
21
17
13
9
5
-0,02000
1
0,00000
-0,04000
-0,06000
Figura 3: Misurazione bitmap "0"
A questo punto si presenta alle cellule 50 volte e alla frequenza di 40 hz
una bitmap “0” affetta da rumore. Vengono quindi effettuate le 50 letture
sull’output. I risultati sono visibili nella figura 4.
0,04000
0,02000
-0,04000
-0,06000
Figura 4: Misurazione bitmap "0" con rumore
49
45
41
37
33
29
25
21
17
9
13
-0,02000
5
1
0,00000
127
Capitolo 8 – Gli esperimenti
L’esperimento successivo consiste nel presentare alle cellule sempre per
50 volte e alla frequenza di 40 hz, la bitmap “1”. Dopo la fase di training sono
state effettuate le 50 letture dell’output. I risultati sono visibili in figura 5.
0,04000
0,02000
46
41
36
31
26
21
16
-0,02000
11
6
1
0,00000
-0,04000
-0,06000
Figura 5: Misurazione bitmap "1"
Infine l’ultima fase consiste nel presentare alle cellule 50 volte e alla
frequenza di 40 hz, la bitmap “1” affetta da rumore. Le 50 misurazioni effettuate
sull’output sono visibili nella figura 6.
0,04000
0,02000
-0,04000
-0,06000
Figura 6: Misurazione bitmap "1" con rumore
46
41
36
31
26
21
16
11
-0,02000
6
1
0,00000
Capitolo 8 – Gli esperimenti
128
8.2.2 I metodi di analisi
I segnali misurati sono stati successivamente elaborati utilizzando la
Recurrence Quantification Analysis. Questo strumento di analisi non lineare si
basa sullo studio di serie temporali ricostruite con delay-time embedded, ossia
estese in uno spazio multi dimensionale. Si ottiene così uno spazio delle fasi in cui
la serie temporale è il sistema dinamico da analizzare.
Una volta ricostruita la serie si possono usare dei Recurrence Plots per
mostrare quali vettori, nello spazio ricostruito, sono lontani o vicini tra loro.
Vengono calcolate le distanze euclidee tra tutti gli accoppiamenti tra i vettori e
queste vengono poi codificate attraverso dei colori.
Essenzialmente, il Recurrence Plot è una tabella di codici di colori, in cui i
colori caldi (giallo, rosso ed arancio) possono essere associati con le piccole
distanze fra i vettori, mentre i colori freddi (azzurro, nero) possono essere usati
per mostrare le grandi distanze.
Per segnali random la distribuzione dei colori è completamente uniforme.
Quanto più deterministico è il segnale, tanto più strutturato sarà il Recurrence
Plot. In pratica il determinismo del segnale è dato dall’ampiezza delle porzioni di
spazio in cui il sistema si sofferma più a lungo rispetto alla casualità.
8.2.3 I risultati precedenti
L’analisi qualitativa dei segnali dei precedenti esperimenti ha fatto
emergere alcuni interessanti risultati: a valori graficamente simili, cioè quando
vengono inviate bitmap che si assomigliano, corrispondono valori simili
nonostante le tensioni applicate agli ingressi non siano molto differenti. In
corrispondenza dell’invio della bitmap “0”, costituita dalla sequenza di soli bit 1
che corrispondo quindi a valori “alti” di tensione, le cellule rispondono con valori
di tensione “bassi”: a rendere più notevole questo comportamento si aggiunge il
fatto che il liquido di coltura si comporta come conduttore e quindi all’invio della
bitmap “0” risponde con valori alti.
129
Capitolo 8 – Gli esperimenti
Al termine della stimolazione si è osservato che l’andamento dei segnali
risulta molto diverso da quello iniziale, cioè prima della stimolazione. Si nota
come le cellule abbiamo rinforzato il proprio segnale mostrando quindi la capacità
di immagazzinamento dell’informazione.
Attraverso la Recurrence Quantification Analysis sono stati ottenuti i
grafici di figura 7, 8, 9 e 10.
Figura 7: Il segnale prima della fase di
training
Figura 9: Il segnale dopo la fase di training
Figura 8: Il segnale durante la fase di training
Figura 10: Il segnale alla fine delle
stimolazioni
Capitolo 8 – Gli esperimenti
130
La figura 7 descrive lo stato di organizzazione di un canale prima di
ricevere degli stimoli. Essa è costituita da colori freddi e disorganizzati che
segnalano la mancanza di autosimilarità e quindi di autoorganizzazione della serie
temporale.
La figura 8 calcolata sul segnale ottenuto in fase di stimolazione con il
ciclo di pattern descritto in precedenza, è a sua volta disorganizzata anche se con
un andamento molto diverso da quello del canale di output prima della
stimolazione.
Nella figura 9, invece, che corrisponde al segnale emesso da un canale di
output in fase di “testing” con il pattern zero, si vedono ampie bande uniformi di
colore giallo e rosso, mentre i colori freddi sono limitati agli estremi del
diagramma.
La figura 10 rappresenta, infine, il Recurrence Plot di un canale di output
dopo la fine della somministrazione dei pattern. In questo caso le bande di colori
caldi si sono ulteriormente allargate, a dimostrazione di un altissimo grado di
autoorganizzazione.
E’ evidente da questa analisi che l’introduzione di stimoli organizzati ha
modificato il segnale proveniente dalle cellule aumentandone il contenuto
informativo in misura rilevante. Quel che è più importante, è che l’organizzazione
del segnale di output permane anche dopo la cessazione dello stimolo, lasciando
aperta la possibilità di interpretare questo evento come una forma di
apprendimento o memorizzazione.
8.2.4 I nuovi risultati
Abbiamo utilizzato la RQA per analizzare i nuovi segnali provenienti dai
vari canali di output. Presentiamo qui l’analisi di due diversi canali, il canale 1 e il
canale 3. La RQA effettuata ha dato luogo ai grafici di figura 11, 12 , 13 e 14.
Capitolo 8 – Gli esperimenti
131
Figura 11: Il canale 1 dopo lo stimolo con la
bitmap "0"
Figura 12: Il canale 3 dopo lo stimolo con la
bitmap "0"
Figura 13: Il canale 1 dopo lo stimolo con la
bitmap "1"
Figura 14: Il canale 3 dopo lo stimolo con la
bitmap "1"
La figura 11 mostra il canale 1 dopo che le cellule sono state stimolate con
il pattern “0”. Si notano ampie bande di colori caldi al centro e di colori freddi
verso l’esterno.
La figura 12 mostra il canale 3 dopo che le cellule sono state stimolate con
il pattern “0”. Come si può vedere pur essendo molto diverso dal grafico del
canale 1 mostra comunque una certa organizzazione del segnale, anche se meno
spiccata del canale 1.
Capitolo 8 – Gli esperimenti
132
La figura 13 mostra il canale 1 dopo la stimolazione attraverso il pattern
“1”.
La figura 14 mostra il canale 3 dopo la stimolazione attraverso il pattern
“1”. Come si può vedere anche in questo caso ci sono ampie bande di colori caldi
al centro e di colori freddi all’esterno. E’ evidente dall’analisi di queste immagini
che agli output degli stessi canali la rete si comporta diversamente a seconda dei
pattern proposti in input, fornendo comportamenti più o meno organizzati a
seconda del canale.
Da questa analisi discende quindi che l’introduzione di stimoli organizzati,
come nel caso degli esperimenti precedenti, ha modificato il segnale proveniente
dalle cellule aumentandone il contenuto informativo in misura rilevante.
La rete presenta un comportamento organizzato di fronte allo stimolo di
pattern differenti, ed è in grado di rispondere selettivamente all’invio di pattern
differenti; ma quello che risulta più importante è che l’andamento dei segnali
cambia a seconda dei canali e si differenzia a seconda dei pattern (figura 12 e 14).
Nondimeno pattern simili danno origine a risposte della rete simili. Questo può far
supporre che la rete neurale biologica sia in grado di “codificare” i pattern
inviatele.
Per quanto riguarda la possibilità di riscontrare effetti quantistici
nell’andamento dell’output, la considerazione da fare è che mentre la ANN
classica risponde sempre con identico output ad input identico, ci si aspetta che la
rete quantistica risponda con una distribuzione di output che presenta un picco sui
valori dell’output classico.
A questo scopo abbiamo esaminato le uscite della rete vivente su 50 tempi
diversi ed abbiamo riscontrato irregolarità nella risposta delle cellule allo stesso
pattern: questo è un indizio di un possibile comportamento quantistico che andrà
ulteriormente studiato.
133
Capitolo 8 – Gli esperimenti
8.3
La non località
Il secondo esperimento è stato finalizzato all’analisi di fenomeni non locali
all’interno dei neuroni e alle possibili implicazioni a livello macroscopico.
Gli esperimenti condotti sulla non località hanno coinvolto due delle
quattro vaschette a nostra disposizione, la numero 2 e la numero 3 (figura 7,
capitolo 7). Nella figura 15 vengono esposti i risultati delle misurazioni libere
effettuate sulle due vaschette prima che fossero sottoposte
a qualsiasi
stimolazione. Il canale 1 rappresenta la vaschetta n° 2, il canale 2 rappresenta la
vaschetta n° 3.
Misurazione prima della stimolazione
0,03
0,02
V
0,01
Canale 2
0
-0,01 1
Canale 3
283 565 847 1129 1411 1693 1975 2257 2539 2821
-0,02
-0,03
Figura 15: Misurazione libera delle due vaschette
Dopo le misurazioni “libere” le cellule della vaschetta n° 2 sono state
stimolate per 50 volte, alla frequenza di 40 hz, con la sequenza {1,0,0,0,0,0,0,0}.
Quindi sono state collegate le vaschette 2 e 3 e sono state lasciate “interagire”
senza alcuno stimolo esterno. Successivamente sono state scollegate e la vaschetta
n° 2 è stata nuovamente stimolata con la stessa sequenza ripetuta 50 volte alla
Capitolo 8 – Gli esperimenti
134
frequenza di 40 hz. Infine è stata effettuata la misurazione delle due vaschette.
L’esperimento è stato ripetuto una seconda volta. I risultati sono visibili in figura
16 e 17.
Misurazione dopo il primo esperimento di non località
0,03
0,02
V
0,01
Canale 2
0
-0,01 1
Canale 3
284 567 850 1133 1416 1699 1982 2265 2548 2831
-0,02
-0,03
Figura 16: Il primo esperimento di non località
Misurazione dopo il secondo esperimento di non località
0,03
0,02
V
0,01
Canale 2
0
-0,01 1
Canale 3
283 565 847 1129 1411 1693 1975 2257 2539 2821
-0,02
-0,03
Figura 17: Il secondo esperimento di non località
Capitolo 8 – Gli esperimenti
135
Sempre nell’ambito della non località è stato effettuato un altro
esperimento che prevede una stimolazione ottica, invece che elettrica, attraverso
un LED 466 nµ (vicino alla banda UV) comandato manualmente. In questo caso il
primo e secondo canale corrispondono all’attività delle cellule della seconda
vaschetta, mentre il terzo canale corrisponde agli impulsi del LED. I risultati sono
riportati in figura 18 e 19.
Prima misurazione della stimolazione ottica
0,35
0,3
0,25
V
0,2
Canale 1
0,15
Canale 2
Canale 3
0,1
0,05
0
-0,05 1
272 543 814 1085 1356 1627 1898 2169 2440 2711 2982
Figura 18: La prima stimolazione ottica
Seconda misurazione della stimolazione ottica
0,35
0,3
0,25
0,2
V
Canale 1
Canale 2
0,15
Canale 3
0,1
0,05
0
-0,05
1
264 527 790 1053 1316 1579 1842 2105 2368 2631 2894
Figura 19: La seconda stimolazione ottica
8.3.1 Analisi dei risultati
Da un’analisi delle misurazioni effettuate sono emersi i seguenti risultati:
Crosscorrelazione dei segnali prima delle stimolazioni
0,304
Crosscorrelazione dopo la stimolazione elettrica
0,184
Coerenza dei segnali dopo la stimolazione elettrica
0,47
Crosscorrelazione dopo la stimolazione ottica
-0,484
Il risultato più interessante però deriva dalla coerenza dei segnali dopo la
stimolazione ottica attraverso il LED, che ha un valore di 0,80. Il grafico
dell’analisi della coerenza è visibile in figura 20.
Figura 20: La coerenza dei segnali dopo la stimolazione ottica
Il dato singolare che emerge da questo grafico è che il LED non dovrebbe
comunque influire sui segnali, quindi la reazione allo stimolo ottico potrebbe in
qualche modo essere provocata dalla “pluripotenza” delle cellule staminali, che
Capitolo 8 – Gli esperimenti
137
sono potenzialmente anchecellule della retina. La reazione al LED inoltre non può
essere stata provocata dalle interferenze elettriche tra le vaschette.
Una possibile spiegazione del fenomeno è che l’energia estremamente
bassa possa aver stimolato l’insorgere di effetti di correlazione senza tuttavia
provocare fenomeni di decoerenza, in modo da rendere possibile la
visualizzazione di uno stato di coerenza.
Tuttavia questi risultati non implicano necessariamente che all’interno dei
neuroni siano presenti fenomeni di tipo EPR. Una tale correlazione potrebbe
essere spiegata ipotizzando un qualche tipo di comunicazione tra i neuroni stessi.
Solo ulteriori
esperimenti possono validare l’interpretazione quantistica del
fenomeno osservato.
Conclusioni e sviluppi futuri
Per quanto un’analisi completa di tutti i segnali raccolti esuli dallo scopo
di questa tesi è interessante far notare come i risultati preliminari ottenuti da
un’analisi qualitativa delle misurazione e dalla Recurrence Quantification
Analysis porti ad affermare, con un buon margine di certezza, che il
comportamento delle cellule dopo la stimolazione attraverso i pattern ha mostrato
una forma di codifica selettiva in risposta a pattern diversi, evidenziando una forte
autoorganizzazione in risposta agli stimoli inviati.
Molto interessanti sono i risultati dell’esperimento della rete di Hopfield
che ha fatto emergere delle irregolarità delle cellule in risposta all’invio dello
stesso pattern. Come si è già detto questo non vuol dire che ci sia sicuramente un
qualche effetto quantistico all’interno dei neuroni, ma lascia aperta tale ipotesi.
Esperimenti futuri cercheranno di corroborarla attraverso protocolli più precisi ed
una simulazione computazione aderente al modello vivente anche per quanto
riguarda il processo di apprendimento.
Particolarmente interessanti sono i risultati ottenuti dall’esperimento sulla
non località attraverso la stimolazione ottica con l’utilizzo di un LED che ha
evidenziato una coerenza dei segnali di 0,80.
L’elemento più sorprendente è che il LED non dovrebbe influenzare in
alcun modo i segnali elettrici. Le cellule hanno risposto in modo organizzato a
Capitolo 9 – Conclusioni e sviluppi futuri
139
stimoli di questo tipo, forse grazie alla loro “pluripotenza” che giustificherebbe la
presenza di cellule fotosensibili.
Tuttavia, allo stato attuale della ricerca, non siamo ancora in grado di
stabilire quali siano i motivi di questo tipo di risposta da parte delle cellule e non
siamo nemmeno in grado di conoscerne il preciso significato fisico.
A questo scopo è in corso di preparazione un nuovo esperimento, proposto
dal fisico americano F. Thaheld, che dovrebbe fornire risultati maggiormente
stringenti dal punto di vista fisico. L’esperimento è il seguente.
Vengono utilizzati due circuiti stampati sui quali sono stati fatti crescere
dei neuroni fetali. Le cellule del primo circuito vengono direttamente stimolate da
una serie di stimolazioni luminose, che possiedono un’energia sufficiente ad
attivare i neuroni. Quindi viene stimolato anche il secondo circuito nello stesso
modo.
Successivamente entrambe le piastre vengono stimolate da fotoni in
sovrapposizione di stato.
Se l’esperimento è corretto, ogni volta che si produce la stimolazione si
dovrebbe ottenere un potenziale d’azione solo da uno dei due circuiti., a riprova
del fatto che hanno avuto luogo collasso o decoerenza.
Secondo il professor Thaheld tale esperimento dovrebbe fugare i dubbi
sulla possibile casualità della coerenza riscontrata ed inoltre fornire la base
sperimentale per la teoria quantistica GRW del professor Gian Carlo Ghirardi.
Il lavoro svolto nell’ambito di questa tesi è solo uno dei primi passi di un
progetto di ricerca molto più ampio, che sarà utilizzato come supporto per
l’interpretazione dei segnali raccolti da nuovi e più complessi esperimenti.
Nel prossimo futuro verranno migliorati sia i supporti per la crescita
cellulare che i metodi di misurazione, monitorando più a lungo ciascun segnale e
minimizzando le interferenze. Potrà inoltre essere incrementato il numero di
Capitolo 9 – Conclusioni e sviluppi futuri
140
connessioni in modo da permettere di testare l’apprendimento su più tipi di pattern
e di creare reti sempre più complesse.
Infine verrà contestualmente portata avanti l’emulazione quantistica dei
modelli implementati su rete vivente, per consentire un confronto più accurato fra
comportamento quantistico teorico e comportamento dei neuroni reali.
Verrà inoltre portata avanti l’analisi dei segnali raccolti, attraverso metodi
standard, tecniche non lineari e reti neurali artificiali, alla ricerca di una possibile
interpretazione del contenuto informativo conservato nei segnali di output.
Se sarà possibile determinare dalle analisi effettuate la natura del
meccanismo di apprendimento neuronale si aprirà allora concretamente la via per
creare reti viventi sempre più estese e complesse, in modo da renderle realmente
funzionali a scopi computazionali e clinici.
Il perfezionamento della strumentazione dovrebbe inoltre portare alla
possibilità di testare effetti quantistici, sia per confermare le ipotesi sulla mente
quantistica, sia per approfondire problematiche di quantum computing e di fisica
quantomeccanica avendo a disposizione uno strumento concreto di validazione.
Bibliografia
Referenze citate nel testo
[Ani01]
A. Anile, www.dmi.unict.it/~anile/mathapp/retineuro/retineuro.html,
(Maggio 2001).
[Arb95]
Arbib M. A., The handbook of brain theory and neural networks, Mit
Press Cambridge (1995).
[Ben82]
P. Beniof, Quantum mechanical Hamiltonian models of Turing
machines. J.Stat. Phys. 29, 515-546 (1982).
[Ben82]
P. Beniof, Quantum mechanical models of Turing machines that
dissipate no energy. Phys. Rev. Lett. 48, 1582-1585 (1982).
[Cam97] Cammarata Silvio, Reti neuronali – Dal Perceptron alle reti caotiche e
neuro-fuzzy (1997).
[Chr95]
Chrisley, R., "Quantum learning", in Pylkkänen, P. and Pylkkö, P.,
editors, New directions in cognitive science: Proceedings of the
international symposium, Saariselka, 4-9 August 1995, Lapland,
Finland, pages 77-89, Helsinki. Finnish Association of Artificial
Intelligence.
[Daq01]
Personal Daq User’s Manual USB Data Acquisition Modules, (2001).
[Deu85]
D. Deutch, Quantum Theory, the Church Turing principle and the
universal quantum computer. Proc. Royal Society London, A 400, 97117 (1985).
[Dit99]
William Ditto, www.bbc.co.uk/tw/stories/technology/9906comp.html
1999.
[Dos02]
http://www.lesionispinali.org/ricerca_file/dossier/dossier27_3.html,
(Marzo 2002).
[EvK81] Evans e Kaufman, Nature 292, 154-6, (1981).
142
Bibliografia
[F&S94] Fromherz P and Schaden H, Defined neuronal arborisations by guided
outgrowth of leech neurons in culture Eur J Neuroscience n.6, (1994).
[Fro&Al] P. Fromherz, A. Offenhauser, T. Vetter, J. Weis, Scienze, 252, 12901293 (1991).
[Fro&Al] P. Fromherz, H. Schaden, T. Vetter, Neuroscience 129, 77-80 (1991).
[Fro02]
P. Fromherz, Electrical Interfacing of Nerve Cells and Semiconductor
Chips, Chemphyschem 2002, 3, 276-284.
[Ges90]
Geszti T., Physical models of neural networks, World Scientific
(1990).
[Gr&Al] Angela Gritti, Barbara Rosati, Marzia Lecchi, Angelo L. Vescovi e
Enzo Wanke, Excitable properties in astrocytes derived from human
embryonic CNS stem cells, European Jurmal of Neuroscience, vol 12,
pp 3549-3559, (2000).
[Gro96]
Grover L. K., A fast quantum mechanical algorithm for database
search, Proceeding of the 28th Annual ACM Symposium on The
Theory of Computing, 212-219 (1996).
[Hak91]
Haken H., Synergetic computers and cognition (A top-down approach
to neural nets). Springer (1991).
[Hay94]
Haykin S., Neural networks
MacMillan coll. Public. (1994).
[Kak95]
Kak, S. “Quantum Neural Computing”, Advances in Imaging and
Electron Physics, vol. 94, pp. 259-313, 1995.
(A
comprehensive
foundation),
[Men98] Menneer, T. “Quantum Artificial Neural Networks”, Ph. D. thesis of
The University of Exeter, UK, May, 1998.
[Mus00]
Reger, B, Fleming, KM, Sanguineti, V, Simon Alford, S, MussaIvaldi, FA. Connecting Brains to Robots: The Development of a
Hybrid System for the Study of Learning in Neural Tissues. Artificial
Life VII, Portland, Oregon, (August 2000).
[Pen89]
Roger Penrose, The emperor’s new mind: concernine computers,
minds, and the laws of physics (1989).
[Pen94]
Roger Penrose, Ombre della mente: alla ricerca della coscienza,
Mondadori (1994).
[Per99]
Mitja Perus, Neural Networks as basis for quantum associative
networks, Informatica, 20, (1999).
Bibliografia
143
[Pot&Al] Steve M. Potter, Devi Thota, Michael P. Maher, Jerry Pine, Cultured
Neural Networks: Multielectrode arrays for stimulating and recording
hippocampal neurons (1999).
[Pri00]
A. Prinz, P. Fromherz, Biol. Cybern. 82, L1-L5 (2000).
[Re&Al] Reger, B, Fleming, KM, Sanguineti, V, Simon Alford, S, Mussa Ivaldi,
FA. “Connecting Brains to Robots: An Artificial Body for Studying
the Computational Properties of Neural Tissues” Artificial Life 6: 307324, (2000).
[Sch94]
Schempp W., Analog VLSI network models, cortical linking neural
networks models, and quantum holographic neural technology. In:
Byrnes J. S. et al. (Eds.): Wavwlets and their applications. Kluwer
213-260, (1994).
[Sut&Al] Sutherland J. G., The holographic cell: a quantum perspective (ch. 3).
In: Plantamura V. L., Soucek B., Visaggio G. (Eds.): Frontier decision
support systems. J. Wiley & Sons, NY, (1994). Maner R.: Holographic
neural networks and data compression. Informatica, 21, 1997, 665673.
[Ta&Al] Vincenzo Tagliasco, Annamaria d’Ursi, Riccardo Manzotti, Macchine
che pensano: dalla cibernetica alla coscienza artificiale (giugno 2002).
[Ta&Ho] D.W. Tank and J.J. Hopfield, Neural architecture and biophysics for
sequence recognition in Neural Models of Plasticity, Academic Press,
363-377, (l989).
[Th&Al] Thomson et al., Science 282 1145-7, (1998).
[Ven98]
Dan Ventura, Artificial Associative memory using quantum processes,
Proceeding of the Internetional Conference on Computational
Intelligence and Neuroscienze, vol. 2, pp. 218-221 (october 1998).
[Vig02]
Simona Vigna, Il cervello Chimera, Corriere Salute (2002).
[Wei98]
Weigang L., “A study of parallel Self-Organizing Map”, e-print:
http://xxx. lanl.gov/quant-ph/9808025, 1998.
[Wei99]
Weigang
L.
,
Entangled
Neural
Networks,
http://www.cic.unb.br/docentes/weigang/qc/aci.html.
(1999),
Bibliografia
144
Altri articoli pertinenti:
Peter Fromherz and Alfred Stett, Silicon-Neuron Junction: Capacitive Stimulation
of an Individual Neuron on a Silicon Chip, The American Phisycal Society
(1995).
Marco Canepari, Marco Bove, Eisaku Mueda, Marco Cappello, Akio Kawana,
Experimental analysis of neural dynamics in cultured cortical networks and
transitions between different patterns of activity, Biological Cybernetics 77, 153162 (1997).
Martin Jenkner, Bert Muller, Peter Fromherz, Interfacing a silicon chip to pairs of
snail neurons connected by electrical synapses, Biological Cybernetics 84, 239249 (2001).
S. Vassanelli, P. Fromherz, Nuerons from rat brain couplet to transistors, Applied
Physics A 65, 85-88 (1997).
Richard Schatzthauer and Peter Fromherz, Neuron-silicon junction with voltagegated ionic currents, European Journal of Neuroscienze, Vol. 10, pp. 1956-1962
(1998).
Steve M. Potter and Jerry Pine, A long-term electrical connection to a cultured
hippocampal slice (1999)
Joseph M. Corey, Bruce C. Wheeler, Gregory J. Brewer, Micrometer resolution
silane-based patterning of hippocampal neurons: critical variables in photoresist
and laser ablation processes for substrate fabrication, IEEE Transactions on
Biomedical Engineering, vol. 43, no. 9 (septemer 1996).
Brigitte Besl and Peter Fromherz, Transistor array with an organotypic brain slice:
field potential records and synaptic currents, European Journal of Neuroscienze,
vol. 15, pp. 999-1005 (2002).
P. Fromherz, A.Offenhausser, T. Vetter, J. Wess, A neuron-silicon junction: a
Retzius-Cell of the leech on an insulated-gate field-effect transistor, Science 252,
1290-1293 (1991).
P. Fromherz, C. O. Muller, R. Weis, Neuron-Transistor: electrical transfer
function measured by the Patch-Clamp techniqe, Phys. Rev. Lett. 71, 4079-4082
(1993).
R. Weis, B. Muller, P. Fromherz, Neuron adhesion on silicon chip probed by an
array of field-effect transistor, Phys. Rev. Lett. 76, 327-330 (1996).
Bibliografia
145
Elisabeth Meyer, Carsten O. Muller, P. Fromherz, cable properties of dendrites in
hippocampal neurons of the rat mapped by a voltage-sensitive dye, European
Journal of Neuroscienze 9, 778-785 (1997).
Guenter W. Gross, Fritz U. Schwalm, A closet flow chamber for long-term
multichannel recording and optical monitorino, Journal of Neuroscienze Methods
52, 73-85 (1994).
Justin Mullins, Saline solution: a simple idea could make quantum computers easy
to build, New Scientist pp. 21 (june 2002).
B. E. Kane, A silicon-based nuclear spin quantum computer, Nature, vol. 393, pp.
133-137 (may 1998).
Subhash C. Kak, On quantum neural computing, Information Sciences, vol. 83,
pp.143-163 (marhc 1995).
Hans De Raedt, Kristel Michielsen, Anthony Hams, Quantum spin dynamics as a
model for quantum computer operation.
H. De Raedt, A. H. Hams, K. Michelsen, S. Miyashita, K. Saito, Quantum spin
dynamics and quntum computation, J. Phys. Soc. Jpn. (Suppl.) 69, 401-406
(2000).
Fariel Shafee, Neural networks with c-not gated nodes, arXiv:quantumph/0202016 v1 (feb 2002).
John Blanton, Does Bell’s inequality principle rule out local theories of quantum
mechanics?,
http://math.ucr.edu/home/baez/physics/Quantum/bells_inequality.html (1996).
Ringraziamenti
Ringrazio la Professoressa Rita Pizzi per avermi dato la possibilità di svolgere un
lavoro così interessante, per il supporto e la sua continua disponibilità.
Ringrazio il Professor Giovanni Degli Antoni per l’entusiamo dimostrato nello
sviluppo di questo progetto.
Ringrazio il Dottor Andrea Fantasia per avermi aiutato nella stesura di questa tesi.
Ringrazio Fabrizio Gelain e Danilo Rossetti per il loro supporto tecnico e
personale.
Ringrazio alè alè Gioslè per essere ancora vivo dopo quel pomeriggio in canoa
sull’Adda. Ringrazio Sglà per aver avuto il buon senso, quel pomeriggio, di non
aver seguito Gioslè. A “cioè bella badilone” Teo che organizza le partite di
calcetto e poi se ne dimentica o non viene. Alla biondona “Miva, big shooter”
Raffa che nei momenti di bisogno mi ha sempre lanciato i componenti…beh
insomma è troppo lungo elencarli tutti...usiamo una formula un po’ più breve:
“Grazie a tutti i miei amici”.
Ringrazio i miei genitori che hanno continuato a pagare le tasse universitarie e che
adesso saranno contenti di non pagarle più!