UNIVERSITÀ DEGLI STUDI DI MILANO Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea in Informatica Confronto fra reti neurali classiche e quantistiche su architettura wetware Relatore: Prof.ssa Rita PIZZI Correlatori: Prof. Giovanni DEGLI ANTONI Dott. Andrea FANTASIA Tesi di laurea di: Alessandro FIORENTINO Mat. 530014 Anno Accademico 2001/2002 “La coscienza è l’unico teatro in cui si rappresenta tutto quanto avviene nell’universo, il recipiente che contiene tutto e al di fuori del quale non esiste nulla” (Erwin Schrödinger) Indice Introduzione .......................................................................................................... 1 1. Neuroni e cellule staminali ............................................................................. 4 1.1 Il neurone biologico ................................................................................ 4 1.2 Le cellule staminali ................................................................................. 8 1.3 1.2.1 Le cellule staminali embrionali....................................................... 9 1.2.2 Le cellule staminali adulte ............................................................ 12 La memoria: un archivio della mente.................................................... 14 2. Interfaccia neurone-silicio ............................................................................ 17 2.1 I primi esperimenti di interfaccia .......................................................... 17 2.2 L’esperimento del Max Planck di Monaco ........................................... 23 2.3 Reti neuronali biologiche: crescita e sinapsi......................................... 29 2.4 Conclusioni ........................................................................................... 33 3. Alla ricerca della coscienza .......................................................................... 34 3.1 Le macchine “pensanti”: i primi cinquant’anni .................................... 34 3.2 La non computabilità del pensiero cosciente ........................................ 36 3.3 I microtubuli.......................................................................................... 39 3.4 Microtubuli e coscienza ........................................................................ 44 4. Introduzione al quantum computing........................................................... 46 4.1 Introduzione .......................................................................................... 46 4.2 Macchine di Turing quantistiche........................................................... 50 4.3 Un approccio fisico-matematico al quantum computing ...................... 55 4.4 Che cos’è un quantum computer........................................................... 59 4.5 Circuiti .................................................................................................. 62 4.6 L’implementazione fisica di un quantum computer.............................. 65 4.7 Vantaggi e svantaggi ............................................................................. 66 4.8 Il principio di non località e il teorema di Bell ..................................... 67 5. Reti neurali artificiali classiche.................................................................... 70 5.1 Introduzione alle reti neurali classiche.................................................. 70 5.2 Caratteristiche generali delle reti neurali .............................................. 71 5.3 5.2.1 Leggi di apprendimento ................................................................ 73 5.2.2 Architettura dei collegamenti........................................................ 74 La rete di Hopfield ................................................................................ 77 6. Quantum neural networks ........................................................................... 82 6.1 Introduzione alle quantum neural networks.......................................... 82 6.1.1 Fuzzy Neural Networks ................................................................ 82 6.1.2 Entangled Neural Networks .......................................................... 83 6.2 Un semplice modello di neurone quantistico ........................................ 87 6.3 Dalla rete di Hopfield alla quantum associative memory ..................... 90 6.4 6.5 6.3.1 Reti neurali associative ................................................................. 90 6.3.2 Reti neurali olografiche................................................................. 92 6.3.3 Reti neurali associative quantistiche ............................................. 93 La simulazione del modello quantistico................................................ 96 6.4.1 Il nostro modello ........................................................................... 96 6.4.2 L’algoritmo ................................................................................. 100 6.4.3 L’implementazione del modello ................................................. 102 Alcuni output....................................................................................... 105 7. Il progetto..................................................................................................... 108 7.1 La scheda di acquisizione dati ............................................................ 108 7.1.1 7.2 Caratteristiche tecniche ............................................................... 109 L’applicazione..................................................................................... 111 7.2.1 Inizializzazione della scheda di acquisizione.............................. 111 7.3 7.2.2 Acquisizione analogica ............................................................... 112 7.2.3 Scrittura digitale .......................................................................... 113 Il “circuito vivente”............................................................................. 116 7.3.1 Realizzazione circuitale .............................................................. 116 7.3.2 Il materiale biologico .................................................................. 120 8. Gli esperimenti ............................................................................................ 122 8.1 L’esperimento sulla rete di Hopfield................................................... 122 8.2 Analisi dei risultati .............................................................................. 124 8.3 8.2.1 Analisi qualitativa dei segnali ..................................................... 124 8.2.2 I metodi di analisi........................................................................ 128 8.2.3 I risultati precedenti..................................................................... 128 8.2.4 I nuovi risultati ............................................................................ 130 La non località..................................................................................... 133 8.3.1 Analisi dei risultati ...................................................................... 136 Conclusioni e sviluppi futuri ............................................................................ 138 Bibliografia ........................................................................................................ 141 Ringraziamenti .................................................................................................. 146 Introduzione Negli ultimi anni sono stati condotti numerosi studi ed esperimenti riguardo l’impianto di microelettrodi applicati a circuiti elettronici ed interfacciati con tessuto nervoso con lo scopo di analizzare l’attività neuronale. Tuttavia gli ultimi esperimenti tendono a sostituire i microelettrodi in favore di un’interfaccia diretta tra neurone e silicio, ottenuta coltivando le cellule direttamente sulle piastrine di silicio. Pionieri in questo campo sono i ricercatori del Max Planck di Monaco che conducono le loro ricerche da ormai più di dieci anni. Questo lavoro di tesi si inserisce in un progetto di ricerca più ampio che coinvolge, oltre all’università degli Studi di Milano, anche il Laboratorio Cellule Staminali del DIBIT - Ospedale San Raffaele di Milano, dal quale provengono le coltivazioni di cellule staminali e presso il quale sono state effettuate le misurazioni. Questa tesi è il naturale proseguimento di un precedente lavoro che aveva lo scopo di indagare le architetture neurali basate sui modelli software e realizzate attraverso l’utilizzo di neuroni biologici connessi tra loro con del materiale conduttore. L’obiettivo della tesi è l’implementazione di reti neurali quantistiche su architettura wetware, lo studio della risposta naturale delle cellule staminali neurali stimolate secondo precisi pattern e il confronto dei risultati con le risposte teoriche classiche e quantistiche. Sono stati anche portati avanti nell’ambito della tesi alcuni esperimenti sulla non località e le sue possibili implicazioni a livello macroscopico. La tesi presenta una semplice descrizione sia del neurone biologico che 2 Introduzione delle cellule staminali neurali utilizzate nell’architettura wetware. Vengono poi introdotti i principali esperimenti presenti in letteratura riguardanti l’interfaccia tra neurone e silicio e la crescita di reti neurali biologiche coltivate, indagando su problemi e possibilità di una coltivazione di questo genere, con particolare attenzione per la ricerca svolta presso il Max Planck di Monaco. Vengono in seguito esposte le teorie di Roger Penrose ed altri riguardo alla non computabilità del pensiero cosciente, alla teoria quantistica dei microtubuli ed alla possibile relazione tra microtubuli e coscienza. A partire dalla tesi di Church-Turing e dalle macchine di Turing “classiche” si descrivono le macchine di Turing probabilistiche e quelle quantistiche, introducendo la teoria del quantum computing. Vengono esposti i principali concetti fisici e matematici alla base di questa disciplina: la sovrapposizione degli effetti in un sistema fisico, la funzione d’onda come descrizione del sistema, il collasso della funzione d’onda e la decoerenza dello stato di sovrapposizione. Viene anche descritto il principio quantistico della non località. Vengono descritte brevemente le reti neurali artificiale classiche e le loro caratteristiche generali con particolare attenzione al modello di Hopfield. A partire da questo modello vengono descritti alcuni modelli di reti neurali quantistiche, in particolare il modello che è la controparte quantistica del modello di Hopfield. Attraverso l’utilizzo del pacchetto software Mathematica 4.0 corredato con il package QuCalc, sviluppato ad hoc per i calcoli quantistici, è stato implementato e descritto un modello di rete neurale quantistica. Lo scopo dell’algoritmo è quello di trovare una qualche analogia tra le risposte reali delle cellule sottoposte a stimolazione e le risposte teoriche. Gli esperimenti di invio e acquisizione dei segnali sono stati effettuati con la scheda di acquisizione Personal Daq/56 della IOTECH, un modulo hardware dedicato alla calibrazione degli impulsi ed un software, sviluppato in una tesi precedente, per l’invio dei pattern alle cellule e per la lettura delle loro reazioni. Gli ultimi esperimenti condotti riguardano il modello di Hopfield e il Introduzione 3 principio di non località. I risultati ottenuti confermano quelli dei precedenti esperimenti, evidenziando risposte organizzate e specifiche delle cellule ai diversi pattern proposti. E’ in fase di analisi il confronto fra gli output della rete di Hopfield wetware con la simulazione quantistica, mentre gli esperimenti di non località hanno dato risultati interessanti il cui preciso significato fisico è tuttavia da indagare ulteriormente. Capitolo 1 Neuroni e cellule staminali 1.1 Il neurone biologico Il cervello umano è sicuramente la struttura più complessa dell’universo e può essere considerato come una enorme rete neurale. Circa cento miliardi di neuroni costituiscono i nodi di tale rete. Studiare la struttura biologica e la fisiologia del cervello è un compito tutt'altro che facile. Tuttavia a partire dall'inizio del nostro secolo sono stati fatti dei grandissimi passi in avanti in questo campo e sono stati raggiunti notevoli risultati studiando i danni e le disfunzioni riportate da persone cerebrolese. In questo modo i neuroscienziati sono riusciti a capire che tutte le attività intelligenti sono controllate dalla parte esterna del cervello chiamata corteccia cerebrale. La corteccia è a sua volta divisa in diverse regioni specializzate: ogni regione controlla una determinata facoltà cognitiva. I neuroscienziati, inoltre, sono riusciti a ricostruire la struttura cellulare del cervello e a capirne almeno in parte il funzionamento. La struttura di ogni neurone è complessa: dal corpo cellulare (soma), di dimensioni comprese tra i 5 e 100 micron, partono numerose propaggini, di due tipi diversi che corrispondono ai due diversi canali di comunicazione tra neuroni: gli assoni e i dendriti. Gli assoni rassomigliano a dei fili di lunghezza molto variabile (a partire da 0.1 millimetri fino a qualche metro) di sezione costante. Lungo ogni assone principale si possono avere più propaggini assoniche. I dendriti invece differiscono sensibilmente dagli assoni perchè tendono ad assottigliarsi all’allontanarsi dal corpo cellulare; la loro lunghezza varia molto Capitolo 1 – Il neurone, le cellule staminali e la memoria 5 meno di quella degli assoni (da 10 micron a 1 millimetro). Le funzioni degli assoni e dei dendriti sono molto differenti; mentre i dendriti convogliano l’informazione verso il corpo cellulare del neurone, gli assoni portano all’esterno il segnale prodotto dal neurone. I dendriti, pertanto, rappresentano i canali di input mentre gli assoni quelli di output (figura 1). Figura 1: Il neurone Il neurone è dotato di una membrana che separa l’ambiente intracellulare da quello extracellulare. In condizioni di riposo si stabilisce una differenza di potenziale elettrico fra l’interno e l’esterno della cellula, causata dalla differente composizione chimica tra queste due regioni: all’interno della cellula si ha Capitolo 1 – Il neurone, le cellule staminali e la memoria 6 predominanza di potassio, mentre all’esterno prevale il sodio (entrambi in forma ionica). Queste differenti concentrazioni sono dovute alle proprietà di semipermeabilità della membrana che, in assenza di perturbazioni elettriche, lascia fluire verso l’interno solo il potassio e rappresenta invece una barriera per il sodio. L’interno della membrana è a potenziale negativo rispetto all’esterno (la differenza di potenziale è di alcuni millivolts). Ogni neurone può ricevere dai neuroni ai quali è collegato un insieme di segnali di origine chimica elettrica. La somma dei segnali provenienti dagli altri neuroni altera il valore del potenziale all’esterno del corpo cellulare; se questo supera un certo valore di soglia la permeabilità della membrana varia drasticamente, lasciando penetrare all’interno del corpo cellulare gli ioni di sodio e ciò crea un impulso di corrente, generato sulla superficie della cellula, che propaga l’informazione da un neurone ad an altro. Questo segnale caratteristico (detto spike) viene poi propagato lungo gli assoni. La tipica attività di un neurone consiste, quindi, nella trasmissione di una serie di impulsi elettrici. Tale serie rappresenta un segnale di una certa intensità, la cui frequenza costituisce un’ulteriore informazione. Si può modellare il neurone come un sistema a due stati: uno è quello di riposo; cioè quando la somma dei segnali che provengono dagli altri neuroni è minore di un certo valore di riferimento (soglia) allora il neurone non emette alcun segnale, cioè non propaga l’informazione che gli giunge; quando invece tale somma supera la soglia il neurone passa nello stato attivo e comincia a trasmettere l’informazione agli altri neuroni ai quali è collegato. La connettività del sistema è determinata dalle sinapsi che sono degli ispessimenti che si formano ai punti di contatto tra ramificazione assoniche e dendritiche di due neuroni. L’interazione di due neuroni collegati da una sinapsi può essere più o meno forte a seconda delle caratteristiche fisiche della connessione. In prima approssimazione si possono distinguere due tipi di connessioni; le sinapsi piuttosto sottili (dello spessore di circa 2 nanometri) e le sinapsi più spesse (fino a 50 nanometri). Le prime vengono dette sinapsi eccitatorie. Esse hanno una bassa resistenza (un valore basso della soglia) e ciò consente al segnale di propagarsi Capitolo 1 – Il neurone, le cellule staminali e la memoria 7 quasi intatto sino al dendrite del neurone ricevente che si attiva. Per le sinapsi spesse la situazione è più complessa; si tratta di sinapsi chimiche che, in certi casi, possono portare ad un innalzamento della soglia e pertanto ad inibire l’attivazione del neurone ricevente: esse vengono definite sinapsi inibitorie. Il discreto funzionamento del cervello anche in caso di lesioni (proprietà di fault tolerande del cervello) evidenzia il carattere non localizzato dell’elaborazione. Vari esperimenti hanno messo in evidenza la relazione tra l’azione di uno stimolo e l’efficacia delle connessione sinaptica; si è visto che questa varia se lo stimolo è somministrato ripetutamente. Sembra stabilito che solo le sinapsi relative a neuroni sensori stimolati dall’esterno tendono a rafforzarsi. Questo legame tra stimolo ed efficacia sinaptica è considerata la base per ogni tentativo di costruire una teoria dell’apprendimento. A tale proposito ha notevole rilevanza l’ipotesi di Hebb secondo la quale, se un neurone A ed un neurone B tendono ripetutamente ad essere eccitati simultaneamente, questa concordanza di fase induce ad un aumento delle sinapsi tra A e B (si dice che la sinapsi viene rafforzata). Secondo questa ipotesi solo la correlazione tra l’attività di due neuroni è responsabile del rinforzo delle sinapsi tra i due. Il tempo di commutazione di un neurone (acceso-spento) è di un microsecondo contro un nanosecondo di un elaboratore: solo che nel cervello le connessioni sono in gran numero e molto dense. La capacità di memoria del cervello è stimata in 4*1015 bit con una capacità di elaborazione di 4*1016 bit/secondo. E’ possibile comparare questi dati con il più avanzato computer: ASCI White (maggio 2000) costituito da 32768 processori POWER3-II a 375 megahertz ognuno dei quali esegue 4 calcoli in virgola mobile contemporanemente. Questa macchina ha una memoria locale di 16384 gigabyte e 195 terabyte (1.71*1015 bit) di memoria esterna su disco. La prestazione di picco del sistema è di 10 teraflop (1.28*1014 bit/secondo). La rete permette però di sfruttare solo una frazione di questa potenza teorica [Ani01]. Capitolo 1 – Il neurone, le cellule staminali e la memoria 1.2 8 Le cellule staminali Le cellule nervose, a differenza delle altre cellule dell'organismo umano, non vanno incontro a ricambio. Il rinnovamento dei neuroni comporterebbe anche la distruzione dei collegamenti neuronali e per questo motivo risulta attualmente impossibile poter prelevare cellule nervose dal tessuto cerebrale senza danneggiarlo. Un’importante scoperta scientifica avvenuta negli ultimi anni e tuttora in fase di studio riguarda l’isolamento e l’utilizzo delle cellule staminali, dalle quali è possibile creare nuovi i futuri neuroni per poterli utilizzare negli esperimenti di ricerca. Le cellule staminali non mostrano le caratteristiche tipiche di alcun tessuto particolare ma sono contraddistinte da due capacità: moltiplicarsi a volontà, dando vita a copie innumerevoli di se stesse; e differenziarsi in cellule di più tipi diversi. Quando una popolazione di staminali si divide, alcune cellule figlie sono ancora staminali, identiche alle madri, che mantengono intatta la riserva; altre figlie iniziano invece un ciclo di trasformazioni che le porterà a divenire cellule differenziate di un determinato tessuto. Anche le staminali, in realtà, sono molto diverse tra loro; differiscono nella capacità di proliferare, di produrre un tessuto oppure un altro, di rispondere a determinati segnali che ne guidano lo sviluppo. Non si tratta però di differenze che balzano all'occhio: viste al microscopio, queste cellule sono simili l'una all'altra. Le diversità sono più sottili e consistono nel corredo di proteine che ciascuna staminale produce in un dato momento della sua vita; le proteine sono necessarie per recepire determinati segnali e cambiare il proprio comportamento di conseguenza. La presenza di determinate proteine e l'assenza di altre contraddistingue ciascun tipo di staminale, proprio come la presenza dei prolungamenti contraddistingue le cellule nervose. Quando i ricercatori conoscono le proteine tipiche delle staminali di loro interesse, possono metterle in luce e identificare così le cellule. Una volta differenziate, le cellule perdono quasi del tutto la capacità di proliferare. Nei tessuti soggetti a un ricambio rapido, come l'epidermide o il Capitolo 1 – Il neurone, le cellule staminali e la memoria 9 sangue, per rimpiazzare le perdite resta anche nell'adulto una riserva di staminali, rispettivamente alla base della pelle e nel midollo osseo. Queste cellule, però, sono in grado di rigenerare solo il tessuto cui appartengono, o comunque una gamma ristretta di tessuti. E' chiaro comunque che, per conquistare una completa capacità rigenerativa, l'uomo non può contare sulle sue scarne doti naturali; occorre imparare a prelevare cellule staminali adatte a generare i tessuti da riparare, oppure "ringiovanire" le cellule già differenziate, restituendo loro la capacità di proliferare. Le cellule staminali dovrebbero poi essere indotte a svilupparsi nel senso voluto, fino a ottenere tessuti o addirittura interi organi da introdurre nel corpo per riparare la lesione. Questa possibilità è apparsa per la prima volta realizzabile quando, sul finire del 1998, due gruppi di scienziati hanno annunciato di avere isolato e fatto crescere in laboratorio cellule staminali pluripotenti1, prelevate da embrioni e feti umani. Queste cellule, che si indicano come cellule staminali embrionali, sono state la prima fonte a cui si è potuto pensare di attingere. Restano però due grossi ostacoli da superare. Il primo è di natura tecnica: il fatto che queste cellule siano potenzialmente in grado di formare qualsiasi tessuto non vuol dire che, nel concreto, si sia capaci di farle differenziare a piacimento per ricavarne i tessuti desiderati. Il secondo è un ostacolo etico: per prelevare le staminali bisogna inevitabilmente distruggere l'embrione, il che, per chi lo ritiene già un individuo umano a pieno titolo, è inaccettabile. 1.2.1 Le cellule staminali embrionali Nel novembre del 1998, dopo almeno sei anni di tentativi, l'équipe di James Thomson, dell'Università del Wisconsin, [Th&Al] ha reso noto di aver isolato e fatto crescere in laboratorio le staminali pluripotenti prelevate da embrioni umani. Ben prima che nella specie umana, le staminali erano state 1 Le cellule staminali pluripotenti mantengono le capacità proliferative durante tutta la vita dell'individuo e nell'adulto sono in grado di ripopolare il comparto delle cellule differenzianti in quei tessuti che presentano un alto ricambio cellulare dovuto a morte cellulare (ad esempio, l'epidermide) o alla continua produzione di cellule specializzate. Le cellule staminali pluripotenti sono presenti nell'embrione, nel feto ed in alcuni precisi distretti tissutali ben riconoscibili nell'individuo adulto. 10 Capitolo 1 – Il neurone, le cellule staminali e la memoria ricavate, nel 1981, [EvK81] da embrioni di topo; l'esperienza accumulata in questi animaletti è stata preziosa per accertare in quale stadio dello sviluppo embrionale dei mammiferi sono presenti le staminali pluripotenti e come si possa convincerle a crescere in coltura senza che si differenzino. Per guidare lo sviluppo delle staminali in laboratorio, si impiegano le stesse sostanze che ne dirigono il destino all'interno dell'organismo. Durante lo sviluppo dell'embrione, ogni cellula viene spinta a differenziarsi verso un determinato destino piuttosto che un altro da una fitta serie di segnali che scambia ininterrottamente con le altre; i segnali sono molecole di varia natura e sono detti, nell'insieme, fattori di crescita. I fattori di crescita segnalano alle cellule che li ricevono quali geni esprimere o spegnere e dunque quali proteine produrre; al variare dei fattori che riceve, la cellula produce un insieme di proteine differente e man mano cambia forma, prende a funzionare in modo diverso; procede, cioè, lungo un determinato percorso di differenziamento. Molti fattori di crescita sono stati individuati e possono essere estratti dai tessuti o prodotti in laboratorio. Dopo innumerevoli tentativi, Thomson è infine riuscito a mettere a punto il cocktail giusto: nel brodo da lui utilizzato, le staminali di blastocisti umane ricevono un segnale che indica loro non di differenziarsi ma di restare pluripotenti. Va precisato che le sostanze che danno questo segnale restano in gran parte ignote; le staminali, infatti, devono essere coltivate in compagnia di un altro tipo di cellule (i fibroblasti di topo), che evidentemente producono fattori di crescita sconosciuti, ma indispensabili per evitare il differenziamento. A pochi giorni da Thomson, il gruppo statunitense guidato da John Geahart, della Johns Hopkins University di Baltimora, ha fatto un annuncio analogo. La fonte era diversa: gli abbozzi delle gonadi di feti di uno o due mesi; nei genitali dell'embrione infatti, come ha scoperto Geahart, alcune cellule restano pluripotenti molto più a lungo che nel resto del corpo. Sia le staminali di Thomson che quelle di Geahart hanno dimostrato proprietà molto simili e sono, dunque, linee di cellule staminali pluripotenti umane. Con due anni di ritardo si è affacciato sulla scena un terzo concorrente: il gruppo di Martin Pera e Alan Trounson, della Monash University di Melbourne in Australia, che è riuscito anch'esso a isolare e coltivare le staminali embrionali umane inserendosi Capitolo 1 – Il neurone, le cellule staminali e la memoria 11 nella corsa. La sfida è divenuta a questo punto di imparare a controllare il comportamento di queste cellule in laboratorio. Anche sotto questo profilo le ricerche sul topo sono state punti di partenza preziosi. Dalle staminali embrionali del topo sono state ricavate di volta in volta cellule nervose, muscolari, endoteliali (che rivestono l'interno dei vasi sanguigni) e del sangue. La chiave è sempre la stessa: il controllo delle condizioni in cui crescono le cellule. Giocando con il brodo di coltura, aggiungendovi questo o quel fattore di crescita e ponendo le staminali a contatto con un tipo di cellule o con un altro, si può orientarne il differenziamento. Le ricette si scoprono spesso per tentativi ed errori. A volte si parte da fattori di crescita noti e si cercano le dosi e le combinazioni giuste; in altre occasioni si sfrutta un brodo in cui crescono bene le cellule di un certo tipo. In un esperimento, per esempio, le staminali, messe nel brodo che si usa di norma per le cellule degli alveoli polmonari, si sono differenziate in tessuto polmonare. Riguardo alle cellule umane, gli studi sono proceduti in fretta. L'équipe australiana di Pera, partendo dall'osservazione fortuita che alcune staminali in coltura tendono spontaneamente a trasformarsi in cellule nervose o muscolari, ha per prima ottenuto in laboratorio neuroni umani. La Geron Corporation, un'azienda biofarmaceutica statunitense, dal canto suo, ha annunciato di aver prodotto i tre tipi principali di cellule nervose, nonché cellule del fegato e del muscolo cardiaco. Un'équipe israeliana dell'Università di Haifa, che aveva collaborato con Thomson, è riuscita a indirizzarne lo sviluppo in svariate direzioni grazie a varie combinazioni di fattori di crescita. Per il momento comunque il controllo sulle staminali embrionali, e specialmente su quelle umane, resta piuttosto scarso. Anche solo coltivarle è un'impresa: vari studiosi che le hanno ricevute da Thomson hanno faticato non poco per riuscire a farle crescere senza che perdessero le loro preziose caratteristiche. Non è ancora accertato, inoltre, se le cellule ottenute in vitro rispecchino davvero sotto ogni aspetto i tessuti a cui sembrano assomigliare. In definitiva le staminali embrionali sono potenti ma capricciose e restano difficili da domare. Più docile, forse al prezzo di una minor vivacità, è l'altro grande gruppo di cellule a cui si spera di ricorrere per la terapia riparativa: le staminali dei tessuti Capitolo 1 – Il neurone, le cellule staminali e la memoria 12 adulti, dette cellule staminali adulte. 1.2.2 Le cellule staminali adulte La visione tradizionale vuole che nell'adulto permangano solo pochi tipi di cellule staminali, limitate in sostanza ai tessuti soggetti a un forte ricambio. La stessa visione vuole inoltre che le staminali adulte, sebbene indifferenziate, abbiano ormai il destino segnato e non siano in grado di formare tessuti diversi da quello a cui appartengono; sono cioè multipotenti ma non pluripotenti. Entrambe le convinzioni sono state fortemente ridimensionate negli ultimi anni. Cellule staminali sono spuntate dai tessuti adulti più svariati, a partire da quello privo per eccellenza di capacità autoriparativa: il sistema nervoso centrale. Quando sono stati identificati i fattori che fanno crescere il tessuto nervoso, si è infatti constatato che dal tessuto cerebrale di topi adulti, messo in coltura con la giusta combinazione di fattori, si formano tutti i tipi principali di cellule nervose. Nel sistema nervoso centrale dei mammiferi adulti si trova quindi una riserva di cellule multipotenti, le staminali neurali, che in seguito, nel 1999, sono state individuate con precisione dal gruppo di Jonas Frisén, del Karolinska Institute di Stoccolma. Quale sia la loro funzione nessuno sa dirlo con certezza; evidentemente non hanno un grosso ruolo riparativo, visto che sono incapaci di entrare in azione per riparare le lesioni, e una delle ipotesi avanzate è che prendano parte ai processi della memoria e dell'apprendimento. Ancor più inattesa è stata la seconda sorpresa: la "trasformazione del cervello in sangue". All'inizio del 1999 un'équipe guidata da Angelo Vescovi, dell'Istituto neurologico Carlo Besta di Milano, ha reso noto che le staminali neurali sono in grado di differenziarsi in cellule mature del sangue. La dimostrazione è avvenuta nei topi. Gli animaletti sono stati irradiati, per distruggere le staminali emopoietiche del midollo osseo. Di norma, in questi casi, per ricostituire le cellule emopoietiche si trapianta un midollo sano. In questo esperimento, invece, i ricercatori hanno iniettato nel sangue dei topi un certo numero di staminali neurali, modificate geneticamente in modo da colorarsi di blu quando entrano a contatto con un Capitolo 1 – Il neurone, le cellule staminali e la memoria 13 reagente chimico ed essere quindi facilmente riconoscibili. Dopo qualche settimana, nel midollo dei topi sono state trovate staminali emopoietiche che si coloravano di blu: a dispetto di quanto si era sempre ritenuto, le staminali neurali sono state in grado di insediarsi nel midollo e di riconvertirsi, mettendosi a produrre cellule del sangue. Le staminali adulte, dunque, hanno il destino segnato solo fintanto che restano nel proprio tessuto e continuano a ricevere i segnali di differenziamento tipici del tessuto stesso. Ma la capacità di formare tessuti diversi non va del tutto persa e in un ambiente nuovo le cellule sono ancora sensibili a segnali diversi. Altri studiosi hanno mostrato capacità di trasformazione analoghe per altri tipi di staminali. Per vedere fino a che punto si spingesse tanta versatilità, lo svedese Frisén ha provato a iniettare le staminali neurali (modificate per colorarsi in blu) all'interno di embrioni molto precoci di topo, allo stadio di blastocisti. I topolini nati da questa manipolazione erano sani e identici a topolini normali e i loro tessuti apparivano del tutto normali al microscopio. Quando però venivano trattati con il reagente che colora di blu le staminali neurali, in alcuni casi si vedevano comparire strisce azzurre, non solo nel tessuto nervoso ma anche nell'intestino, nel fegato, nel cuore, nel rene e in altri tessuti. Le staminali introdotte si erano quindi integrate perfettamente in tutti questi tessuti, tanto che non si potevano distinguere dalle cellule originali del topolino se non dopo la colorazione. La gamma di vie di differenziamento possibili, dunque, è davvero ampia. Nell'uomo, per ovvi motivi, non si possono fare esperimenti simili. Qualche informazione è stata raccolta con studi in coltura: Vescovi, per esempio, ha osservato che le staminali neurali umane, crescendo a contatto con i precursori delle cellule muscolari, si trasformano a loro volta in cellule muscolari ben differenziate [Dos02]. Capitolo 1 – Il neurone, le cellule staminali e la memoria 1.3 14 La memoria: un archivio della mente La memorizzazione di un determinato evento sensoriale proveniente da uno qualsiasi dei nostri organi di senso richiede tre fasi: la sua registrazione, il suo immagazzinamento e infine la sua rievocazione. La nostra esistenza è caratterizzata dal susseguirsi di un numero enorme di eventi, ma non tutti vengono ricordati allo stesso modo. Alcuni non vengono addirittura percepiti, altri lasciano in noi tracce indelebili, tanto che vengono ricordati anche a distanza di molti anni, mentre altri ancora sopravvivono per pochi giorni o svaniscono in pochi minuti. Possediamo, dunque, due tipi di memoria funzionalmente distinti, una instabile e dissipativa detta memoria a breve termine e una duratura detta memoria a lungo termine. Il consolidamento dell’informazione, cioè il suo passaggio a una forma di memorizzazione stabile e duratura nel tempo, sembra richiedere modificazioni permanenti a carico dei circuiti sinaptici. Così tra i neuroni coinvolti nel processo di memorizzazione si formerebbero alcune nuove sinapsi, mentre altre verrebbero stabilizzate e altre ancora potrebbero decadere. Negli ultimi anni è stato possibile identificare le regioni connesse al problema di memorizzazione e alcune loro connessioni. I ricordi si originano quasi sempre da impressioni sensoriali. Quella visiva è stata la prima ad essere studiata per identificare le zone coinvolte nella percezione della sensazione e nella sua integrazione in un’esperienza percettiva. L’osservazione di un’immagine stimola le cellule nervose della retina2 che, attraverso il nervo ottico, portano l’informazione ad un’area del cervello situata sulla sua superficie posteriore e detta corteccia visiva. La via prosegue convogliando le informazioni dalla corteccia visiva alla corteccia temporale inferiore situata nel lobo temporale; lungo questa via l’informazione viene anche elaborata, riguardo forma, colore, struttura, dimensione dell’oggetto in esame, ma via via che le informazioni si avvicinano alle stazioni terminali della via nervosa 2 Coni e bastoncelli. 15 Capitolo 1 – Il neurone, le cellule staminali e la memoria offrono un’immagine dell’oggetto sempre più ampia, comprensiva cioè di caratteristiche sempre più complesse. Alla stazione terminale, nella corteccia temporale inferiore, l’immagine dell’oggetto risulta così completa. In modo del tutto simile, anche se avvalendosi di stazioni di sosta poste in altre zone specifiche del cervello, arrivano al cervello informazioni relative agli altri organi di senso: udito, tatto, gusto ecc… E’ stata formulata un’ipotesi plausibile su come si formano i ricordi di riconoscimento. Le strutture cerebrali interessate sono l’ippocampo e l’amigdala. Esse si trovano sulla superficie interna del lobo temporale e presentano estese connessioni con la corteccia temporale inferiore. Entrambe mediano la memorizzazione delle percezioni visive tant’è che la loro rimozione danneggia la memoria basata sul riconoscimento visivo e provoca amnesia totale. Vi sono anche altre stazioni tra cui il diencefalo, costituito da talamo e ipotalamo. Il diencefalo, l’amigdala e l’ippocampo, tra loro connessi danno origine ad un circuito della memoria che li rende automaticamente necessari al processo. La memorizzazione non dipende quindi dai contributi individuali di ciascuna di queste zone ma dalla loro attività combinata in un unico circuito. I nuclei del talamo sono a loro volta collegati con una parte della corteccia posta sotto la parte anteriore del cervello. In definitiva la stazione terminale del sistema visivo si collega a due circuiti della memoria che si originano una nell’amigdala e l’altro nell’ippocampo. Entrambi si avvalgono di alcune parti del diencefalo e della corteccia prefrontale. Tutte e tre le strutture inviano a loro volta segnali alla regione proencefalica inferiore. Essa infatti attraverso le numerose connessioni con la corteccia agirebbe sull’area sensoriale attraverso la liberazione di acetilcolina, un neurotrasmettitore, che forse unitao ad altri neurotrasmettitori, indurrebbe modificazioni permanenti nelle sinapsi del gruppo di neuroni interessati a quel determinato ricordo visivo. Questo comporterebbe l’archiviazione della percezione, ossia la formazione di uno schema particolare di connessioni che corrisponde a un ricordo permanente. I depositi dei ricordi si troverebbero quindi nelle stesse aree corticali. Capitolo 1 – Il neurone, le cellule staminali e la memoria 16 Esistono però altre forme di ricordo oltre a quelle di mero riconoscimento di un oggetto o di un volto. Talora il ricordo viene evocato da un’esperienza sensoriale diversa da quella che lo ha originato. Così un profumo può portarci alla mente l’immagine di un fiore o una voce può richiamare alla mente il volto di una persona. Meccanismi di richiamo incrociato come questi fanno supporre che nel magazzino dei nostri ricordi le diverse aree corticali interessate al deposito siano tra loro collegate. L’associazione tra i diversi tipi di memoria sarebbe mediata dall’amigdala che, inviando connessioni di ritorno alle diverse aree sensoriali della corteccia, può suscitare ricordi diversi. L’ippocampo invece risulterebbe più direttamente coinvolto nel riconoscimento spaziale dell’oggetto. In un animale selvatico la vista dell’uomo scatena la paura, ma se gli viene asportata l’amigdala non si manifesta più un tale timore. L’amigdala non solo fa acquisire un peso emotivo alle percezioni sensoriali ma permetterebbe anche alle emozioni di selezionare il nostro modo percettivo. L’amigdala rappresenta il filtro grazie a cui solo quegli stimoli che hanno un significato emotivo riusciranno a catturare la nostra emozione. Questa attenzione selettiva può essere mediata dall’amigdala in virtù delle sue connessioni con le strutture profonde del cervello implicate nella risposta emotiva e le aree sensoriali della corteccia cerebrale. E’ stato verificato che molti neuroni dell’amigdala producono endorfine e che molti neuroni corticali, facenti parte delle vie di elaborazione sensoriale, dispongono di recettori per questi ormoni, tanto più numerosi quanto più ci si avvicina alle stazioni terminali delle vie sensoriali. Lo stato emotivo influenza così la realtà che percepiamo: lo stesso paesaggio può sembrarci un giorno meraviglioso e un altro giorno neppure degno di uno sguardo. Lo stesso meccanismo permettere di imprimere nella nostra memoria eventi con un’intensa carica emotiva. Capitolo 2 Interfaccia neurone-silicio 2.1 I primi esperimenti di interfaccia I cervelli e i computer lavorano entrambi elettricamente, è una sfida intellettuale e allo stesso tempo tecnologica cercare di interfacciare direttamente i due sistemi. Allo stadio attuale delle nostre conoscenze teoriche e della nostra tecnologia non siamo in grado di stabilire che cosa ci riservi il prossimo futuro, se dovremmo aspettarci tessuti cerebrali integrati nei computer oppure chip integrati direttamente nel nostro cervello. Le uniche cose che possiamo attenderci sono solo domande a cui non sappiamo dare ancora una risposta: se lo straordinario sviluppo della fisica allo stato solido delle componenti elettroniche insieme alla neurofisiologia, ci permetteranno di “accoppiare” sistemi elettronici e biologici eccitabili tramite ioni, se riusciremo a sviluppare i necessari concetti fisici per l’accoppiamento iono-elettronico e le dinamiche di reti neuroelettroniche ibride. Una cosa però è certa: qualunque siano le ricerche svolte in questo campo, ci aiuteranno a capire meglio l’architettura del cervello e porteranno a uno sviluppo di applicazioni mediche e scientifiche innovative. Già dai primi anni novanta sono state condotte con successo delle ricerche in tal senso, stabilendo per la prima volta un interfaccia elettrica tra cellule nervose e microstrutture semiconduttrici in entrambe le direzioni. In particolare vennero utilizzati i neuroni delle sanguisughe, notoriamente grandi e quindi facili da manipolare, uniti a transistor disposti su una piastra di silicio [Fro&Al]. Capitolo 2 – Interfaccia neurone-silicio 18 Dopo questi primi, rudimentali, passi iniziali sono state seguite due precise direzioni: 1. “Verso il basso”, viene studiata la natura microscopica della giunzione neurone-silicio rispetto alla sua struttura e le sue proprietà elettriche. Lo scopo è una completa descrizione fisica della giunzione per ottimizzare l’interfaccia neuroelettronica, (figura 1). 2. “Verso l’alto”, si assemblano semplici sistemi ibridi che combinano neuroni con dispositivi microelettronici semiconduttori. Qui lo scopo è una supervisione di numerosi neuroni in una rete definita da contatti non invasivi tra le cellule e il substrato semiconduttore, e questo è necessario per lo studio di processi dinamici distribuiti come l’apprendimento e la memoria. Figura 1: Cellule nervose di un topo coltivate su di un chip Capitolo 2 – Interfaccia neurone-silicio 19 Oltre al “semplice” studio della giunzione neurone-silicio e di tutte le sue implicazioni, sono stati svolti anche molti altri esperimenti differenti per scopo e natura [Fro02]. Nel 1999 sono stati condotti dal professor William Ditto e i suoi collaboratori, presso l’università di Atlanta, Georgia, in collaborazione con l’università di Bordeaux, Francia, alcuni esperimenti volti a creare delle semplici computazioni attraverso i neuroni di sanguisughe. L’esperimento consiste nel collegare due neuroni tra di loro e di collegarli entrambi con un computer in grado di inviare dei segnali selettivamente ad entrambi. La difficoltà maggiore nella gestione dei segnali sta nel fatto che questi, nei sistemi biologici, non possono essere trattati come segnali digitali di tipo “acceso” o “spento”, quindi le istruzioni software che governano l’invio dei segnali utilizzano una branca della matematica nota come “teoria del caos”. Attraverso questa teoria Ditto è stato in grado di far compiere ai due neuroni una semplice addizione. In realtà, attraverso delle simulazioni al computer, Ditto e Sudeshna Sinha, presso l’Istituto di Scienze Matematiche di Madras, India, hanno mostrato come grandi gruppi di neuroni siano in grado di compiere moltiplicazioni e operazioni logiche [Dit99]. Le porte aperte da Ditto sono estremamente affascinanti perché ci si prospetta un futuro in cui i biocomputer saranno in grado di trovare da soli, senza l’aiuto di nessun programmatore, le soluzioni adatte ai vari problemi e forse di sostituire in certi campi addirittura l’uomo. Recentemente, nel 2002, un team di ricercatori guidati da Catherine Schmidt dell’Università di Austin, Texas, è riuscito a posizionare un semiconduttore esattamente nel punto desiderato della superficie di una cellula nervosa umana, fatto di fondamentale rilevanza visto che fino ad ora le cellule nervose utilizzate erano solo quelle di topi, sanguisughe e lumache. Queste ricerche sono importanti sia a livello teorico sia per i loro potenziali risvolti applicativi: la possibilità di venire in aiuto di chi soffre di problemi neurologici cronici e degenerativi, come epilessia e morbo di Parkinson, Capitolo 2 – Interfaccia neurone-silicio 20 e anche di chi ha perso il controllo delle funzioni motorie, ad esempio conseguenze di un ictus. L’obiettivo finale è quello di usare un dispositivo elettronico per aggirare il danno inflitto a certe porzioni del cervello e permettere agli impulsi neurali di arrivare comunque a stimolare un muscolo oppure un braccio meccanico. E’ stato utilizzato un sistema di elettrodi inseriti nel cervello che hanno permesso di tradurre in istruzioni per un computer i segnali elettrici trasmessi dalle cellule neurali responsabili delle funzioni cognitive. Questi esperimenti, condotti a partire già dal 1998, avevano l’obiettivo a breve termine di stabilire la possibilità di una linea di comunicazione con pazienti colpiti da paralisi totale. Solo di recente i ricercatori hanno aperto la strada alla messa a punto di congegni in grado di far svolgere a questi stessi pazienti semplici compiti di routine come accendere e spegnere la luce. Sono infatti riusciti a dimostrare che è possibile interpretare i messaggi neurali emessi dal cervello di una scimmia da laboratorio e usarli per controllare un braccio robotico connesso ad un computer [Vig02]. Nel 2000 un team di ricercatori della Northwestern University di Chicago, dell’Università dell’Illinois e dell’Università di Genova, hanno presentato il risultato delle loro ricerche: la creazione di una strana creatura ibrida costituita da un corpo meccanico controllato dal cervello di un pesce. Sensori di luce alloggiati nel corpo meccanico forniscono al cervello gli stimoli esterni. Il tessuto cerebrale processa queste informazioni per generare dei segnali che vengono inviati al motore del robot per cambiare direzione in risposta agli stimoli dell’ambiente. Il robot possiede pochi neuroni prelevati dalla lampreda marina Petromyzon marinus, un vertebrato primitivo simile alle anguille. Per creare questo “animale artificiale” i ricercatori hanno estratto il cervello e parte della corteccia sotto anestesia totale e l’hanno mantenuta in una soluzione salina ossigenata e refrigerata; hanno poi isolato un gruppo di poche cellule note con il nome di cellule di Müller. Queste cellule sono responsabili dell’interazione tra i Capitolo 2 – Interfaccia neurone-silicio 21 segnali provenienti dai sensori e i comandi inviati alle parti meccaniche, nonchè aiutano l’orientamento della lampreda stessa. I neuroni tuttavia non sono stati posti all’interno del corpo meccanico ma sono stati collegati ad esso con dei cavi. Di fronte ad alcuni stimoli luminosi il robot ha presentato diversi comportamenti: ha seguito la luce, ha evitato la luce, si è messo a “camminare” in circolo. La ricerca originariamente avrebbe dovuto studiare gli adattamenti delle cellule del cervello di fronte a degli stimoli che cambiano in continuazione, tuttavia Mussa-Ivaldi sostiene che capire come i neuroni comunichino con le macchine artificiali è già un risultato importante [Mus00] [Re&Al]. Dal 1999 un altro gruppo di ricercatori conduce degli esperimenti sulle “reti neurali coltivate”. Il loro scopo è quello di capire le correlazioni morfologiche dell’apprendimento e della memoria. Vengono utilizzati sistemi di neuroni coltivati su di un substrato di silicio, sviluppato al Pine Lab, pionieri in questo campo. I neuroni utilizzati vengono prelevati dall’ippocampo dei topi e vengono fatti crescere sulla piastrina: questi formano rapidamente delle sinapsi e sviluppano spontaneamente complessi schemi di connessione. Stimolando gruppi di neuroni con vari schemi di “ potenziali d’azione simulati” si spera di osservare dei cambiamenti morfologici nelle reti di neuroni così coltivate, che possono indicare come i neuroni, nei cervelli viventi, cambiano per imparare qualcosa di nuovo. Questi segnali possono indurre cambiamenti nel numero o nella grandezza delle sinapsi, nella crescita dendritica, nella formazione di spine dendritiche o nella interazione con le cellule gliali [Pot&Al]. Studiando come l’attività elettrica influenza la morfologia neuronale, e come a sua volta questi cambiamenti influenzano le proprietà elettriche della rete stessa, saremo in grado di avere preziosi parametri per lo studio delle reti neurali artificiali su computer. Questo ci permetterà di sviluppare sistemi di apprendimento artificiali che si avvantaggiano dell’adattamento intelligente presente nei sistemi biologici. Capitolo 2 – Interfaccia neurone-silicio Figura 2: L'esperimento di Potter 22 23 Capitolo 2 – Interfaccia neurone-silicio 2.2 L’esperimento del Max Planck di Monaco Di particolare rilevanza sono gli ultimi esperimenti condotti da Peter Fromherz presso il Max Planck Institute of Biochemistry che mostrano come in questi ultimi anni si siano fatti passi da gigante nello studio e nell’implementazione, tuttavia ancora allo stato embrionale, di interfacce tra neuroni e chip in silicio. Il silicio è adatto a fungere da substrato elettronicamente conduttivo per tre ragioni: 1. Attualmente è disponibile una tecnologia molto avanzata e ben stabilita dei semiconduttori per fabbricare dispositivi elettronici microscopici. 2. Una crescita di una strato di biossido di silicio sopprime i processi elettrochimici che possono portare alla corrosione e al danneggiamento delle cellule. 3. I chip di silicio rivestiti di biossido di silicio sono perfetti substrati inerti per la coltura di cellule nervose. Le cellule nervose, che hanno un diametro di 10-100 µm, sono circondate da una membrana elettricamente isolante. Un sottile strato, spesso circa 5nm, separa l’elettrolite intracellulare dall’ambiente. La corrente elettrica attraverso la membrana è mediata da specifici canali proteici per il sodio e il potassio con una conduttanza di circa 10-100 pS. I neuroni e gli elettroliti sono conduttori di ioni, mentre il silicio è un conduttore di elettroni. Una volta soppressa la corrente di Faraday all’interno dell’interfaccia dal biossido di silicio, l’accoppiamento tra cellule e chip può essere raggiunto solo attraverso la polarizzazione elettrica. Tuttavia, quando una cellula nervosa cresce su di un supporto solido, non ci si deve aspettare che la membrana lipidica e il biossido di silicio formino un dielettrico coerente che possa perfettamente mediare un’interazione capacitiva. Capitolo 2 – Interfaccia neurone-silicio 24 Le molecole delle proteine, che si protendono dalla membrana della cellula e che si depositano sul substrato, danno vita a una pellicola elettrolitica tra la cellula e il chip: questo fenomeno disaccoppia elettricamente il chip e la cellula. Si crea allora una struttura a “sandwich” in cui un sottile strato conduttivo viene separato dagli ambienti conduttivi di silicio e citoplasma grazie a sottili pellicole isolanti di biossido di silicio e membrane lipidiche (figura 3). Figura 3: Modello di contatto cellula-semiconduttore La giunzione cellula-semiconduttore ha la natura fisica di un nucleo conduttore isolato. Le correnti elettriche e la diffusione degli ioni in questa struttura a “sandwich” governano la stimolazione e la registrazione dell’attività neuronali sul chip. L’eccitazione di una cellula nervosa, un fatto dovuto al potenziale d’azione, consiste in una veloce apertura dei canali di sodio con un concomitante flusso di corrente all’interno della cellula e in una ritardata apertura dei canali di potassio con un flusso di corrente diretto verso l’esterno. Durante un potenziale di azione, le correnti capacitive e ioniche scorrono attraverso la membrana del contatto. La corrente è spinta attraverso la resistenza del nucleo dando così origine nella giunzione ad un voltaggio extracellulare Vj(t) dipendente dal tempo. Se sufficientemente forte, questo stimolo è in grado di influenzare la membrana cellulare, in particolare può aprire i canali di ioni Capitolo 2 – Interfaccia neurone-silicio 25 controllati dal voltaggio, in modo tale da ottenere eventualmente un potenziale d’azione. L’efficienza dell’accoppiamento neurone-silicio dipende dalla resistenza della giunzione e dalla corrente che attraversa la membrana cellulare collegata alla stessa giunzione, ma non solo: è importante capire anche quale debba essere la distanza che separa il chip dalla cellula e quale sia la sua resistenza elettrica. La misurazione della distanza tra chip e cellula viene fatta attraverso una procedura denominata FLIC ( fluorescence interference contrast) che si basa su alcune proprietà del silicio, tra le quali quella di riflettere la luce visibile (figura 4). Figura 4: Fluorescence interference contrast (FLIC) Sono stati fabbricati chip in silicio con piazzole microscopiche di biossido di silicio (2,5 x 2,5 µm2, con un’altezza di circa 20 nm) su cui sono state coltivate cellule neurali per studiare il gap che divide la cellula dal chip. Negli esperimenti condotti si è potuto notare che la distanza misurata si attesta attorno ai 109 nm. Questa “grande” distanza è causata dalle forze entropiche delle molecole proteiche che sono ancorate alla membrana e sono usate per isolare il chip in modo da sviluppare la crescita cellulare. Sono state utilizzati diversi tipi di cellula e vari tipi di rivestimenti: il risultato migliore che si è ottenuto è di 40 nm. Capitolo 2 – Interfaccia neurone-silicio 26 Per quanto riguarda invece la resistenza del gap tra cellula e chip, in base ad alcune misurazioni ed anche alla teoria questa si attesta attorno ai 10 MΩ. E’ molto affascinante combinare in un singolo esperimento due fondamentali campi della scienza moderna, la tecnologia genetica e quella dei semiconduttori, e osservare la diretta interazione degli elementi fondamentali della dinamica del cervello e dei transistor: i canali di ioni nelle membrane e i canali di elettroni dei transistor. Cerchiamo però di capire meglio come funziona questa interazione. Un potenziale d’azione conduce una corrente elettrica attraverso la membrana della cellula e attraverso il gap che separa cellula e chip. Il voltaggio extracellulare Vj(t), che modula la struttura a banda del semiconduttore, nasce da una sovrapposizione di tutte le correnti, ioniche e capacitive, presenti nel contatto. La forma e l’ampiezza del segnale è controllata dall’accumulo e dal rilascio delle conduttanze di ioni (nella membrana) e dalla specifica conduttanza della giunzione. Monitorando l’attività dei neuroni di sanguisughe, lumache e topi, si possono osservare una certa varietà di segnali che possono in qualche modo essere compattati in tre classi (figura 5): 1. Il voltaggio extracellulare è proporzionale alla prima deriva del potenziale d’azione. Questa risposta di tipo A-type avviene quando tutte le conduttanze di ioni sono rilasciate nella giunzione e le correnti capacitive sono controllate. 2. Il voltaggio extracellulare è proporzionale al potenziale d’azione stesso. Questa risposta di tipo B-type è stata osservata quando una non specificata conduttanza prevale nel contatto in modo che una corrente Ohmica attraverso la membrana e il gap controlli il voltaggio extracellulare. 3. Il voltaggio extracellulare assomiglia all’inverso della prima deriva del potenziale d’azione. Il segnale si presenta quando tutte le conduttanze di ioni pertinenti sono accumulate nella giunzione. Un Capitolo 2 – Interfaccia neurone-silicio 27 intera classe di segnali (C-type) è stata trovata per la selettiva accumulazione di vari canali di ioni nei neuroni delle sanguisughe e dei topi. Figura 5: Le tre classi di segnali La stimolazione del neurone attraverso l’interfaccia elettrica senza la presenza di correnti di Faraday richiede un’alta capacità per area unitaria del chip, per far in modo di iniettare corrente sufficiente nella giunzione. Punti di stimolazione molto efficienti sono stati costruiti utilizzando silicio fortemente drogato con un sottile strato di biossido di silicio (figura 6) [Fro02]. Capitolo 2 – Interfaccia neurone-silicio 28 Figura 6: I punti di stimolazione I neuroni delle sanguisughe possono essere stimolati da un singolo voltaggio (un impulso) applicato ai punti di stimolazione sotto il neurone. Tuttavia il meccanismo della stimolazione non è ancora del tutto chiaro ed alcuni risultati ottenuti sono ancora da interpretare. Sappiamo che uno stimolo dà origine ad un voltaggio extracellulare Vj(t) con velocità esponenziale che si presenta nel gap tra la membrana e il chip. Quando siamo in presenza di una giunzione B-type, come sempre accade con i neuroni delle sanguisughe, il voltaggio Vj(t) inietta una corrente nel neurone che ha come conseguenza la stimolazione del neurone stesso. Quando siamo invece in presenza di una giunzione A-type, la stimolazione del neurone avviene tramite un voltaggio molto forte e improvviso applicato al chip. Quello che non è ancora chiaro è il ruolo, fondamentale, dell’apertura dei canali di ioni, che resta ancora un problema da studiare in dettaglio. Capitolo 2 – Interfaccia neurone-silicio 2.3 29 Reti neuronali biologiche: crescita e sinapsi Una volta stabilita l’interfaccia elettrica di un singolo neurone, il passo successivo e affascinante è quello di creare una vera e propria rete neurale biologica interfacciata con il chip. Se i neuroni potessero essere uniti tra di loro attraverso ben definite connessioni sul chip, sarebbe possibile studiare sperimentalmente le complete dinamiche delle reti neurali biologiche. Uno dei nostri scopi sarebbe l’implementazione di una rete neurale simmetrica dove le forze sinaptiche sono “calcolate” in base agli stimoli dell’attività neuronali e dove sarebbe possibile attraverso la registrazione dell’attività neurale stessa provare una qualche forma di memoria associativa. Per la costruzione di piccole reti neurali biologiche sono stati utilizzati i neuroni degli invertebrati grazie alle loro grandi dimensioni, alla facilità di manipolazione e soprattutto all’efficienza delle giunzioni neuro-elettriche. I percorsi della matrice proteica extracellulare, dove far sviluppare le connessioni, sono stati creati con la fotolitografia UV [F&S94]. Posizionando una cellula in un’area di “partenza” si è osservato un preciso sviluppo delle biforcazioni secondo i pattern stabiliti [Fro&Al] (figura 7). Figura 7: Crescita dei neuriti sui pattern chimici Capitolo 2 – Interfaccia neurone-silicio 30 Tuttavia sussistono due problemi fondamentali con la guida chimica qui utilizzata: 1. Inizialmente i neuriti seguono le guide chimiche tracciate, ma nelle fasi successive si accorciano ed escono dalle linee guida (figura 7). 2. I neuriti seguono tutti i pattern guida e non è possibile controllarne la crescita su un solo pattern oppure in una specifica direzione. Attualmente non siamo in grado, facendo crescere i neuroni in coltura, di ottenere delle connessioni sinaptiche tra i neuriti. Tuttavia alcuni piccoli passi in questa direzione sono stati fatti: sono stati isolati dei singoli neuroni di lucertola e sono stati fatti crescere su di un chip sotto certe condizioni [Pri00]. Sono stati creati i pattern attraverso la fotolitografia e sono stati fatti crescere i neuroni uno di fronte all’altro: dopo l’incontro si è potuto vedere come si fosse creata una sinapsi tra i due neuriti. Purtroppo però per riuscire a creare una rete neurale in grado anche solo di fare semplicissime computazioni dobbiamo superare tutta una serie di problematiche: 1. La formazione della rete deve essere in qualche modo controllata durante la crescita dei neuroni. 2. La struttura di crescita della rete deve essere meccanicamente stabilita. 3. Le reti neurali create attraverso pattern chimici in definite posizioni devono essere assemblate. Il primo passo per l’interfacciamento tra una rete neurale e il chip è stata l’implementazione di un semplice circuito neuroelettronico con un neurone elettronicamente stimolato e uno per la registrazione delle risposte. Un ulteriore passo in avanti è stato quello di posizionare i neuroni sopra i punti di stimolazione e lasciarli crescere liberamente in modo da unire i loro Capitolo 2 – Interfaccia neurone-silicio 31 neuriti attraverso dei collegamenti sinaptici. Tuttavia le forze di interazione dei neuriti hanno spostato le cellule dai punti di stimolazione e quindi l’interfaccia tra due neuroni è avvenuta in pochissimi casi. Per ovviare questo problema sono stati creati dei “picchetti” attorno ai punti di stimolazione, attraverso la fotolitografia (figura 8). Il loro scopo è quello di imprigionare il neurone in modo che le forze in gioco non possano spostare il neurone stesso. Figura 8: Rete neurale Purtroppo anche se si riesce in qualche modo a controllare lo spostamento del neurone, non si può dire lo stesso della sua crescita. Nel corso dell’esperimento non è stato possibile cercare di creare una vera e propria topologia della rete neurale attraverso precise connessioni, considerando anche il numero dei neuroni che si potrebbe voler connettere. Una soluzione, che gli sienziati intendono proporre è quella di una rete, diciamo, “caotica”, ossia lasciar crescere i neuroni liberamente sul substrato di silicio e studiarne dopo le risposte ad eventuali stimoli esterni. In conclusione non possiamo ancora sapere se questa nuova tecnologia sarà utilizzabile in biologia, medicina e anche nell’information technology. Tuttavia i primi passi e le prime implementazioni sono in un certo senso Capitolo 2 – Interfaccia neurone-silicio 32 incoraggianti e di sicuro molto stimolanti, tanto più che questo tipo di ricerca è molto trasversale e coinvolge una grande quantità di discipline differenti. Per migliorare questi risultati preliminare, per quanto riguarda i semiconduttori, è necessario costruire le microstrutture in grado da una parte di registrare le risposte dei neuroni tenendo conto del rumore, e dall’altra di essere in grado di stimolare i neuroni in modo “corretto”. Per quanto riguarda invece le cellule, è necessario sviluppare una tecnologia in grado di far crescere i neuroni in modo predicibile e controllato per poter creare reti neurali con precise caratteristiche topologiche. Capitolo 2 – Interfaccia neurone-silicio 2.4 33 Conclusioni In conclusione possiamo affermare che la ricerca sull’interfaccia neurone- silicio sta facendo passi da gigante ogni giorno sempre più strabilianti. In effetti è difficile dare una precisa catalogazione di tutti gli esperimenti che sono stati fatti in questi ultimi anni, sia per scopo che per natura. Ad esempio l’esperimento condotto da Fromherz al Max Planck di Monaco, tra l’altro uno dei pionieri in questo campo, pone la sua attenzione sugli aspetti prettamente fisici della giunzione tra cellula e silicio, studiandone i comportamenti dal punto di vista elettrico. Di sicuro sarà la base per successivi e più complessi esperimenti, in cui si porrà soprattutto l’attenzione sulle cellule stesse e sul loro comportamento, in particolare sulla loro aggregazione e sulla possibilità di farle crescere secondo un determinato schema morfologico. Tuttavia ci sono molti altri team di ricerca che si occupano della questione, portando avanti ricerche che sono anche molto differenti da quella di Fromherz e che hanno scopi del tutto diversi: ad esempio le ricerche di Ditto volte a creare delle “computazioni biologiche”; le ricerche in campo medico di Catherine Schmidt o ancora la creazione fantascientifica di un cyborg da parte di MussaIvaldi, Vittorio Sanguinetti et al., e infine, ma non meno importanti, le ricerche di Potter per cercare di capire come gli aspetti morfologici del cervello possano influenzare l’apprendimento e la memoria. Capitolo 3 Alla ricerca della coscienza 3.1 Le macchine “pensanti”: i primi cinquant’anni La storia delle macchine pensanti si sviluppa nella seconda metà del Novecento. Il suo percorso non è affatto lineare perché via via tecnologia e discipline della mente umana si chiariscono reciprocamente ambiti e definizioni. A loro volta, i mass media (insieme alla forza del cinema fantascientifico) propongono miti, esaltano successi e creano scenari non sostenibili dal punto di vista realizzativo. Le delusioni per risultati sperati non raggiunti sono ancora più cocenti e il percorso è tutto un susseguirsi di affannose accelerazioni e repentine scomparse dalla scena. In questi ultimi 50 anni il ruolo del calcolatore elettronico è stato determinante: ha creato quel substrato comune sul quale tecnologi, scienziati e umanisti hanno potuto confrontarsi, ma soprattutto ha dato l’occasione a filosofi, psicologi e neuroscienziati di formulare teorie che l’elaboratore stesso avrebbe potuto validare o confutare. In questi cinquant’anni abbiamo assistito all’avvento della cibernetica, della bionica, della robotica, delle reti neurali, della loro scomparsa e del loro riapparire sotto la dizione di connessionismo. Abbiamo atteso i calcolatori della quinta generazione e, subito dopo, i biochip ci sono stati presentati come i componenti dei calcolatori della sesta generazione. Abbiamo visto macchine pensanti virtuali come i robot-software e come i virus che infestano Internet, inquietanti creature della Vita Artificiale. Hanno permesso di rivisitare migliaia di anni del pensiero dell’essere umano. Sicuramente il calcolatore elettronico non è Capitolo 3 – Alla ricerca della coscienza 35 stato decisivo in questo processo di chiarificazione, ma è stato il deus ex machina cha ha permesso una nuova riflessione e sistematizzazione delle discipline relative allo studio della mente e del cervello. La filosofia (o le filosofie) della mente, la scienza cognitiva, la psicologia cognitiva e le neuroscienze sono, oggi, in grado di definire ambiti e contesti in cui il costruttore dovrà muoversi, anche se, paradossalmente, il calcolatore elettronico potrebbe non essere il componente d’elezione attorno al quale progettare macchine intelligenti o coscienti. Nell’ambito delle tematiche della coscienza artificiale ci si deve interrogare su cosa s’intende per coscienza, ossia la capacità da parte di un soggetto umano di fare esperienza dei propri pensieri, di se stesso e del mondo. La coscienza è stata la grande assente della ricerca scientifica nel Novecento: adesso i tempi stanno cambiando e la letteratura sull’argomento sta dilagando, impegnando studiosi e premi Nobel che provengono dalle discipline più disparate (Roger Penrose, Gerard Edelman e Francis Crick). Fino a oggi si sono applicate al problema della coscienza le categorie di Galileo, di successo nello spiegare i fenomeni fisici, ma insufficienti nello spiegare i fenomeni mentali. Quando un essere umano fa esperienza del mondo (ossia percepisce colori e sapori, oppure prova dolore e piacere) coglie degli aspetti qualitativi della realtà, che la scienza galileiana non è in grado di misurare. Tuttavia le qualità esistono: anche se da Cartesio in poi esse sono state relegate in una dimensione spirituale che non può venire trattate scientificamente. Finora è stato possibile eludere il problema perché non vi erano le condizioni tecnologiche per poter costruire un essere cosciente artificiale. Finora la progettazione di artefatti (automobili, ponti, satelliti, computer) non ha richiesto la comprensione della coscienza. Oggi che i robot iniziano ad avvicinarsi all’essere umano - sia come capacità di calcolo sia come struttura fisica — il problema non può più essere evitato. In particolare l’eminente fisico teorico, Roger Penrose, nel suo libro “Ombre della mente” fornisce una particolare visione della coscienza, della sua non computabilità e della sua possibile “dimora” biologica [Ta&Al]. 36 Capitolo 3 – Alla ricerca della coscienza 3.2 La non computabilità del pensiero cosciente Negli ultimi anni i nostri sensi sono stati ampiamente estesi dalla tecnologia, sia moderna che antica: basti pensare ad esempio alla vista, aiutata da strumenti quali occhiali, microscopi, videocamere ecc…per non parlare delle nostre capacità di calcolo, amplificate enormemente dalle capacità dei moderni calcolatori. La tecnologia quindi evolve accrescendo nello stesso momento le nostre capacità fisiche e mentali e la nostra abilità nel compiere azioni di routine. Ma ci si chiede che cosa avvenga nelle operazioni mentali non di routine che richiedono autentica intelligenza e comprensione, se sia ragionevole parlare in termini scientifici di simili cose o se la scienza non sia assolutamente in grado di affrontare questioni sull’intelligenza e la coscienza umana. Sono state fatte molte congetture a proposito della possibile creazione di un’intelligenza artificiale (AI) che sia in grado di simulare esattamente l’attività dell’uomo, sia fisica che mentale. Possiamo inquadrare tutte queste teorie in quattro punti di vista: 1. Ogni pensiero è computo: il senso della consapevolezza è suscitato puramente e semplicemente dall’esecuzione di computi appropriati. 2. La consapevolezza è una caratteristica dell’azione fisica del cervello: e mentre qualsiasi azione fisica può essere simulata computazionalmente, la simulazione computazionale non può di per sé suscitare consapevolezza. 3. Un’appropriata azione fisica del cervello suscita la consapevolezza, ma questa azione fisica non può neppure essere adeguatamente simulata computazionalmente. 4. La consapevolezza non può essere spiegata in termini fisici, computazionali o di altro tipo scientifico. Capitolo 3 – Alla ricerca della coscienza 37 Il punto di vista 1 afferma che qualsiasi procedimento all’interno del cervello è comunque generato da un algoritmo, anche estremamente sofisticato e a noi sconosciuto. La consapevolezza, come anche l’intelligenza e qualsiasi altra caratteristica “umana”, quindi deriverebbero esclusivamente da procedimenti di calcolo molto complessi. Questa tesi prende anche il nome di IA forte. Il punto di vista 2, noto come IA debole, afferma che è possibile simulare computazionalmente il comportamento della mente umana, almeno per quanto riguarda il suo comportamento esterno. Secondo 2 quindi un robot potrebbe comportarsi esattamente come un essere umano senza però possederne la consapevolezza. Il punto di vista 3 afferma che gli effetti esterni della coscienza non possono essere adeguatamente simulati in modo computazionale. Il punto di vista 4 nega completamente la posizione del fisicalismo e considera la mente e tutte le sue manifestazioni come qualcosa di interamente inspiegabile in termini scientifici: è il punto di vista del misticismo. Secondo Roger Penrose il punto di vista 3 è quello che più si avvicina ad un’interpretazione e ad uno studio sulla coscienza. Penrose afferma che esiste un qualcosa che va al di là delle conoscenze del mondo fisico che abbiamo raggiunto finora e che necessitiamo di una nuova fisica, che lui identifica con la fisica quantistica, che ci possa portare a un qualche risultato. Sostiene inoltre che la coscienza è qualcosa che va oltre la semplice esecuzione di un algoritmo, seppur sofisticatissimo, nel nostro cervello. Nel 1930 il matematico Kurt Gödel dimostrò inconfutabilmente che nessun sistema formale3 di valide regole matematiche di dimostrazione può essere sufficiente, neppure in linea di principio, a dimostrare tutte le proposizioni vere dell’ordinaria aritmetica. Penrose, partendo da questo teorema, giunge alla conclusione che la comprensione matematica è qualcosa tipico dell’essere umano e che non può in nessun caso essere simulata computazionalmente su di un calcolatore. 3 Un sistema in cui sono definite, una volta per sempre, le formule di ragionamento matematico permesse in un’area specifica, includendo anche quelle richieste per trattare gli insiemi infiniti. Capitolo 3 – Alla ricerca della coscienza 38 Quando un matematico si trova di fronte ad un teorema da dimostrare oppure davanti ad un problema da risolvere, utilizza tutte le regole che conosce ma utilizza anche quella “fantasia matematica” che non scaturisce da nessun insieme di regole e che nemmeno il matematico riesce a definire, ed è proprio questa fantasia, o meglio “comprensione matematica”, che non può essere simulata computazionalmente. A sostegno di questa tesi Penrose esamina il problema della terminazione di un algoritmo. Non è possibile creare un algoritmo che determini se un procedimento di calcolo termina oppure no. Infatti se l’algoritmo termina non ci sono problemi, ma se l’algoritmo non termina allora non è possibile stabilire se proseguirà all’infinito, anche dopo svariati anni di calcolo, oppure si arresterà producendo un qualche risultato. In pratica il teorema di Göedel ci dice che un insieme di regole, di qualsiasi tipo è insufficiente per stabilire il problema dell’arresto. Tuttavia questo teorema deve essere visto sotto una luce più ampia, perché in verità afferma che le intuizioni disponibili ai matematici umani, sono al di là di qualsiasi sistema formalizzabile come un insieme di regole. Le regole possono, a volte, sostituire parzialmente la comprensione, ma non possono mai sostituirla del tutto [Pen94]. Capitolo 3 – Alla ricerca della coscienza 3.3 39 I microtubuli L’azione del cervello, secondo il punto di vista convenzionale, deve essere interpretata sulla base della fisica essenzialmente classica, o almeno questa è la strada che molti studiosi hanno intrapreso. Si ritiene infatti che il cervello sia attraversato da impulsi nervosi di tipo “acceso o spento” esattamente come accade per le correnti dei circuiti di un computer e che quindi non esistano fenomeni quali la sovrapposizione degli effetti o altri fenomeni prettamente quantistici. I biologi tuttavia concordano che alla base dei fenomeni elettrici e soprattutto chimici che governano il cervello possano esistere fenomeni di tipo quantistico, che però non sono visibili nella scala macroscopica. Di conseguenza si crede in larga misura che sia appropriato descrivere il funzionamento globale del cervello in modo classico, in cui le più sottili e misteriose caratteristiche della fisica quantistica non entrino a farne parte. Tuttavia, in base ad un osservazione fatta già nel lontano 1938, il fisico Herbert Fröhlich suggerì un possibile ruolo per effetti quantistici collettivi in sistemi biologici. Questo lavoro nacque dall’osservazione di un fenomeno osservato all’interno delle membrane biologiche che condusse Fröhlich a proporre la presenza in cellule attive di effetti vibrazionali, che sarebbero in risonanza con radiazione elettromagnetica a microonde, a 1011 Hz, come risultato di un fenomeno di coerenza quantistica4 biologica. Esistono ora alcune prove sperimentali proprio per questo tipo di effetto previsto da Fröhlich. Sebbene sia incoraggiante trovare una chiara possibilità che la coerenza quantistica abbia un qualche ruolo all’interno dei sistemi biologici, tuttavia non vi è ancora alcun legame tra questo e l’attività del cervello. Inoltre il modello connessionista del cervello sembra essere abbastanza ragionevole, al di là del grandissimo numero di connessioni tra i neuroni, ed efficacemente simulabile su di un calcolatore, dato che i segnali sono abbastanza “grandi” da essere 4 Questo fenomeno si riferisce a circostanze in cui un gran numero di particelle può cooperare collettivamente in un singolo stato quantico che rimane sostanzialmente non correlato con l’ambiente. Capitolo 3 – Alla ricerca della coscienza 40 macroscopici e quindi classicamente interpretabili. Penrose propone al riguardo un’idea molto affascinante, partendo da semplici considerazione fatte sui parameci, organismi unicellulari, infatti se dobbiamo credere che i neuroni siano le sole cose che controllano le azioni degli animali, allora il paramecio pone una seria ipoteca su queste considerazioni, visto che è in grado di aggirare ostacoli, ritirarsi davanti ai pericoli, interagire con l’ambiente e nuotare tramite le ciglia, il tutto senza possedere minimamente un sistema nervoso e non essendo un neurone. Come può ottenere tutto questo senza avere una singola sinapsi? Ci deve essere un qualche sistema di controllo che Penrose identifica con il citoscheletro, una struttura proteica che mantiene la forma della cellula. Sembra che il citoscheletro giochi per il paramecio il ruolo di scheletro, sistema muscolare, gambe, sistema di circolazione sanguigna e sistema nervoso. I neuroni, essendo cellule, possiedono anche loro un citoscheletro; questo significa che anche i neuroni possiedono un proprio sistema nervoso! Il citoscheletro è formato da molecole proteiche disposte in strutture di vario tipo, actina e filamenti intermedi, tra cui i microtubuli. Essi sono costituiti da tubi cilindrici cavi con diametro esterno di circa 25 nm e interno di circa 14 nm. Ciascun microtubulo è un polimero formato da proteine chiamate tubuline. Ciascuna tubulina è un dimero, cioè formata da due parti essenzialmente separate chiamate α-tubulina e β-tubulina. E’ una coppia di proteine globulari con una forma quasi ad arachide e disposte secondo un reticolo esagonale leggermente obliquo su tutta la lunghezza del tubo. Ciascun dimero di tubulina può esistere in due configurazioni geometriche differenti chiamate conformazioni. Vi sono prove che queste due conformazioni corrispondano a due stati differenti di polarizzazione elettrica del dimero, dovuti al fatto che un elettrone, situato al centro della giunzione tra α-tubulina e βtubulina, può spostarsi da una posizione a un’altra (figura 1). Capitolo 3 – Alla ricerca della coscienza 41 Figura 1: Il microtubulo Il centro di controllo del citoscheletro è il centrosoma, costituito da due cilindri di microtubuli che formano una “T” separata. Può sembrare strano che all’interno di una cellula ci siano due centri di controllo: da una parte il nucleo che contiene il materiale genetico e dall’altra il centrosoma. In effetti si ipotizza che la presenza di queste strutture sia dovuta ad un’antica “infezione”: le cellule che abitavano la terra vennero infettate da un organismo (forse uno spirochete) composto da proteine citoscheletriche, in seguito i due organismi si adattarono alla coesistenza [Sag76]. Ma qual è allora il ruolo dei microtubuli e del citoscheletro? Hameroff, neurobiologo che ha collaborato con Penrose alla famosa teoria OR, sostiene che possano avere un ruolo di automi cellulari dove i segnali complessi potrebbero essere trasmessi ed elaborati lungo i tubi come onde di stati di diversa polarizzazione elettrica delle tubuline, grazie alla loro conformazione. Lo stato di ciascun dimero sarebbe influenzato dagli stati di polarizzazione di ciascuno dei suoi vicini dando origine a certe regole specifiche che governerebbero la conformazione di ciascun dimero in funzione della conformazione dei suoi vicini. Questo consentirebbe a tutti i tipi di messaggio di essere trasmessi ed elaborati lungo ciascun microtubulo. Sembra che questi segnali che si propagano siano rilevanti per il modo con il quale i microtubuli trasportano varie molecole e per le varie reciproche connessioni tra i microtubuli vicini (MAP), proteine associate ai microtubuli. Capitolo 3 – Alla ricerca della coscienza 42 Ma qual è allora l’importanza dei microtubuli per i neuroni? In realtà non ne sappiamo ancora a sufficienza da poter trarre qualche conclusione, tuttavia sappiamo che i microtubuli corrono lungo gli assoni e i dendriti, pur non coprendone l’intera lunghezza, si estendono fino alle terminazioni presinaptiche dell’assone e anche nei dendriti, e tramite l’actina contrattile, una proteina, nelle spine dendritiche che formano la parte postsinaptica di una fessura sinaptica. Queste spine sono soggette a crescita e degenerazione, per mezzo della quale le interconnessioni del cervello subiscono continui e sottili cambiamenti. E’ proprio per questo motivo che si pensa che i microtubuli giochino un qualche ruolo fondamentale nella plasticità del cervello. Figura 2: Il neurone e i microtubuli Inoltre formano una rete comunicante molto estesa grazie proprio alle MAP. Penrose afferma che la non computabilità della comprensione umana sia dovuta a qualche fenomeno di coerenza quantistica su larga scala e che il luogo fisico dove avverrebbero tali fenomeni siano proprio i microtubuli. Hameroff Capitolo 3 – Alla ricerca della coscienza 43 aveva proposto, già nel 1974, che i microtubuli potessero agire come “guide d’onda dielettriche” grazie alle loro conformazioni. Forse gli stessi tubi cavi servono per fornire un isolamento efficace che consentirebbe allo stato quantico nel suo interno di rimanere non correlato con l’ambiente esterno per un periodo di tempo sufficientemente apprezzabile. A questo proposito è interessante notare i risultati di Emilio del Giudice e i suoi colleghi dell’Università di Milano (1983), in cui emergono dei segnali, confinati all’interno di una regione citoplasmatica, le cui dimensioni sono proprio quelle del diametro interno dei microtubuli. Questo conferirebbe valore alla tesi di Hameroff. Ma vi è un altro fatto importante da notare: i tubi stessi sembrano essere vuoti. Il termine “vuoto” in questo caso però si riferisce al fatto che contengano solo acqua, ma in una qualche forma che sembra “organizzata”5. Questa organizzazione dell’acqua sembra che possa favorire in qualche modo la possibilità di oscillazioni quantistiche coerenti dentro i tubi stessi. Queste idee aprono scenari molto affascinanti e altrettanto complessi da studiare. In realtà non sappiamo se tutti questi studi ci possano portare effettivamente verso una comprensione del funzionamento del cervello. Infatti l’interpretazione classica del cervello stesso sembra ancora essere la migliore dato che non si è ancora dimostrato la presenza di effetti quantistici nelle cellule e soprattutto la loro relazione con i segnali elettrici, macroscopici e quindi classicamente interpretabili, presenti nei neuroni. 5 Stato ordinato dell’acqua chiamato anche “acqua vicinale”. Capitolo 3 – Alla ricerca della coscienza 3.4 44 Microtubuli e coscienza La prova che il fenomeno della coscienza sia in qualche modo correlato con il citoscheletro e con i microtubuli viene in genere ottenuta prendendo in considerazione ciò che fa sì che la coscienza sia assente: gli anestetici generali, ossia il protossido d’azoto, etere, cloroformio, alitano, isofluorano, xeno.. Gli anestetici generali hanno l’incredibile proprietà di “spegnere” temporaneamente la coscienza, comunque in modo del tutto reversibile se le concentrazioni non sono troppo alte. Tuttavia è molto difficile dare un’interpretazione prettamente chimica del fenomeno, dato che sono moltissime le sostanze anestetizzanti e anche diverse tra di loro: basti pensare allo xeno che è un gas nobile e quindi inerte. Vi dev’essere un altro fenomeno che può spiegare l’azione degli anestetici. E’ stato proposto, da Hameroff e Watt nel 1983, che gli anestetici possano agire tramite le loro interazioni di van der Waals, la forza di interazione tra molecole che hanno momenti di dipolo elettrico, che interferiscono con le normali azioni di “passaggio” della tubulina. I dimeri di tubulina infatti possono avere due conformazioni differenti a causa di un elettrone posto al centro che può occupare due distinte posizioni. La forma globale del dimero dipenderebbe da questa posizione che può essere influenzata dalle forze di van der Waals esercitate da sostanze vicine. Quando gli anestetici si diffondono nelle cellule nervose le loro proprietà dielettriche possono interrompere le azioni dei microtubuli provocando la perdita della coscienza. A sostegno di questa tesi, che però non ha una descrizione dettagliata e accettata in generale, si può notare che è il citoscheletro ad essere direttamente attaccato dagli anestetici, dato che si sono riscontarti gli stessi effetti di perdita della coscienza o immobilizzazione sia in animali superiori che in organismi unicellulari come il paramecio. In quest’ultimo caso non è chiaro se sia attaccato il centrosoma o le ciglia, ma risulta comunque evidente che è il citoscheletro ad esserne interessato. Questo però non vuol dire che il paramecio abbia una qualche coscienza: Capitolo 3 – Alla ricerca della coscienza 45 in realtà potrebbero essere necessarie molte altre cose che facciano sorgere una consapevolezza o un intelligenza (neuroni, connessioni sinaptiche ecc…). Se infatti non fosse così allora tutte le singole cellule avrebbero una loro coscienza e il fegato sarebbe deputato ad essere sede di coscienza quanto il cervello. In conclusione le ipotesi e le idee qui elencate sono molto affascinanti e anche discutibili. Costituiscono comunque nuove strade verso lo studio del cervello e del suo funzionamento. Quello che comunque risulta chiaro è che non sarà possibile studiare i fenomeni di “coscienza”, “intelligenza” e “mente” senza considerare nuovi punti di vista, in particolare quelli forniti dalla fisica quantistica. Capitolo 4 Introduzione al quantum computing 4.1 Introduzione I computer sono diventati uno strumento essenziale della nostra società. Un problema che oggi si pone in conseguenza della diffusione dei computer è la sicurezza nella comunicazione tra computer in una rete. Un documento segreto scambiato tra due computer potrebbe essere intercettato e letto da una terza parte non autorizzata. Per evitare tale problema vengono studiati i sistemi crittografici (RSA e altri). Questi sistemi si basano sulla fattorizzazione in numeri primi di grandi numeri interi che può richiedere molti anni per essere risolta anche sui più potenti computer a nostra disposizione. Attualmente quindi la crittografia e tutti i suoi algoritmi si basano su una deficienza degli attuali computer. Questi sistemi sono largamente utilizzati nelle comunicazione tra computer, sia per la loro facilità di implementazione che per la loro difficoltà ad essere risolti e quindi decrittati. Tuttavia nel 1994 P. Shor, nel Laboratorio Bell della AT&T, scoprì che questa fattorizzazione può essere computata molto più velocemente con un modello di computer chiamato “quantum Turing machine”, che sta alla base del “quantum computing”. Tale scoperta ha riportato di colpo l’attenzione sul quantum computing, grazie al quale è teoricamente possibile penetrare anche gli algoritmi crittografici più complessi e sofisticati in un tempo relativamente breve (polinomiale). Una proposizione centrale nell’ambito della teoria della computabilità è la seguente congettura nota come tesi di Church-Turing: Capitolo 4 – Introduzione al quantum computing 47 “La classe delle funzioni intuitivamente calcolabili coincide con la classe delle funzioni calcolate da macchine di Turing.” In sostanza, tale congettura, ormai universalmente accettata e corroborata da numerose evidenze, stabilisce che concetti intuitivi ma vaghi quali algoritmo, procedura di calcolo, macchina calcolatrice, vengono esattamente catturati dal modello di calcolo proposto da Alan Turing nel 1936. Una macchina di Turing è definita da un insieme di regole su un nastro di input-output di lunghezza infinita che ne definiscono il comportamento. Il nastro è suddiviso in celle che contengono un simbolo oppure sono vuote. La macchina, attraverso una testina, analizza il nastro, una cella alla volta, iniziando dalla cella che contiene il simbolo più a sinistra nel nastro. Ad ogni passo, la macchina legge un simbolo sul nastro e in accordo al suo stato interno corrente decide il suo prossimo stato interno, e scrive un simbolo sul nastro e decide se spostare o meno la testina a sinistra o a destra di una posizione. All’inizio degli anni ‘80, la tesi di Church-Turing è stata oggetto di profonda revisione (soprattutto da parte della comunità dei fisici) sulla base della seguente osservazione: da un punto di vista “reale”, qualsiasi procedimento di calcolo viene realizzato da un sistema fisico che accetta in ingresso dei simboli, pure realizzati mediante sistemi fisici, e produce altri simboli in uscita. Per tale motivo, qualsiasi sistema di calcolo, e, di conseguenza, qualsiasi sua formalizzazione, deve sottostare alle leggi che governano la natura. Ora, è noto e comprovato da numerose esperienze, che qualsiasi fenomeno naturale può essere appropriatamente descritto nell’ambito della teoria della fisica quantistica, in contrapposizione al precedente corpus di conoscenze fornito dalla fisica classica. In virtù dunque di questa nuova prospettiva che pone l’accento sulla plausibilità fisica, oltre che teorica, di qualsiasi formalizzazione sulla nozione di calcolo, ha senso interrogarsi sulla consistenza della tesi di ChurchTuring, e quindi del modello classico di macchina di Turing, rispetto alla teoria quantistica. Capitolo 4 – Introduzione al quantum computing 48 A questo proposito, i lavori pionieristici di Feynman, Benioff, Deutsch ed Albet mettono ben in evidenza che, da un punto di vista fisico, il modello originale (deterministico) di macchina di Turing rappresenta un sistema fondamentalmente classico, dominato com’è da un determinismo laplaciano: data, infatti, la configurazione della macchina ad un dato istante e nota la sua dinamica (funzione di transizione), è possibile determinare univocamente e con certezza la configurazione della macchina stessa all’istante successivo. Sappiamo che ciò non è possibile nell’ambito della teoria quantistica, in cui ogni sistema evolve passando da una sovrapposizione di stati possibili all’altra. Non solo: è anche immediato constatare che il modello originale di macchina di Turing non rende conto di alcuni tipici fenomeni quantistici quali la sensibilità all’osservazione, l’interferenza quantistica ecc, fenomeni che, tra l’altro, non vengono resi neppure dalla generalizzazione probabilistica delle macchine di Turing. Per soddisfare, dunque, questa nuova plausibilità fisica richiesta dai modelli di calcolo, Feynman e Benioff nel 1982 hanno sviluppato il concetto di macchina di Turing quantistica (QTM) [Ben82]. Tale concetto è stato formalizzato ed ulteriormente motivato da Deutsch nel 1985 [Deu85]. I computer classici, quelli correntemente utilizzati, si basano su 0 e 1, i bit, mentre i quantum computer si basano sulla sovrapposizione di 0 e 1 (0 con una certa percentuale e 1 con una certa percentuale), i cosiddetti qubit. Esiste una ragione ben precisa per cui ci si aspetta la nascita “reale” dei quantum computer: è inevitabile che lo sviluppo della tecnologia informatica richieda un aumento progressivo della potenza di calcolo dei processori. Ma creare CPU sempre più veloci richiede una integrazione di CPU su larga scala che possiamo considerare in un aumento della densità dei transistor di una CPU. Tuttavia questi transistor hanno limiti fisici ben precisi e man mano che ci si avvicina alle dimensioni degli atomi il loro comportamento diventa quantistico. Risulta quindi utile capire i comportamenti quantistici di atomi, elettroni per creare un nuovo paradigma di computazione e per creare fisicamente computer quantistici molto più piccoli ma esponenzialmente più veloci della loro Capitolo 4 – Introduzione al quantum computing 49 controparte classica. Rimane ancora molto lavoro da svolgere per creare quantum computer che possano essere utilizzati nelle applicazioni scientifiche e commerciali. Ad esempio, oltre alla fattorizzazione, scegliere opportunamente i migliori pesi per una rete neurale è un problema che può trarre vantaggio dal parallelismo quantistico del quantum computation. Capitolo 4 – Introduzione al quantum computing 4.2 50 Macchine di Turing quantistiche Per descrivere il concetto di macchina di Turing quantistica è utile sfruttare un altro concetto, molto simile alla QTM, che è la macchina di Turing probabilistica (PTM). È noto che la computazione di una PTM M (ad unico nastro) su un dato input può essere descritta mediante un grafo i cui nodi sono le configurazioni di M, ed in cui esiste un arco di peso p ∈ [0, 1] dal nodo c1 al nodo c2 se la transizione c1→ c2 accade con probabilità p. Il seguente diagramma descrive una possibile computazione di M: Figura 1: Possibile diagramma di computazione della PTM M Le probabilità associate agli archi vengono desunte da una funzione di transizione di M, δ , che deve essere definita in modo tale che la somma dei pesi di tutti gli archi uscenti da un nodo (configurazione) sia 1. Facendo riferimento al grafo in figura 1, si osserva facilmente che, dopo due passi di computazione, M si troverà nella configurazione: c3 con probabilità p1 p3 = s3 c4 con probabilità p1 p4 + p2 p5 = s4 c5 con probabilità p2 p6 = s5 Equivalentemente, possiamo dire che, dopo il secondo passo di Capitolo 4 – Introduzione al quantum computing 51 computazione, M si trova nella sovrapposizione di configurazioni Ψ = s 3 c 3 + s 4 c 4 + s 5 c5 In generale, dunque, possiamo pensare che al tempo t la macchina M si trovi in uno “stato” ψ(t) = ∑ s i c i i∈N che è un vettore nello spazio infinito-dimensionale generato dai versori {c i : i ∈ N, c i è una configurazione di M } In particolare, osservando la macchina al tempo t, troveremo M nella configurazione ci con probabilità si. È altresì immediato osservare che ∑ i∈N s i = 1. Non è difficile, data la funzione di transizione di M, costruire una matrice U in cui l’elemento (i, j)esimo rappresenta la probabilità di passare dalla configurazione cj alla configurazione ci. Sfruttando tale matrice, è semplice verificare che t passi di computazione di M vengono riassunti dall’espressione ψ(t) = U t ψ(0) dove ψ(0) = 0 è la sovrapposizione iniziale di M. Veniamo ora alla definizione di macchina di Turing quantistica. Una QTM Q è definita in maniera del tutto analoga ad una PTM M, solamente la probabilità di passare da una configurazione all’altra è ora data dal quadrato del modulo di un numero complesso chiamato ampiezza della transizione. Un “analogo quantistico” del grafo di una PTM potrebbe essere il seguente: 52 Capitolo 4 – Introduzione al quantum computing Figura 2: Possibile diagramma di computazione della QTM M Ad esempio l’ampiezza della transizione c1→ c2 è α1 ∈ C, mentre la corrispondente probabilità è |α1|2. Chiaramente avendo una situazione “locale”, dobbiamo richiedere che k ∑α i =1 i Figura 3: Consistenza locale della funzione di transizione per una QTM Le ampiezze seguono le regole delle probabilità, per cui, sempre riferendoci a figura 2, dopo due passi di computazione la macchina Q si troverà in c3 con ampiezza α1 α3 = γ3 e probabilità | γ3|2 c4 con ampiezza α1 α4 + α2 α5 = γ4 e probabilità | γ4|2 c3 con ampiezza α2 α6 = γ5 e probabilità | γ5|2 53 Capitolo 4 – Introduzione al quantum computing Analogamente al caso probabilistico, possiamo pensare che ad ogni istante t, la macchina Q si trovi nella sovrapposizione Ψ(t) = U t Ψ(0) dove l’elemento (i, j)esimo di U è ora l’ampiezza della transizione cj → ci. Chiaramente per ogni sovrapposizione di Q del tipo Ψ(t) = ∑i∈N γ i c i essere soddisfatto il vincolo ∑ k i =1 γi 2 = 1 , cioè, Ψ(t) deve deve avere modulo unitario. Ciò, in sostanza, equivale a richiedere che U mappi vettori unitari in vettori unitari. Tale condizione si esprime dicendo che l’operatore U di macchine quantistiche deve essere unitario. Osservando il nostro dispositivo di calcolo quantistico al tempo t ed essendo questo nello stato Ψ(t) = ∑i∈N γ i c i troveremo Q nella configurazione ci con probabilità | γi|2. Poniamo ora che Q al tempo t si trovi nella sovrapposizione Ψ(t) = γ 1 c1 + γ 2 c 2 e sia ora l’ampiezza delle transizioni c1→ c3 e c2→ c3 (figura 4). Figura 4: Osservazione ed interferenza su una QTM Capitolo 4 – Introduzione al quantum computing 54 Osservando all’istante t-esimo troveremo Q in c1 (c2) con probabilità | γ1|2 (|γ2|2); stimando la probabilità p1 che all’istante successivo Q assuma la configurazione c3 si ottiene che p1 = |α|2 (| γ1|2 + | γ2|2) Lasciamo evolvere indisturbata Q sino al tempo t + 1 e valutiamo la probabilità p2 di osservare la macchina nella configurazione c3. Otteniamo l’ampiezza di c3 come α(γ1 + γ2) da cui p2 = |α|2 | γ1 + γ2|2 Chiaramente p1 ≠ p2. Dall’esempio appena descritto possiamo quindi verificare che nelle QTM vengono formalizzati anche fenomeni di interferenza distruttiva tipici del mondo quantistico modellato dalla QTM stessa. Queste ed altre proprietà delle QTM, non implementabili su PTM, oltre a conferire un connotato di plausibilità fisica al modello rappresentano proprietà cruciali su cui si basa il disegno degli algoritmi quantistici. Capitolo 4 – Introduzione al quantum computing 4.3 55 Un approccio fisico-matematico al quantum computing La “sovrapposizione lineare” è strettamente relazionata con il concetto di combinazione lineare tipico della matematica. Per esempio, in uno spazio vettoriale con basi x e y, ogni vettore v può essere definito come combinazione lineare delle basi stesse: v = ax + by. In qualche modo il vettore v può essere visto come i vettori x e y nello stesso momento. Nella meccanica quantistica questo principio si applica alle variabili fisiche di un sistema fisico. Lo spazio vettoriale utilizzato è quello di Hilbert le cui basi sono i valori classici normalmente associati al sistema fisico. I sistemi quantistici sono descritti da una funzione d’onda Ψ che esiste in uno spazio di Hilbert. Lo spazio di Hilbert ha un insieme di stati, ϕ i , che formano una base, e il sistema è descritto dallo stato quantistico Ψ , Ψ = ∑ ci ϕi i Si dice che Ψ è in una sovrapposizione lineare di stati ϕ i e, in generale, i coefficienti ci sono numeri complessi. Per esempio, la posizione di un elettrone che orbita attorno al nucleo è una sovrapposizione di tutte le possibili posizioni in uno spazio tridimensionale, dove ogni possibile posizione è una base per lo spazio di Hilbert ed ha una certa probabilità, finita, di essere l’attuale posizione. Uno degli aspetti meno intuitivi della teoria quantistica è questo: a livello microscopico l’elettrone non è in nessuna posizione nell’orbita, ma piuttosto è in una sovrapposizione di tutte le possibili posizioni, che è comunque uno stato ben definito. In un certo senso è in tutte le posizioni nello stesso momento. Tuttavia, a livello macroscopico o classico, la posizione di un elettrone è ben definita in uno spazio tridimensionale. Questa apparente contraddizione non è stata ancora Capitolo 4 – Introduzione al quantum computing 56 pienamente compresa ma è spiegata comunemente in questo modo: un sistema meccanico quantistico rimane in una sovrapposizione delle sue basi fino a quando non interagisce con l’ambiente. Coerenza/Decoerenza sono principi legati all’idea della sovrapposizione lineare. Un sistema quantistico si dice in uno stato di coerenza se si trova in una sovrapposizione lineare delle sue basi. Il risultato è che nel momento in cui un sistema, che si trova in una sovrapposizione lineare, interagisce in qualche modo con l’ambiente, deve “scegliere” istantaneamente uno dei possibili stati e “collassare” ad esso soltanto. Questo collasso è appunto chiamato decoerenza ed è governato da una funzione d’onda Ψ. I coefficienti ci sono chiamati ampiezze della probabilità, e il valore di |ci|2 fornisce la probabilità che la funzione Ψ collassi in uno stato ϕ i . La funzione d’onda Ψ descrive un sistema fisico reale che deve collassare precisamente ad uno stato. Inoltre le probabilità espresse dai coefficienti devono avere come somma 1, parliamo in questo caso della condizione di unitarietà: ∑c 2 i =1 i Consideriamo ad esempio il caso di una variabile fisica discreta: lo spin. Lo spin system più semplice è un sistema a due stati, chiamato “spin-1/2 system”, le cui basi sono in generale rappresentate nel modo seguente: • Il simbolo ↑ che rappresenta lo stato di “spin-up” • Il simbolo ↓ che rappresenta lo stato di “spin-down” In questo semplice esempio la funzione d’onda Ψ è una distribuzione su due valori e uno stato coerente Ψ è una sovrapposizione lineare dei due stati di 57 Capitolo 4 – Introduzione al quantum computing spin-up ↑ e spin-down ↓ . Ad esempio si potrebbe scrivere: 2 Ψ = 5 ↑ + 1 5 ↓ Fino a quando il sistema mantiene la sovrapposizione lineare , è cioè coerente, non si può dire se è nello stato di spin-up o di spin-down. Classicamente dovrebbe essere l’uno o l’altro, ma questo avviene solo quando il sistema interagisce con l’ambiente e collassa in un preciso stato e il risultato può essere lo stato di spin-up con la seguente probabilità: ↑Ψ 2 2 2 = = 0.8 5 Il semplice sistema di spin a due stati appena descritto è utilizzato come unità di base del quantum computation. Si parla in questo caso di “quantum bit”, o più semplicemente qubit, e gli stati ↑ e ↓ vengono rinominati in 1 e 0 . Diamo qui di seguito la definizione di alcuni termini usati nel calcolo quantistico. Operatori: sono operatori su uno spazio di Hilbert che descrivono come una funzione d’onda si trasforma in un’altra funzione d’onda. Generalmente sono denotate con la lettera maiuscola e un “cappuccio”, ad esempio Â, e possono essere rappresentati come matrici che agiscono su vettori. Usando gli operatori, l’equazione degli autovalori può essere scritta nel seguente modo: ∧ A ϕi = a i ϕi dove gli ai sono gli autovalori. Le soluzioni ϕ i di questa equazione sono chiamate autostati e possono essere utilizzati per costruire le basi dello spazio di Capitolo 4 – Introduzione al quantum computing 58 Hilbert da utilizzare. Nel formalismo quantistico tutte le proprietà sono rappresentate come operatori i cui gli autostati sono le basi per lo spazio di Hilbert associato a quella proprietà i quali autovalori sono i valori quantici permessi per quella proprietà. E’ da sottolineare come gli operatori nella meccanica quantistica debbano essere operatori lineari e inoltre deve valere la seguente proprietà: †  =  † = Î dove Î è l’operatore identità e  † è il complesso coniugato trasposto di Â. Interferenza: è un fenomeno tipico delle onde. I picchi d’onda che sono in fase interferiscono costruttivamente mentre quelli che sono fuori fase interferiscono distruttivamente. Questo è un fenomeno comune a tutti i tipi di onda meccanica, da quelle acquatiche e quelle ottiche. Recenti esperimenti hanno dimostrato che l’interferenza può essere applicata alla probabilità delle onde della meccanica quantistica. Entanglement: da un punto di vista puramente computazionale l’entanglement sembra abbastanza intuitivo:è semplicemente il fatto che possono esistere correlazioni tra differenti qubit. Per esempio se un qubit si trova nello stato 1 , un altro sarà nello stato 0 . Tuttavia, da un punto di vista strettamente fisico, l’entanglement è ancora poco conosciuto. L’entanglement è un fenomeno completamente quantistico e non ha nessun “cugino” nella fisica classica, come accade per esempio per l’interferenza. Recenti esperimenti hanno dimostrato che dividendo una particella in due, le due particelle risultanti assumono spin differenti; nel caso in cui una delle due particelle così create dovesse cambiare lo spin, ad esempio per l’interazione con l’ambiente, questo cambiamento sarebbe istantaneamente comunicato all’altra particella che assumerebbe di conseguenza spin opposto. Capitolo 4 – Introduzione al quantum computing 4.4 59 Che cos’è un quantum computer Un quantum computer possiede varie caratteristiche che lo rendono differente dagli attuali computer e che gli consentono di svolgere computazioni che non potrebbero essere svolte dai computer classici. Nei quantum computer quindi l’espressione “bit” è completamente differente da quella dei computer classici. I bit classici sono le unità minime per manipolare i dati, e sono espressi in notazione binaria di 0 e 1. Nei quantum computer, come abbiamo visto, i bit non sono espressi solo come 0 e 1 ma anche come sovrapposizione di 0 e 1. Un bit nel paradigma classico corrisponde quindi a un qubit nel paradigma quantistico. Il qubit ha due stati di base, gli stati 0 e 1, che sono equivalenti ai bit classici. Nei computer classici, ad esempio, il bit 0 corrisponde allo stato di 0V e il bit 1 corrisponde allo stato di 5V, più il voltaggio di base che può essere di 3,5V o 5V a seconda della tecnologia utilizzata, TTL o CMOS. Nei quantum computer i movimenti degli elettroni sono largamente accettati come espressione fisica dei qubit. Gli elettroni hanno dei movimenti interni che corrispondono agli spin e hanno due valori intrinseci, chiamati appunto spin-up e spin-down. Per esprimere i qubit è estremamente conveniente se allo spin-up viene associato lo stato 1 e allo spin-down viene associato lo stato 0. I due stati vengono denotati in questo modo: 0 e 1 . Il qubit rimane in uno stato in cui non è certo se sia |0› oppure |1› (sovrapposizione lineare) fino a quando non interagisce con l’ambiente (decoherence). Da quanto detto gli spin degli elettroni, tra tutti i fenomeni quantistici, sono considerati i migliori per esprimere i qubit. Classical computer: 0 o 1 …..bit Quantum computer: sovrapposizione di 0 e 1 …. Qubit Nei quantum computer gli stati 0 e 1 sono espressi in forma matriciale. Capitolo 4 – Introduzione al quantum computing 60 L’equazione x =a1 +b0 esprime la sovrapposizione di un singolo qubit con gli stati 0 e 1 in forma matriciale. I coefficienti a e b sono numeri complessi e prendono il nome di ampiezza della probabilità. Nel caso di due o più qubit essi sono espressi nel seguente modo: Computer classico 01 (2 bit) 01010101 (8 bit) Quantum computer |01› (2 qubit) |01010101› (8 qubits) I qubit possono essere espressi con il prodotto cartesiano di matrici di singoli qubit. Il numero di elementi della matrice è n x n, dove n è il numero di qubit utilizzati. Questo indica che le colonne di bit nella QC sono differenti da quelle nei computer classici. Capitolo 4 – Introduzione al quantum computing Da un qubit si ottiene: Nel caso di n qubit: 61 Capitolo 4 – Introduzione al quantum computing 4.5 62 Circuiti Descriviamo ora le differenze tra circuiti nei computer classici e quantistici che risultano dalle differenze nelle colonne di bit precedentemente menzionate. I circuiti elettronici sono spesso espressi con i seguenti tre principali elementi: I due bit originali di input non possono essere recuperati dall’output di una porta AND oppure OR. I circuiti elettronici dei computer classici non sono quindi reversibili. E’ possibile creare circuiti anche molto complessi con solo questi tre elementi. Tali circuiti attualmente sono le componenti dei computer. Nei quantum computer esistono gli stessi circuiti AND, OR e NOT nei quantum computer ma non sono le unità più piccole. Infatti l’elemento più piccolo è il CNOT (Controlled-NOT) utilizzato per rappresentare le porte AND, OR e NOT dei computer classici. Ecco una rappresentazione del CNOT: 63 Capitolo 4 – Introduzione al quantum computing Il CNOT è espresso dalla seguente matrice unitaria quadrata: Il CNOT inverte un qubit solo quando lo stato del qubit di controllo è 1 . Ecco la tabella di come agisce. IN Control 0 1 OUT Target 0 1 0 1 Control 0 1 Target 1 1 1 0 Nei quantum computer i circuiti possono essere espressi tramite matrici come pure colonne di qubit. Il CNOT è espresso da una matrice quadrata. Come visto per il diagramma del circuito CNOT, la dimensione del lato della matrice è, Capitolo 4 – Introduzione al quantum computing 64 nel caso di 2 qubit, 22, questo significa che il circuito svolge un semplice calcolo matriciale su una colonna di qubit, l’input. Il risultato è un output di qubit. Ecco un esempio che ha come input 01 : Il qubit di output risulta uguale all’input: Questo fatto indica che il numero dei qubit di output è uguale a quello degli input. Quindi, a differenza dei computer classici, un quantum computer dà in output lo stesso numero di qubit ricevuti in ingresso. Inoltre risulta reversibile, che è una proprietà che deriva direttamente dalla matrice. Figura 5: Esempio Nei quantum computer possiamo costruire vari circuiti usando non solo Capitolo 4 – Introduzione al quantum computing 65 AND, OR e NOT creati con il CNOT, ma anche varie matrici. Questi circuiti hanno eccellenti performance. Tuttavia le matrici per i quantum computer devono soddisfare alcune condizioni: • Devono essere unitarie con il numero di elementi pari a 2n con n intero positivo arbitrario. • 4.6 Gli elementi che operano sui qubit sono gli operatori unitari. L’implementazione fisica di un quantum computer Ci si chiede che forma dovrebbe assumere l’hardware di un quantum computer e qual è la tecnologia richiesta per creare una macchina realmente funzionante, facendo uso degli spin degli elettroni. La risposta è che si richiede una tecnologia molto avanzata e sofisticata per controllare queste piccole particelle, tecnologia che è ancora agli inizi del suo sviluppo e che non sarà disponibile ancora per qualche tempo per le applicazioni scientifiche e commerciali di tutti i giorni. Si parte dalla supposizione che un elettrone esista in uno spazio. L’elettrone è il qubit. Lo spin dell’elettrone di trova in una sovrapposizione lineare, è cioè contemporaneamente spin-up e spin-down. Vengono effettuate delle operazioni per cambiare la direzione dello spin e far decadere lo stato in uno dei due stati 0 o 1 . Una tale operazione può essere eseguita tramite la luce o l’elettromagnetismo. Ad esempio ecco un’operazione NOT eseguita su di un elettrone: Capitolo 4 – Introduzione al quantum computing 66 Con due o più qubit si suppone che gli elettroni “volino” in parallelo. Questo ci dà l’impressione che costruire quantum computer sia molto difficoltoso a causa delle operazioni molto accurate che devono essere eseguite sugli elettroni una volta catturati. Un quantum computer dovrebbe essere molto piccolo e al tempo stesso molto veloce. 4.7 Vantaggi e svantaggi Vantaggi: • Processing: algoritmi migliori rispetto alla loro controparte classica, utilizzati per risolvere problemi. • Algoritmi: algoritmi che sono più efficienti rispetto alla loro controparte classica. Inoltre sono reversibili ed è possibile ottenere l’input dal loro output. Ad esempio: Addizione Sottrazione Calcolo esponenziale Logaritmi • Hardware: elettroni, molto veloci e piccoli. Svantaggi: • Implementazione: implementare un quantum computer tuttora Capitolo 4 – Introduzione al quantum computing 67 sembra un’operazione molto difficile. Inoltre il computer risulterebbe molto grande. • Coerenza: uno stato coerente si potrebbe facilmente alterare dando vita ad una soluzione errata. Questi sono solo alcuni degli svantaggi e dei vantaggi offerti dalle due tecnologie. Comunque i quantum computer potrebbero essere anche usati insieme unendo alle normali CPU odierne una QCPU (quantum CPU), ma tutto questo dipenderà dallo sviluppo della QC e soprattutto della sua implementazione fisica che risulta ancora molto difficile. 4.8 Il principio di non località e il teorema di Bell Nel 1935 Albert Einstein e due suoi colleghi, Boris Podolsky e Nathan Rosen (EPR), svilupparono un esperimento per dimostrare come la meccanica quantistica fosse incompleta: nacque così il famoso paradosso di EPR. Einstein, Podolsky e Rosen immaginarono due sistemi fisici che inizialmente sono liberi di interagire in modo da essere descritti da una singola equazione di Schrodinger. Una volta separati, i due sistemi sono ancora descritti dalla stessa equazione d’onda e la misurazione di un osservabile del primo sistema determina una misurazione indiretta dell’osservabile corrispondente del secondo sistema. Similmente, la misura di un altro osservabile del primo sistema determina ancora una misura indiretta dell’osservabile corrispondente del secondo sistema, anche se i due sistemi non sono più fisicamente collegati. Tuttavia la meccanica quantistica proibisce la conoscenza simultanea di più di un osservabile mutuamente non commutabile dei due sistemi. Il paradosso di EPR sta proprio in questa contraddizione: dati i due sistemi accoppiati, è possibile misurare un osservabile A del primo sistema e un osservabile B del secondo sistema, rivelando tuttavia entrambi osservabili per entrambi i sistemi, in contraddizione con quanto affermato dalla meccanica quantistica. In sostanza il significato di questo esperimento è il seguente: se la 68 Capitolo 4 – Introduzione al quantum computing meccanica quantistica è valida, essa implica che in certi esperimenti specifici esistano necessariamente influenze istantanee “non-locali” tra particelle lontane, a dispetto quindi che la velocità della luce sia la velocità massima nell’universo. Le influenze in questione si propagherebbero con velocità infinita e questo era considerato del tutto inaccettabile dai tre fisici. In altri termini si avrebbe avuto una violazione del “principio di località” che Einstein, forse suo unico errore, considerava intoccabile. Postularono quindi l’esistenza di alcune “variabili nascoste locali” dei sistemi fisici non ancora conosciute e da qui la convinzione che ci fosse incompletezza e incoerenza nella teoria quantistica. Nel 1964 John Bell propose un meccanismo per testare l’esistenza di queste variabili nascoste sviluppando così le famose “disuguaglianze di Bell”. Mostrò che se queste diseguaglianze fossero state soddisfatte, non sarebbe potuta esistere una teoria delle variabili nascoste locali come affermavano EPR. Consideriamo due fotoni precedentemente uniti in unico stato: dopo la separazione ciascun fotone avrà un valore di spin per ciascuno dei tre assi e ciascun spin potrà assumere due valori distinti, spin-up e spin-down. Chiamiamo x+ lo spin-up dell’asse x, y- lo spin down dell’asse y e così via. Misuriamo ora lo spin di un asse di una del primo fotone e lo spin di un altro asse dell’altro fotone. Se il paradosso di EPR fosse corretto, ciascun fotone avrebbe simultaneamente le proprietà per lo spin su tutti e tre gli assi. Effettuiamo ora delle misurazioni su un insieme di fotoni e indichiamo con N(x+, y-) il numero di fotoni con x+ e y-, con N(x+, y+) il numero di fotoni con x+ e y+ e così via. È facile dimostrare statisticamente che per un insieme di fotoni vale la seguente: N(x +, y-) = N(x +, y-, z +) + N(x +, y-, z −) (1) Chiamiamo ora n[x+, y+] il numero di misurazioni di coppie di fotoni in cui il primo fotone ha spin x+ e il secondo y+. Utilizziamo la stessa dicitura per tutte le altre possibilità: n[x+, y-], ecc…Questo è necessario perché questo è tutto ciò che è possibile misurare. Non è possibile misurare entrambi gli x e y sullo Capitolo 4 – Introduzione al quantum computing 69 stesso fotone. Bell ha dimostrato che se la (1), che indica proprietà reali, è vera, anche la seguente deve essere vera: n[x +, y + ] = n[x +, z + ] + n[ y -, z -] Il "Teorema o diseguaglianza di Bell" può riassumersi dicendo che qualsiasi teoria locale, che assume che determinate coppie di particelle correlate separate ed inviate verso rivelatori lontani abbiano proprietà definite anche prima di essere sottoposte a test, non può riprodurre la distribuzione probabilistica prevista dalla meccanica quantistica allorché si considerino non solo misure "simmetriche/opposte" ma anche test su posizioni intermedie. Negli anni ’70 l’esperimento di Bell fu realizzato da vari ricercatori, che finalmente verificarono la validità della meccanica quantistica con i suoi paradossi, la sua non oggettività e la sua non-località. Alcuni fisici però obiettarono che gli esperimenti non erano stati condotti in maniera rigorosa, adducendo varie critiche. Così furono effettuati esperimenti sempre più sofisticati e precisi, fino all’esperimento di Aspect et al nel 1982, che viene considerato decisivo per la validità della meccanica quantistica. Il principio di “località” di Einstein può essere violato in certi casi che si riscontrano in particolari sistemi quantistici, anche se le influenze “istantanee” sono soggette a molte limitazioni e non intaccano la validità della teoria della relatività: in parole povere non è possibile accelerare una particella fino a farle raggiungere la velocità della luce o velocità superiori. Possono tuttavia esistere delle strane influenze non locali (da qui “principio di non località”) tra particelle quantistiche che in origine erano connesse e che poi sono state allontanate. Capitolo 5 Reti neurali artificiali classiche 5.1 Introduzione alle reti neurali classiche Le reti neurali artificiali classiche (CLANN) nascono come simulazioni delle strutture nervose presenti nel tessuto cerebrale. Il cervello dell’uomo è costituito da un grandissimo numero di neuroni 10 (10 circa), ognuno dei quali riceve molti segnali diversi in input, attraverso le connessioni sinaptiche dei suoi dendriti, ed emette un solo segnale in output lungo il proprio assone che viene poi smistato ad altre sinapsi di altri neuroni. Sostanzialmente il neurone somma tutti i segnali di input e se questa somma supera una certa soglia, detta soglia di attivazione, emette un segnale in output, altrimenti rimane quiescente. La soglia può variare nel tempo grazie a particolari sostanze chimiche, ma variano nel tempo anche l’intensità e il numero delle sinapsi: da ciò deriva la “plasmabilità” del cervello e l’apprendimento. Le connessioni tra i neuroni non sono rigidamente stabilite al momento della nascita ma variano continuamente. Queste connessioni quindi hanno la possibilità di rinforzarsi, indebolirsi, crearsi e distruggersi, il tutto in base alle interazioni con l’ambiente esterno. Un’altra caratteristica fondamentale del cervello è la non localizzazione di concetti e processi mentali, che sono invece distribuiti tra un gran numero di neuroni. Non esiste quindi un neurone adibito al riconoscimento di una forma o di una voce, ma il ricordo della forma o della voce è distribuito in varie zone del cervello. Il sistema nervoso è quindi una gigantesca rete neurale naturale a cui si 71 Capitolo 5 – Reti neurali artificiali classiche ispira la teoria delle reti neurali artificiali, costituite da decine, centinaia o migliaia di neuroni artificiali e utilizzate per la soluzione di molti problemi tecnici e scientifici. Alcuni neuroni sono di input e ricevono sostanzialmente i dati iniziali del problema, altri neuroni sono di output e forniscono la soluzione del problema, altri ancora sono definiti intermedi (o nascosti) perché sono interni ad una scatola nera di cui si vede solo l’input e l’output. Le reti neurali sono parallele per costituzione, poiché ogni neurone calcola la sua attivazione indipendentemente dagli altri. Ogni neurone rappresenta più concetti e ogni concetto è rappresentato da più neuroni, realizzando così una rappresentazione distribuita. Grazie alla distribuzione dell’informazione un parziale decadimento di alcuni neuroni all’interno della rete non comporta danni gravi al sistema, comunque sempre proporzionali alla perdita subita: diciamo che la degradazione della rete è “dolce” (graceful degradation). Sono in grado di apprendere i problemi in base ad una casistica di esempi (apprendimento con supervisione) o anche in modo autonomo (apprendimento senza supervisione). Non utilizzano conoscenze esplicite ma quelle implicitamente contenute negli esempi loro esposti. Ne consegue una maggiore fedeltà di rappresentazione del mondo reale e una maggiore capacità di generalizzazione: la rete infatti è in grado di rispondere anche in presenza di input ad essa sconosciuti oppure di input inquinati (rumorosi). Una rete di N neuroni può avere un numero enorme di architetture a seconda del tipo di connessione tra i neuroni stessi. In generale però si utilizzano solo alcune architetture standard. 5.2 Caratteristiche generali delle reti neurali Il neurone artificiale è talvolta denominato neurodo o Processing Element o unità. Un neurone i può assumere diversi stati: 1. Gli stati 0 o 1: neurone binario. 2. Gli stati -1 e 1: neurone bipolare. 72 Capitolo 5 – Reti neurali artificiali classiche 3. Tutti gli stati compresi tra un valore minimo e uno massimo, tipicamente 0 e 1: neurone a valori continui Lo stato Si(t) del neurone evolve discretamente nel tempo 1, 2,..,t,..,T. Ogni neurone riceve N input Sj(t) da altrettanti neuroni j, attraverso sinapsi di valore Wij (pesi sinattici), con un input netto: NETi = ∑ j dove ϑ i [W S (t ) −ϑ ] ij j i è una soglia caratteristica, che simula la soglia di attivazione del neurone biologico. Lo stato successivo Si(t +1) viene calcolato con un’opportuna legge che viene chiamata “legge di attivazione”: Si(t +1) = F(Pi) dove F è anche denominata “funzione di trasferimento”. Le funzioni di trasferimento più comuni sono: 1. Funzione identità, lineare senza saturazione: F(P) = P o F(P) = KP 2. Funzione lineare con saturazione: F(P) = min (Smax , max(0,KP)) 3. Funzione a gradino o di Heavyside: F(P) = signum(P) con valori binari (0,1) o bipolari (-1,1). 73 Capitolo 5 – Reti neurali artificiali classiche 4. Funzione logistica o sigmoide: F(P) = 1/(1 + e-kP) con valori continui tra 0 e 1, derivabilità e saturazione asintotica: per P→± ∞ 5. Funzione tangente iperbolica: F(P) = (ekP - e-kP)/( ekP + e-kP) derivabile, con valori continui tra -1 e 1 e saturazione asintotica. 5.2.1 Leggi di apprendimento Esistono due tipi principali di apprendimento: supervisionato e senza supervisione. Apprendimento supervisionato Si basa sulla disponibilità di una collezione di coppie [dati del problema/soluzione corrispondente]. Questa collezione di coppie viene generalmente ripartita in due insiemi: 1. Training set: è l’insieme utilizzato per l’apprendimento della rete. 2. Validation set: è l’insieme che consente di verificare, ad addestramento concluso, che la rete non si sia limitata a memorizzare i casi del training set, ma che abbia acquisito la facoltà di generare soluzioni appropriate ad input a lei ignoti, manifestando così la sua capacità di generalizzazione. Durante l’apprendimento, per ogni coppia [input/output desiderato] del training set, la rete riceve in input i dati di ingresso I e restituisce un output O che nelle fasi iniziali risulta in generale diverso dall’output desiderato D. La rete commette quindi un errore che è [I-D] e quindi un errore quadratico medio E su tutte le coppie del training set. L’algoritmo di apprendimento opera in modo da Capitolo 5 – Reti neurali artificiali classiche 74 minimizzare l’errore E apportando progressivamente variazioni positive o negative ai pesi sinattici. Nella fase di apprendimento i pesi sinattici W vengono modificati con un opportuno algoritmo. Gli algoritmi più utilizzati sono: 1. Legge di Hebb. 2. Legge del gradiente. 3. Legge di Kohonen. Apprendimento senza supervisione L’apprendimento senza supervisione invece non fa riferimento ad una casistica di esempi da fornire come addestramento. La rete impara a rispondere in modo ordinato alla statistica degli stimoli esterni che le vengono sottoposti, autoorganizzando la propria struttura in modo tale che stimoli simili attivino neuroni vicini e stimoli diversi attivino neuroni lontani. L’apprendimento senza supervisione è inoltre di tipo competitivo: per ogni input vengono attivati più neuroni, ma solo quello con attivazione maggiore vince la competizione e viene premiato con una modifica dei propri pesi, in modo da “sintonizzarlo” maggiormente con quel tipo di input. Questo tipo di apprendimento è utilizzato dalla rete di Kohonen. [Cam97] 5.2.2 Architettura dei collegamenti Le reti neurali si differenziano in base alla loro architetture, cioè in base alla connessione dei loro neuroni e alla loro disposizioni su uno o più strati. Si possono identificare diverse topologie di rete, di seguito alcuni semplici esempi. Reti completamente connesse (non stratificate) In una rete di questo tipo ogni neurone è collegato bidirezionalmente con tutti gli altri neuroni. Le connessioni sono rappresentate da una matrice quadrata W di dimensione 2N x 2N con N numero dei neuroni, il cui generico elemento wij Capitolo 5 – Reti neurali artificiali classiche 75 rappresenta il peso sinattico tra il neurone i e il neurone j (figura 1). Figura 1: Rete completamente connessa Reti stratificate In una rete di questo tipo i neuroni sono organizzati in strati in modo che ogni neurone sia connesso con tutti i neuroni dello strato successivo. Non esistono connessioni tra strati non adiacenti e tra neuroni dello stesso strato. Il numero di strati e di neuroni che la rete deve possedere dipende dal tipo di problema che la rete stessa è chiamata a risolvere. Figura 2: Rete stratificata ad uno strato Capitolo 5 – Reti neurali artificiali classiche 76 Lo strato di ingresso di figura 2 ha il solo compito di passare allo strato successivo l’input ricevuto dall’esterno: per questo motivo la rete mostrata in figura 2 ha un solo strato. Figura 3: Rete stratificata con uno strato nascosto La figura 3 mostra una rete che possiede uno strato nascosto, così definito perché non ha collegamenti con l’esterno. Possono esistere uno o più strati nascosti che hanno il compito di costruire opportune rappresentazioni interne degli stimoli forniti in ingresso in modo da facilitare il compito della rete. Le connessioni tra i neuroni di una rete stratificata sono rappresentate mediante tante matrici quante sono le coppie di strati adiacenti. Ogni matrice contiene i pesi delle connessioni tra le coppie di neuroni di due strati adiacenti. Capitolo 5 – Reti neurali artificiali classiche 5.3 77 La rete di Hopfield Dal 1982 al 1985 il fisico J.J. Hopfield in una serie di articoli (l'ultimo in collaborazione con D.W. Tank, [Ta&Ho]) presentò un modello di rete neurale ad alta connessione che porta ora il suo nome e che rappresentò una forte motivazione per la ripresa delle ricerche nell'area del connessionismo. La rete di Hopfield permette di memorizzare dei vettori e richiamarli successivamente. È inoltre di particolare rilevanza la robustezza della rete; cioè se viene presentato un vettore “vicino” ad uno di quelli memorizzati, quest’ultimo viene anch’esso richiamato. La rete consiste di n neuroni a connessione totale, senza autoconnessioni come mostrato in figura 4. Figura 4: Una rete di Hopfield con 6 neuroni Detto wij il peso della connessione tra il neurone i ed il neurone j si ha che: w ij = w ji per i ≠ j w ij = 0 per i = 0 Inoltre ad ogni neurone i è associata una soglia θi. Capitolo 5 – Reti neurali artificiali classiche 78 Al tempo t il neurone i si trova in uno stato binario: + 1 s i (t ) = − 1 Il potenziale al quale si trova il neurone i al tempo t è: Pi = ∑ ( wij s j ) − θ i i≠ j La legge di attivazione del neurone i è: 1 se Pi ≥ 0 (1) s i (t + 1) = - 1 se Pi < 0 Tale legge di attivazione viene usualmente applicata in modo asincrono, cioè sequenzialmente. La sequenza può inoltre essere una sequenza random. Supponiamo ora che i pesi wij siano stati assegnati e sia s(t) = (s1 (t ),..., s n (t )) Alla rete è associata una funzione E, denominata energia per un’analogia formale con l’energia meccanica, che diminuisce monotonicamente nel tempo t. [Cam97]. E ( s) = − 1 ∑ wij si s j + ∑j θ i S j 2 i≠ j Allora si ha: δE = − Pi δsi Capitolo 5 – Reti neurali artificiali classiche 79 Pertanto se Pi ≥ 0 per la (1) si ha che: 2 ∆si = si (t + 1) − s i (t ) = 0 quindi ∆E = δE ∆si = − Pi ∆si ≤ 0 δsi Se invece Pi < 0 sempre per la (1) si ha che: − 2 ∆si = si (t + 1) − si (t ) = 0 e anche in questo caso ∆E = δE ∆si = − Pi ∆si ≤ 0 δsi Ne segue che E è una funzione non crescente dello stato del sistema come conseguenza della legge di attivazione (1); il sistema evolve verso uno stato caratterizzato da un’energia minima. Viene descritto ora il procedimento per scegliere i pesi wij in modo da memorizzare m forme distinte. E’ necessario normalizzare le m forme in m vettori binari ortogonali sk, con k =1,..., m, e tali che: s k si = nδ kt Una scelta possibile per i pesi è la seguente: 80 Capitolo 5 – Reti neurali artificiali classiche θj =0 m w = ij ∑ s ki s kj k =1 wii = 0 j = 1,.., n i≠ j (2) La (2) può anche essere scritta più sinteticamente nella forma: m wij = ∑ ( s ki s kj − nδ ij ) k =1 infatti si può verificare che: m wij = ∑ ( s ki s kj − nδ ij ) = nm − mn = 0 k =1 Con la scelta (2) risulta: n 1 m E ( s) = − ∑ ( s k s ) 2 − ∑ s ki2 si2 2 k =1 i =1 Quindi E(s) risulta limitata inferiormente nell’insieme degli stati. Più precisamente: E ( s) ≥ − n2m 2 in quanto s k s ≤ n Le m forme memorizzate s1 ,..., s n corrispondono ai minimi locali della funzione E(s). La rete funziona perciò nel modo seguente. Essendo E(s) non crescente, se Capitolo 5 – Reti neurali artificiali classiche 81 ad essa viene presentato un vettore s', “leggermente” diverso da sl, la dinamica della rete dopo un certo tempo essa si rilasserà sul minimo locale più prossimo a s' cioè sl . In base ad esperimenti si vede che se N è il numero di neuroni, si possono memorizzare m = 0.14N forme. [Ani01] Capitolo 6 Quantum neural networks 6.1 Introduzione alle quantum neural networks Esistono tre diversi tipi di reti neurali artificiali quantistiche: il primo modello è quello delle fuzzy neural networks (FNN), che sono ancora classiche ma con delle funzioni di attivazione quantistiche; il secondo modello è quello delle entangled neural networks (ENN) descritte da Weigang [Wei99], mentre il modellocon il maggior numero di studi e implementazioni è quello delle reti neurali quantistiche di tipo associativo. 6.1.1 Fuzzy Neural Networks Uno degli svantaggi delle reti neurali classiche è la loro incapacità a classificare dati appartenenti a regioni in cui c’è una sovrapposizione fra classi, dal momento che utilizzano regioni di decisione dai confini netti. Questo ha motivato la nascita delle fuzzy neural networks, che sono delle reti classiche ma con alcune caratteristiche quantistiche. Possiamo considerarle a metà strada tra le reti classiche e quelle quantistiche. Questo tipo di reti è in grado di rappresentare l’incertezza del set di dati di training. Più specificatamente, possono identificare la sovrapposizione fra classi potendo approssimare l’appartenenza ad una classe con qualsiasi grado di approssimazione. Sono quindi molto utili per classificare dati contenenti incertezza. La principale differenza fra reti convenzionali e FNN è la forma delle funzioni di Capitolo 6 – Quantum Neural Networks 83 attivazione delle unità nascoste. Invece delle funzioni sigmoidi ordinarie, le unità nascoste delle FNN contengono funzioni di attivazione multilivello. Ciascuna funzione di attivazione è formata come sovrapposizione di funzioni di attivazione sigmoidi spostate di intervalli “quantici”. Questi intervalli aggiungono un ulteriore grado di libertà che può essere utilizzato nel processo di apprendimento per catturare e quantificare la struttura dello spazio di input. Una FNN è una rete feedforward, una generalizzazione di un perceptrone multistrato con una strato nascosto. Le unità nascoste hanno una speciale funzione di attivazione e le unità di output hanno in genere una funzione di attivazione logistica. Ogni unità di output rappresenta una classe. La funzione di apprendimento utilizza due differenti passaggi: nel primo i pesi sono aggiornati usando una standard backpropagation. Nel secondo le rappresentazioni fuzzy (i cosiddetti livelli quantici) vengono aggiornati da un algoritmo di minimizzazione rispetto ai valori di output delle unità nascoste. Se si pone a zero i livelli quantici si ottiene una normale rete feedforward. 6.1.2 Entangled Neural Networks Una entangled neural network è formata da due neuroni, che chiamiamo neurone A e neurone B, una sorgente EPR che genera coppie di particelle entangled, e alcune connessioni, sia classiche che quantistiche. L’operazione di una ENN è come il teletrasporto, ma con la possibilità di apprendimento. Inoltre non c’è interazione come nelle ANN il che riduce il problema della decoerenza. Per capire il funzionamento di una ENN è necessario fare una breve introduzione sul principio del teletrasporto quantistico: un sistema per il teletrasporto è dato da un trasmettitore (neurone A), un ricevitore (neurone B), una sorgente EPR, un canale classico ed uno quantistico. A e B vogliono comunicare. Ciascuno riceve una delle particelle entangled dalla sorgente EPR che ha la coppia ϕ0= 1/√2(|00> + |11>). 84 Capitolo 6 – Quantum Neural Networks A vuole mandare lo stato del qubit φ = a|0> + b|1> a B. Allora decodifica il qubit φ e la sua metà della coppia entangled: ⊗ ϕ0 = 1/√2(a|0> ⊗ ((|00> + |11>) + b|1> ⊗ ((|00> + |11>) = 1/√2(a|000> + a|011> + b|100> + b|111>) A ora applica CNOT ⊗ I e H ⊗ I ⊗ I a questo stato, dove CNOT è il gate controlled-NOT, I la trasformata di identificazione e H quella di Hadamard. Si ottiene alla fine: ½(|00> (a|0> + b|1>) + |01>(a|1> + b|0>) + |10>(a|0> - b|1>) + |11>(a|1> - b|0>)) A controlla i primi due bit e B controlla l’ultimo. A misura i primi due qubit ottenendo uno di |00>,|01>,|01> e |11> con uguale probabilità. Poi manda il risultato della misura a B come due bit classici. Lo stato quantistico di B verrà proiettato su (a|0> + b|1>),(a|1> + b|0>),(a|0> - b|1>) o (a|1> - b|0>) a seconda della misura di A. B riceve i due bit classici da A. Sa anche come decodificare la sua unità della coppia EPR: Bit ricevuti Stato Trasf. Di decodifica 00 a|0>+b|1> I 01 a|1>+b|0> X 10 a|0>-b|1> Z 11 a|1>-b|0> Y=ZX dove I= 1 0 01 X= 1 0 0 1 (NOT) Y= 0 -1 10 Z= 10 0 -1 spostamento di fase 85 Capitolo 6 – Quantum Neural Networks Per sviluppare un sistema intelligente supponiamo di avere tre unità: I, II, III. Studiamo l’unità II. Il neurone A, il neurone B e la sorgente EPR costituiscono un’unità di base ENN. Sia ad A che a B arriva una delle particelle entangled EPR ϕ0= 1/√2(|00> + |11>). Nel neurone A definiamo lo stato di un qubit φ = a|0> + b|1> per rappresentare un fattore di decisione, ad esempio la temperatura della stanza è calda con probabilità |a|2 o bassa con probabilità |b|2. Il neurone A riceve informazione da un’altra unità (es. la I) e vuole trasmettere il qubit φ al neurone B. Applica allora la decodifica di φ e della sua metà EPR. Lo stato iniziale è: φ ⊗ ϕ0 = 1/√2(a|0> ⊗ ((|00> + |11>) + b|1> ⊗ ((|00> + |11>) = 1/√2(a|000> + a|011> + b|100> + b|111>). A applica ora CNOT ⊗ I e H ⊗I ⊗ I. Nel neurone A possiamo misurare i primi due bit e nel B l’ultimo, chiamato chiave decisionale τ. Usando τ possiamo misurare i primi due qubit per avere uno di |00>, |01>, |01> e |11> con una certa probabilità. Il risultato della misura è definito chiave di misura ν . Usando l’algoritmo di Grover [Gro96], la probabilità secondo |t> è amplificata a |p|2 e le altre ridotte a |q|2, dove: |p|2 + 3|q|2 = 1 e |p|2 >>|q| 2 . Allora ν (che è uguale a τ con probabilità |p|2 ) viene mandata a B con due bit classici. Dopo l’applicazione dell’algoritmo di Grover, a seconda della misura di A(ν) lo stato del qubit di B è proiettato in (a|0> + b|1>), (a|1> + b|0>), (a|0> b|1>) o (a|1> - b|0>) rispettivamente. Queste sono combinazioni di stati di ampiezza (0 e 1) e di fase (+ e -). 86 Capitolo 6 – Quantum Neural Networks Quando il neurone B riceve i due bit classici (ν) da A, può misurare uno dei quattro stati: ν Stato ν Stato 00 a|0>+b|1> 10 a|0> - b|1> 01 a|1>+b|0> 11 a|1> - b|0> Lo stato del qubit in B può essere misurato e trasmesso all’unità 3. 87 Capitolo 6 – Quantum Neural Networks 6.2 Un semplice modello di neurone quantistico Nel gruppo delle reti neurali quantistiche di tipo associativo sono descritti in letteratura vari modelli. Vengono presentati qui di seguito quelli ritenuti più interessanti e pertinenti rispetto al nostro lavoro. Il più semplice neurone artificiale classico è il perceptrone che riceve in input n valori bipolari (o binari) {ij} ed è definito come un vettore di pesi w = (w1, w2,…, wn)T, con una soglia ϑ e una funzione di output f: n 1 se ∑ w ji j > ϑ f = j=1 − 1 altrimenti A partire da questo semplice modello, che questo non può risolvere funzioni non linearmente separabili, sviluppiamo un analogo quantistico che riceve in input gli stessi valori {ij} [Ven98]. Il modello quantistico è simile in tutto e per tutto al modello classico con la sola differenza che il singolo vettore w dei pesi, viene sostituito da una funzione d’onda Ψ (w, t ) in uno spazio di Hilbert le cui basi sono i vettori dei pesi w classici. La funzione d’onda rappresenta le ampiezze di probabilità (in genere complesse) per tutti i possibili vettori dei pesi nello spazio dei pesi insieme alla condizione di normalizzazione che, per ogni istante t stabilisce che: ∫ ∞ −∞ 2 Ψ dw = 1 In questo modo il vettore dei pesi del perceptrone è stato sostituito da una sovrapposizione quantica di molti vettori di pesi che al momento dell’interazione 88 Capitolo 6 – Quantum Neural Networks con l’ambiente decorrono in un vettore di pesi classico, in accordo con le 2 probabilità date da Ψ . Ad esempio consideriamo la funzione bipolare con un singolo input e un singolo output, che inverte il suo input (NOT). Per semplicità facciamo in modo che i pesi siano limitati: − π < wj < π Per fare in modo che il neurone impari questa funzione è necessario trovare Ψ (w, t ) e la soglia ϑ . Assumiamo per semplicità che la Ψ(w, t ) è invariante rispetto al tempo e concentriamo la nostra attenzione solo su w che in questo caso è un vettore uni-dimensionale. Trovare Ψ significa risolvere un problema uni-dimensionale della scatola rigida, comune a molti problemi elementari di meccanica quantistica, le cui soluzioni sono della forma: Ψ (w0 ) = A sin( nπ w0 ) a dove A è la costante di normalizzazione, n = 1,2,3,…,w0 è il singolo elemento di w e a = 2π (ma può essere anche diverso). Ψ rappresenta l’ampiezza di probabilità di un dato vettore peso w. In un neurone quantistico i vettori peso esistono in sovrapposizione coerente di tutti i possibili vettori peso nello spazio dei pesi con ampiezza di probabilità diversa da zero. Quando la sovrapposizione dei vettori peso interagisce con il suo ambiente (ad esempio incontra un input) deve collassare in uno stato base – un vettore peso classico entro i confini − π < w j < π , secondo una probabilità governata da | Ψ |2. In caso di semplici funzioni come NOT e TRUE qualsiasi vettore peso sia scelto al momento del collasso , si otterrà l’output corretto. Questi sono casi semplici. Ma nache nel caso generale le soluzioni saranno sempre equivalenti a quelle di un parallelepipedo n dimensionale in modo Capitolo 6 – Quantum Neural Networks 89 che Ψ abbia sempre la forma generale riportata sopra. Questo non sarebbe vero in generale se si usassero altri modelli fisici, come ad esempio oscillatori armonici o atomo di idrogeno. Inoltre il tempo non è stato incorporato nelle funzioni. Per quanto riguarda il training, si tratterà di variare Ψ , che è governata dall’equazione di Schroedinger. In essa l’unica variabile che può essere cambiata è il potenziale U, quindi Ψ può essere variata variando U. Si tratta ancora di capire esattamente gli n, e anche quali operatori assicurino un corretto collasso della funzione d’onda. Si dovrà trovare un operatore analogo ad una forma matriciale per il vettore di input. Quindi l’idea della sovrapposizione lineare può essere applicata non solo al vettore peso di un neurone, ma anche ai suoi input, ai suoi output, e alla sua funzione di attivazione. 90 Capitolo 6 – Quantum Neural Networks 6.3 Dalla rete di Hopfield alla quantum associative memory La rete di Hopfield permette di memorizzare dei vettori e richiamarli successivamente, definiamo una rete di questo tipo “associativa”. Come si vedrà più sotto il formalismo matematico delle reti neurali associative di Hopfield è analogo al formalismo della teoria quantistica, a partire quindi da questo modello è quindi possibile costruire, in via teorica, una memoria associativa quantistica. Grazie a numerose simulazioni del modello quantistico di Hopfield è stata effettivamente realizzata una memoria parallela, distribuita e indirizzabile in base al contenuto, un riconoscimento di pattern in forma compressa e, limitatamente, una capacità di predizione basata sul data set di apprendimento [Arb95, Ges90, Hay94]. Il modello presentato qui di seguito è stato sviluppato da Perus [Per99]. 6.3.1 Reti neurali associative Il modello di rete neurale di Hopfield è descritto dalle seguenti equazioni che rappresentano la dinamica dell’attività dei neuroni: N r r q i (t 2 = t 1 + δt) = ∑ J ij q j (t 1 ) oppure q(t 2 ) = Jq(t 1 ) (1) i =1 a cui si associa la legge di apprendimento di Hebb definita dalle seguenti equazioni: P P r r J ij = ∑ vik v kj oppure J = ∑ v k v kT k =1 (2) k =1 dove qi rappresenta l’attività corrente dell’i-esimo neurone. Lo stato della r rete con N neuroni è descritto da q = (q1 ,..., q N ) . vik rappresenta l’attività dell’i- 91 Capitolo 6 – Quantum Neural Networks r esimo neurone quando prende parte alla codifica del k-esimo memory pattern v k . L’equazione (1) descrive la sommatoria dei segnali pesati dalla forza delle connessioni sinaptiche (Jij) che un neurone riceve in ingresso da tutti gli altri neuroni. L’equazione (2) stabilisce invece che la forza di ciascuna connessione sinaptica viene aumentata quando i suoi due neuroni sono entrambi attivi o inattivi, e viene diminuita se la loro attività risulta scorrelata. La matrice J della (2) viene chiamata “matrice di memoria”. Questo è uno dei più semplici algoritmi utili per la modellizazione del cervello, per il data processing ed è quantisticamente implementabile. Riscriviamo ora le equazioni (1) e (2) nella descrizione continua delle r attività dei neuroni e delle sinapsi alla posizione r e al tempo t: r r r r r q( r2 , t 2 = t 1 + δt) = ∫ J( r1 , r2 )q( r1 , t 1 )d r1 (1b) P r r r r J( r1 , r2 ) = ∑ v k (r1 )v k (r2 ) (2b) k =1 r r r Il richiamo della memoria è effettuato da q output = Jq input = Jq ′ . Questo può essere analizzato come segue: r r r r r r r r r P q( r2 , t 2 ) = ∫ J( r1 , r2 )q ′( r1 , t 1 )d r1 = ∫ ∑ v k ( r1 )v k ( r2 )q ′( r2 , t 1 )d r1 = k =1 r r 1 r r r 2 r 1 r 2 r ∫ v (r1 )q ′(r1 , t 1 )dr1 v (r2 ) + ∫ v (r1 )q′(r1 , t 1 )dr1 v (r2 ) + ... + [ ] ... + [ ] [∫ v (rr )q′(rr , t )drr ]v (rr ) = Av (rr ) + B P P 1 1 1 1 1 2 2 dove A = 1 (“segnale”), B = 0 (“rumore”) r Nella (4) dobbiamo scegliere un input q ′ che sia molto r piuttosto che agli altri v k con k ≠ 1 . Nello stesso tempo, l’input r essere ortogonale a tutti gli altri v k con k ≠ 1 . In questo caso, r r all’attrattore v 1 e così v 1 è richiamato. (4) r simile a v 1 r q ′ dovrebbe r q converge Capitolo 6 – Quantum Neural Networks 92 6.3.2 Reti neurali olografiche Se al modello appena descritto aggiungiamo l’evoluzione oscillatoria dell’attività neuronale otteniamo un modello biologicamente più plausibile [Hak91, Sch94]. A questo punto le variabili della rete neurale diventano dei valori complessi ( q j = q j 0 e iϕ j , dove ϕ j è la fase. Questo è molto simile alle dinamiche quantistiche e presenta aspetti analoghi all’interferenza ottica olografica nel senso di seguito descritto. Sutherland, Manger, Soucek e altri [Sut&Al] hanno simulato con successo la generalizzazione quantistica del modello di Hopfield con data set concreti. Il risultato è un modello olografico di rete neurale che si pone a metà strada tra le CLANN e le QNN. Una sequenza di k coppie di vettori di input-output è stata utilizzata per l’apprendimento. Ciascuna componente di input e di output oscilla con una specifica ampiezza di attività e con una specifica fase. La k-esima coppia di inputoutput è la seguente: k k k r vettore di input : s k = (s1k e iθ1 , s k2 e iθ 2 ,..., s kN e iθ N ) con i = - 1 k k k r vettore di output : o k = (o1k e iϕ1 , o k2 e iϕ 2 ,..., o kM e iϕ M ) Per codificare questi pattern, li lasciamo “interagire” in un modo che è matematicamente equivalente all’interferenza ottica della “object wave” (OW) e della “reference wave” (RW). Nell’olografia la OW è l’onda che è direttamente riflessa dall’oggetto la cui immagine sarà memorizzata nell’ologramma. Nella OW l’informazione della forma dell’oggetto è codificata o modulata. La RW è la seconda onda riflessa dall’oggetto, ma è indiretta (ad esempio attraverso uno specchio). Queste due onde, che trasportano le informazioni sull’oggetto da due differenti punti di vista, vengono fatte interagire sulla placca olografica. L’interazione costruttiva o distruttiva determina il grado locale di trasparenza 93 Capitolo 6 – Quantum Neural Networks ottica della placca olografica, in modo che codifichi le correlazioni tra i pattern (le componenti di memoria nel caso delle reti olografiche). Matematicamente, una piccola porzione dell’onda è equivalente all’attività di un neurone, e l’interazione delle onde è equivalente all’interazione tra neuroni con attività oscillatorie. Da qui l’analogia tra reti neurali e olografia. Utilizzando una legge di apprendimento analoga a quella di Hebb, simile all’equazione (2), calcoliamo la forza di connessione tra due neuroni h e j: N J hj = ∑ s hk o kj e − i (θ hk −ϕ kj ) k =1 P r r oppure j = ∑ o k ( s k * ) + k =1 Ciascun Jhj codifica la sovrapposizione delle ampiezze delle correlazioni degli input-output locali e le differenze di fase e angolazione nell’esponente. In questo modo la matrice di tutte le correlazioni delle ampiezze moltiplicata con le corrispondenti differenze di fase rappresenta un ologramma (ad esempio la memoria). Nel modello di rete olografica simulata da Sutherland, un pattern memorizzato può essere ricostruito , analogamente all’equazione (4), facendo interagire un input chiave con la memoria: N N P r r -i(θ o′ = J s ′ ⇔ ∑ J hjs′h e iθ′ =∑∑ s kh o kj e h h =1 k k h −ϕ j h =1 k =1 ) s′h e iθ ′ = o j e h iϕ 1j Il metodo di richiamo olografico di un pattern è simile in tutto e per tutto al metodo di richiamo della rete di Hopfield classica. 6.3.3 Reti neurali associative quantistiche A partire dai modelli appena descritti introduciamo il loro corrispettivo quantistico, con le fasi ϕ implicitamente incorporate nelle funzioni d’onda 94 Capitolo 6 – Quantum Neural Networks Ψ = Aexp(iϕ ) con A ampiezza. Le equazioni della rete neurale vengono semplicemente “tradotte” in un formalismo quantistico in modo da preservare la capacità di information-processing. Consideriamo le seguenti corrispondenze ( ⇔ ): q⇔Ψ q′ ⇔ Ψ ′ vk ⇔ ψ k J⇔G Tenendo conto di questa lista di corrispondenze, tutte le descrizioni fatte per le reti neurali classiche e olografiche sono anche valide nel modello quantistico. Per prima cosa vengono codificati i pattern in specifici stati quantici, quindi gli stati vengono fatti interagire tra di loro in modo da creare una memoria quantica, ed infine per ricostruire un pattern quantico è necessario che lo stato, descritto dalla funzione d’onda, collassi. La dinamica dell’interazione degli stati quantici è descritta dalla seguente equazione: r r r r r Ψ ( r2 , t 2 ) = ∫∫ G( r1 , t 1 , r2 , t 2 )Ψ ( r1 , t 1 )d r1 dt oppure Ψ (t 2 ) = GΨ (t 1 ) 1 (7) con (7) ⇔ (1) L’apprendimento della rete è dato da: P P r r r r r r r r G( r1 , t 1 , r2 , t 2 ) = ∑ψ k (r1 , t1 ) * ψ k (r2 , t 2 ) oppure G( r1 , r2 ) = ∑ψ k (r1 ) * ψ k (r2 ) (8) k =1 k =1 con (8) ⇔ (2) con ψ k stati energeticamente stabili. Supponiamo quindi di aver 95 Capitolo 6 – Quantum Neural Networks codificato una qualche informazione all’interno di essi: le funzioni d’onda sono diventate dei “quantum pattern”. In questo caso la matrice G costituisce la cosiddetta “quantum memory”. Come per le reti neurali classiche, il processo di apprendimento è il r risultato dell’interazione quantistica di qubits, descritto dalla funzione Ψ ( r , t) .Le r r interazioni sono descritte dai pesi G( r1 , t1 , r2 , t 2 ) che sono gli elementi della matrice G. Il metodo di richiamo della quantum memory è simile alla (4): r r r r r r r r r P Ψ ( r2 , t 2 = t 1 + δ t) = ∫ G( r1 , r2 )Ψ ′( r1 , t 1 )d r1 = ∫ ∑ψ k ( r1 ) *ψ k ( r2 )ψ ′( r1 , t 1 )d r1 = k =1 r r 1 r r r 2 r 1 r * 2 r * ∫ψ (r1 ) Ψ ′(r1 , t 1 )d r1 ψ (r2 ) + ∫ψ (r1 ) Ψ ′(r1 , t 1 )dr1 ψ (r2 ) + ... + [ ] [ [ ] ] r r r r r ... + ∫ψ P ( r1 ) * Ψ ′( r1 , t 1 )d r1 ψ P ( r2 ) = Aψ 1 ( r2 ) + B dove A = 1 (“segnale”), B = 0 (“rumore”) (9) con (9) ⇔ (4) Nella (9) è necessario scegliere un input Ψ ′ che sia molto simile a ψ 1 . Se la condizione, che l’input deve essere simile ad uno dei pattern memorizzati, non viene soddisfatta, la risposta della rete non sarà univoca. Capitolo 6 – Quantum Neural Networks 6.4 96 La simulazione del modello quantistico La necessità di creare un modello di rete neurale quantistica nasce direttamente dal progetto di interfaccia neurone-silicio per confrontare i risultati teorici di evoluzione della rete con i risultati delle misurazioni delle cellule staminali. Questo confronto ci permetterà di capire, o di intuire, se i neuroni hanno un comportamento quantistico oppure si comportano solo classicamente. 6.4.1 Il nostro modello La rete neurale quantistica è costituita da 8 qubit totalmente connessi e inizializzati in modo random. Lo spazio di Hilbert su cui la rete opera è quindi di 28. Figura 1: La rete neurale quantistica con 8 bit 97 Capitolo 6 – Quantum Neural Networks Lo stato iniziale della rete è definito dal prodotto tensoriale dei qubit ed è un vettore unitario costituito da 28 elementi: ... ... qbit1 ⊗ qbit2 ⊗ ... ⊗ qbit8 = ... 28 elementi ... ... } 0 1 0 1 1 0 0 001 = ⊗ ⊗ = 0 0 1 0 0 0 0 Figura 2: Prodotto tensoriale di 3 qubit La rete evolve in modo asincrono operando localmente di volta in volta su una coppia di qubit scelti a caso, secondo la seguente trasformazione unitaria: 00 α 00 + β 11 01 δ 01 + γ 10 10 γ 10 − δ 01 11 α 11 − β 00 Con α, β, δ, γ, parametri complessi. Negli stati 01 e 10 i parametri δ e γ possono essere settati a seconda delle necessità ma sempre rispettando il vincolo di unitarietà: 98 Capitolo 6 – Quantum Neural Networks 2 δ +γ 2 2 =α +β 2 =1 La matrice unitaria che opera la trasformazione sui due qubit scelti a caso è una matrice di dimensione 22x 22: α 0 0 0 δ γ T̂ = 0 γ −δ β 0 0 −β 0 0 α La matrice T̂ si ottiene dalla combinazione lineare delle seguenti quattro matrici insieme ai parametri α, β, δ, γ: 1 0  = 0 0 0 1 B̂ = 0 0 0 0 Ĉ = 0 1 0 0 D̂ = 1 0 T̂ = (αÂ) ⊗  + (γÂ) ⊗ Ĉ − ( β B̂) ⊗ B̂ + (γB̂) ⊗ D̂ + + (γD̂) ⊗ B̂ + ( β D̂) ⊗ D̂ - (δĈ) ⊗  + (αĈ) ⊗ Ĉ Le matrici unitarie  , B̂ , Ĉ , D̂ , operano ciascuna localmente su un solo qubit, infatti la loro dimensione è di 21 x 21. Lo stato degli altri sei qubit della rete rimane lo stesso, infatti su ognuno di essi opera localmente la matrice identità. 99 Capitolo 6 – Quantum Neural Networks 1 0 Î = 0 1 La trasformazione globale dell’intera rete è una matrice 28 x 28 Γ̂ , ottenuta moltiplicando tensorialmente coppie di matrici  , B̂ , Ĉ , D̂ , con 6 matrici identità Î , rispettando nel prodotto la posizione dei 2 neuroni che interagiscono e combinando linearmente questi prodotti con i parametri α, β, δ, γ. Ad esempio la trasformazione globale di una rete costituita da 4 qubit in cui è stata scelta la coppia di qubit (1,4) è la seguente: Qubit 1 Qubit 2 Qubit 3 Qubit 4 Γ̂ = (αÂ) ⊗ Î ⊗ Î ⊗  + (γÂ) ⊗ Î ⊗ Î ⊗ Ĉ − ( β B̂) ⊗ Î ⊗ Î ⊗ B̂ + (γB̂) ⊗ Î ⊗ Î ⊗ D̂ + + (γD̂) ⊗ Î ⊗ Î ⊗ B̂ + ( β D̂) ⊗ Î ⊗ Î ⊗ D̂ - (δĈ) ⊗ Î ⊗ Î ⊗  + (αĈ) ⊗ Î ⊗ Î ⊗ Ĉ {} La sequenza di trasformazioni Γ̂i associate alle scelte casuali dei 2 qubit fa evolvere la rete in modo quantistico unitario: Ψ = ∏ Γˆ i Ψ0 i dove Φ 0 è lo stato classico iniziale della rete, fino al momento in cui avviene l’osservazione dello stato globale e il conseguente collasso della funzione d’onda (evoluzione non unitaria). Quindi la rete assume uno degli stati classici 100 Capitolo 6 – Quantum Neural Networks {Φ } con probabilità data dal modulo quadrato dell’ampiezza j cj 2 dello stato nella scomposizione lineare Ψ = ∑c jΦ j j Questo modello è compatibile con la teoria di Penrose-Hameroff [Pen89] [Pen94]. 6.4.2 L’algoritmo L’algoritmo che simula l’evoluzione della rete quantistica neurale è il seguente: Inizializzazione della rete 1) Inizializzazione degli 8 qubit. 2) Inizializzazione dei parametri α, β, δ, γ con α=1, β=0, δ = γ = 1 2 3) Prodotto tensoriale degli 8 qubit che definisce un vettore di partenza di 28 componenti che rappresenta lo stato quantistico iniziale della rete neurale. Evoluzione quantistica della rete 4) Selezione random della coppia di qubit. 5) Calcolo della matrice unitaria Γ̂ che opera la trasformazione globale della rete neurale in base alla coppia di qubit selezionata al passo 4. 6) Calcolo del nuovo stato quantistico della rete ottenuto dal prodotto scalare della matrice Γ̂ per il vettore di stato. 7) I passi 4, 5 e 6 vengono ripetuti N volte. Capitolo 6 – Quantum Neural Networks 101 a b x ax + by . = c d y cx + dy Figura 3: Prodotto scalare di una matrice per un vettore Osservazione e collasso della funzione d’onda 8) Estrazione casuale dal vettore di stato della componente classica jesima con probabilità di estrazione |cj|2. 9) Aggiornamento del vettore di stato: la componente j-esima estratta viene posta uguale a 1 e tutte le altre componenti del vettore vengono poste a 0. Questo equivale a porre Ψ = Φ j . 10) Si ripetono i passi dal 4 al 9 per K volte. Capitolo 6 – Quantum Neural Networks 102 6.4.3 L’implementazione del modello L’algoritmo è stato implementato utilizzando il pacchetto software Mathematica 4.0. Questo pacchetto ci ha permesso di evitare l’implementazione di operazioni matriciali e quantistiche e di concentrarci principalmente sullo sviluppo dell’algoritmo stesso. Inizializzazione della rete Capitolo 6 – Quantum Neural Networks Evoluzione quantistica della rete 103 Capitolo 6 – Quantum Neural Networks Osservazione e collasso della funzione d’onda 104 105 Capitolo 6 – Quantum Neural Networks 6.5 Alcuni output 0 Configurazione di partenza (a): q i = con i = 1..8 1 1 Configurazione di partenza (b): q i = con i = 1..8 0 Tutti i qubit sono impostati a 1 (a) e a 0 (b) Il vettore che definisce lo stato iniziale (a) è: 11111111 Il vettore che definisce lo stato iniziale (b) è: 00000000 Output (b) Output (a) 1 11111111 1 00000000 2 11111111 2 00000000 3 11111111 3 00000000 4 11111111 4 00000000 5 11111111 5 00000000 6 11111111 6 00000000 7 11111111 7 00000000 8 11111111 8 00000000 9 11111111 9 00000000 10 11111111 10 00000000 11 11111111 11 00000000 12 11111111 12 00000000 13 11111111 13 00000000 14 11111111 14 00000000 15 11111111 15 00000000 16 11111111 16 00000000 17 11111111 17 00000000 18 11111111 18 00000000 19 11111111 19 00000000 20 11111111 20 00000000 106 Capitolo 6 – Quantum Neural Networks 1 Configurazione di partenza: q1 = q3 = q4 = q5 = 0 0 q2 = q6 = q7 = q8 = 1 Il vettore che definisce lo stato iniziale è: 01000111 Output 1 01010110 2 00010111 3 11110000 4 11110000 5 01000111 6 01101001 7 00111001 8 00111001 9 01101010 10 01111000 11 10111000 12 10101001 13 00101011 14 10010011 15 00100111 16 01100110 17 01000111 18 11000011 19 00011011 20 10100011 107 Capitolo 6 – Quantum Neural Networks 1 Configurazione di partenza: q3 = q5 = q7 = 0 0 q1 = q2 = q4 = q6 = q8 = 1 Il vettore che definisce lo stato iniziale è: 11010101 Output 1 11010011 2 11101001 3 01110101 4 01110011 5 01101011 6 01011011 7 11001110 8 11011010 9 11110010 10 11010011 11 01110011 12 10101110 13 00101111 14 00101111 15 01100111 16 01100111 17 01101011 18 11000111 19 11001101 20 01100111 Ad ogni passo la rete viene fatta evolvere quantisticamente per N=10 volte prima dell’osservazione e quindi del collasso della funzione d’onda. Il tutto viene ripetuto per K=20 volte. Quando i qubit assumo tutti lo stesso valore, 0 o 1, la rete rimane in uno stato di equilibrio. Capitolo 7 Il progetto 7.1 La scheda di acquisizione dati L’interfacciamento tra il circuito neurale composto da cellule biologiche e le applicazioni software necessarie per l’elaborazione dei segnali provenienti dal suddetto circuito è stato realizzato con l’ausilio di un dispositivo di acquisizione dati. Il dispositivo che si è scelto è il Personal Daq/56 dell’IOTECH (figura 1). Figura 1: Dispositivo Personal Daq/56 Esso è un apparecchio per l’acquisizione dei dati che si avvale dell’utilizzo della porta USB. Tanto più il dispositivo si avvicina al punto della misurazione, maggiore sarà l’esattezza dei dati ottenuti, poichè meno inquinati dal rumore; per 109 Capitolo 7 – Il progetto questo motivo l’apparecchio può essere situato fino a cinque metri di distanza dal computer al quale è collegato. Il collegamento tra il Personal Daq e il Personal Computer avviene attraverso la porta USB che è in grado di garantire sia l’alta velocità di comunicazione sia l’alimentazione al dispositivo. E’ possibile utilizzare più dispositivi Personal Daq collegati tra loro in cascata a seconda del numero di segnali che si devono trattare contemporaneamente. Negli esperimenti sviluppati nel corso del lavoro che si sta descrivendo, è stato necessario analizzare un massimo di otto canali, quindi è bastato un unico dispositivo. La scheda di acquisizione è dotata di due porte digitali ognuna composta da otto canali dai quali si possono inviare i segnali provenienti dal computer verso l’esterno; e da due porte analogiche, ciascuna formata da cinque canali differenziali (o dieci asimmetrici), dai quali, invece, è stato possibile acquisire i segnali elettrici provenienti dal circuito esterno. 7.1.1 Caratteristiche tecniche Il collegamento con USB Il collegamento con la porta USB risulta ideale per le applicazioni di acquisizione dati. Attraverso esso è possibile sia fornire l’alimentazione alla periferica collegata sia disporre di un’alta velocità di trasferimento dei dati che permette l’acquisizione in tempo reale senza avere la necessità di aggiungere una memoria supplementare nel dispositivo di acquisizione. Il collegamento USB sostiene i dati di trasferimento fino a 12 Mbytes al secondo. Isolamento ottico Il dispositivo Personal Daq/56 è isolato otticamente dall’elaboratore che lo ospita. Uno sbalzo di tensione eventualmente applicato alla scheda di Capitolo 7 – Il progetto 110 acquisizione, non avrà dunque nessun effetto sul personal computer e ciò permette di effettuare misure più esatte e non intaccate da un eventuale rumore. Intervalli di input E’ possibile selezionare gamme di valori differenti per ogni canale di acquisizione. Un canale, ad esempio, può essere utilizzato per la tensione (volt) ed un altro per la temperatura. Il software associato al Personal Daq imposta automaticamente le unità di misura appropriate per il tipo di parametro selezionato. L’intervallo massimo della tensione di input varia tra -10 V e +20 V L’intervallo minimo di tensione di input varia tra -31 mV e +31 mV. Configurazione Analogica degli input Il dispositivo Personal Daq comprende dieci canali per l’acquisizione di input analogici che possono essere utilizzati tutti in modo asimmetrico, in modo differenziale o come come combinazione degli input asimmetrici e differenziali con, al massimo, dieci collegamenti. Il numero di canali dell'entrata analogica può essere aumentato utilizzando uno o più moduli di espansione. Esistono due tipi di moduli di espansione: il primo tipo permette di aggiungere venti input asimmetrici (o dieci differenziali), un secondo tipo aggiunge quaranta input asimmetrici (oppure venti differenziali). Input/Output digitale Ognuno dei canali digitali può essere programmato come canale d’ingresso o come canale di uscita. Le linee digitali possono essere acquisite come componenti di un’eventuale sequenza analogica e possono essere lette oltre cento volte al secondo; le linee di uscita possono essere aggiornate in qualunque momento dell’acquisizione. [Daq01] Capitolo 7 – Il progetto 111 7.2 L’applicazione Poiché il software DaqView associato al dispositivo hardware non prevede la possibilità di impostare sequenze cicliche di invio di segnali digitali di output, è stato necessario creare un’applicazione “ad hoc” per le nostre necessità. Per realizzare le procedure che implementano l’interfaccia e la gestione della scheda di acquisizione si sono utilizzate le funzioni di gestione della periferica contenute nel file pdaqx.dll L’applicazione è stata realizzata nel linguaggio Pascal ad Oggetti in ambiente Delphi. Sono state implementate soltanto le funzionalità di supporto alle misurazioni realmente eseguite e descritte nel capitolo successivo. 7.2.1 Inizializzazione della scheda di acquisizione L’inizializzazione della periferica stabilisce un canale di comunicazione tra l’applicazione e la scheda di acquisizione dati. L’apertura di tale canale fa sì che nessun’altra applicazione possa interfacciarsi con la periferica prima che sia avvenuta la sua chiusura. L’inizializzazione è realizzata attraverso la sezione di codice che segue. daqGetDeviceCount(@deviceCount); daqGetDeviceList(@deviceList[0], @deviceCount); UnitData.handle := -1; for deviceIndex := 0 to (deviceCount) do begin daqGetDeviceProperties(deviceList[deviceIndex].daqName, @deviceProps); if ((deviceProps.deviceType = PersonalDaq55) or (deviceProps.deviceType = PersonalDaq56)) then begin UnitData.handle := daqOpen(deviceList[deviceIndex].daqName); break; end; end; 112 Capitolo 7 – Il progetto La procedura daqGetDeviceCount rileva quante periferiche sono collegate e ad ognuna di esse la procedura daqGetDeviceList assegna un nome. Se il valore del parametro handle restituito dalla suddetta procedura è -1 la periferica ha generato un errore e l’applicazione viene terminata, in caso contrario il dispositivo viene aperto attraverso la procedura daqOpen creando il canale di comunicazione per lo scambio di dati che rimmarrà attivo fino a che non si esegue la procedura daqClose. 7.2.2 Acquisizione analogica La finestra dell’applicazione che gestisce la lettura dei segnali provenienti dal circuito esterno è rappresentata in figura 2. Figura 2: Schermata dell’acquisizione E’ possibile impostare il numero di canali analogici da cui si desidera acquisire dati, la frequenza di lettura, espressa in Hz, e il numero di scansioni per 113 Capitolo 7 – Il progetto la frequenza impostata; la combinazione di questi ultimi due parametri determina la durata della lettura. Esiste inoltre la possibilità di specificare il nome del file in cui salvare i risultati dell’operazione di acquisizione. Se la sequenza di istruzioni di inizializzazione è avvenuta con successo nel seguito del programma ci si riferirà al dispositivo di acquisizione dati attraverso il suo handle impostato in fase di inizializzazione. Vengono ora descritte le principali istruzioni che permettono la lettura sui canali analogici. Inizialmente è necessario impostare una serie di parametri utili per configurare il tipo di acquisizione. L’acquisizione viene settata per poter leggere da zero a scancount (numero di scan impostati dall’utente) daqAdcSetAcq(UnitData.handle, DaamNShot, 0, ScanCount); La frequenza di acquisizione viene assegnata uguale al valore freq determinato dall’utente. daqAdcSetRate(UnitData.handle, DarmFrequency, DaasPostTrig, freq, @actualRate); Successivamente viene configurato un buffer buf per la memorizzazione dei dati analogici letti. daqAdcTransferSetBuffer(UnitData.handle, buf, scanCount, DatmWait); Infine, la procedura daqAdcArm(UnitData.handle); attiva la possibilità di effettuare il trasferimento di dati; solo quando viene invocata la procedura daqAdcTransferStart(UnitData.handle); il suddetto trasferimento ha effettivamente inizio. 7.2.3 Scrittura digitale La finestra dell’applicazione che gestisce l’invio di segnali digitali verso il Capitolo 7 – Il progetto 114 circuito esterno è rappresentata in figura 3. Figura 3: Schermata dell’invio di bitmap Attraverso tale interfaccia è possibile disegnare il tipo di bitmap che si desidera inviare alla scheda; impostare il numero di cicli della sequenza scelta, il tempo di attesa (in ms) tra due sequenze successive e il nome del file in cui salvare la configurazione inviata. Anche se le bitmap sono rappresentate da nove celle in realtà soltanto otto di esse risultano significative per la descrizione dell’immagine. La cella centrale che corrisponderebbe al canale nove viene ignorata, per semplicità; considerare otto canali (un byte) semplifica notevolmente i calcoli. La seguente sezione di codice esegue l’invio dei segnali sul dispositivo Personal Daq/56 collegato. for i:=1 to contBitmap do begin daqIOWrite(UnitData.handle, DiodtPDaqDigIO, DiodpPDaqPort1, 0, DioepP1, digVal[i]); delay(intervallo); Capitolo 7 – Il progetto 115 daqIOWrite(UnitData.handle, DiodtPDaqDigIO, DiodpPDaqPort1, 0, DioepP1, 0); delay(intervallo); end; La procedura daqIOWrite invia contemporaneamente sugli otto canali digitali della porta DiodpPDaqPort1 la bitmap digVal[i] Il ciclo viene eseguito per tutte le bitmap “disegnate” dall’utente; i segnali che descrivono una bitmap vengono inviati per il tempo (in ms) specificato dalla costante intervallo. Capitolo 7 – Il progetto 116 7.3 Il “circuito vivente” 7.3.1 Realizzazione circuitale La connessione diretta neuroni-PC ha comportato una serie di problemi non facilmente risolvibili con i pochi mezzi attualmente a disposizione. Il problema principale è stata la perfetta realizzazione di un interfacciamento neurone/elettrodo, indispensabile per estrarre ed inviare i segnali elettrici necessari. Il problema della giunzione tra neurone ed elettrodo, è di fondamentale importanza: i materiali utilizzati devono essere biocompatibili con l’ambiente di coltura dei neuroni, e gli stessi devono attecchire in modo solidale all’elettrodo per avere la massima conducibilità. Inizialmente, si è provato a creare colture di neuroni su un supporto di Kapton (film in polyimide utilizzato per cavi in avionica) equipaggiato d’elettrodi in lega di tungsteno. Il suddetto materiale risultava biocompatibile con la coltura ma le grosse dimensioni degli elettrodi impedivano ai neuroni di innestarsi in modo efficace, probabilmente per problemi d’elettrolisi i neuroni migravano lontano dagli elettrodi. Si sono provati altri materiali quali dei PCB (printed circuit board) utilizzati in elettronica per la connessione dei vari componenti, ma i risultati sono stati deludenti poiché la non trasparenza del supporto impediva il controllo al microscopio della cultura. Successivamente è stato reperito un supporto idoneo allo scopo (Figura 4). Esso è costituito da un disco in vetro dove sono riportati dei piccoli elettrodi in tungsteno. Ogni singolo elettrodo è connesso tramite una sottile pista isolata ad una piazzola adibita al collegamento esterno del sistema. 117 Capitolo 7 – Il progetto Il disco comprende quattro parti, ognuna delle quali è a sua volta suddivisa in cinque piccole aree contenenti circa tredici elettrodi ciascuna (Figura 4). Figura 4: Sezione di un’area del supporto hardware Approssimativamente il numero totale degli elettrodi presenti sull’intero disco ammonta a circa 300 connessioni. La distanza tra gli elettrodi (Figura 5) varia in funzione del layout presente in ogni singola area, mediamente tale distanza si aggira tra i 70 e 100 µm. Figura 5: Elettrodi presenti in ogni area Capitolo 7 – Il progetto 118 Gli esperimenti Sulla base dei risultati precedenti, ottenuti da una precedente tesi di laurea, si sono realizzati ulteriori esperimenti. Per questo scopo si è utilizzato sempre lo stesso supporto per realizzare la giunzione dei neuroni con il mondo esterno e su di esso sono state installate quattro vaschette per le colture in modo da realizzare più esperimenti contemporaneamente (Figura 6). Figura 6: Supporto hardware gli esperimenti È stata rimossa la morsettiera e sostituita con un connettore con 40 pin. Il cavo di collegamento è un conduttore flat a 40 conduttori schermato contro le emissioni EMI. In figura 7 è descritta la configurazione circuitale delle quattro aree del suppporto hardware di figura 6. La prima area ha permesso di rifare l’esperimento della rete di Kohonen; la seconda e la terza sono state realizzate per un esperimento di non località quantistica e la quarta è utilizzata solo per prove di conducibilità dei liquidi di coltura; la seconda area, inoltre, è destinata a ricreare una rete di Hopfield: sono stati selezionati nove elettrodi tra quelli presenti, e sono stati collegati al connettore, otto di essi rappresenteranno i canali verso cui inviare e ricevere i segnali sui nodi della rete di Hopfield, mentre uno è necessario per depolarizzare il circuito. Capitolo 7 – Il progetto 119 Figura 7: Schemi circuitali del secondo esperimento Il circuito elettronico del generatore di pattern è stato completamente rifatto (figura 8). Tale circuito non necessita di un microprocessore, ma riceve i pattern direttamente dalla porta digitale della scheda d’acquisizione e fornisce in uscita le corrette tensioni da inviare ai neuroni. Per evitare il problema dell’elettrolisi ogni bit generato è preceduto da un impulso negativo avente lo scopo di depolarizzare l’elettrolita della cultura. È stato migliorato il generatore di tensione costante che prevede in uscita, su ogni singolo segnale, un circuito operazionale che si preoccupa di generare gli impulsi necessari. La nuova configurazione circuitale consente di mantenere costante la tensione d’uscita mantenendola perfettamente squadrata e livellata. E’ possibile variare la tensione in uscita, sia positiva sia negativa separatamente, da un minimo di 5 mV ad un massimo di 100 mV. Capitolo 7 – Il progetto 120 Figura 8: Circuito elettronico per il controllo della tensione 7.3.2 Il materiale biologico Anche se fino a questo momento si è parlato di neuroni per indicare la materia biologica utilizzata negli esperimenti, è doveroso fare alcune precisazioni. All’interno della vaschetta costruita attorno al circuito elettrico (Figura 6) è stato inserito un liquido all’interno del quale sono presenti una certa percentuale di cellule nervose: neuroni, astrociti e oligodendrociti. Le suddette cellule nervose sono state ricavate a partire da cellule staminali prelevate da tessuti cerebrali di feti che hanno subito aborti spontanei. [Gr&Al] Le cellule staminali sono state poste in una soluzione progettata ad “hoc” per favorirne il differenziamento e dopo alcuni giorni quando, seppur non ancora mature, possono dirsi cellule nervose, vengono inserite in un liquido di coltura: un composto organico basato su siero bovino con ph neutro che contiene delle sostanze indispensabili per il nutrimento delle cellule. E’ da notare che a causa degli strumenti messi a disposizione per questi esperimenti, non è stato possibile collocare le cellule esattamente nei punti desiderati; in sostanza, le architetture elettriche realizzate hanno costituito una sorta di letto sul quale sono state depositate le cellule che hanno potuto, così, Capitolo 7 – Il progetto 121 creare collegamenti tra loro al di là di quelli elettrici. Tuttavia si ritiene che questo non snaturi gli esiti degli esperimenti per i seguenti motivi: • Nel modello di rete presentato da Kohonen i neuroni disposti sullo strato competivo sono tra loro connessi e stabiliscono delle relazioni di vicinato tali per cui un segnale che arriva ad uno solo di essi si propaga anche in un certo intorno. I segnali d’uscita, inoltre, vengono prelevati da un elettrodo ben preciso il quale, fornisce l’attività delle cellule realmente poste su di esso. • Nel modello di Hopfield i neuroni sono tutti interamente interconnessi quindi, le connessioni che si stabiliscono tra le cellule nervose corrispondono alle connessioni presenti nel modello software. Capitolo 8 Gli esperimenti 8.1 L’esperimento sulla rete di Hopfield Il primo esperimento condotto è stato finalizzato allo studio del modello di Hopfield descritto nei paragrafi 5.3 e 6.3. Questo modello è in grado di classificare semplici pattern come quelli qui riportati, anche affetti da rumore: PATTERN “0” PATTERN “1” POSSIBILI PATTERN “0” POSSIBILI PATTERN “1” 123 Capitolo 8 – Gli esperimenti Le nove celle che formano il pattern (o bitmap) corrispondono ai nove neuroni costituenti la rete e che sono collegati con la porta digitale della scheda di acquisizione secondo il seguente schema: 1 8 7 2 9 6 3 4 5 Il canale/neurone contrassegnato dal numero 9 sarà sempre lasciato al valore 0; questo ci permette di lavorare soltanto con 8 canali/neuroni (1 byte) che dal punto di vista elaborativo semplifica di molto il lavoro. La bitmap “0” è costituita dalla sequenza {1,1,1,1,1,1,1,1} La bitmap “1” è costituita dalla sequenza {0,0,0,0,1,1,1,1} Le possibili bitmap “0” sono costituite dalle sequenze {0,1,1,1,0,1,1,1} {0,1,1,1,1,1,1,1} {1,1,1,1,1,1,0,1} Le possibili bitmap “1” sono costituite dalle sequenze {0,0,0,0,1,1,1,0} {0,0,0,0,0,1,1,1} {0,0,0,1,1,1,1,0} Le misurazioni sulle uscite sono state effettuate dopo la stimolazione delle cellule. L’invio di un bit 0 sul canale equivale a non inviare nulla, mentre mandare un bit 1 significa far passare una tensione di 35 mV. Capitolo 8 – Gli esperimenti 8.2 124 Analisi dei risultati 8.2.1 Analisi qualitativa dei segnali Per prima cosa è stata effettuata una lettura sulle cellule prima che fossero sottoposte a qualsiasi stimolo: i risultati di questa misurazione sono visibili nella figura 1. Misurazione prima della stimolazione 0,08 0,06 0,04 Canale 1 0,02 Canale 2 V Canale 3 0 Canale 4 Canale 5 -0,02 1 94 187 280 373 466 559 652 745 838 931 Canale 6 Canale 7 Canale 8 -0,04 -0,06 -0,08 Figura 1: Misurazione libera delle cellule Successivamente le cellule sono state stimolate da differenti pattern: bitmap miste, bitmap “0”, bitmap “0” con rumore, bitmap “1” e bitmap “1” con rumore. In ogni esperimento la sequenza di bitmap è stata presentata 50 volte alla frequenza di 40 hz, fase di training; dopo ogni fase di training sono state effettuate 50 letture dell’output per confrontare il comportamento classico e quantistico della rete neurale. 125 Capitolo 8 – Gli esperimenti Nel primo esperimento le cellule sono state stimolate per 50 volte alla frequenza di 40 hz, con sei diverse sequenze che rappresentano bitmap “0”, “1”, possibili “0” e possibili “1”. I risultati ottenuti sono visibili in figura 2. Sequenza Pattern 11111111 = 0 00001111 = 1 10111111 = Possibile 0 10011111 = Possibile 0 00001110 = Possibile 1 00000111 = Possibile 1 0,08000 0,06000 0,04000 0,02000 -0,04000 Figura 2: Misurazione bitmap miste 46 41 36 31 26 21 16 11 6 -0,02000 1 0,00000 126 Capitolo 8 – Gli esperimenti Poi si presenta alle cellule una sequenza di bitmap “0” per 50 volte, alla frequenza di 40 hz, quindi vengono effettuate 50 letture. I risultati sono visibili in figura 3. 0,08000 0,06000 0,04000 0,02000 49 45 41 37 33 29 25 21 17 13 9 5 -0,02000 1 0,00000 -0,04000 -0,06000 Figura 3: Misurazione bitmap "0" A questo punto si presenta alle cellule 50 volte e alla frequenza di 40 hz una bitmap “0” affetta da rumore. Vengono quindi effettuate le 50 letture sull’output. I risultati sono visibili nella figura 4. 0,04000 0,02000 -0,04000 -0,06000 Figura 4: Misurazione bitmap "0" con rumore 49 45 41 37 33 29 25 21 17 9 13 -0,02000 5 1 0,00000 127 Capitolo 8 – Gli esperimenti L’esperimento successivo consiste nel presentare alle cellule sempre per 50 volte e alla frequenza di 40 hz, la bitmap “1”. Dopo la fase di training sono state effettuate le 50 letture dell’output. I risultati sono visibili in figura 5. 0,04000 0,02000 46 41 36 31 26 21 16 -0,02000 11 6 1 0,00000 -0,04000 -0,06000 Figura 5: Misurazione bitmap "1" Infine l’ultima fase consiste nel presentare alle cellule 50 volte e alla frequenza di 40 hz, la bitmap “1” affetta da rumore. Le 50 misurazioni effettuate sull’output sono visibili nella figura 6. 0,04000 0,02000 -0,04000 -0,06000 Figura 6: Misurazione bitmap "1" con rumore 46 41 36 31 26 21 16 11 -0,02000 6 1 0,00000 Capitolo 8 – Gli esperimenti 128 8.2.2 I metodi di analisi I segnali misurati sono stati successivamente elaborati utilizzando la Recurrence Quantification Analysis. Questo strumento di analisi non lineare si basa sullo studio di serie temporali ricostruite con delay-time embedded, ossia estese in uno spazio multi dimensionale. Si ottiene così uno spazio delle fasi in cui la serie temporale è il sistema dinamico da analizzare. Una volta ricostruita la serie si possono usare dei Recurrence Plots per mostrare quali vettori, nello spazio ricostruito, sono lontani o vicini tra loro. Vengono calcolate le distanze euclidee tra tutti gli accoppiamenti tra i vettori e queste vengono poi codificate attraverso dei colori. Essenzialmente, il Recurrence Plot è una tabella di codici di colori, in cui i colori caldi (giallo, rosso ed arancio) possono essere associati con le piccole distanze fra i vettori, mentre i colori freddi (azzurro, nero) possono essere usati per mostrare le grandi distanze. Per segnali random la distribuzione dei colori è completamente uniforme. Quanto più deterministico è il segnale, tanto più strutturato sarà il Recurrence Plot. In pratica il determinismo del segnale è dato dall’ampiezza delle porzioni di spazio in cui il sistema si sofferma più a lungo rispetto alla casualità. 8.2.3 I risultati precedenti L’analisi qualitativa dei segnali dei precedenti esperimenti ha fatto emergere alcuni interessanti risultati: a valori graficamente simili, cioè quando vengono inviate bitmap che si assomigliano, corrispondono valori simili nonostante le tensioni applicate agli ingressi non siano molto differenti. In corrispondenza dell’invio della bitmap “0”, costituita dalla sequenza di soli bit 1 che corrispondo quindi a valori “alti” di tensione, le cellule rispondono con valori di tensione “bassi”: a rendere più notevole questo comportamento si aggiunge il fatto che il liquido di coltura si comporta come conduttore e quindi all’invio della bitmap “0” risponde con valori alti. 129 Capitolo 8 – Gli esperimenti Al termine della stimolazione si è osservato che l’andamento dei segnali risulta molto diverso da quello iniziale, cioè prima della stimolazione. Si nota come le cellule abbiamo rinforzato il proprio segnale mostrando quindi la capacità di immagazzinamento dell’informazione. Attraverso la Recurrence Quantification Analysis sono stati ottenuti i grafici di figura 7, 8, 9 e 10. Figura 7: Il segnale prima della fase di training Figura 9: Il segnale dopo la fase di training Figura 8: Il segnale durante la fase di training Figura 10: Il segnale alla fine delle stimolazioni Capitolo 8 – Gli esperimenti 130 La figura 7 descrive lo stato di organizzazione di un canale prima di ricevere degli stimoli. Essa è costituita da colori freddi e disorganizzati che segnalano la mancanza di autosimilarità e quindi di autoorganizzazione della serie temporale. La figura 8 calcolata sul segnale ottenuto in fase di stimolazione con il ciclo di pattern descritto in precedenza, è a sua volta disorganizzata anche se con un andamento molto diverso da quello del canale di output prima della stimolazione. Nella figura 9, invece, che corrisponde al segnale emesso da un canale di output in fase di “testing” con il pattern zero, si vedono ampie bande uniformi di colore giallo e rosso, mentre i colori freddi sono limitati agli estremi del diagramma. La figura 10 rappresenta, infine, il Recurrence Plot di un canale di output dopo la fine della somministrazione dei pattern. In questo caso le bande di colori caldi si sono ulteriormente allargate, a dimostrazione di un altissimo grado di autoorganizzazione. E’ evidente da questa analisi che l’introduzione di stimoli organizzati ha modificato il segnale proveniente dalle cellule aumentandone il contenuto informativo in misura rilevante. Quel che è più importante, è che l’organizzazione del segnale di output permane anche dopo la cessazione dello stimolo, lasciando aperta la possibilità di interpretare questo evento come una forma di apprendimento o memorizzazione. 8.2.4 I nuovi risultati Abbiamo utilizzato la RQA per analizzare i nuovi segnali provenienti dai vari canali di output. Presentiamo qui l’analisi di due diversi canali, il canale 1 e il canale 3. La RQA effettuata ha dato luogo ai grafici di figura 11, 12 , 13 e 14. Capitolo 8 – Gli esperimenti 131 Figura 11: Il canale 1 dopo lo stimolo con la bitmap "0" Figura 12: Il canale 3 dopo lo stimolo con la bitmap "0" Figura 13: Il canale 1 dopo lo stimolo con la bitmap "1" Figura 14: Il canale 3 dopo lo stimolo con la bitmap "1" La figura 11 mostra il canale 1 dopo che le cellule sono state stimolate con il pattern “0”. Si notano ampie bande di colori caldi al centro e di colori freddi verso l’esterno. La figura 12 mostra il canale 3 dopo che le cellule sono state stimolate con il pattern “0”. Come si può vedere pur essendo molto diverso dal grafico del canale 1 mostra comunque una certa organizzazione del segnale, anche se meno spiccata del canale 1. Capitolo 8 – Gli esperimenti 132 La figura 13 mostra il canale 1 dopo la stimolazione attraverso il pattern “1”. La figura 14 mostra il canale 3 dopo la stimolazione attraverso il pattern “1”. Come si può vedere anche in questo caso ci sono ampie bande di colori caldi al centro e di colori freddi all’esterno. E’ evidente dall’analisi di queste immagini che agli output degli stessi canali la rete si comporta diversamente a seconda dei pattern proposti in input, fornendo comportamenti più o meno organizzati a seconda del canale. Da questa analisi discende quindi che l’introduzione di stimoli organizzati, come nel caso degli esperimenti precedenti, ha modificato il segnale proveniente dalle cellule aumentandone il contenuto informativo in misura rilevante. La rete presenta un comportamento organizzato di fronte allo stimolo di pattern differenti, ed è in grado di rispondere selettivamente all’invio di pattern differenti; ma quello che risulta più importante è che l’andamento dei segnali cambia a seconda dei canali e si differenzia a seconda dei pattern (figura 12 e 14). Nondimeno pattern simili danno origine a risposte della rete simili. Questo può far supporre che la rete neurale biologica sia in grado di “codificare” i pattern inviatele. Per quanto riguarda la possibilità di riscontrare effetti quantistici nell’andamento dell’output, la considerazione da fare è che mentre la ANN classica risponde sempre con identico output ad input identico, ci si aspetta che la rete quantistica risponda con una distribuzione di output che presenta un picco sui valori dell’output classico. A questo scopo abbiamo esaminato le uscite della rete vivente su 50 tempi diversi ed abbiamo riscontrato irregolarità nella risposta delle cellule allo stesso pattern: questo è un indizio di un possibile comportamento quantistico che andrà ulteriormente studiato. 133 Capitolo 8 – Gli esperimenti 8.3 La non località Il secondo esperimento è stato finalizzato all’analisi di fenomeni non locali all’interno dei neuroni e alle possibili implicazioni a livello macroscopico. Gli esperimenti condotti sulla non località hanno coinvolto due delle quattro vaschette a nostra disposizione, la numero 2 e la numero 3 (figura 7, capitolo 7). Nella figura 15 vengono esposti i risultati delle misurazioni libere effettuate sulle due vaschette prima che fossero sottoposte a qualsiasi stimolazione. Il canale 1 rappresenta la vaschetta n° 2, il canale 2 rappresenta la vaschetta n° 3. Misurazione prima della stimolazione 0,03 0,02 V 0,01 Canale 2 0 -0,01 1 Canale 3 283 565 847 1129 1411 1693 1975 2257 2539 2821 -0,02 -0,03 Figura 15: Misurazione libera delle due vaschette Dopo le misurazioni “libere” le cellule della vaschetta n° 2 sono state stimolate per 50 volte, alla frequenza di 40 hz, con la sequenza {1,0,0,0,0,0,0,0}. Quindi sono state collegate le vaschette 2 e 3 e sono state lasciate “interagire” senza alcuno stimolo esterno. Successivamente sono state scollegate e la vaschetta n° 2 è stata nuovamente stimolata con la stessa sequenza ripetuta 50 volte alla Capitolo 8 – Gli esperimenti 134 frequenza di 40 hz. Infine è stata effettuata la misurazione delle due vaschette. L’esperimento è stato ripetuto una seconda volta. I risultati sono visibili in figura 16 e 17. Misurazione dopo il primo esperimento di non località 0,03 0,02 V 0,01 Canale 2 0 -0,01 1 Canale 3 284 567 850 1133 1416 1699 1982 2265 2548 2831 -0,02 -0,03 Figura 16: Il primo esperimento di non località Misurazione dopo il secondo esperimento di non località 0,03 0,02 V 0,01 Canale 2 0 -0,01 1 Canale 3 283 565 847 1129 1411 1693 1975 2257 2539 2821 -0,02 -0,03 Figura 17: Il secondo esperimento di non località Capitolo 8 – Gli esperimenti 135 Sempre nell’ambito della non località è stato effettuato un altro esperimento che prevede una stimolazione ottica, invece che elettrica, attraverso un LED 466 nµ (vicino alla banda UV) comandato manualmente. In questo caso il primo e secondo canale corrispondono all’attività delle cellule della seconda vaschetta, mentre il terzo canale corrisponde agli impulsi del LED. I risultati sono riportati in figura 18 e 19. Prima misurazione della stimolazione ottica 0,35 0,3 0,25 V 0,2 Canale 1 0,15 Canale 2 Canale 3 0,1 0,05 0 -0,05 1 272 543 814 1085 1356 1627 1898 2169 2440 2711 2982 Figura 18: La prima stimolazione ottica Seconda misurazione della stimolazione ottica 0,35 0,3 0,25 0,2 V Canale 1 Canale 2 0,15 Canale 3 0,1 0,05 0 -0,05 1 264 527 790 1053 1316 1579 1842 2105 2368 2631 2894 Figura 19: La seconda stimolazione ottica 8.3.1 Analisi dei risultati Da un’analisi delle misurazioni effettuate sono emersi i seguenti risultati: Crosscorrelazione dei segnali prima delle stimolazioni 0,304 Crosscorrelazione dopo la stimolazione elettrica 0,184 Coerenza dei segnali dopo la stimolazione elettrica 0,47 Crosscorrelazione dopo la stimolazione ottica -0,484 Il risultato più interessante però deriva dalla coerenza dei segnali dopo la stimolazione ottica attraverso il LED, che ha un valore di 0,80. Il grafico dell’analisi della coerenza è visibile in figura 20. Figura 20: La coerenza dei segnali dopo la stimolazione ottica Il dato singolare che emerge da questo grafico è che il LED non dovrebbe comunque influire sui segnali, quindi la reazione allo stimolo ottico potrebbe in qualche modo essere provocata dalla “pluripotenza” delle cellule staminali, che Capitolo 8 – Gli esperimenti 137 sono potenzialmente anchecellule della retina. La reazione al LED inoltre non può essere stata provocata dalle interferenze elettriche tra le vaschette. Una possibile spiegazione del fenomeno è che l’energia estremamente bassa possa aver stimolato l’insorgere di effetti di correlazione senza tuttavia provocare fenomeni di decoerenza, in modo da rendere possibile la visualizzazione di uno stato di coerenza. Tuttavia questi risultati non implicano necessariamente che all’interno dei neuroni siano presenti fenomeni di tipo EPR. Una tale correlazione potrebbe essere spiegata ipotizzando un qualche tipo di comunicazione tra i neuroni stessi. Solo ulteriori esperimenti possono validare l’interpretazione quantistica del fenomeno osservato. Conclusioni e sviluppi futuri Per quanto un’analisi completa di tutti i segnali raccolti esuli dallo scopo di questa tesi è interessante far notare come i risultati preliminari ottenuti da un’analisi qualitativa delle misurazione e dalla Recurrence Quantification Analysis porti ad affermare, con un buon margine di certezza, che il comportamento delle cellule dopo la stimolazione attraverso i pattern ha mostrato una forma di codifica selettiva in risposta a pattern diversi, evidenziando una forte autoorganizzazione in risposta agli stimoli inviati. Molto interessanti sono i risultati dell’esperimento della rete di Hopfield che ha fatto emergere delle irregolarità delle cellule in risposta all’invio dello stesso pattern. Come si è già detto questo non vuol dire che ci sia sicuramente un qualche effetto quantistico all’interno dei neuroni, ma lascia aperta tale ipotesi. Esperimenti futuri cercheranno di corroborarla attraverso protocolli più precisi ed una simulazione computazione aderente al modello vivente anche per quanto riguarda il processo di apprendimento. Particolarmente interessanti sono i risultati ottenuti dall’esperimento sulla non località attraverso la stimolazione ottica con l’utilizzo di un LED che ha evidenziato una coerenza dei segnali di 0,80. L’elemento più sorprendente è che il LED non dovrebbe influenzare in alcun modo i segnali elettrici. Le cellule hanno risposto in modo organizzato a Capitolo 9 – Conclusioni e sviluppi futuri 139 stimoli di questo tipo, forse grazie alla loro “pluripotenza” che giustificherebbe la presenza di cellule fotosensibili. Tuttavia, allo stato attuale della ricerca, non siamo ancora in grado di stabilire quali siano i motivi di questo tipo di risposta da parte delle cellule e non siamo nemmeno in grado di conoscerne il preciso significato fisico. A questo scopo è in corso di preparazione un nuovo esperimento, proposto dal fisico americano F. Thaheld, che dovrebbe fornire risultati maggiormente stringenti dal punto di vista fisico. L’esperimento è il seguente. Vengono utilizzati due circuiti stampati sui quali sono stati fatti crescere dei neuroni fetali. Le cellule del primo circuito vengono direttamente stimolate da una serie di stimolazioni luminose, che possiedono un’energia sufficiente ad attivare i neuroni. Quindi viene stimolato anche il secondo circuito nello stesso modo. Successivamente entrambe le piastre vengono stimolate da fotoni in sovrapposizione di stato. Se l’esperimento è corretto, ogni volta che si produce la stimolazione si dovrebbe ottenere un potenziale d’azione solo da uno dei due circuiti., a riprova del fatto che hanno avuto luogo collasso o decoerenza. Secondo il professor Thaheld tale esperimento dovrebbe fugare i dubbi sulla possibile casualità della coerenza riscontrata ed inoltre fornire la base sperimentale per la teoria quantistica GRW del professor Gian Carlo Ghirardi. Il lavoro svolto nell’ambito di questa tesi è solo uno dei primi passi di un progetto di ricerca molto più ampio, che sarà utilizzato come supporto per l’interpretazione dei segnali raccolti da nuovi e più complessi esperimenti. Nel prossimo futuro verranno migliorati sia i supporti per la crescita cellulare che i metodi di misurazione, monitorando più a lungo ciascun segnale e minimizzando le interferenze. Potrà inoltre essere incrementato il numero di Capitolo 9 – Conclusioni e sviluppi futuri 140 connessioni in modo da permettere di testare l’apprendimento su più tipi di pattern e di creare reti sempre più complesse. Infine verrà contestualmente portata avanti l’emulazione quantistica dei modelli implementati su rete vivente, per consentire un confronto più accurato fra comportamento quantistico teorico e comportamento dei neuroni reali. Verrà inoltre portata avanti l’analisi dei segnali raccolti, attraverso metodi standard, tecniche non lineari e reti neurali artificiali, alla ricerca di una possibile interpretazione del contenuto informativo conservato nei segnali di output. Se sarà possibile determinare dalle analisi effettuate la natura del meccanismo di apprendimento neuronale si aprirà allora concretamente la via per creare reti viventi sempre più estese e complesse, in modo da renderle realmente funzionali a scopi computazionali e clinici. Il perfezionamento della strumentazione dovrebbe inoltre portare alla possibilità di testare effetti quantistici, sia per confermare le ipotesi sulla mente quantistica, sia per approfondire problematiche di quantum computing e di fisica quantomeccanica avendo a disposizione uno strumento concreto di validazione. Bibliografia Referenze citate nel testo [Ani01] A. Anile, www.dmi.unict.it/~anile/mathapp/retineuro/retineuro.html, (Maggio 2001). [Arb95] Arbib M. A., The handbook of brain theory and neural networks, Mit Press Cambridge (1995). [Ben82] P. Beniof, Quantum mechanical Hamiltonian models of Turing machines. J.Stat. Phys. 29, 515-546 (1982). [Ben82] P. Beniof, Quantum mechanical models of Turing machines that dissipate no energy. Phys. Rev. Lett. 48, 1582-1585 (1982). [Cam97] Cammarata Silvio, Reti neuronali – Dal Perceptron alle reti caotiche e neuro-fuzzy (1997). [Chr95] Chrisley, R., "Quantum learning", in Pylkkänen, P. and Pylkkö, P., editors, New directions in cognitive science: Proceedings of the international symposium, Saariselka, 4-9 August 1995, Lapland, Finland, pages 77-89, Helsinki. Finnish Association of Artificial Intelligence. [Daq01] Personal Daq User’s Manual USB Data Acquisition Modules, (2001). [Deu85] D. Deutch, Quantum Theory, the Church Turing principle and the universal quantum computer. Proc. Royal Society London, A 400, 97117 (1985). [Dit99] William Ditto, www.bbc.co.uk/tw/stories/technology/9906comp.html 1999. [Dos02] http://www.lesionispinali.org/ricerca_file/dossier/dossier27_3.html, (Marzo 2002). [EvK81] Evans e Kaufman, Nature 292, 154-6, (1981). 142 Bibliografia [F&S94] Fromherz P and Schaden H, Defined neuronal arborisations by guided outgrowth of leech neurons in culture Eur J Neuroscience n.6, (1994). [Fro&Al] P. Fromherz, A. Offenhauser, T. Vetter, J. Weis, Scienze, 252, 12901293 (1991). [Fro&Al] P. Fromherz, H. Schaden, T. Vetter, Neuroscience 129, 77-80 (1991). [Fro02] P. Fromherz, Electrical Interfacing of Nerve Cells and Semiconductor Chips, Chemphyschem 2002, 3, 276-284. [Ges90] Geszti T., Physical models of neural networks, World Scientific (1990). [Gr&Al] Angela Gritti, Barbara Rosati, Marzia Lecchi, Angelo L. Vescovi e Enzo Wanke, Excitable properties in astrocytes derived from human embryonic CNS stem cells, European Jurmal of Neuroscience, vol 12, pp 3549-3559, (2000). [Gro96] Grover L. K., A fast quantum mechanical algorithm for database search, Proceeding of the 28th Annual ACM Symposium on The Theory of Computing, 212-219 (1996). [Hak91] Haken H., Synergetic computers and cognition (A top-down approach to neural nets). Springer (1991). [Hay94] Haykin S., Neural networks MacMillan coll. Public. (1994). [Kak95] Kak, S. “Quantum Neural Computing”, Advances in Imaging and Electron Physics, vol. 94, pp. 259-313, 1995. (A comprehensive foundation), [Men98] Menneer, T. “Quantum Artificial Neural Networks”, Ph. D. thesis of The University of Exeter, UK, May, 1998. [Mus00] Reger, B, Fleming, KM, Sanguineti, V, Simon Alford, S, MussaIvaldi, FA. Connecting Brains to Robots: The Development of a Hybrid System for the Study of Learning in Neural Tissues. Artificial Life VII, Portland, Oregon, (August 2000). [Pen89] Roger Penrose, The emperor’s new mind: concernine computers, minds, and the laws of physics (1989). [Pen94] Roger Penrose, Ombre della mente: alla ricerca della coscienza, Mondadori (1994). [Per99] Mitja Perus, Neural Networks as basis for quantum associative networks, Informatica, 20, (1999). Bibliografia 143 [Pot&Al] Steve M. Potter, Devi Thota, Michael P. Maher, Jerry Pine, Cultured Neural Networks: Multielectrode arrays for stimulating and recording hippocampal neurons (1999). [Pri00] A. Prinz, P. Fromherz, Biol. Cybern. 82, L1-L5 (2000). [Re&Al] Reger, B, Fleming, KM, Sanguineti, V, Simon Alford, S, Mussa Ivaldi, FA. “Connecting Brains to Robots: An Artificial Body for Studying the Computational Properties of Neural Tissues” Artificial Life 6: 307324, (2000). [Sch94] Schempp W., Analog VLSI network models, cortical linking neural networks models, and quantum holographic neural technology. In: Byrnes J. S. et al. (Eds.): Wavwlets and their applications. Kluwer 213-260, (1994). [Sut&Al] Sutherland J. G., The holographic cell: a quantum perspective (ch. 3). In: Plantamura V. L., Soucek B., Visaggio G. (Eds.): Frontier decision support systems. J. Wiley & Sons, NY, (1994). Maner R.: Holographic neural networks and data compression. Informatica, 21, 1997, 665673. [Ta&Al] Vincenzo Tagliasco, Annamaria d’Ursi, Riccardo Manzotti, Macchine che pensano: dalla cibernetica alla coscienza artificiale (giugno 2002). [Ta&Ho] D.W. Tank and J.J. Hopfield, Neural architecture and biophysics for sequence recognition in Neural Models of Plasticity, Academic Press, 363-377, (l989). [Th&Al] Thomson et al., Science 282 1145-7, (1998). [Ven98] Dan Ventura, Artificial Associative memory using quantum processes, Proceeding of the Internetional Conference on Computational Intelligence and Neuroscienze, vol. 2, pp. 218-221 (october 1998). [Vig02] Simona Vigna, Il cervello Chimera, Corriere Salute (2002). [Wei98] Weigang L., “A study of parallel Self-Organizing Map”, e-print: http://xxx. lanl.gov/quant-ph/9808025, 1998. [Wei99] Weigang L. , Entangled Neural Networks, http://www.cic.unb.br/docentes/weigang/qc/aci.html. (1999), Bibliografia 144 Altri articoli pertinenti: Peter Fromherz and Alfred Stett, Silicon-Neuron Junction: Capacitive Stimulation of an Individual Neuron on a Silicon Chip, The American Phisycal Society (1995). Marco Canepari, Marco Bove, Eisaku Mueda, Marco Cappello, Akio Kawana, Experimental analysis of neural dynamics in cultured cortical networks and transitions between different patterns of activity, Biological Cybernetics 77, 153162 (1997). Martin Jenkner, Bert Muller, Peter Fromherz, Interfacing a silicon chip to pairs of snail neurons connected by electrical synapses, Biological Cybernetics 84, 239249 (2001). S. Vassanelli, P. Fromherz, Nuerons from rat brain couplet to transistors, Applied Physics A 65, 85-88 (1997). Richard Schatzthauer and Peter Fromherz, Neuron-silicon junction with voltagegated ionic currents, European Journal of Neuroscienze, Vol. 10, pp. 1956-1962 (1998). Steve M. Potter and Jerry Pine, A long-term electrical connection to a cultured hippocampal slice (1999) Joseph M. Corey, Bruce C. Wheeler, Gregory J. Brewer, Micrometer resolution silane-based patterning of hippocampal neurons: critical variables in photoresist and laser ablation processes for substrate fabrication, IEEE Transactions on Biomedical Engineering, vol. 43, no. 9 (septemer 1996). Brigitte Besl and Peter Fromherz, Transistor array with an organotypic brain slice: field potential records and synaptic currents, European Journal of Neuroscienze, vol. 15, pp. 999-1005 (2002). P. Fromherz, A.Offenhausser, T. Vetter, J. Wess, A neuron-silicon junction: a Retzius-Cell of the leech on an insulated-gate field-effect transistor, Science 252, 1290-1293 (1991). P. Fromherz, C. O. Muller, R. Weis, Neuron-Transistor: electrical transfer function measured by the Patch-Clamp techniqe, Phys. Rev. Lett. 71, 4079-4082 (1993). R. Weis, B. Muller, P. Fromherz, Neuron adhesion on silicon chip probed by an array of field-effect transistor, Phys. Rev. Lett. 76, 327-330 (1996). Bibliografia 145 Elisabeth Meyer, Carsten O. Muller, P. Fromherz, cable properties of dendrites in hippocampal neurons of the rat mapped by a voltage-sensitive dye, European Journal of Neuroscienze 9, 778-785 (1997). Guenter W. Gross, Fritz U. Schwalm, A closet flow chamber for long-term multichannel recording and optical monitorino, Journal of Neuroscienze Methods 52, 73-85 (1994). Justin Mullins, Saline solution: a simple idea could make quantum computers easy to build, New Scientist pp. 21 (june 2002). B. E. Kane, A silicon-based nuclear spin quantum computer, Nature, vol. 393, pp. 133-137 (may 1998). Subhash C. Kak, On quantum neural computing, Information Sciences, vol. 83, pp.143-163 (marhc 1995). Hans De Raedt, Kristel Michielsen, Anthony Hams, Quantum spin dynamics as a model for quantum computer operation. H. De Raedt, A. H. Hams, K. Michelsen, S. Miyashita, K. Saito, Quantum spin dynamics and quntum computation, J. Phys. Soc. Jpn. (Suppl.) 69, 401-406 (2000). Fariel Shafee, Neural networks with c-not gated nodes, arXiv:quantumph/0202016 v1 (feb 2002). John Blanton, Does Bell’s inequality principle rule out local theories of quantum mechanics?, http://math.ucr.edu/home/baez/physics/Quantum/bells_inequality.html (1996). Ringraziamenti Ringrazio la Professoressa Rita Pizzi per avermi dato la possibilità di svolgere un lavoro così interessante, per il supporto e la sua continua disponibilità. Ringrazio il Professor Giovanni Degli Antoni per l’entusiamo dimostrato nello sviluppo di questo progetto. Ringrazio il Dottor Andrea Fantasia per avermi aiutato nella stesura di questa tesi. Ringrazio Fabrizio Gelain e Danilo Rossetti per il loro supporto tecnico e personale. Ringrazio alè alè Gioslè per essere ancora vivo dopo quel pomeriggio in canoa sull’Adda. Ringrazio Sglà per aver avuto il buon senso, quel pomeriggio, di non aver seguito Gioslè. A “cioè bella badilone” Teo che organizza le partite di calcetto e poi se ne dimentica o non viene. Alla biondona “Miva, big shooter” Raffa che nei momenti di bisogno mi ha sempre lanciato i componenti…beh insomma è troppo lungo elencarli tutti...usiamo una formula un po’ più breve: “Grazie a tutti i miei amici”. Ringrazio i miei genitori che hanno continuato a pagare le tasse universitarie e che adesso saranno contenti di non pagarle più!