UNIVERSITA’ DEGLI STUDI DI ROMA “TOR VERGATA” FACOLTA’ DI INGEGNERIA TESI DI LAUREA IN INGEGNERIA MEDICA RETI NEURALI NEUROMORFE: PLASTICITÀ E DARWINISMO NEURALE Laureando: Relatore: Veronica Mari Mario Salerno Anno accademico 2008 - 2009 1 Indice Introduzione alle reti neurali I neuroni: genesi e conduzione del potenziale d’azione Principali comportamenti dinamici della rete neurale Modelli di neurone Modelli di reti neurali Apprendimento Plasticità Darwinismo neurale Sistema nervoso dinamico caotico applicazioni 2 INTRODUZIONE ALLE RETI NEURALI Una serie di ricerche ed approfondimenti effettuati nella prima metà del 900 hanno portato ad una comprensione dettagliata di come i segnali elettrofisiologici sono trasmessi all’interno del sistema nervoso. A partire dagli anni ’80 una crescente sinergia fra studi di natura prevalentemente empirica nel campo della neurobiologia e studi più formali, svolti nell’ambito della matematica, della fisica, dell’ingegneria e dell’informatica ha portato all’emergere di un settore di ricerca molto attivo: le reti neurali. Con il termine Rete Neurale si intende un circuito di neuroni biologici. Fin dalla prima metà del 1800 le ricerche sulla neurofisiologia hanno evidenziato come il cervello sia composto da un gran numero di neuroni interconnessi, ciascuno dei quali esegue una semplice elaborazione; il comportamento intelligente emerge proprio dal gran numero di elementi e connessioni tra le cellule nervose. Particolare attenzione è stata attribuita alle relazioni tra gli stimoli ricevuti da una rete neuronale e l’attività cerebrale indotta, allo scopo di chiarire le strategie computazionali di base del cervello, in special modo riguardo ai meccanismi di apprendimento e memorizzazione. Contemporaneamente allo studio teorico, molto importante risulta lo sviluppo di realizzazioni elettroniche delle reti neurali, ovvero di una realizzazione diretta di tali strutture (dette quindi neuromorfe). Tali dispositivi, oltre a svolgere un prezioso ruolo euristico nello sviluppo dei modelli, mirano a ricalcare l’elaborazione neurale sottesa, con strutture a basso costo, consumi ridotti ed elevata tolleranza agli errori. 3 GENESI E CONDUZIONE DEL POTENZIALE D’AZIONE Le funzioni principali dei neuroni consistono nel riconoscimento degli stimoli esterni, nella memorizzazione e nell’elaborazione di una risposta allo stimolo stesso. È dunque nel cervello che avviene l’elaborazione delle informazioni esterne. Gli aspetti anatomici del cervello sono stati ampiamente studiati, infatti si sa che l’elemento base è il neurone, sede dei processi elettrochimici responsabili della generazione di campi elettromagnetici. Nel cervello umano sono presenti circa 100 miliardi di neuroni, ciascuno connesso ad altri diecimila. Le interconnessioni sono possibili grazie alle sinapsi, atte a rinforzare o inibire l’interazione cellulare. A tale scopo le reti biologiche sono costituite da un numero elevatissimo di neuroni, fittamente interconnessi tra loro. Lo schema di base di un neurone è costituito da: - Soma (corpo cellulare) - Assone (prolungamento lungo) - Dendriti (prolungamenti brevi) Assoni e dendriti sono ampiamente ramificati, e ciascuna ramificazione termina su strutture di connessione dette sinapsi, che permettono il collegamento tra l’assone del neurone presinaptico e il dendrite del neurone postsinaptico. Il soma ha il complicato compito di eseguire un’integrazione (somma pesata) dei segnali in ingresso: se il potenziale di membrana in ingresso supera una certa soglia, il soma emette un impulso che viaggia lungo l’assone sotto forma di variazione del potenziale elettrico. Il segnale giunge fino alle sinapsi e raggiunge i dendriti degli altri neuroni per mezzo di neurotrasmettitori chimici. La sinapsi può essere di tipo eccitatorio o inibitorio, in base alle caratteristiche del segnale: se esso favorisce il raggiungimento della soglia di emissione dell’impulso del neurone ricevente, allora la sinapsi sarà eccitatoria, altrimenti inibitoria. Per quasi tutta la durata del potenziale d’azione la membrana è completamente refrattaria a ogni ulteriore stimolazione. Questo significa che la cellula, indipendentemente dall’intensità della stimolazione, non può generare un ulteriore potenziale d’azione. Tale intervallo di tempo è definito “periodo refrattario assoluto”, ed è dovuto al fatto che i canali del Na+ sono inattivati, e non possono riaprirsi finchè la membrana non si è ripolarizzata 4 (la durata del periodo refrattario τ è di qualche millisecondo). Nella fase finale del potenziale d’azione invece, la cellula è di nuovo in grado di generare un altro potenziale d’azione, ma lo stimolo in ingresso deve essere abbastanza intenso da aprire un numero di canali sufficiente a generare un potenziale d’azione. Questa fase è detta “periodo refrattario relativo”. Dunque l’attività cerebrale ha frequenza limitata e la dinamica neuronale è a tempo discreto (multipli di τ). I tempi di elaborazione sono piuttosto bassi: raramente i neuroni possono generare più di 100 impulsi al secondo. La potenza di calcolo del sistema nervoso centrale risiede quindi nell’elevato numero di elementi e nella densa rete di connessioni tra gli stessi (una stima ritiene che il cervello sia composto da 10ଵଵ neuroni e 10ଵସ sinapsi. neurone 5 PRINCIPALI COMPORTAMENTI DINAMICI Normalmente una rete neurale, in assenza di stimoli esterni, è in uno stato detto di “attività spontanea”, durante il quale i costituenti del neurone emettono spontaneamente impulsi scorrelati a frequenze molto basse. In presenza di una corrente ionica che attraversa la membrana, il potenziale di membrana può dare luogo a dinamiche molto diverse, in base al valore della corrente stessa e al tipo di neurone che si considera. I tipi di regime conseguibili sono: - regime stazionario (comportamento quiescente, la tensione di membrana è intorno al valore di riposo) - spiking tonico (il neurone genera spikes di uguale ampiezza ad intervalli regolari) - spiking fasico (il neurone emette un singolo spike all’inizio della stimolazione da parte del segnale esterno e poi rimane in quiete, anche se la stimolazione permane) - bursting tonico (il neurone genera bursts, cioè una raffica di spikes, ad intervalli regolari) - bursting fasico (alcuni neuroni segnalano l’inizio della stimolazione ricevuta emettendo un singolo treno di spikes, che poi non viene ripetuto anche se la stimolazione permane) - regime caotico (il neurone genera spikes ad intervalli irregolari) - adattamento della frequenza degli spike (la frequenza degli spikes decresce man mano che la stimolazione permane) - latenza degli spike (emissione di spikes con ritardo legato all’intensità della stimolazione) - oscillazioni sottosoglia (il potenziale di membrana esibisce oscillazioni spontanee di piccola ampiezza) - Risonanza (i neuroni oscillatori rispondono in modo selettivo agli ingressi di natura periodica con cui entrano in risonanza) - integrazione (neuroni che rispondono preferenzialmente a stimolazioni periodiche di frequenza elevata) 6 - Variabilità della soglia (normalmente nei neuroni la soglia varia in funzione della stimolazione ricevuta in precedenza, ad esempio se la stimolazione è stata inibitoria la soglia si abbassa e il neurone diventa più facilmente eccitabile) comportamenti dinamici Quindi, a partire dalla profonda conoscenza delle strutture cerebrali e del comportamento elettromagnetico delle cellule neuronali, sono iniziati degli studi di tipo induttivo per l’analisi dei comportamenti collettivi delle reti neurali, con la speranza di trarre ispirazione per la costruzione di macchine atte a replicare i compiti propri dei neuroni (processi al momento di difficile realizzazione per i calcolatori). È tuttavia chiaro che non è necessaria (ne possibile) una perfetta emulazione dei processi neurobiologici. La maggior parte dei modelli fin’ora realizzati infatti si basano unicamente sul principio che l’attivazione neuronale è soggetta ad eccitazione o inibizione delle unità connesse. 7 Per i modelli artificiali sono stati studiati diversi tipi di neuroni a cui venivano associate determinate architetture allo scopo di implementare un determinato compito cognitivo. MODELLI DI NEURONE IL NEURONE FORMALE Per neurone formale si intende il modello matematico del neurone biologico, ovvero lo step di partenza per la costruzione di una rete neuromorfa. Il modello matematico, in quanto tale, rappresenta una semplificazione delle proprietà biologiche e funzionali dei neuroni reali, ma che comunque mostrano delle analogie comportamentali che ne permettono l’utilizzo. Le strategie di studio tramite neuroni artificiali si basano dunque su opportune semplificazioni, di cui la più significativa consiste nell’ignorare le non linearità degli spikes e dei canali sinaptici. Il neurone può essere modellato a diversi livelli: se si tiene conto degli effetti propagativi si ricorre o ad equazioni differenziali alle derivate parziali o a modelli a compartimenti. Se invece si suppone l’istantaneità della propagazione del potenziale d’azione rispetto al tempo di generazione dello stesso, si ricorre a modelli a singolo compartimento, definiti da equazioni differenziali ordinarie e algebriche. Esistono due modelli principali nell’ambito di quelli a singolo compartimento: “integrate and fire” e “conductance-based”. Il modello di Hodgkin-Huxley è un modello realistico a quattro dimensioni, cioè la cui dinamica è descritta da quattro variabili, ottenuto per riprodurre i dati sperimentali relativi a una particolare fibra nervosa, l’assone gigante del calamaro. Particolarmente importanti sono i “modelli ridotti”, ovvero approssimazione di modelli a più alta dimensionalità, in particolare modelli bidimensionali come quello di FitzHugh-Nagumo. L’aspetto rilevante di tali modelli risiede nel fatto che la bassa dimensionalità rende più agevole l’analisi e consente di cogliere gli aspetti essenziali della dinamica di modelli più complicati. 8 MODELLO DI NEURONE INTEGRATE AND FIRE Caratterizzato da un’elevatissimo livello di astrazione: esiste infatti una profonda differenza di comportamento tra il neurone reale ed il modello, ciò che si sottolinea è l’avvenimento più eclatante, ovvero la generazione dello spike. Il vantaggio principale di tale modello risiede nella possibilità di simulare reti neuronali di elevate dimensioni. Lapicque propose un primo esempio del modello nel 1907, in cui il potenziale di membrana tiene conto solo degli effetti capacitivi. La membrana del capacitore viene caricata fino al raggiungimento di una soglia, oltre la quale inizia a scaricarsi, producendo un potenziale d’azione (il potenziale si resetta). Questo semplice modello deterministico consentì a Lapicque di calcolare la frequenza degli spike di un neurone accoppiato ad un elettrodo di stimolazione a voltaggio fissato. )ݐ(ܫൌ ܥெ ݀ݒ ݀ݐ Dove ܥெ è la capacità di una porzione della membrana, V è la tensione ai capi della stessa e I(t) è la corrente elettrica ionica iniettata nella stessa. integrate and fire model Mandando in ingresso al modello una corrente positiva, la tensione cresce con velocità costante fino al raggiungimento del valore soglia ܸ௧ , oltre il quale v(t) produce uno spike tornando al valore di riposo, dopodichè si ricomincia con il comportamento lineare. 9 Questo primo modello di Lapicque trascura tuttavia molti aspetti importanti relativi alla natura del neurone in esame; inoltre la frequenza di sparo cresce linearmente ed illimitatamente al crescere della corrente in ingresso. Un secondo modello più accurato (leaky integrate and fire) tiene conto delle perdite di membrana dovute alla presenza di canali passivi. leaky integrate and fire model Quindi l’equazione di base del modello diventa: )ݐ(ܫൌ ܥெ ݀ ݒ ݒെ ܸ + ݀ݐ ܴ Anche in questo caso quando v(t) raggiunge la soglia l’uscita del neurone spara e la tensione viene riportata al valore di riposo. MODELLO DI FITZHUGH-NAGUMO Questo modello contiene due variabili dipendenti: la “variabile veloce”, che coincide con il potenziale di membrana, e la “variabile lenta”, che ha una funzione ausiliaria. Esso richiede quindi due equazioni differenziali: du u 13 u 3 w I dt ( 1) dw (b0 b1u w) dt ( 1 / w ) 10 (u variabile veloce, w variabile lenta) Per particolari valori dei parametri il modello mostra un comportamento di tipo oscillatorio, in cui ciascuna oscillazione ha una forma simile a quella di un potenziale d’azione. Esso consente di riprodurre lo spiking tonico e fasico, la latenza degli spikes, le oscillazioni sottosoglia e la risonanza. MODELLO DI HODGKIN E HUXLEY (1952) Modello molto più accurato in quanto la membrana è studiata tenendo conto dei canali attivi che permettono il passaggio di correnti ioniche. Grazie alla tecnica del “voltage clamp” è stato possibile misurare le correnti di membrana prodotte da impulsi di tensione depolarizzanti. L’applicazione di questa tecnica all’assone gigante del calamaro ha permesso di ottenere misure piuttosto accurate per lo sviluppo di questo modello. Il modello HH prevede quattro equazioni differenziali che descrivono la dinamica del potenziale di membrana e delle tre correnti ioniche fondamentali: la corrente del sodio, la corrente del potassio e la corrente di perdita (dovuta principalmente al 11 cloro, ma che riassume l’effetto di altre correnti ioniche non descritte esplicitamente). Hodgkin and Huxley model Dove V è la differenza di potenziale tra interno ed esterno, e i rami interni rappresentano i canali di sodio e potassio. Le conduttanze ݃ே e ݃ associate al sodio e al potassio non sono lineari dipendono dal potenziale in modo non banale. Analiticamente: )ݐ(ܫൌ ܥெ ݀ݒ ݃( ݒെ ܸ) ݅ே ݅ ݀ݐ ݅ே = ( ݒെ ܸே )݃ே ( )ݒൌ ሺ ݒെ ܸே ሻܩே ݉ ଷℎ ݅ = ( ݒെ ܸ)݃ ( ݒ( = )ݒെ ܸ )ܩ ݊ସ Con m (coefficiente di attivazione del sodio), h (coefficiente di inattivazione del sodio) ed n (coefficiente di attivazione del potassio) variabili di stato che tengono conto dell’apertura/chiusura dei canali sodio e potassio. La conduttanza associata al canale di perdita ݃ tiene conto di tutti i canali ionici diversi da quelli del sodio e del potassio, ed è supposta avere un comportamento lineare o passivo, ovvero un valore indipendente dalla tensione ai suoi capi. 12 MODELLI TEMPO-DIPENDENTI Per quanto concerne la variabile temporale, si può distinguere tra modelli a tempo continuo e modelli a tempo discreto, ricordando però che nella realtà i potenziali d’azione possono avvenire ad istanti qualsiasi, cioè il funzionamento reale è asincrono (tempo continuo). Sono tuttavia notevoli le semplificazioni di cui si può usufruire ipotizzando la presenza di un clock interno al modello in grado di determinare gli istanti nei quali possano aversi i potenziali d’azione. Nei riguardi del funzionamento della rete, a seconda che si consideri la presenza o meno di un eventuale rumore, si possono avere modelli deterministici e modelli stocastici. E’ evidente quanto i primi siano più semplici rispetto ai secondi, anche se non permettono l’individuazione di alcune fondamentali caratteristiche circa il funzionamento della rete neurale. Questi modelli dovrebbero poi: -essere in parte a “parametri concentrati”, ad esempio per la corretta descrizione del potenziale d’azione in prossimità dei nodi di Ranvier, ed in parte a “parametri distribuiti”, tenendo presente la propagazione dei segnali lungo i dendriti. -essere a parametri variabili nel tempo, per tenere conto di fenomeni quali la facilitazione, la defacilitazione e la refrattarietà (in particolare sia i pesi che la soglia dovrebbero essere parametri variabili nel tempo a seguito del funzionamento stesso del neurone). -avere come forma d’onda del segnale di uscita quella del potenziale d’azione. Un modello siffatto è talmente complesso da risultare del tutto inutile. La vasta letteratura in proposito è infatti rivolta all’approfondimento di particolari aspetti del funzionamento neuronico in modo che si possa, a seconda dei casi, implementare un modello che abbia caratteristiche ritenute fondamentali per la particolare applicazione studiata in quel momento. È inoltre rilevante osservare che spesso bisogna considerare modelli costituiti anche da migliaia di neuroni, ed è pertanto necessario un modello che dia luogo a trattazioni fattibili e che si discostino dalla realtà fisiologica in modo da fornire risultati ancora accettabili. 13 MODELLO DI NEURONE DETERMINISTICO A TEMPO DISCRETO In questo modello si suppone che vi sia un clock interno tale da generare impulsi periodici in corrispondenza dei quali possono esistere segnali in entrata ed in uscita di ogni neurone appartenente alla rete. In pratica si ha l’emissione di spikes in modo sincrono rispetto a questo clock. Più precisamente, considerando un neurone costituito da N sinapsi e quindi in presenza di N input ݁(t), si fanno le seguenti ipotesi: a) Si ammette la presenza di un clock funzionante a frequenza ݂ b) I segnali ݁ሺݐሻin ingresso, qualora siano presenti, saranno costituiti da impulsi sincroni con gli impulsi del clock c) Il segnale u(t) uscente dal neurone, qualora sia presente, sarà un impulso sincrono con questo clock. I segnali in ingresso ed in uscita possono essere raffigurati mediante impulsi che rappresentano “eventi”. Si introducono quindi delle variabili ausiliarie: ݁∗ ( )ݐൌ ݁()ݐ (i=1,2,…,N) 14 = )ݐ( ∗ݑ ݁∗ (ݐെ ߬) I coefficienti pi sono denominati “pesi”, ed indicano mediante il loro segno se si tratta di sinapsi eccitatoria o inibitoria, e mediante il loro modulo la quantità di mediatore chimico che transita per ogni spike in ingresso. I segnali ݁∗ (t) rappresentano i potenziali postsinaptici; il segnale u*(t) rappresenta il potenziale al colle dell’assone; i parametri ߬ indicano i ritardi, multipli del periodo ܶ fondamentale del clock, che tengono conto del passaggio del mediatore chimico attraverso la fessura sinaptica, del transitorio collegato alla variazione del potenziale postsinaptico, ed infine della propagazione dei potenziali postsinaptici lungo i dendriti e l’assone. Alle relazioni precedentemente scritte si aggiungono quelle riguardanti l’uscita u(t) che sono: u(t)=0 per u*(t)≤S u(t)=U per u*(t)>S in cui S è un parametro correlate alla soglia del neurone. Il potenziale d’azione u(t), nel caso in cui esso viene generato, assume sempre lo stesso valore U (per semplicità si può assumere che U abbia valore unitario), pertanto le possibili configurazioni ammesse da questo modello sono “0” (il neurone non ha sparato) e “1” (il neurone ha sparato). esempi di rappresentazione dei segnali in entrata o in uscita di un neurone a tempo discreto 15 MODELLI DI NEURONE STOCASTICO A TEMPO DISCRETO Tutti i neuroni, essendo nella realtà caratterizzati da un comportamento stocastico, sono caratterizzati da una certa successione di segnali in ingresso che danno luogo a una certa successione di potenziali di uscita. esempi di funzionamento di un neurone a tempo discreto 16 Nello schema precedente il G.R. (generatore di rumore) è posto all’entrata del modello deterministico, poiché il rumore agisce come ulteriore entrata del neurone. Assumiamo il modello a tempo discreto. Al generico istante ܶ sia: a) e(ܶ) il segnale in ingresso che tiene conto di tutte le sinapsi deterministiche proprie del neurone. b) r(ܶ) il segnale dovuto al rumore. c) v(ܶ) il segnale somma dei due precedenti, cioè v=r+e se si indica con S la soglia del neurone, l’uscita u(ݐାଵ) sarà data da: ݐ(ݑାଵ) ൌ Ͳݐ(ݒ݁ݏ) ܵ ݐ(ݑାଵ) ൌ ܷݒ݁ݏሺݐሻ ܵ Una volta nota la distribuzione p(r) del rumore e il valore del segnale in ingresso, è possibile determinare mediante una semplice traslazione la densità di probabilità p(r+e(ݐ)) e dunque calcolare la probabilità di sparo ܲ௦ (il cui valore è dato dall’area tratteggiata). È interessante notare che la probabilità di sparo dipende dalla differenza fra la soglia S e il valor medio µ della distribuzione p(r) (per semplicità si pone µ=0. 17 Effettuando la medesima operazione per ogni valore del segnale in ingesso, si può ottenere la caratteristica “probabilità ܲ௦” in funzione di e(ݐ). Densità di probabilità: p(r) del rumore; p[(r+e)] del segnale somma [(r+e)] In generale si ha: ܲ௦ = f (e(tk),p(r),S) = F(e(tk)) Dove la funzione f è determinabile una volta nota S e le proprietà stocastiche del rumore. 18 MODELLI DI RETI NEURALI Le neuroscienze hanno permesso di stabilire che la struttura cerebrale è caratterizzata dalla presenza di cellule neuronali con comportamenti vari e, soprattutto, da pattern di interconnessioni neuronali diversi a seconda del compito cognitivo. Per i modelli artificiali si segue una metafora simile: sono stati studiati diversi tipi di neuroni e diverse architetture associandovi le modalità di elaborazione concepite per implementare un determinato compito cognitivo. Il neurone artificiale è un modello matematico che calcola una funzione, detta funzione di attivazione. Gli ingressi di tale funzione modellano gli stimoli che il neurone biologico riceve dagli altri neuroni, mentre il risultato calcolato (uscita) descrive il segnale trasmesso dal neurone lungo l’assone. Quindi, la funzione di attivazione del neurone artificiale trasforma i valori dell’insieme degli ingressi (spazio degli ingressi) in corrispondenti valori nell’insieme delle uscite (spazio delle uscite). Le caratteristiche dei neuroni descritte nel paragrafo precedente suggeriscono che il neurone artificiale sia un modello avente parametri capaci di modellare la soglia di reazione e la forza della connessione sinaptica: i primi caratterizzano il comportamento di una singola cella, mentre i secondi descrivono l’interazione tra coppie di cellule. L’evoluzione delle reti ha origine piuttosto lontana nel tempo, ed è quindi frutto di numerosi studi effettuati nel corso dell’ultimo secolo. BREVE ANALISI TEMPORALE DELL’EVOLUZIONE DEI MODELLI NEURALI -1943: McCullock e Pitts introducono un primo semplice modello di neurone formale, presentando un lavoro sulle reti neurologiche. -1949: Hebb ipotizza l’apprendimento biologico come fenomeno sinaptico, presentando una formula matematica per simulare l’apprendimento nelle reti (formula di Hebb) -1957: Rosenblatt propone il “perceptron”, una rete in grado di riconoscere le immagini. Tale modello rappresenta un enorme passo in avanti in quanto presenta enorme generalizzazione e capacità d’astrazione (il perceptron è in grado di riconoscere anche immagini mai viste prima) 19 -1969: Papert analizza criticamente il perceptron evidenziandone i limiti e l’incapacità di risolvere problemi elementari. -anni ’80: Rumelhart introduce il “terzo strato” superando i limiti del perceptron, e dimostrando che con reti dotate di almeno tre strati si è in grado di computare qualsiasi funzione. La j-esima unità riceve stimoli dall’esterno o da strati precedenti. Sulle connessioni sono presenti pesi sinaptici che denotano la “forza” della connessione. Tali segnali sono convogliati tramite i dendriti al soma (netj) del neurone artificiale, l’uscita neuronale avviene tramite l’assone, ed è generata grazie alla funzione di attivazione g(netj). E’ possibile distinguere reti “completamente connesse”, in cui ogni neurone è connesso a tutti gli altri neuroni, da reti “stratificate” multilivello, in cui i neuroni sono organizzati in strati. Un esempio di rete neuronale a tre strati è il seguente: 20 Nelle reti multilivello ogni neurone appartenente ad un determinato strato è connesso a tutti (e soli) i neuroni dello strato successivo, nel verso che va dall’ingresso all’uscita. L’attivazione dei neuroni può avvenire in modo sincrono, in cui tutti i neuroni si attivano simultaneamente, oppure in modo asincrono, in cui si attiva un neurone per volta in modo sequenziale o casuale. Reti competitive Le reti competitive sono modelli neurali che si auto-organizzano per essere in grado di individuare gli aspetti che caratterizzano o differenziano gli esempi di un dato insieme. In queste i propri neuroni sono strutturati in modo tale che ciascuno rappresenti un sottoinsieme degli esempi presentati alla rete in apprendimento. Ciascun neurone della rete pertanto è in competizione con gli altri per rappresentare il maggior numero possibile di esempi simili. Lo spazio in cui sono definiti degli esempi è detto “spazio delle caratteristiche”, le sue coordinate sono dette “caratteristiche”. Una opportuna funzione distanza, definita su ciascuna coppia di elementi di questo spazio, determina il grado di somiglianza tra gli elementi della coppia. Ogni neurone si definisce come un elemento dello spazio delle caratteristiche. Una volta configurata, la rete risponde a uno stimolo attivando il neurone, i, più vicino allo stimolo stesso (winning neuron), la cui uscita Si (posizione nello spazio 21 delle caratteristiche) rappresenta le caratteristiche medie degli elementi dello spazio delle caratteristiche che appartengono al sottoinsieme (detto cluster) rappresentato dal neurone stesso. Pertanto, la funzione della rete consiste nel raggruppare (clustering) gli esempi in sottoinsiemi, affinchè gli elementi nello stesso sottoinsieme siano molto simili tra loro, e quindi i vari sottoinsiemi risultano avere caratteristiche medie molto differenti. In ambito statistico, questo rappresenta l’approssimazione di una distribuzione. Queste reti neurali possono essere parzialmente o totalmente connesse. Alcuni modelli sono dotati di parametri aggiuntivi che permettono di descrivere la topologia dell’insieme rappresentato (topology representing network). Le più famose tra le reti di questo tipo sono le Self Organizing Map (SOM) di Kohonen. I neuroni di una SOM si trovano nei nodi di una griglia, i cui lati descrivono la relazione di somiglianza tra i neuroni stessi e, quindi, tra i cluster che essi rappresentano. Poiché ogni neurone rappresenta un cluster nello spazio delle caratteristiche e ha una posizione sulla griglia, la rete neurale definisce una mappatura delle caratteristiche (feature mapping) tra lo spazio (generalmente multidimensionale) delle caratteristiche e lo spazio (generalmente bidimensionale) della griglia. Rappresentazione schematica di una il neurone posto nel nodo (i,j) ha uscita Si,j. rete SOM bidimensionale: 22 LE RETI DI KOHONEN Il modello più comune di rete neurale autoorganizzante prende il nome dal suo inventore (Kohonen,T) ed è costituito da una rete a due strati, dei quali uno è di input e l’altro di output (chiamato strato di Kohonen). I neuroni dei due strati sono completamente connessi tra loro, mentre i neuroni dello strato di output sono connessi, ciascuno, con un "vicinato " di neuroni secondo un sistema di inibizione laterale definito a "cappello messicano". I pesi dei collegamenti intrastrato dello strato di output o strato di Kohonen non sono soggetti ad apprendimento, bensì fissi e positivi nella periferia adiacente ad ogni neurone. Nello strato di output un solo neurone deve risultare "vincente" (con il massimo valore di attivazione) per ogni input fornito alla rete. Praticamente è il neurone vincente che identifica la classe a cui l'input appartiene. Il collegamento detto a 23 cappello messicano, favorisce la formazione di "bolle di attivazione" che identificano inputs simili. Ogni neurone del Kohonen layer riceve uno stimolo uguale alla sommatoria degli inputs moltiplicati per il rispettivo peso sinaptico: A(j)=S(k)w(j,k)*x(k) Tra tutti i neuroni di output si sceglie quello con valore di attivazione maggiore, che assume il valore 1, contrariamente a tutti gli altri che assumono il valore 0. La rete di Kohonen identifica, per inputs simili, neuroni vincenti vicini,in modo tale che ogni bolla di attivazione rappresenti una classe di inputs aventi caratteristiche simili. Reti feed-forward multistrato Il nome “reti feed-forward multistrato” deriva dal fatto che il flusso di informazioni tra i neuroni procede in modo unidirezionale. Tali reti sono soltanto parzialmente connesse, ed in queste i neuroni sono organizzati in sottoinsiemi, detti strati (layer). Questi strati sono ordinati e la connessione diretta avviene solo tra i neuroni di due strati consecutivi. Il primo strato (quello che riceve gli stimoli dall’esterno) viene detto strato di ingresso, mentre l’ultimo strato (quello che fornisce la risposta della rete) viene detto strato di uscita. Gli strati intermedi vengono detti strati nascosti (hidden layer). È dimostrabile che le reti neurali sigmoidali multistrato con almeno tre strati sono approssimatori universali di funzioni continue, pertanto per ogni funzione continua esiste almeno una rete del tipo descritto che può approssimarla con un’accuratezza prefissata. A titolo esemplificativo si indica che se i neuroni dello strato di uscita sono di tipo discreto (per esempio, a soglia), l’uscita della rete assumerà un insieme finito di valori discreti; si realizza così la classificazione degli ingressi, cioè l’associazione a ciascun ingresso di un valore tra le uscite, detto valore indica la sua classe di appartenenza. 24 Rappresentazione schematica di una rete feed-forward multistrato. Tipicamente, i neuroni dello stesso strato sono caratterizzati dalla stessa funzione di attivazione, al contrario strati diversi possono avere funzioni di attivazioni differenti. L’uscita di ciascun neurone, i, del k-esimo strato della rete è definibile come: S i( k ) f ( k ) wi(,kj) S (j k 1) i( k ) j in cui lo stimolo per il livello di ingresso, S (j0) , corrisponde agli esempi forniti alla rete, e f (k) è la funzione di attivazione utilizzata per lo strato k-esimo. Una particolare famiglia di reti feed-forward multistrato è costituita dalle reti a simmetria radiale (Radial Basis Function, RBF). La caratteristica di tali reti risiede nel fatto che i neuroni hanno funzione di attivazione a simmetria radiale (spesso gaussiana). Tali reti vengono in genere strutturate con un singolo strato, dal momento che è stato dimostrato che anche un solo strato è in grado di approssimare ogni funzione continua con un dato grado di accuratezza. Pertanto la funzione, G, realizzata da una rete RBF è una combinazione lineare di funzioni radiali: G ( s ) wi S i s; ci , i i dove ci e σi sono i parametri caratteristici dell’i-esimo neurone. I parametri strutturali (centri, c, e fattori di scala, σ) determinano la copertura dello spazio di ingresso da parte dei neuroni, cioè la regione dello spazio degli ingressi alla quale la rete risponde significativamente. I pesi sinaptici modellano il valore di uscita della rete in risposta agli ingressi. 25 Reti ricorrenti Le reti ricorrenti sono reti multistrato parzialmente connesse, dove le risposte di uno o più strati possono essere conservate e fornite come ingresso negli istanti successivi. Il comportamento di queste reti è dinamico, perché l’uscita fornita da una rete in un certo istante non dipende solo dallo stimolo fornito in ingresso all’istante considerato, ma anche dalla storia passata. La conservazione delle informazioni degli istanti precedenti è affidata a connessioni con ritardo temporale (retroazione). Variando il numero di tali connessioni (anche con differenti ritardi), è possibile far esaminare alla rete gli effetti di istanti precedenti. A titolo esemplificativo, nella rete sotto schematizzata, sono state inserite connessioni con due diversi ritardi. Le reti ricorrenti sono evidentemente più complesse delle reti feed-forward multistrato, ma capaci di modellare sistemi con comportamento dinamico. Rappresentazione schematica di una rete ricorrente. 26 APPRENDIMENTO Il comportamento effettivo di una rete neurale, rappresentato dalla funzione esibita all’esterno, dipende dalla configurazione dei suoi parametri. Tramite uno specifico algoritmo, detto di apprendimento (learning) o addestramento (training), la scelta dei valori dei parametri della rete può essere effettuata ricorrendo ad un insieme di esempi del comportamento desiderato. Al termine dell’apprendimento, la rete neurale deve essere in grado di generalizzare il comportamento descritto dagli esempi presentati nella fase di configurazione, in altre parole deve generare una risposta significativa benché derivante da un ingresso mai utilizzato in apprendimento. In letteratura sono stati prospettati diversi algoritmi di apprendimento, che si diversificano tra loro a seconda del modello di neurone utilizzato e dello schema di collegamento adottato per strutturare la rete. Si indicano due categorie di algoritmi di apprendimento: l’apprendimento supervisionato e l’apprendimento non supervisionato. Nell’apprendimento supervisionato, alla rete neurale sono fornite le coppie composte dall’insieme degli esempi da applicare agli ingressi della rete stessa e dai corrispondenti valori che si desidera siano prodotti in uscita. Tale tipo di apprendimento è utilizzato per la configurazione di reti neurali per l’approssimazione di funzioni e per la classificazione. Nell’apprendimento non supervisionato, è fornito alla rete esclusivamente l’insieme degli esempi da applicare agli ingressi ed è la rete neurale che in completa autonomia organizza la propria configurazione. Questa modalità di apprendimento si presta ad essere utilizzata per il clustering e per le memorie associative. APPRENDIMENTO SUPERVISIONATO Tra gli algoritmi di apprendimento supervisionato di seguito se ne rappresentano alcuni particolarmente significativi: l’algoritmo di retropropagazione (backpropagation), l’apprendimento ibrido (hybrid learning), e l’apprendimento per rinforzo (reinforcement learning). L’algoritmo più utilizzato per l’apprendimento supervisionato è il cosiddetto retropropagazione (backpropagation). Questa tecnica si fonda sulla stima dell’errore commesso dalla rete neurale, in funzione dei parametri della rete stessa, e sul ridimensionamento dell’errore stesso tramite una modifica dei parametri, operata nella direzione del gradiente della funzione errore. A causa della necessità di calcolare il gradiente della funzione calcolata dalla rete neurale, questa tecnica può 27 essere utilizzata a condizione che la funzione di attivazione dei neuroni sia derivabile rispetto ai parametri da configurare. L’algoritmo modifica i parametri di configurazione in base al contributo che essi danno alla diminuzione dell’errore. Ad ogni passo di apprendimento, si presenta un esempio agli ingressi della rete neurale, si calcola la relativa uscita prodotta dalla rete, confrontandola con il valore di uscita atteso. La differenza tra il valore di uscita dell’esempio e il valore di risposta della rete neurale, costituisce l’errore commesso dalla rete stessa. Procedendo a ritroso dall’uscita della rete verso i neuroni più interni, si calcola il gradiente dell’errore rispetto ai parametri dei neuroni considerati e lo si utilizza per modificare i parametri stessi in modo da far diminuire l’errore. Prendendo per esempio una rete feed-forward multistrato a due strati nascosti per l’approssimazione di una funzione reale definita sull’insieme dei numeri reali (quindi, con un neurone di ingresso ed uno di uscita), l’insieme di addestramento sarà dato da un insieme di coppie di numeri reali, ( xi , yi ) , che definiscono il comportamento della funzione stessa. Il neurone dello strato di ingresso funziona come distributore del valore presentato in ingresso e funge da attivatore lineare ( S1( 0 ) x ). Pertanto l’uscita dei neuroni del primo strato sarà: S (j1) f (1) wk(1) x j(1) k Tali valori costituiscono l’ingresso del secondo strato nascosto, che fornirà in uscita: S i( 2) f ( 2) wi(,2j) S (j1) i( 2 ) j Infine, lo strato finale (per semplicità un neurone lineare) produrrà l’uscita della rete neurale: ~y wi(3) S i( 2) i La presentazione alla rete dell’esempio (x, y) comporta un errore di approssimazione, E, pari a: E y ~ y 2 L’errore viene normalmente calcolato utilizzando il quadrato della distanza tra l’uscita attesa e l’uscita reale, così da ottenere un valore indipendente dal segno e facilmente derivabile. L’algoritmo di backpropagation, sfruttando la proprietà della derivata di funzioni composte, aggiorna i pesi sinaptici con le seguenti regole: wi( 3) E E ~ y ( 3) ~ y wi( 3) wi 28 wi(,2j) w (1) j E E ~ y S i( 2) ~ y S i( 2 ) wi(,2j) wi(,2j) (1) E E ~ y S i( 2 ) S j (1) ~ ( 2) (1) y S i S j w (j1) w j dove η è il fattore di adattamento (o tasso di apprendimento) che controlla la velocità con cui si cerca di tendere verso il minimo dell’errore. Formule simili possono essere derivate per gli altri parametri della rete (per esempio per le soglie). L’algoritmo di backpropagation presenta alcuni problemi, tra i quali il più importante è l’incapacità di evitare i minimi locali della funzione errore. Quando questo accade, piccole variazioni dei parametri fanno aumentare l’errore, mentre una variazione dei parametri di ampia entità consentirebbe di diminuirlo, ma il valore di η adottato non consente di spostarsi a sufficienza. Inoltre, l’algoritmo di backpropagation non dà garanzie sul numero di iterazioni necessarie per giungere nel minimo dell’errore. Per i motivi suesposti, in genere si adottano alcune varianti dell’algoritmo di backpropagation, quali il simulated annealing e l’uso dei momenti. Nell’algoritmo di backpropagation, il simulated annealing consiste nell’aggiungere nella funzione errore un termine casuale, che la renda priva di minimi locali all’inizio dell’addestramento. Il valore di questo termine si riduce progressivamente con il procedere dell’addestramento, facendo progressivamente emergere la vera forma dell’errore. L’ipotesi su cui si fonda questa tecnica, è che il minimo globale emerga e venga individuato prima di quelli locali. Lo svantaggio principale consiste nel notevole incremento del costo computazionale. La tecnica dei momenti si basa nell’aggiungere un termine moltiplicativo al tasso di apprendimento, η, cosicchè quest’ultimo aumenti se si sta seguendo un percorso che riduce l’errore, ma che diminuisca se invece l’errore tende a crescere. L’apprendimento ibrido (hybrid learning) è una tecnica più efficiente dell’algoritmo di backpropagation per l’addestramento di reti RBF. L’architettura delle reti RBF, infatti, rende possibile l’adozione di due diverse tecniche di apprendimento (da cui il nome della tecnica) per i due gruppi di parametri (parametri strutturali e pesi sinaptici). I parametri strutturali possono essere definiti usando un algoritmo che identifichi le regioni coperte dagli esempi di apprendimento (per esempio, mediante una tecnica di clustering). I pesi sinaptici, wi , possono essere calcolati come soluzione di un sistema lineare, con un minor sforzo computazionale rispetto alla backpropagation. Per esempio, per configurare una rete RBF avente m neuroni utilizzando un insieme di addestramento costituito da M coppie, x k , y k | k 1, , M , si può scrivere un sistema lineare di M equazioni in n incognite. Infatti, per ogni coppia (xk, yk) degli esempi di apprendimento si dovrebbe avere: 29 n y k wi g i ( x k ) i 1 dove gi(xk) è la risposta dell’i-esimo neurone all’ingresso xk. Si può quindi scrivere il seguente sistema lineare: y1 w1 g1 ( x1 ) w2 g 2 ( x1 ) wn g n ( x1 ) y w g (x ) w g (x ) w g (x ) 1 1 M 2 2 M n n M M in cui le incognite sono i pesi sinaptici, wi . Dal momento che il numero di esempi, M, è maggiore del numero di neuroni, n, il sistema risulta sovradimensionato. Questo permette di arrivare ad una approssimazione, anziché una interpolazione degli esempi, tale soluzione risulta utile soprattutto se i dati sono affetti da rumore. L’apprendimento per rinforzo (reinforcement learning) è una tecnica di apprendimento che modifica i parametri esclusivamente in base all’adeguatezza della risposta prodotta dalla rete neurale, simulando un addestramento del tipo premio-punizione. La differenza principale rispetto agli altri metodi di addestramento supervisionati consiste nel tipo di valutazione che viene fornito alla rete neurale. Mentre nei tradizionali algoritmi di addestramento supervisionato viene utilizzata la metafora dell’istruttore, che suggerisce alla rete la correzione da apportare, nel reinforcement learning si adotta la metafora del critico, che valuta la risposta della rete solo come corretta o sbagliata. L’addestramento mediante reinforcement learning è computazionalmente più costoso (e pertanto più lento) dell’apprendimento mediante backpropagation, ma può essere efficacemente utilizzato per l’apprendimento di sequenze temporali. APPRENDIMENTO NON SUPERVISIONATO Per le reti neurali che devono scoprire regolarità (pattern) nell’insieme degli esempi utilizzati per l’apprendimento, si utilizza l’apprendimento non supervisionato, in modo tale da evidenziare le regolarità che caratterizzano questi esempi. L’apprendimento non supervisionato è quindi possibile esclusivamente quando gli esempi contengono qualche ridondanza: esempi ridondanti si assomiglieranno, e la rete tenderà a riconoscerli come appartenenti alla stessa categoria. A seconda dell’architettura della rete neurale e dell’algoritmo di addestramento utilizzato, l’apprendimento non supervisionato si adotta per la realizzazione di clustering, codifica, o mappatura di caratteristiche. Le reti SOM costituiscono l’esempio più diffuso di algoritmo di apprendimento non supervisionato. Tale apprendimento consiste nel proporre alla rete neurale un 30 esempio alla volta. Il corrispondente neurone vincente viene spostato nella direzione dell’esempio presentato, diminuendo l’errore che si commette rappresentando l’esempio considerato con il winning neuron. Al fine di realizzare una mappatura graduale, anche i neuroni topologicamente vicini vengono spostati verso l’esempio considerato, in proporzione inversa alla distanza topologica dal winning neuron; questo permette di avere una certa somiglianza tra i neuroni topologicamente vicini e, quindi, fa in modo che essi rappresentino regioni dello spazio delle caratteristiche simili tra loro. Con il progredire dell’addestramento, vengono consentiti spostamenti sempre più brevi, stabilizzando l’apprendimento ed evitando che esempi visti nei passi precedenti siano “dimenticati”. Altre reti neurali competitive sono considerate come varianti delle SOM, dalle quali si distinguono per la regola di adattamento adottata o per la struttura topologica dei neuroni. La struttura topologica può essere del tutto assente o autoorganizzante. L’aggiornamento della posizione dei neuroni può avvenire modificando più neuroni a ogni passo di addestramento, come nel softmax (o winner-take-most). Le reti di Hopfield sono reti neurali con addestramento non supervisionato, poichè l’insieme degli esempi di addestramento costituisce sia l’ingresso sia l’uscita della rete. La regola di Hebb costituisce la regola di addestramento più semplice. Ossia: se due neuroni si attivano in risposta agli stessi stimoli, la loro connessione si rinforza, come avviene in neuroni biologici. Nelle reti di Hopfield, l’apprendimento hebbiano è realizzato dalla regola di adattamento: wij S i S j dove il peso della connessione riguardante l’i-esimo e il j-esimo neurone viene incrementata solo se entrambi i neuroni sono attivati dalla presentazione di un esempio da memorizzare. 31 rappresentazione schematica degli apprendimenti tipo "supervisionato" e "non supervisionato" 32 PLASTICITA’ L’attività elettrica neuronale, in parte intrinseca e in parte guidata da stimoli dell’ambiente, diventa essenziale per rafforzare alcune connessioni sinaptiche a scapito di altre e costruire in questo modo un’architettura molto fine che consente al nostro cervello di compiere prestazioni sofisticate. Tale capacità di crescita e modellamento delle connessioni, detta plasticità, avviene per tutta la vita in misura più o meno limitata; essa consiste in modificazioni strutturali alla base di processi di apprendimento e memoria, sia motoria che cognitiva, e dei processi di adattamento dell’organismo alle modificate condizioni ambientali. La plasticità dell’adulto è di fondamentale importanza nei fenomeni di recupero che si hanno dopo una lesione del sistema nervoso, lo studio dei meccanismi di tale plasticità postlesionale ha rivelato che spesso il cervello è in grado di ripercorrere quelle vie che sono attive durante lo sviluppo. Infatti i neuroni illesi possono innervare i neuroni rimasti orfani della loro innervazione, ma anche le stesse cellule che in seguito alla lesione hanno riportato un danno a livello assonale, sono in grado di far rigenerare i loro assoni come durante lo sviluppo. Tali fenomeni rigenerativi trovano però ostacolo in altri fenomeni che tendono ad impedire la loro crescita, fra cui la cicatrice gliale in corrispondenza della lesione, oppure proteine e molecole che si creano nella matrice extracellulare. La conoscenza di tali meccanismi ha permesso di intravedere la possibilità di abbattimento di questi ostacoli e ricostruire i circuiti interrotti. Un’ultima conquista nel campo del recupero funzionale dopo lesione del sistema nervoso centrale è quella dei trapianti, che consente di sostituire le cellule degenerate e che ha trovato nel morbo di Parkinson la prima applicazione terapeutica con risultati positivi. È possibile esaminare una serie di principi comuni della plasticità che determinano lo sviluppo futuro dell’individuo: 1- Il sistema nervoso è dotato di una predisposizione innata, geneticamente determinata, a riconoscere stimoli specifici, rilevanti per lo studio di un determinato comportamento o funzione 33 2- Nel corso dello sviluppo vi è un periodo “critico”, durante il quale l’esposizione a tali stimoli, l’esperienza in senso lato, determina una rapida acquisizione del comportamento o della funzione. 3- Trascorso questo periodo, non si ha più la stessa capacità di modificare le capacità acquisite, quali che siano. 34 Meccanismi dipendenti dall'attività che regolano la formazione e l'eliminazione delle sinapsi. In coincidenza di specifici patterns di attività pre- e post- sinaptica vengono indotte modificazioni funzionali dell'efficacia della trasmissione sinaptica, noti come potenziamento o depressione a lungo termine. Questi fenomeni sono associati a modificazioni dell’espressione genica dei neuroni coinvolti, seguite dal rimodellamento strutturale delle connessioni. Il numero di contatti aumenta in seguito al potenziamento, diminuisce in seguito alla depressione. 35 DARWINISMO NEURALE Per darwinismo neurale si intende una concezione innovativa su come funziona il sistema nervoso. Il principio di partenza è che il cervello si sviluppi, partendo dalle istruzioni genetiche, in modo diverso in ogni individuo, seguendo un processo di selezione naturale analogo a quello che si riscontra nell’evoluzione. Edelman, l’ideatore di questa teoria, si propone di offrire una spiegazione biologica della categorizzazione, della percezione, dell’azione e della memoria. In particolare, la teoria della memoria revisiona la normale concezione di apprendimento, che viene visto come un processo dinamico. Con il termine evoluzionismo si introduce anche tutta una teoria riguardante i repertori variabili di elemento, le cui fonti di variazione non hanno relazione causale con i successivi eventi di selezione o riconoscimento. L’idea di base consiste nel considerare i neuroni alla stregua di una popolazione, i vari gruppi di neuroni come gruppi di individui, il corpo umano come l’ambiente ospitante tale popolazione. I gruppi di neuroni che si comportano in un determinato modo prosperano mentre altri, in concorrenza con i primi, muoiono perché incapaci di prestazioni analoghe, scartati da un meccanismo di selezione definita somatica. Tipicamente i neuroni che sono tagliati fuori da sinapsi frequentemente usate, si atrofizzano, mancano di nutrimento, assorbito da gruppi di neuroni più ramificati poiché più attivi, e muoiono. Quando una sinapsi è coinvolta in un processo dagli esiti positivi sarà rafforzata e più spesso coinvolta in altri processi, diversamente accadrà il contrario. In questo modo, sulla base dei neuroni prodotti per via delle istruzioni del codice genetico, si ricavano sia il cervello sia le mappe neurali, cioè sia l’anatomia che la funzione. L’esperienza andrà a selezionare le mappe neurali rafforzando le sinapsi coinvolte nei processi maggiormente adattativi. In realtà le potenzialità del cervello sono molto più ampie di quanto un individuo sia in grado di sfruttare durante l’esistenza; in virtù di una simile abbondanza è possibile selezionare comportamenti tanto diversi e plastici all’interno di una stessa specie animale. 36 Un gruppo neuronale è un insieme di cellule neurali, non necessariamente dello stesso tipo, compreso tra le centinaia e migliaia di unità strettamente connesse nei loro circuiti, le cui interazioni sono ulteriormente rafforzabili tramite incremento di forza sinaptica. Il gruppo può essere plasmato da variazioni di stimoli in entrata, dalla competizione con altri gruppi e dalla qualità delle reazioni. Le modificazioni dei gruppi avvengono principalmente a livello delle sinapsi, solo secondariamente a livello anatomico. Si definisce “repertorio primario” un insieme eterogeneo di gruppi neuronali le cui connessioni estrinseche e le cui potenzialità in una certa area cerebrale si stabiliscono in parte durante lo sviluppo. In pratica si tratta della base operativa a partire dalla quale l’esperienza seleziona le disposizioni cerebrali di ciascun individuo. A completare il quadro della teoria della selezione dei gruppi neuronali vi è il fenomeno del rientro, che garantisce la possibilità di una coordinazione tra i vari gruppi cerebrali e quindi la formazione del repertorio secondario tramite il rinforzo delle sinapsi determinato dall’esperienza. Nel cervello non esiste un’area coordinatrice, di conseguenza si solleva il problema di come possano correlarsi tra loro i vari gruppi di neuroni. Le varie aree cerebrali sono collegate da numerosissime vie di connessione, la maggior parte delle quali presenta fibre che decorrono in entrambe le direzioni, e che sono il fondamento strutturale del rientro. Esaminando tale fenomeno, si può dedurre che l’elaborazione in parallelo degli stimoli è del tutto normale nel cervello e che non è necessaria alcuna coordinazione centrale. Il repertorio primario è costituito dall’insieme dei gruppi neuronali, il secondario è formato dalle sinapsi. Proprio a livello sinaptico avviene la formazione di mappe neurali, ossia delle strutture cerebrali correlate alla mente e all’apprendimento, esse si costituiscono in base all’efficacia del legame sinaptico. Pertanto, identificando i meccanismi che rafforzano o indeboliscono i legami, diverranno evidenti le cause che generano le mappe neurali. I meccanismi in questione sono due: presinaptico e postsinaptico. 37 A lungo gli scienziati hanno discusso se si tratti di meccanismi indipendenti o meno, a tal proposito Edelman afferma che “le variazioni pre- e post-sinaptiche sono sotto il controllo di meccanismi indipendenti, descrivibili con regole diverse. Malgrado le regole preposte al controllo di queste modificazioni possano operare nello stesso tempo e in parallelo in ciascuna sinapsi, contribuendo a modificarne l’efficacia complessiva, in quella sinapsi le diverse modificazioni sono indistinguibili dal punto di vista funzionale. Tuttavia le due regole sono molto diverse nei dettagli strutturali”. L’argomento che depone a favore dell’indipendenza dei due meccanismi è la capacità, da parte di questa concezione, di spiegare le variazioni eterosinaptiche. “Una variazione eterosinaptica è una modificazione nell’efficacia di una sinapsi che dipende dagli effetti di stimolazioni su altre sinapsi dello stesso neurone; una variazione omosinaptica si verifica solo in concomitanza alla stimolazione diretta della sinapsi in questione.” Quindi, mentre una variazione omosinaptica è coerente con l’idea che i meccanismi pre- e post- sinaptici siano legati, le variazioni eterosinaptiche non lo sono, soprattutto se si tiene conto del fatto che l’aumento eterosinaptico di forza postsinaptica non necessita la contemporanea attività elettrica presinaptica, e che l’efficacia presinaptica può 38 aumentare senza provocare variazioni a livello postsinaptico. Stabilito quindi che si tratta di fenomeni indipendenti, è utile capire come agiscono. Essi obbediscono a costanti di funzionamento piuttosto semplici: la costante presinaptica consiste in un aumento della probabilità di rilascio del neurotrasmettitore; se la media a lungo termine (tempi superiori al secondo) dell’efficacia presinaptica istantanea, determinata dal rilascio del neurotrasmettitore, supera una certa soglia, allora l’efficacia sinaptica minima per il rilascio viene assestata dalla cellula su un nuovo valore. In altre parole, più spesso una sinapsi rilascia un neurotrasmettitore, più spesso tenderà a rilasciarlo. Dunque, qualora un potenziale d’azione percorra una serie di sinapsi, alcuni percorsi non determineranno effetti degni di nota, mentre altri ne produrranno, e grazie al fenomeno del rientro, saranno stimolati a produrne ancora; in virtù del rinforzo presinaptico, ogni qualvolta un simile fenomeno accade aumentano le probabilità che accada di nuovo. Per quanto concerne il meccanismo postsinaptico, le cose vanno diversamente ma sono egualmente semplici: un certo numero di stimoli eterosinaptici che raggiungono un neurone ne determinano la modificazione dello stato dei canali ionici relativamente a una sinapsi. Tale modificazione incide sul potenziale eccitatorio postsinaptico, è quindi in grado di modificare la probabilità che la parte della membrana che possiede la soglia di eccitazione più bassa generi un potenziale d’azione e lo trasmetta. Se un neurone è spesso bersagliato da stimoli che aumentano la capacità di una sua sinapsi di inoltrare gli stimoli ricevuti, verrà automaticamente creato un percorso privilegiato, ovvero un percorso con maggiori probabilità di essere attivato. Tramite i due meccanismi qui esposti le connessioni sinaptiche si assestano durante l’intera vita, modificando costantemente il repertorio secondario. Edelman propone una nuova teoria evoluzionistica della memoria; lo step di partenza è che memoria e categorizzazione sono implicite nella selezione del mappaggio neurale globale. Inoltre memoria e categorizzazione coincidono a livello cerebrale, pur essendo distinguibili da un punto di vista funzionale: nel cervello esiste solo l’incessante creazione di mappe, alcune rappresentano l’ambiente, altre organizzano i movimenti; le mappe primitive sono poco più che casuali, ma la continua selezione, il rinforzo sinaptico, porta a una relativa stabilizzazione delle configurazioni maggiormente adattative. In tale consolidamento sta la memoria. D’altronde l’attivazione di un certo percorso, qualora abbia esito positivo, lo rafforza creando nel tempo una nuova mappa, quindi se l’effetto di tale percorso si rivela adattativo in più di una circostanza, sono maggiori le probabilità che esso venga 39 rafforzato e vada a costituire una mappa. Ogniqualvolta si verifica questa situazione, il cervello ha generalizzato, ha compiuto quindi una categorizzazione. In sintesi memoria e categorizzazione sono implicite e coincidono con il mappaggio globale; la memoria grazie al consolidamento, la categorizzazione grazie al molteplice utilizzo delle mappe locali selezionato spontaneamente nelle fasi globali del mappaggio. La memoria è quindi una categorizzazione già avvenuta e che si ripete nel tempo. La correlazione di segnali del passato, legati a valori che vengono stabiliti da sistemi di controllo interni, e segnali categorizzati, provenienti dal mondo esterno, porta alla memoria nelle aree concettuali. Essa è una funzione dinamica del sistema ed è insita nella natura della mappa globale, e consiste nella capacità di ripetere una determinata prestazione. La tipologia della prestazione è dipendente dalla struttura del sistema in cui si manifesta la memoria stessa, poiché essa è una proprietà sistemica. Si può dunque evidenziare la profonda differenza tra la memoria di un calcolatore, che consiste nell’immagazzinamento di informazione codificata in maniera precisa, e la memoria del sistema nervoso centrale, il cui funzionamento di base è dinamico ed è visibile nelle mappe globali. I contesti infatti variano in continuazione, conseguentemente cambiano anche la struttura e la dinamica delle popolazioni neurali coinvolte nella categorizzazione originaria. In definitiva, tale tipo di memoria permette di ottenere la stessa risposta partendo da molti oggetti categorizzati in maniera analoga, e sono ammessi errori. 40 41 SISTEMA NERVOSO DINAMICO CAOTICO Un problema fondamentale nello studio delle reti neuromorfe consiste nell’analisi delle dinamiche caotiche dei neuroni, difficoltà dovuta al tentativo di ricalcare il comportamento reale del cervello. Infatti il sistema nervoso è un classico esempio di sistema dinamico, in cui le variabili sono rappresentate dai neuroni stessi. Come è stato già accennato, quando il potenziale di membrana supera il valore soglia, il neurone emette un impulso elettrico, cioè risulta attivo; altrimenti rimane quiescente. L’impulso elettrico viene trasmesso attraverso il collegamento assonale ad altre cellule nervose, oppure è ricevuto dalla cellula per mezzo dei prolungamenti dendritici. L’interazione tra le cellule neuronali è determinata da altre numerose variabili, molte delle quali ancora sconosciute. Ai fini dello studio del sistema nervoso e di una sua schematizzazione in un modello matematico, alcune variabili vengono considerate essenziali, cioè determinanti rispetto ad altre che vengono dette componenti del sistema. Il sistema nervoso viene rappresentato come un sistema ad N componenti ℎଵ(t), ℎଶ(t),….,ℎ (t), ciascuna delle quali rappresenta il potenziale elettrico di un neurone ad un certo istante, ed N è il numero totale dei neuroni. Ad ogni istante di tempo t il sistema è caratterizzato da una configurazione determinata dai valori dei potenziali elettrici assunti dai neuroni. Tale configurazione prende il nome di stato del sistema ed è rappresentata da un vettore ad N componenti: H(t)=(ℎଵ(t),ℎଶ(t),…………..,ℎ (t)) Le configurazioni assunte dal sistema dipendono dagli impulsi esterni ricevuti. Ad esempio un odore o la visione di un’immagine producono configurazioni differenti perché diversi sono i neuroni stimolati dalle due percezioni. Al variare del tempo variano le configurazioni assunte dal sistema, poiché i neuroni interagendo tra loro mediante le sinapsi modificano i loro potenziali. Tutte le 42 successive configurazioni assunte dal sistema possono essere rappresentate mediante punti nello spazio ad N dimensioni, che prende il nome di “spazio delle configurazioni”. L’insieme delle successive configurazioni assunte dal sistema al variare del tempo forma una curva nello spazio delle configurazioni che prende il nome di “traiettoria del sistema”. Si definisce condizione iniziale del sistema la configurazione che esso assume all’istante in cui inizia l’osservazione H(ݐ)=(ℎଵ(ݐ),ℎଶ(ݐ),……………..,ℎ (ݐ)) La regola che descrive l’evoluzione del sistema nel tempo e che rappresenta le modalità di interazione tra i neuroni prende il nome di “dinamica” del sistema. La dinamica del modello neuronale è rappresentata da un sistema di equazioni differenziali ℎଵᇱ(݃ = )ݐଵ(ℎଵ()ݐ, ℎଶ()ݐ, … , ℎே ()ߙ ;)ݐ ൝ " ᇱ ()ݐ ℎே = ݃ே (ℎଵ()ݐ, ℎଶ()ݐ, … , ℎே ()ߙ ;)ݐ Generalmente le funzioni g sono non lineari, e il parametro α misura la non linearità del sistema. La traiettoria H(t) del sistema è la soluzione del sistema di equazioni differenziali fissata la condizione iniziale H(ݐ). Il significato che si può attribuire al parametro α è quello di misurare quanto può influire nell’evoluzione del sistema l’aver trascurato le variabili ritenute non essenziali. Una delle più interessanti scoperte, fatte mediante studi teorici e con l’ausilio del calcolatore è che al variare dei valori assunti dal parametro α il sistema ha evoluzioni asintotiche differenti. I valori del parametro per cui si ha questo cambiamento asintotico di regime sono detti “punti critici di biforcazione”. In particolare, per determinati valori del parametro, il sistema dinamico neuronale risulta fortemente sensibile alle condizioni iniziali del sistema, cioè piccole perturbazioni sulla configurazione iniziale conducono il sistema in stati totalmente differenti. Si pensi ad esempio quando vedendo un’immagine, essa ci appare totalmente sconosciuta, poi focalizzando un minimo particolare essa ci appare come già nota. Una piccola modifica delle condizioni può portare il nostro cervello in condizioni di riconoscere o meno l’immagine. Sistemi dinamici fortemente sensibili alle condizioni 43 iniziali vengono detti sistemi dinamici caotici. Traiettorie con condizioni iniziali leggermente perturbate evolvono fino ad allontanarsi esponenzialmente, tale fenomeno viene detto “divergenza esponenziale delle traiettorie”. È istruttivo citare la famosa frase del matematico e scienziato Lorentz, grande studioso di fenomeni caotici: “se una farfalla si leva in volo in Brasile, il battito che produce, dopo un considerevole tempo, può scatenare un uragano in Texas”. Nello spazio delle configurazioni il comportamento asintotico di un sistema caotico è rappresentato da un ente geometrico che prende il nome di “attrattore strano o caotico”. Generalmente la presenza di caos è interpretata negativamente perché fonte di imprevedibilità, ma tale giudizio non è in genere applicabile ai sistemi dinamici neuronali, dove la presenza di caos può essere vista come fonte di intuizione. In particolare è stato verificato tramite simulazioni al calcolatore che il fenomeno della divergenza delle traiettorie non altera la capacità di riconoscimento della rete, e l’aumento del parametro di non linearità è determinante ai fini del riconoscimento dell’informazione. attrattore di Lorentz 44 altro esempio di attrattore caotico Può sembrare alquanto curioso che, pur conoscendo completamente dal punto di vista analitico il sistema in esame, esso possa generare comportamenti cosi complessi ed imprevedibili; ciò è dovuto evidentemente sia alla complessità matematica dei sistemi in questione, sia all’impossibilità di conoscere con precisione lo stato di partenza del sistema. È questo proprio il caso dei sistemi biologici ed in particolare del cervello, per il quale non sono nemmeno note le equazioni che ne regolano il funzionamento. La presenza di caos è una delle proprietà che distingue il cervello umano dall’intelligenza artificiale. Un notevole vantaggio che il caos può conferire al cervello è di renderlo capace di produrre continuamente nuovi tipi di attività, che potrebbero essere decisive per lo sviluppo di raggruppamenti di neuroni diversi da quelli già stabiliti. Per ottenere dunque informazioni utili sull’evolversi e sulle cause di patologie (come l’epilessia) è utile abbandonare i metodi tradizionali di indagine abbracciando gli strumenti non convenzionali offerti dalla modellizzazione tramite sistemi caotici. Nonostante i progressi verificatisi in tale ambito, è stato verificato che per riuscire solo ad ottenere una potenza di calcolo sufficiente a simulare i 10 milioni di neuroni che compongono il cervello umano, sarebbe necessaria una potenza pari a 10mila volte superiore a quella di un attuale computer. Inoltre anche avendo a disposizione 45 sufficiente potenza di calcolo sarebbe complicatissimo riuscire a mappare la struttura del cervello e riportarne i valori dei pesi sinaptici. Considerando l’attuale tasso di sviluppo tecnologico la possibilità di creare effettivamente un computer pensante come un cervello umano è quindi al momento piuttosto lontana. APPLICAZIONI La maggior parte delle ricerche realizzate fin’ora sui ritmi del cervello si sono focalizzare principalmente su tre aspetti fondamentali: a livello cellulare, è stata infatti appurata l’esistenza di cellule che presentano intrinseche proprietà oscillatorie (tali attività sottendono i ritmi dell’EEG) simulazioni con sistemi neurali artificiali, in cui si evidenzia un comportamento oscillatorio, caotico o meno, di diversi circuiti neurali coinvolti nei diversi fenomeni mentali (ritmo circadiano, sonno-veglia, apprendimento) a livello teorico, svariati studi hanno portato alla luce il fatto che le reti si comportino come sistemi dinamici complessi con proprietà del caos deterministico. ANALISI A LIVELLO CELLULARE Per quanto riguarda il livello cellulare di analisi, di particolare interesse risulta lo studio delle proprietà dei neuroni reticolari-talamici (RE), e dei neuroni talamocorticali (TCR). Tali neuroni presentano due fondamentali stati di attivazione, ovvero uno stato tonico e uno stato ritmico. Risultati sperimentali hanno evidenziato la capacità di tali neuroni di attivarsi ritmicamente in assenza di input esterni, risultando quindi oscillatori peace-maker per altre strutture dell’encefalo. 46 Per quanto concerne invece l’attività dei neuroni TCR, esistono studi orientati a verificare il ruolo del sistema talamo-corticale durante i primi stadi del sonno, quando tale struttura mostra attività di tipo fusiforme. Tale attività oscillatoria compare nei mammiferi con una frequenza di 7-14 Hz, formando dei fusi della durata di circa 2 secondi, che ricorrono con un periodo irregolare di 5-10 secondi. Nella seconda metà degli anni 80 è stato dimostrato che questo tipo di attività oscillatoria del sistema talamo-corticale non si presenta quando tale sistema viene disconnesso dai nuclei del sistema reticolare-talamico, mostrando dunque che la connessione tra le due strutture è fondamentale per una regolare attività del sistema talamo-corticale. Esistono inoltre altri studi che mettono un evidenza l’importanza, nell’attività oscillatoria tra i sistemi RE e TCR, di altre variabili, quali l’intensità del segnale in input, oppure l’entità delle connessioni o delle soglie. Una schematizzazione dell’attività congiunta delle due strutture prevede la frequenza delle oscillazioni fortemente dipendente dal tipo membrana, dal potenziale di membrana e dalle interazioni sinaptiche dei neuroni singoli. L’evidenza fondamentale risiede nella capacità delle due strutture cerebrali di lavorare come un unico sistema auto-organizzato che, per mezzo delle dinamiche di rientro del segnale e della variazione di polarità della membrana neuronale, è in grado di generare oscillazioni che sono in relazione ai livelli di vigilanza. Il sistema nervoso, con il suo elevatissimo numero di neuroni, può essere considerato un sistema caotico, ed è caratterizzato da un numero piuttosto alto di parametri e variabili. Rappresenta quindi un chiaro esempio di sistema dinamico complesso, caratterizzato da stati di attivazione più o meno caotici in diversi punti della sua totalità. Tuttavia, nonostante le conoscenze attuali di fisica e matematica sui sistemi dinamici caotici siano piuttosto avanzate, non permette la ricostruzione delle equazioni che governano l’esistenza del sistema che si sta studiando. Sorge inoltre un altro problema, ovvero, per poter parlare di caos deterministico e comparare dei diversi sistemi caotici, si dovrebbe poter determinare quanta energia ai vari sistemi per portarli dallo stato di quiete ad uno stato turbolento o caotico. Ciò consiste nella ricostruzione esatta delle equazioni di stato che permettano di prevedere l’evoluzione temporale del sistema. Tale operazione risulta 47 particolarmente complicata nei sistemi dinamici caratterizzati da stati tipici del caos deterministico. Studi importanti sono stati effettuati da Freeman nel 1987, mettendo in evidenza stati di attivazione caotici che precedevano o seguivano stati di attivazione sincronizzata delle reti neurali. Tali stati di sincronizzazione erano sempre correlati ad eventi di riconoscimento di alcuni oggetti noti. Praticamente è stato rilevato che il caos renda possibile l’improvvisa emergenza di processi di sincronizzazione relativi a diverse realtà significative per il sistema. Infatti il caos, aumentando i gradi di libertà del sistema, aumenta la flessibilità nel passaggio a diversi stati di attivazione stabili per qualche dt diverso da zero. Una conferma parziale al ruolo svolto dal caos è data dall’osservazione dell’attività cerebrale durante una crisi epilettica: in queste condizioni il sistema appare fortemente sincronizzato in aree vaste e per periodi piuttosto lunghi rispetto ai passaggi di stati che avvengono in seguito ad altri eventi mentali. Si ipotizza quindi che il sistema nervoso, nel corso della sua evoluzione, abbia maturato delle strategie intrinseche di randomizzazione degli stati di attivazione ed evitare gli effetti disastrosi dovuti alla sincronia osservabili durante gli attacchi epilettici. L’importanza della desincronizzazione appare ancor più evidente se si prende in esame l’attivazione muscolare e i fenomeni ad essa connessi, infatti una vasta sincronizzazione dell’attivazione dei diversi motoneuroni porterebbe a fenomeni di tremolio indesiderati, impedendo la finezza del movimento e un corretto orientamento nello spazio. 48 EPILESSIA E MODELLI A DINAMICA CAOTICA Il progresso delle tecnologie biomediche ha portato a un notevole miglioramento delle capacità diagnostiche, con conseguente abbattimento di costi annessi alla prevenzione e ad interventi subitanei con terapie mirate ed efficaci. Tale miglioramento è schematizzabile in tre fasi: incremento delle conoscenze teoriche in campo fisiologico; un input maggiore in ambito fisico-matematico; lo sviluppo dell’ingegneria medica applicata. Un esempio di integrazione medico-ingegneristica è stata l’invenzione dell’elettroencefalogramma. Berger, nel 1920, si accorse dell’esistenza di un potenziale elettrico nell’encefalo, registrato attraverso una rudimentale tecnica basata sull’infiggere due aghi d’argento nello scalpo del paziente ad una certa distanza. Nel 1947 venne fondata la Società Americana di Elettroencefalografia, cui seguirono studi significativi riguardo le relazioni tra le caratteristiche variazioni del tracciato ed alcune patologie psichiatriche. La tecnica sembrò inizialmente capace di coadiuvare le ricerche psichiatriche e neurologiche, ma il parallelo sviluppo tecnologico la resero definitivamente superata, relegandola all’unico strumento per una diagnosi sicura del male epilettico. L’esame elettroencefalografico è caratterizzato da un’elevata complessità, richiede infatti un’ampia conoscenza della neurofisiologia, delle basi dell’elettrotecnica e una vasta esperienza in ambito neuropatologico; ma soprattutto un apprendimento prolungato che solo l’osservazione diretta e la pratica clinica possono fornire. Accanto alle tecnologie digitali delle apparecchiature moderne, un ruolo fondamentale è svolto dall’informatica. Il modello computazionale basato su reti neurali offre un utile progresso nell’elaborazione diagnostica, intervenendo nell’esame dei segnali, in cui la sua potenza computazionale si è rivelata più soddisfacente. Il sistema basato su reti neurali è impiegato nell’analisi di tracciati allo scopo di rilevare anomalie epilettiformi per due principali motivi: -il tracciato manifestato da encefali epilettici è piuttosto singolare (e dipende dal tipo di epilessia) -lo sviluppo di tecniche diagnostiche più affidabili, seppur invasive, quali la TAC o la biopsia, hanno reso ozioso il suo impiego per rilevare tumori e lesioni cerebrali, 49 mentre lo sviluppo delle scienze psichiatriche ha smentito ogni pretesa psicodiagnostica dell’esame elettroencefalografico. GENERALITA’ DEL MALE EPILETTICO L’epilessia è un disturbo neurologico caratterizzato (non necessariamente) da crisi convulsive. Può manifestarsi attraverso sintomi positivi o negativi: positivi come false percezioni, tremori accessi convulsivi, negativi come perdita di coscienza, cecità o paralisi. I sintomi dipendono dall’area e dal tipo di tessuto cerebrale interessato. È possibile distinguere una fase tonica dell’accesso, cioè la perdita del tono posturale da parte del soggetto, ed una fase clonica, accompagnata da movimenti e scatti delle estremità. Il periodo postictale è il tempo che intercorre tra l’attacco epilettico ed il normale ristabilimento delle funzioni neurologiche. È logico supporre che, essendo le cellule nervose eccitabili, gli accessi epilettici derivino da una variazione dell’eccitabilità dei gruppi neuronali. Le registrazioni extracellulari permettono il rilevamento di attività sincronizzata da parte di aggregati cellulari, in questo caso i segnali registrati vengono detti segnali di campo. Con risoluzioni di tempo lente, i potenziali di campo assumono la caratteristica forma “a punte”. Tali eventi macroscopici non vanno tuttavia confusi con i normali potenziali di attivazione registrati dalle singole cellule (gli spikes). L’EEG è caratterizzato da un insieme di potenziali di campo registrati per mezzo di numerosi elettrodi posti sullo scalpo del paziente. L’insieme dei siti di collocazione si definisce “montaggio”. Ciascun elettrodo registra l’attività elettrica in corrispondenza di un sito sullo scalpo rispetto ad un elettrodo più o meno distante. L’attività elettrica dell’EEG viene registrata in forma attenuata, alcuni dei principali fattori che portano al decremento dell’intensità del campo elettrico sono: interferenze fisiologiche, attenuazione per resistenza dell’osso cranico, del liquido cerebrospinale, della cute. Perciò è chiaro che le strutture encefaliche localizzate in profondità non influiscono significativamente alla resa del campo elettrico registrato, ma agiscono per vie indirette integrando la registrazione della superficie corticale. L’ampiezza dei tracciati risulta decisamente inferiore rispetto a quanto si registra intracellularmente. Quando l’attività di interi aggregati di cellule nervose si sincronizza, per effetto della sommazione delle correnti, le onde registrate diventano di maggiore ampiezza e 50 sono osservabili brusche deviazioni dell’attività basale. Tale attività sincronizzata può essere normale, come nel caso dei fusi rilevabili durante il sonno (della durata di 1-2 secondi e caratterizzati da onde di grande ampiezza), oppure può essere patologica, quindi indizio di un focolaio epilettico. Ogni neurone di ciascun focolaio epilettico dà luogo ad una caratteristica risposta elettrica sincronizzata, detta “onda di depolarizzazione parossistica”, costituita da una repentina depolarizzazione di grande ampiezza e di lunga durata, che al suo picco presenta un treno di potenziali d’azione, seguita da un’iperpolarizzazione postuma. Finchè l’attività elettrica anormale resta circoscritta al focolaio dell’accesso epilettico, non si hanno manifestazioni cliniche. Nel caso invece di un attacco epilettico propriamente detto, l’iperpolarizzazione postuma scompare gradualmente e l’accesso epilettico inizia a diffondersi al di fuori del focolaio originario. A livello neuronale la membrana non è più in grado di ripolarizzarsi e genera una serie di potenziali d’azione ad alta frequenza. È quindi importante evidenziare l’impossibilità di previsione dell’insorgenza degli accessi epilettici attraverso metodi tradizionali di indagine: non è infatti possibile analizzare una precisa relazione di causa-effetto tra ambiente esterno e crisi, 51 comportando un’inefficace profilassi: ciò avvalora la scelta di modellizzare il cervello con un sistema a dinamica non lineare. Dall’osservazione dei tracciati è possibile osservare nella fase convulsiva l’apparente casualità temporale del segnale EEG ed il fenomeno dell’intermittenza aperiodica e pseudo casuale del tracciato, caratterizzato da impulsi elettrici di grande ampiezza. È proprio quest’ultimo fenomeno a giustificare l’abbandono di una descrizione di tipo lineare del cervello, a causa dell’assenza di correlazione tra l’ambiente esterno e l’insorgenza di scariche neuronali. La presenza di impulsi di grande ampiezza indica che, durante la fase critica, un gruppo di neuroni tende a sincronizzarsi con una frequenza di ripetizione non costante nel tempo: dinamiche di evoluzione di questa tipologia sono tipiche di sistemi caotici. CARATTERISTICHE DELL’ELETTROENCEFALOGRAFIA L’EEG studia i fenomeni elettrici che si svolgono durante l’attività neuronale. Questi potenziali sono caratterizzati da oscillazioni continue secondo un ritmo costante in condizioni di normalità e di riposo, ma che varia durante l’attività funzionale delle cellule o in condizioni di sofferenza. 52 L’elettroencefalografia è basata proprio su tale principio, ovvero sullo studio delle oscillazioni di potenziale dell’encefalo e delle loro modificazioni fisiologiche e patologiche. Lo strumento di cui ci si serve è l’elettroencefalografo, progettato allo scopo di registrare differenze di potenziale esistenti tra due punti posti sulla superficie o all’interno della scatola cranica, ed eliminando al contempo le differenze di potenziale esistenti tra i suddetti punti e la terra. Il segnale caratteristico è registrato in modo non invasivo attraverso l’utilizzo di piccoli elettrodi di Ag rivestiti elettroliticamente da AgCl, posti direttamente a contatto con la pelle. Il segnale all’uscita dell’amplificatore viene digitalizzato e fornito ad un calcolatore che si occupa della registrazione e visualizzazione. Gli elettrodi, da 12 a 20, vengono applicati imbevuti di una soluzione salina sulla cute del capo. I potenziali registrati sullo scalpo rappresentano i potenziali postsinaptici di un’estesa popolazione di neuroni. Per eseguire l’esame elettroencefalografico il soggetto, seduto o disteso, deve tenere gli occhi chiusi ed evitare il più possibile di concentrare l’attenzione. ANALISI DEL TRACCIATO ELETTROENCEFALOGRAFICO L’EEG presenta particolari caratteristiche di attività, che possono essere relazionate con le varie fasi del sonno e della veglia, ma anche con alcuni profili patologici quali l’epilessia e formazioni neoplastiche. Nell’EEG vengono considerate la frequenza e l’intensità dell’attività elettrica. Un EEG normale di un soggetto sano la frequenza dell’attività elettrica varia da 1 Hz a 30 Hz, e l’ampiezza da 20mcV a 100mcV. Le possibili frequenze registrabili sono divise in bande: Banda delta (0.5-4 Hz) Banda teta (4-7 Hz) Banda alfa (8-13 Hz) Banda beta (13 30 Hz) Le onde alfa sono di ampiezza intermedia, e sono caratteristiche della veglia rilassata. L’attività beta, di minor ampiezza, è evidente nel corso di un’intensa attività mentale. Quando il soggetto rilassato entra in uno stato di all’erta si verifica la cosiddetta “de sincronizzazione” dell’EEG, con riduzione di onde alfa e aumento di 53 quelle beta. Le onde teta e delta si osservano durante la veglia e sono sintomo di grave disfunzione cerebrale. Dal punto di vista teorico sono tre le possibili spiegazioni alla sincronia diffusa dell’attività cerebrale: 1. Centri pacemaker che agiscono attraverso legami sinaptici diffusi 2. Circuiti riverberanti, comprendenti vie assoniche con estese ramificazioni 3. Accoppiamento elettrico degli elementi neurali 54 Tali elementi non possono escludersi a vicenda. La molteplicità dei ritmi e le mutevoli relazioni di fase tra le aree cerebrali rendono necessario nel caso (1) postulare vari pacemaker indipendenti. È stato suggerito che la formazione reticolare del tronco encefalico sia la base anatomica per la sincronizzazione bilaterale dei ritmi fisiologici alfa e beta. Nel caso (2) introdurre i circuiti riverberanti consiste nell’ammettere l’esistenza nel sistema nervoso centrale di sistemi a controreazione. Il caso (3) riceve consensi per il fatto che l’attività di una cellula nervosa può essere influenzata da un campo elettrico esterno. Gruppi neuronali con ritmi spontanei normali continuano a scaricarsi in sincronia anche dopo il blocco della trasmissione sinaptica con della nicotina. Un altro fatto essenziale che sta alla base della massima sincronia delle normali fluttuazioni è relativa inattività del tessuto nervoso. ALTERAZIONI DEL TRACCIATO ELETTROENCEFALOGRAFICO Il tracciato EEG può mutare rispetto alla sua forma base media, registrata e catalogata sulla base dell’esperienza storica maturata su pazienti sani e adulti, in presenza di alterazioni, fisiologiche e patologiche, dell’attività neuronale. Il principale fattore di variabilità è costituito dall’età del paziente: anomalie del tracciato sono frequenti e di minima rilevanza negli infanti fino ai 12 anni, molto marcate nel caso dei nati prematuri, e negli anziani, nei quali si riscontra un significativo rallentamento dell’attività di fondo. Anomalie simili si riscontrano nei casi in cui lo stato di coscienza è ottuso la maggior parte del tempo (dementi, idioti, o schizofrenici) o in soggetti cui siano stati somministrati farmaci anticonvulsivanti (come i barbiturici). Producono infine modificazioni dell’attività elettrica i traumi cranici, le lesioni congenite, le ischemie, e soprattutto le epilessie. Le modificazioni riscontrate in presenza del male epilettico si possono ricondurre a tre forme principali: aumento della frequenza e dell’altezza dei potenziali; rallentamento del ritmo; comparsa del “complesso onda-punta”, costituito da un’onda ampia e lenta accompagnata da una brevissima e ampia oscillazione negativa. 55 Nell’epilessia le alterazioni elettroencefalografiche si presentano soprattutto durante le crisi, di qualsiasi tipo. L’importanza dell’esame EEG nell’epilessia non sta dunque soltanto nella documentazione obiettiva di una modificazione dinamica cerebrale che accompagna la crisi, ma soprattutto (almeno a livello di diagnosi) nella possibilità di svelare con una probabilità percentuale molto alta (e un margine d’errore piuttosto ristretto) l’esistenza di un’epilessia anche in assenza di una diretta osservazione della sua manifestazione clinica. 56 L’uso delle reti neurali può avere vantaggi sia perché rende possibile un’interpretazione neurofisiologica delle unità appartenenti alle reti stesse e delle micro-caratteristiche ad esse associate, sia perché la loro facilità di implementazione è correlata al fatto che le unità di delle reti sono associate a leggi di attivazione quali la regola di Hebb. Oltretutto le reti hanno la possibilità di un funzionamento in parallelo delle unità in modo tale che venga espressa la ragione per cui molti processi cognitivi sono molto veloci, infine danno la possibilità di rappresentare e sperimentare gli effetti di lesioni sull’andamento dei processi cognitivi. 57 BIBLIOGRAFIA • A.N. Burkitt “A review of the integrate-and-fire neuron model”, 2006. • C. Leibold “Stability Analysis of Asynchronous States in Neuronal Networks with Conductance-Based Inhibition”, 2004. • N. Brunel “dynamics of sparsely connected networks of excitatory and inhibitory spiking neurons”, 2000. • S. Ferrari “le reti neurali” • R. Berne, M. Levy “Principi di fisiologia” • E. Izhikevich “which model to use for cortical spiking neurons?”, 2004. • S. Luccioli “Dinamica di modelli realistici del singolo neurone” • E. Biondi “Introduzione all’ingegneria biomedica” • R. Miglierina “l’epilessia ed il caos deterministico”, 2003. • Le Scienze, M. Giugliano “reti bioartificiali di neuroni”, 1999. • M. Storace “Sistemi dinamici e modelli neuronali” • M. D’Andreagiovanni “Dispositivi VLSI neuromorfi”, 2001. • G. Martorelli “emergenza di configurazioni in sistemi neurali caotici” • Neuroscienze.net “journal of Neuroscience, psychology and cognitive science”, 2009. • http://www.synaptics.org/neurbook.htm • C. Catenacci “darwinismo neuronale, analisi di una teoria biologica della mente” • P. Strata “Atlante di plasticità neuronale” • G. Edelman “Neural Darwinism. The theory of neuronal group selection”, 1998. • S.H. Strogatz “Nonlinear Dynamics And Chaos”, 1994. 58 • F. Cecconi “Reti neurali applicate allo studio di elettroencefalogrammi”, 2008. • http://www.piaggio.ccii.unipi.it/bio/corsi/modelli.it 59