La mente che indaga la mente Mente e cervello Il notevole sviluppo delle neuroscienze, negli ultimi due o tre decenni, con i paralleli progressi realizzati nel campo della cosiddetta intelligenza artificiale, hanno alimentato la convinzione di poter penetrare con relativa facilità nella cittadella della mente utilizzando gli stessi strumenti e modalità di indagine che tanto successo hanno ottenuto nelle scienze fisiche. Senonché, alle grandi aspettative dei ricercatori e alle rinnovate dichiarazioni programmatiche, non hanno fatto seguito i risultati attesi. Una autentica comprensione della mente umana continua ad apparire un traguardo piuttosto lontano. Se è vero, infatti, che numerose esperienze indicano una stretta correlazione tra i nostri stati mentali e le attività rilevate in alcune zone cerebrali, è altrettanto vero che tale correlazione non ci dice sostanzialmente nulla circa il rapporto causale esistente tra i due domini di fenomeni. La correlazione non rende conto del come, da un insieme di processi che si svolgono impersonalmente all'interno dei neuroni cerebrali seguendo leggi fisiche ben note, si giunga a esperienze soggettive vissute in prima persona da un determinato individuo. Non parliamo poi della riproduzione di una facoltà come la coscienza realizzata per mezzo di un calcolatore elettronico opportunamente programmato: traguardo a cui mirano i fautori dell'intelligenza artificiale fin dalla sua fondazione e considerato potenzialmente raggiungibile da molti scienziati e filosofi attuali. Qui, non soltanto si è ben lontani dall'aver raggiunto un qualsiasi risultato concreto, ma non c'è nessuno che sia in grado di indicare, neppure in linea di principio, come un artefatto del genere dovrebbe essere strutturato per acquisire una simile capacità. E quando parliamo di riproduzione della coscienza, non pretendiamo il raggiungimento delle vette dell'autocoscienza, bensì qualcosa di molto più modesto, come ad esempio un barlume, sia pur minimo, di sensitività cosciente - caldo, freddo, pressione, dolore, piacere - magari limitato anche a una sola di tali sensazioni. La strategia più frequente per giustificare questo stato di impasse è quella di ricordare l'enorme complessità del cervello, con un numero di neuroni che va da 10 a 100 miliardi e le relative interconnessioni assoniche e dendridiche, da poche centinaia a molte decine di migliaia per ogni singolo neurone. Complessità al cui confronto le attuali realizzazioni hardware/software sono da considerarsi di una semplicità quasi ridicola. Il richiamo alla complessità non avviene tuttavia sulla base di uno schema progettuale, sia pur solo abbozzato, dal quale emergano con sufficiente chiarezza i limiti quantitativi e/o qualitativi dei nostri artefatti di fronte alla struttura e all'organizzazione del cervello. Anzi, ad essere precisi, non abbiamo alcuna idea di come i processi cerebrali, che pure possiamo rilevare grossolanamente con i nostri strumenti e in alcuni casi mettere i rapporto con certe capacità mentali, diano luogo a dette capacità. Mentre sappiamo con sufficiente esattezza quale dev'essere l'organizzazione software/hardware di un elaboratore elettronico per renderlo capace di eseguire calcoli o compiti determinati, purché esattamente definibili in termini di procedure e operazioni elementari, ci troviamo nel buio più completo per quanto riguarda un'ipotetica organizzazione in grado di dar luogo a un fenomeno mentale come quello della coscienza. Ma, a dispetto di questa totale oscurità, molti scienziati mantengono ferma la loro convinzione che i computer rappresentino un buon modello della mente umana e che quindi lo sviluppo di facoltà coscienti sia solo una questione di organizzazione funzionale. In tale loro certezza, tuttavia, essi non possono ignorare certe problematiche che la loro prospettiva inevitabilmente solleva. 1 Dette problematiche riguardano principalmente alcune caratteristiche della coscienza, come la soggettività dell'esperienza e la libertà implicita nel concetto di volontà cosciente, contrapposte all'oggettività e all'impersonalità dei processi computazionali, che fanno riferimento ad algoritmi determinati, e più in generale a leggi fisiche che vincolano i fenomeni a comportamenti ben precisi. Le scappatoie più frequenti di fronte a tali difficoltà sono essenzialmente due, e possono essere sintetizzate come segue: 1) tendenza a sminuire l'importanza dei fenomeni coscienti all'interno del processo di adattamento dell'organismo all'ambiente, che arriva in certi casi a considerare la coscienza come un mero epifenomeno, privo di qualsiasi ruolo nella determinazione e nel controllo del comportamento; 2) ricorso alla nozione di "emergenza", secondo la quale livelli molto elevati di complessità strutturale e/o funzionale darebbero origine a caratteristiche e capacità del tutto nuove, non prevedibili e non spiegabili sulla base delle leggi valide ai livelli inferiori. Questi due aspetti sono spesso compresenti e agiscono in maniera sinergica così da ridurre le distanze (in senso metodologico o, addirittura, ontologico) che separano la coscienza dagli ordinari oggetti e fenomeni del mondo fisico. Tale scopo viene sostanzialmente raggiunto attraverso una svalutazione sistematica dei fattori di diversità e il tentativo di render conto di eventuali residui non eliminabili ricorrendo al concetto ad hoc di "proprietà emergente". E' appena il caso di far rilevare che tali strategie si collocano agli antipodi del corretto procedere scientifico. In particolare, l'utilizzo del concetto di "proprietà emergente", svincolato da qualsiasi prospettiva di verifica empirica, introduce una componente di valenza metafisica, appartenente alla classe di quegli elementi che la scienza ha sempre dichiarato di voler bandire dalle proprie formulazioni. Il ricorso a tale concetto, avendo un carattere "difensivo" e non euristico, tende a trasformare la complessità, alla quale esso risulta strettamente legato, da "giustificazione" per il mancato raggiungimento di certi risultati a fattore esplicativo, capace di render conto di per sé del sorgere di determinate attitudini mentali. Un rappresentante "tipico" in tal senso è il filosofo Daniel Dennet, fisicalista convinto, uno dei più accaniti sostenitori dell'analogia funzionale tra mente e computer. Egli trova abbastanza comprensibile che la gente comune abbia difficoltà ad accettare l'idea che il cervello funzioni come un elaboratore elettronico e che le diverse facoltà mentali siano interamente riconducibili a tale funzionamento. Se, infatti, proviamo ad immaginare un qualsiasi programma che giri su un computer, giungiamo con relativa facilità alla conclusione che esso non potrà che limitarsi ad eseguire meccanicamente un certo numero di operazioni sulla base delle istruzioni che lo costituiscono, senza che ciò implichi la minima traccia di coscienza. Questo però accade, secondo Dennet, perché siamo portati a pensare a programmi eccessivamente semplici. Affinché l'analogia tra mente e computer acquisti un senso, dobbiamo pensare a qualcosa di veramente complesso, tanto complesso da essere immaginato solo con grande difficoltà. Non esiste altra strada da percorrere: se la mente è prodotta unicamente dall'attività del cervello (e non può essere altrimenti) e i nostri attuali artefatti non danno prova di alcun fenomeno cosciente, allora l'unica spiegazione possibile è che essa sorga a livelli di complessità molto superiori, magari talmente elevati da collocarsi al limite delle nostre capacità immaginative. Chi si aspetta di trovare, nelle argomentazioni di Dennet, ulteriori elementi a sostegno delle sue tesi, non può che rimanere deluso. Non c'è nulla, all'infuori di una fede incondizionata nella validità del modello proposto. Posizione che ha come corrispettivo un prezzo altissimo pagato in termini di componenti metafisiche che egli è costretto a tollerare all'interno del proprio sistema. Le posizioni "estremiste" come quella di Dennet contano un numero di sostenitori via via decrescente all'interno della comunità scientifica. Emblematico, in tal senso, il caso di un autore come Hilary Putnam, il quale, partito da una sostanziale accettazione del computazionismo come adeguata teoria della mente, ne ha successivamente preso le distanze. Di fronte a una crescente insoddisfazione per tale modello, si avverte tuttavia la mancanza di una valida alternativa, capace di inserirsi coerentemente all'interno dell'attuale paradigma scientifico. E' questo probabilmente il principale motivo per cui, mentre le indagini sperimentali in campo 2 neurofisiologico continuano ad accumulare dati sul rapporto mente-cervello, gli scienziati teorici sembrano girare in tondo, attardandosi in marginali ritocchi a concezioni largamente insoddisfacenti, introducendo concetti o distinzioni ad hoc, alimentando un ampio dibattito che rischia però di rimanere sterile. A parte casi isolati, come quello del fisico Roger Penrose, la maggioranza degli scienziati non appare neppure sfiorata dal dubbio che le difficoltà incontrate, invece che essere dovute alla straordinaria complessità del cervello umano in rapporto alle ancor limitate conoscenze e risorse strumentali disponibili, possano derivare dall'aver adottato un quadro di riferimento inadeguato. E' forse prematuro pretendere un drastico mutamento di rotta, un affrancamento più o meno pronunciato dal modello scientifico basato sulla riconduzione dei fenomeni a leggi generali. Ma la strada da percorrere sembra essere proprio questa. Come conciliare altrimenti il determinismo e la prevedibilità, che le suddette leggi inevitabilmete implicano, con la libertà e la creatività dell'agire umano? Fino a pochi decenni fa, la sfera dei contenuti e degli stati coscienti non era reputata un oggetto adeguato di indagine scientifica. Essa appariva troppo sfuggente, troppo imparentata con concetti metafisici per poter essere ricondotta al modello naturalistico delle leggi universali e al rigore dei metodi e delle procedure di controllo in uso nella scienza. A partire dagli anni '80, tuttavia, il vertiginoso progresso delle neuroscienze ha portato conferme sperimentali sempre più numerose sul legame esistente tra fenomeni cerebrali e processi mentali. Nello stesso tempo, le realizzazioni sempre più spinte nel campo dell'intelligenza artificiale hanno alimentato la speranza di poter riuscire a riprodurre almeno in parte tali facoltà per mezzo di macchine computazionali controllate da sofisticati programmi informatici. Acquisita in tal modo una solida base fisiologica di riferimento, l'indagine sulla mente e sulla coscienza ha cessato di essere considerata un argomento di pura speculazione filosofica, per entrare a pieno titolo nel campo della ricerca scientifica. Malgrado i progressi finora ottenuti, una autentica comprensione dei fenomeni mentali appare ancor oggi un traguardo piuttosto lontano. Poiché se è vero che numerose esperienze indicano una stretta correlazione tra i nostri stati mentali e le attività rilevate in specifiche aree cerebrali, è altrettanto vero che tale correlazione non ci dice molto circa il rapporto causale esistente tra i due domini di fenomeni. La correlazione non spiega come da un insieme di eventi che si svolgono impersonalmente all'interno dei neuroni cerebrali, si giunga a esperienze soggettive vissute in prima persona da un determinato individuo. Gli autori - scienziati e filosofi - che attualmente si interessano al problema della coscienza e degli stati mentali sono moltissimi, ed estremamente variegata è la gamma delle loro posizioni. Ci limitiamo ad indicarne alcune tra le più significative nell'ambito dell'attuale dibattito. GERALD EDELMAN Principale rappresentante del cosiddetto darwinismo neurale, concezione secondo la quale il cervello si svilupperebbe in seguito all'interazione dell'organismo con l'ambiente, attraverso un meccanismo che ricorda molto da vicino la selezione darwiniana. DANIEL DENNET Accanito sostenitore dell'analogia funzionale tra cervello e computer, tende a sminuire l'importanza dei contenuti soggettivi, ponendo invece l'accento sugli effettivi processi che si svolgono nel cervello. 3 MARVIN MINSKY Considerato uno dei padri dell'intelligenza artificiale, propone un modello di mente costituito da un gran numero di "agenti" specializzati che cooperano tra loro. ANTONIO DAMASIO Neuroscienziato portoghese che critica la razionalità attribuita alle nostre scelte. Partendo dall'osservazione di casi clinici, egli propone un modello secondo il quale le emozioni e i sentimenti costituiscono una sorta di percorso abbreviato in molti dei processi decisionali dell'uomo. THOMAS NAGEL Filosofo conosciuto soprattutto per il suo saggio "Che cosa si prova ad essere un pipistrello?", nel quale egli critica le pretese riduzionistiche di ricondurre gli stati mentali ai processi oggettivamente rilevabili all'interno del cervello. JOHN ECCLES Rappresentante moderno del dualismo mente-corpo, rivisitato alla luce della meccanica quantistica. ROGER PENROSE Partendo dall'osservazione che alcune operazioni compiute dalla mente umana non sono riconducibili alla computazione, nega ogni possibilità di riprodurre le capacità mentali tramite un elaboratore elettronico. Egli ipotizza la possibilità di spiegare i fenomeni coscienti all'interno di una teoria che unifichi la relatività con la meccanica quantistica. JOHN SEARLE Critica decisamente il modello computazionale della mente umana, mettendo in rilievo la differenza sostanziale esistente tra l'esecuzione meccanica di operazioni sulla base di un programma (computer) e la comprensione autentica di ciò che si sta facendo (mente umana). RICHARD RORTY Filosofo proveniente dall'area analitica, critica la nozione di irriducibilità della coscienza, sostenendo che lo stesso concetto di "mente" è destinato a scomparire col progredire della conoscenza dei concreti processi cerebrali. HILARY PUTNAM Da una iniziale adesione al funzionalismo, ne ha preso successivamente le distanze, arrivando a riconoscere una dimensione autonoma agli stati mentali. PAUL CHURCHLAND Uno dei principali sostenitori del cosiddetto "materialismo eliminativo", secondo cui i contenuti e gli stati mentali sono completamente riducibili alla sfera dei fenomeni fisici. Churchland rifiuta il modello computazionale della mente, caratterizzato da un funzionamento seriale, proponendo invece un paradigma basato sul connessionismo (vedi reti neurali), che rappresenta più adeguatamente il modo di operare del cervello (esecuzione di più compiti in parallelo). JERRY FODOR Si oppone all'analogia tra mente e computer, proponendo un modello modulare della mente, secondo il quale la mente sarebbe formata da moduli che agiscono in modo sostanzialmente autonomo, senza essere influenzati dallo stato generale del sistema. 4 Tutto ciò che riguarda il cervello, il comportamento, le caratteristiche della mente è oggi al centro di crescente attenzione sia da parte degli scienziati sia da parte dei non specialisti che per diversi motivi possiedono alcune nozioni su differenti aspetti dei rapporti tra cervello e comportamento. Ad esempio, spesso sentiamo affermare che l'essere depressi o di buon umore può dipendere dalle dinamiche delle molecole chimiche prodotte dalle cellule nervose, che le droghe modificano il nostro comportamento agendo sui trasmettitori nervosi, che un trauma cranico può comportare un vuoto di memoria, che intelligenza e memoria possono sgretolarsi in tarda età se il cervello va incontro a malattie degenerative come il morbo di Alzheimer. Ognuno di noi, insomma, ha conoscenze, più o meno sommarie, sia nel campo delle neuroscienze, le discipline che studiano il cervello attraverso diversi strumenti e punti di vista, sia in quello della psicobiologia, la disciplina che cerca di interpretare alcuni aspetti della mente attraverso un'ottica biologica, sia, infine, in quello della filosofia della mente che, attraverso i secoli, ha cercato di rispondere a diversi interrogativi che riguardano i rapporti tra la mente, un tempo associata all'anima, e il cervello. Alcuni di questi classici interrogativi, oltre al rapporto mente-cervello, riguardano gli atteggiamenti umani, le credenze e i desideri, la coscienza, la razionalità, le passioni, il rapporto tra natura e cultura, la volontà, lo stesso libero arbitrio. Un tempo, però, i filosofi della mente si ponevano domande che prescindevano dalle - poche - conoscenze sul funzionamento del cervello mentre oggi è ben difficile non tenere in considerazione quanto ci rivela la biologia: e anche se alcuni filosofi ritengono che gli eventi mentali siano essenzialmente dei vissuti in prima persona, su cui la scienza ha ben poco da dire, è ben difficile ignorare alcuni fondamenti biologici del mentale. Ad esempio, non abbiamo dubbi sul fatto che la mente di una persona che ha fatto uso di droghe pesanti sia alterata, che la morte cerebrale coincida con l'assenza di coscienza e delle funzioni mentali, che alcune funzioni mentali si verifichino a livello inconscio. Anche quando ci interroghiamo sul futuro, la dimensione biologica ha un impatto sull'etica, sulla filosofia della mente, sullo stesso concetto di "persona umana": spesso, tanto per ricorrere a un argomento attuale, ci domandiamo cosa avverrebbe se gli individui umani fossero clonati e, in particolare, se le loro menti potrebbero essere quasi identiche tra loro, simili in modo inquietante... Questa trasformazione del nostro modo di guardare alla mente umana attraverso un'ottica biologica, è abbastanza recente: sia pure con qualche approssimazione, potremmo affermare che poco più di cinquant'anni fa la mente e il comportamento umano erano ancora appannaggio della filosofia e della psicologia mentre si riteneva che biologia e medicina si limitassero a fornire risposte circoscritte alla patologia, ai casi di malattie e lesioni del sistema nervoso. In realtà, l'interesse ai rapporti tra cervello e comportamento risale a molti anni or sono: ad esempio, gli studiosi di anatomia comparata, i naturalisti, gli evoluzionisti, si erano posti domande sulle radici biologiche del comportamento umano già alcuni secoli addietro; Charles Darwin aveva sostenuto, sin dalla metà dell'Ottocento, che il cervello umano avesse alle sue spalle una lunga storia naturale; i neurologi avevano indicato come le lesioni di alcune parti della corteccia cerebrale alterassero profondamente il linguaggio, la memoria, il comportamento. Tuttavia, malgrado queste conoscenze e teorie, il cervello restava un continente inesplorato e ignoto ai più: e soprattutto, come si è detto, era opinione comune che la scienza, in particolare la medicina, potesse chiarire alcuni aspetti della patologia cerebrale ma non della fisiologia. Si ammetteva, ad esempio, che il comportamento potesse disgregarsi a causa di un ictus o della sifilide ma non si riteneva che la scienza potesse esplorare le caratteristiche della memoria, dell'emozione, del sogno e più in generale della mente. Oggi, invece, la situazione è profondamente cambiata, il modo in cui guardiamo alla mente è diverso in quanto le neuroscienze, attraverso lo sviluppo di varie tecniche e strategie, hanno consentito di inquadrare e conoscere numerosi aspetti dei rapporti tra sistema nervoso e comportamento, sia dal punto di vista fisiologico che patologico. Ovviamente, le trasformazioni del modo in cui guardiamo ai rapporti tra mente e cervello, tra psiche e corpo, non rispecchiano soltanto conoscenze scientifiche ma anche mutamenti sociali e culturali: in effetti, la maggiore attenzione nei riguardi dei rapporti tra cervello e psiche può anche essere interpretata sulla base dell'attuale 5 tendenza verso l'individualismo, della crescente attenzione verso il sé, di una trasformazione della mentalità che riguarda anche quegli interrogativi sul come siamo fatti e sul come agiamo che rientrano nel campo di studio delle scienze della psiche e del cervello. Un'ulteriore spinta verso una lettura in chiave biologica della mente ha avuto origine da una laicizzazione della cultura e quindi dal superamento di una concezione spiritualistica che, nel passato, poteva far sì che il concetto di mente coincidesse con quello di anima o di spirito: lo studio del comportamento in termini naturalistici o "riduzionistici" implica invece che i fenomeni mentali siano manifestazioni del corpo o dei processi cerebrali e che quindi lo studio della mente umana non sia appannaggio della metafisica, della filosofia o di una psicologia completamente scissa dalla biologia. Ciò non significa che la mente umana possa essere svelata esclusivamente attraverso un'ottica naturalistica ma che le neuroscienze rappresentino un importante livello di lettura, anche se non esclusivo. Questa laicizzazione della cultura è meno evidente in Italia e ciò spiega, probabilmente, perché in altri paesi la filosofia della mente occupi un posto centrale nella filosofia e le neuroscienze suscitino maggiore attenzione di quanto non avviene nel nostro paese. Per renderci conto di come si sia giunti a una nuova concezione dei rapporti tra mente e cervello si possono seguire quattro diversi percorsi: 1. In primo luogo ripercorrere la storia dei rapporti tra biologia e comportamento a partire dall'Ottocento, quando i naturalisti, i fisiologi e i neurologi cominciarono a condurre studi e ricerche sistematiche sulla storia naturale del cervello, sulla sua fisiologia e sugli effetti dei danni localizzati in alcune regioni cerebrali. 2. In secondo luogo seguire un'ottica di tipo evolutivo, cercare cioè di seguire le tracce di una "storia naturale" della mente per soffermarsi sulle tappe fondamentali che hanno portato a un cervello tipicamente umano. 3. Un terzo percorso può invece riguardare alcuni fondamentali raggiungimenti delle neuroscienze e della psicologia che hanno innovato il modo in cui guardiamo ai rapporti tra cervello e rappresentazioni della realtà, basati sia su quel complesso intreccio di meccanismi predeterminati e processi plastici che caratterizzano ogni funzione mentale, in particolare la memoria che costituisce una specie di luogo simbolico della mente. Gli studi sulla memoria indicano, ad esempio, che alcuni aspetti e modi del ricordare sono legati a specifiche aree della corteccia, che la mente rielabora in modo massiccio sia nuove esperienze che ricordi consolidati, che non tutte le esperienze si verificano a livello cosciente e, infine, che attività cognitive ed emotive sono fortemente interdipendenti. 4. Ultima tappa del nostro percorso saranno le teorie della mente, un classico capitolo della filosofia che riguarda i rapporti tra mente e cervello. In che modo le nuove conoscenze neuroscientifiche hanno modificato le teorie della mente? Ad esempio, a quali trasformazioni è andata incontro l'epistemologia il cui nucleo centrale è l'origine e la legittimazione della conoscenza? Tutta la conoscenza, come sostenevano gli empiristi, nasce dai sensi e dalle impressioni che sono alla base del contenuto dei nostri stati mentali di cui abbiamo conoscenza diretta oppure si basa su basi naturalistiche, su idee innate, come ritenevano i razionalisti? Mente e cervello sono due entità distinte? Esiste un linguaggio della mente? Le neuroscienze permettono di rispondere a queste domande in modo più esaustivo oppure le risposte risiedono altrove, ad esempio nelle conoscenze che derivano dall'intelligenza artificiale e da quelle di calcolo o "computazionali"? O infine, come sostengono la filosofia e la psicologia fenomenologica, le neuroscienze non ci consentono di dare risposta alcuna in quanto le esperienze mentali sono un fenomeno precluso alla conoscenza obiettiva? Considerata da questi diversi punti di vista, la mente ci apparirà sotto un insolito aspetto in quanto è evidente che il cervello opera attraverso una serie di meccanismi precostituiti, frutto della sua lunga storia, che fanno sì che stimoli ed esperienze vangano elaborati automaticamente e trasformati in interpretazioni, rielaborate e corrette, della realtà. Che si tratti di stimoli visivi, di esperienze o memorie che riaffiorano alla mente, tutto viene analizzato e rimaneggiato dal cervello prima ancora che la mente possa rendersi conto di quanto il cervello sta facendo. In altre parole, molto spesso il 6 cervello sa e agisce prima della mente, prima che il nostro io ne sia a conoscenza. D'altronde numerose attività, dai riflessi alle associazioni, dalla percezione alla memoria, si verificano a livello inconscio. La mente è seconda al cervello nell'interagire col mondo? Prende atto delle operazioni del sistema nervoso attuate tramite programmi che derivano da una lunga storia evolutiva? Questa posizione, se estremizzata, è eccessiva: è mai possibile che una visione unitaria della realtà, del mondo che ci circonda e del nostro mondo interno, dipenda essenzialmente da un automatismo che deriva da un meccanismo precostituito? Secondo alcuni filosofi e neuroscienziati, ad esempio Michael Gazzaniga (1998), l'unitarietà della mente dipende dall'intervento di un "interprete" ma questi non sarebbe altro che un ulteriore meccanismo precostituito di cui, col tempo, saremo in grado di conoscere la "formula". E per di più questo meccanismo, l'interprete appunto, sarebbe a sua volta frutto di un processo evolutivo che ci permette di individuare la presenza di simili interpreti, anche se meno abili e sofisticati, nelle altre specie animali. E se l'interprete fosse invece il prodotto dell'esperienza che, progressivamente, induce la formazione di schemi sempre più complessi, visioni del mondo che pur hanno una loro dimensione neurobiologica in quanto implementate nei circuiti nervosi? In ogni momento della nostra vita, ad ogni passo, in tutti gli ambienti o contesti, quando parliamo, mangiamo, insomma sempre i nostri sistemi sensoriali acquisiscono dall’esterno una mole enorme e in un certo modo a flusso continuo di dati, o meglio di elementi fisici ben precisi. Che si tratti di onde sonore, molecole che possiedono proprietà in grado di stimolare i recettori olfattivi o le papille gustative, pressioni sulla superficie del corpo, fotoni che colpiscono coni e bastoncelli sulla retina essi rimangono pur sempre stimoli fisici. Come è possibile che diventino “cose” o addirittura eventi e emozioni? La neuropsicologia cognitiva studia le prestazioni cognitive negli individui che hanno subito una lesione cerebrale, cercando di capire quali aspetti dell’attività cognitiva sono intatti o danneggiati e cercando di trarre conclusioni sui processi cognitivi normali. Tali informazioni possono essere utili in quanto i risultati ottenuti da soggetti con deficit cerebrali nei compiti cognitivi possono essere spiegati da teorie che appartengono alla psicologia cognitiva. Diventa così possibile utilizzare le informazioni tratte dal comportamento dei pazienti con lesioni cerebrali per confutare le teorie proposte dagli psicologi cognitivi e proporre nuove teorie del funzionamento cognitivo normale. Il COGNITIVISMO è una forma di sapere a carattere multidisciplinare, che ha come oggetto lo studio dei sistemi intelligenti, tra cui naturalmente la mente umana. Mentre le teorie comportamentiste pongono l'accento sulla funzione stimolo-risposta per spiegare la formazione delle conoscenze, il cognitivismo punta la sua attenzione sull'analisi dei processi conoscitivi e sullo studio delle possibili forme di rappresentazione delle conoscenze. che la nostra mente è capace di operare. Filosofia, psicologia, linguistica, neuroscienze e scienza dell'informazione costituiscono i domini del cognitivismo. Esso assume i caratteri di un sapere assolutamente trasversale, la cui evoluzione è stata senza dubbio accelerata dallo studio dell'intelligenza artificiale accanto all'espansione delle applicazioni informatiche. Il funzionamento del nostro cervello ha ben poco in comune con quello del calcolatore elettronico o altre macchine di nostra costruzione. Lì dove il calcolatore manipola un gran numero di simboli dati secondo regole date, il nostro cervello traccia associazioni d'idee, inventa analogie e metafore, costruisce significati attraverso l'interazione sociale. La differenza è grande, e si manifesta più chiaramente proprio lì dove maggiore è la richiesta d'aiuto che l'uomo rivolge alle tecnologie informatiche. I sistemi di supporto alle decisioni e i modelli di simulazione aziendale sono chiamati 7 ad essere d'aiuto nelle situazioni più difficili, quelle in cui un manager si trova di fronte a una situazione nuova e imprevedibile. Poco si conosce sul funzionamento delle capacità più sofisticate dell'intelletto umano, come la coscienza, le emozioni, la razionalità. Qualcosa si sa, invece, sui principi di funzionamento dei processi cognitivi attraverso i quali ci formiamo un'immagine della realtà che ci circonda. Sappiamo cos'è una categoria mentale, sappiamo come funziona una mappa cognitiva, e sappiamo come queste si possono formare a partire dalle interazioni tra i circa 1013 neuroni che compongono il nostro cervello. Per costruire modelli ad agenti sofisticati, è importante avere una conoscenza di base circa il funzionamento dei nostri processi cognitivi. Qualsiasi organo di dimensioni finite, ha delle capacità finite. Così, ad esempio, la capacità di un polmone di ossigenare il sangue dipende dal suo volume, per cui la necessità di maggiore ossigenazione che si osserva durante la corsa trova un limite nella dimensione dei polmoni. Il cervello umano è dotato di un'estesa corteccia cerebrale, sede delle sue funzioni più sofisticate. Le dimensioni della corteccia sono aumentate esponenzialmente lungo l'evoluzione che ha portato dai primi ominidi alla specie homo sapiens, ma rimangono comunque finite. Le nostra capacità di intuizione e di deduzione, comunque misurate, non sono infinite ma sono limitate dalle potenzialità dell'hardware che le sostiene. Questo concetto va sotto il nome di razionalità limitata . Una prima conseguenza della limitatezza della razionalità umana è che gli oggetti percepiti nel mondo empirico non vengono rappresentati così come sono, ma piuttosto classificati in categorie. Così, ad esempio, la parola "sedia" non rimanda a tutte le sedie che abbiamo visto nella nostra vita, ma alla categoria degli oggetti che hanno quattro gambe e uno schienale, e sui quali ci si può sedere. Ciò costituisce, evidentemente, una semplificazione del numero dei concetti che devono essere manipolati. Tuttavia, l'esempio di cui sopra è fuorviante per quanto riguarda un aspetto estremamente importante. Volutamente, la categoria "sedia" è stata definita mediante dei criteri: avere quattro gambe, avere uno schienale, dare la possibilità di sedercisi sopra. E' il modo in cui procede la deduzione logica: si comincia col definire degli elementi, e poi eventualmente li si combina. E' il modo in cui funzionano i programmi di qualsiasi calcolatore: si definisce un insieme di simboli (che possono rappresentare costanti o variabili) e li si fa interagire secondo certe regole. Ma questo non è il modo in cui funziona il cervello umano. Armati della definizione di "sedia" come di un oggetto che ha quattro gambe e uno schienale, e sul quale ci si siede, si supponga di osservare una sedia da ufficio che poggia su una sola gamba, centrale. Evidentemente, il criterio di definizione della categoria "sedia" dev'essere modificato. In altre occasioni, potrà essere preferibile introdurre un'ulteriore categoria. Ad esempio, l'osservazione di oggetti sui quali ci si può sedere, dotati non solo di gambe e schienale ma anche di braccioli potrebbe suggerire l'idea di inventare una nuova categoria: "poltrone". Ma in base a quale criterio dovrebbe la nostra mente modificare i criteri in base ai quali le categorie classificano gli oggetti? E non dovrebbe esistere anche un criterio che possa modificare questo criterio, e così via seguendo una regressione infinita? Il problema è che il ragionamento deduttivo, quello - per intenderci - che si trova nella dimostrazione di un teorema o in un programma per calcolatore, non è in grado di misurarsi con le novità. Che siano "braccioli" come nel semplicissimo esempio precedente, o le mutevoli configurazioni del mercato, la mente umana deve essere in grado di classificare novità imprevedibili secondo categorie che non appiattiscano gli elementi innovativi. Non c'è spazio per criteri fissati ex ante. Le categorie mentali si formano per accrescimento, attraverso l'osservazione di innumerevoli esempi. Così un bambino che osservi per la prima volta una piccola sedia nella sua cameretta potrà creare una categoria "sedia" alla quale, all'inizio, afferisce un solo esempio nella sua esperienza 8 sensibile. Successivamente, l'osservazione di oggetti simili presenti all'interno della casa potrà arricchire la categoria "sedia" di altri esemplari. Si noti che per costruire questa categoria non è stato necessario definire a priori cos'è una sedia: è stato sufficiente essere stati in grado di tracciare delle similitudini, delle analogie tra le sedie precedentemente osservate e ogni nuovo esemplare. Può darsi che a posteriori sia possibile trovare qualche elemento comune a tutti gli oggetti classificati in una categoria, e che questi elementi comuni possano essere utilizzati come definizione. Succede, ad esempio, con la categoria "sedia". Ma non è sempre così. Può darsi che una categoria si sia costruita intorno a un prototipo, un nucleo centrale che viene declinato in innumerevoli variazioni. Ad esempio, un oggetto sul quale ci si possa sedere, dotato di quattro gambe e uno schienale, è il prototipo intorno al quale ruotano le sedie ad una o a tre gambe, con schienale o con poggiatesta. Ma non sempre esiste un prototipo. Si consideri, ad esempio, la categoria mentale identificata dalla parola "gioco". Esiste qualche elemento comune tra i giochi dei bambini, i giochi delle carte che fanno gli adulti, i cuccioli di gatto che giocano ad acchiappare il topo? In Inglese, Francese e Tedesco la situazione è ancora più problematica, perché anche gli strumenti musicali si "giocano" (to play, jouer, spielen). In Inglese poi, "game" significa anche "branco". Vuol dire che lanciare un giavellotto è come suonare la chitarra? Evidentemente, no. Vuol dire che esiste una catena di similitudini che lega ognuno di questi concetti ad almeno uno degli altri. Ad esempio, andare a caccia potrebbe somigliare ai giochi che osserviamo nei cuccioli di molti animali, oppure suonare uno strumento musicale potrebbe somigliare a giochi che si fanno per puro diletto, da soli o in gruppo. Ma non è necessario che ogni varietà di "gioco" sia simile a tutte le altre. Non esiste nemmeno un gioco che faccia da prototipo a tutti gli altri. E non esistendo nessuna caratteristica che sia comune a tutti i giochi, non è possibile dare una definizione di "gioco" che vada bene per tutti gli esemplari della categoria. Non esiste nessuna possibilità di definire questa categoria mediante un criterio di classificazione a priori. Ancora, un'ulteriore particolarità delle categorie mentali è che molto spesso i confini tra categorie non sono netti. Piuttosto, una categoria sfuma in un'altra senza soluzione di continuità. Ad esempio, le categorie che corrispondono alle razze dei cani sfumano l'una nell'altra in un'infinita serie di possibili bastardi. Un calcolatore manipola simboli nella forma di variabili continue o discrete alle quali è stato dato un significato dall'autore del programma. Il significato delle variabili è stato scelto una volta per tutte, il calcolatore si assume il compito di applicare alcune regole di combinazione (ad esempio, quelle dell'algebra booleana) che producono un risultato il cui significato discende da quello delle variabili di partenza. Di nuovo, nulla di più diverso da quello che fa la mente umana. La nostra mente costruisce e modifica le categorie nello stesso tempo in cui crea i loro significati. Le categorie mentali non sono mai dei simboli, degli elementi dal significato invariabile. Proviamo, ad esempio, ad immaginare come mai alle sedie dotate di braccioli venga riservata una categoria a sé, quella delle "poltrone". Andate col pensiero ad una delle innumerevoli volte in cui vi è capitato di entrare in uffici di una certa importanza. Chi aveva a disposizione una poltrona? Di solito, la poltrona serve a distinguere chi è più in alto in una gerarchia. Ha, cioè, un significato diverso dalla più misera "sedia". A significato diverso, corrisponde una categoria diversa. In definitiva, il motivo che ci ha spinto a differenziare tra "sedie" e "poltrone" è che queste categorie mentali sono immerse in una rete di relazioni con altre categorie e con il mondo esterno, le quali relazioni danno origine al significato che le categorie mentali hanno l'una rispetto all'altra. Più precisamente, non è possibile pensare alla genesi delle categorie mentali indipendentemente dai loro rapporti reciproci e dalla genesi del loro significato. 9 In definitiva, possiamo caratterizzare una mappa cognitiva come un insieme di relazioni causali tra categorie mentali, la cui struttura evolve insieme alle categorie stesse. "Tutto ciò che è detto è detto da un osservatore ad un altro osservatore che può essere l'osservatore stesso" H. Maturana e Francisco Varela La nostra individualità non si basa sul puro e semplice accumulo di esperienze, ma anche e soprattutto sul modo in cui queste vengono collegate tra loro: l'io è più il prodotto della storia che ci raccontiamo, attraverso cui attribuiamo significati e manteniamo una coerenza col succedersi dei fatti della nostra vita, alla messa in atto dei comportamenti, a desideri, decisioni, che ci rendono quotidianamente il senso di noi stessi, la consapevolezza del nostro vivere, del cambiare pur rimanendo noi stessi. L’identità ci appartiene e noi apparteniamo ad essa, la difficotà al cambiamento, di qualunque tipo e natura è dato da questo livello di implicazione, noi ci muoviamo nell’ambiente attraverso le relazioni partendo dalla nostra prima relazione significativa, la nostra “narrazione”, la storia ci racconta e lo fa attraverso l’identità stessa, noi desideriamo, cerchiamo, necessitiamo le relazioni che mantengono la nostra stessa identità, la difficoltà è uscire da questo dominio di riferimento pur mantenendo un dominio esistenzialmente significativo, coerente e di cui abbiamo consapevolezza, la complessità del mantenerci in questo stato di coscienza portando con noi la “logica” necessaria al nostro esistere determina la complessità con cui siamo fatti. Mille miliardi di cellule che si sviluppano, si specializzano e comunicano tra loro. Il cervello umano, una delle strutture più complesse e misteriose dell'intero universo, è considerato da molti il culmine dell'evoluzione biologica. Importanti funzioni che caratterizzano la nostra specie, come il linguaggio, l'apprendimento e la logica, sono il frutto di meccanismi biologici che avvengono nelle circonvoluzioni di quest'organo. Qui hanno sede le nostre capacità di ricevere, immagazzinare ed elaborare le informazioni che ci arrivano dall'ambiente circostante e possono prendere corpo gravi malattie che condizionano il modo con cui noi interagiamo con il mondo esterno. Il cervello è il principale organo deputato alla ricezione degli stimoli provenienti dall'esterno ed anche alla raccolta di tutto il complesso insieme di ciò che proviene dall'interno del corpo, dunque il decodificatore è anche l'organo principale dell'attività psichica o mentale; esso è contenuto nel corpo, e la mente viene intesa nel cervello. Abitualmente ci identifichiamo con ciò che la memoria consente di portare a livello di coscienza. Esistono molti tipi di memoria, quella genetica codificata nel DNA dei geni dei gameti che unendosi avviano la riproduzione di un organismo; poi esiste una memoria immunitaria in cui l'organismo si identifica come sé (tutto ciò che è istologicamente compatibile) dal non-sé (altro patrimonio genico), ma quando ci si riferisce allo uomo lo si caratterizza per l'attività di pensiero e delle sue espressioni nell'azione e nel linguaggio, si trovano corrispondenze tra l'attività cerebrale e la attività mentale: memoria come base per pensiero, ragione e coscienza. La nostra attuale concezione dell'uomo è che lo sviluppo filogenetico dalla prima cellula e quello ontogenetico che comincia con l'unione dei gameti porti alla maturazione del corpo con il suo cervello che è l'organo deputato a ricevere e coordinare ed esprimere sensazioni, impulsi ed emozioni, ma anche l'attività della mente: quindi la memoria e il pensiero, e le altre facoltà dell'intelletto come l'intuizione. La corrispondenza tra stati cerebrali (ad es. le aree cerebrali deputate e specializzate nella ricezione degli stimoli o nell'esecuzione dell'attività motoria, o più generalmente comportamentale, e della parola) e le funzioni psicologiche, è con l'attuale progresso tecnologico (TAC, RM, PET, EEG, etc) dimostrato. Secondo l'ottica orientale c'è invece una coscienza che si incarna, cioè va ad abitare un determinato corpo, così come noi cambiamo appartamento o abitazione. Ecco allora che i vari stati o livelli 10 dell'animo continuano a mantenere la loro identità (ma possono anche trasformarsi) in vari stati come nel sonno, nel sogno, nella vigilanza o nella autocoscienza-meditazione. È un approccio distinto, anche perché il corpo abitato dalla "coscienza" o l'"anima" è un corpo fatto di chacra (manipura - swdistana - - visuddha - ahina - sahasrara) e di colonne (susunna - ida e pingala, etc.) le cui corrispondenze non sono anatomiche e fisiologiche, anche se le relazioni tra i chacra e lo stato d'animo esistono, così come nel modello occidentale vi sono le corrispondenze tra le proiezioni del corpo nelle mappe cerebrali (ad es. si sa che l'emisfero destro domina il controllo sensitivo e motorio nell'emisoma sinistro e viceversa), e tra la funzionalità del cervello e delle ghiandole (vedi la psico neuro endocrino immunologia) e lo stato d'animo. Indifferentemente dal modo in cui uno si concepisce, certamente ognuno si identifica in un corpo fisico soggetto a sensazioni, istinti ed emozioni (queste a cavallo fra il fisico e lo psichico) e in una parte mentale (pensiero, immaginazione rievocativa o memoria di richiamo, immaginazione creativa, eventualmente intuizione per chi - come la psicontesi - la ammette). Per tutti però è evidente come ci sia la possibilità di interferire tra mente e cervello, e ciò attraverso la capacità di intendere (coscienza vigile) e di volere. È l'atto volitivo che ha la possibilità di trasformare interagendo durante la fasi di vigilanza. Gli stadi di sogno e di sonno sono stati in cui l'attività mentale è maggiormente proiettata sul versante somatico, ma agiscono al di fuori della interferenza diretta dell'atto volitivo, cioè dell'espressione dalla libertà scelta. L'attività volitiva ha la possibilità di esprimersi ed agire durante la fase di vigilanza (non sempre la fase veglia e di vigilanza coincidono), come ben specificato in "ogni idea contiene un impulso motore" o più estesamente nella I legge di psicodinamica. "Le immagini o figure mentali, e le idee tendono a produrre le condizioni fisiche e gli atti esterni ad esse corrispondenti". L'interferenza tra gli stati mentali e il corpo (indifferentemente dalla concezione occidentale in cui il corpo sviluppa il cervello come contenitore degli stati mentali, e quella orientale in cui la mente sceglie un determinato corpo come sua abitazione per cui la mente è il contenitore e il corpo è l'automa aggregato dalla mente) è possibile utilizzando molteplici tecniche. Dallo stato di vigilanza può partire l'interferenza con gli altri statipsicofisiologici: sogno, sonno e autocoscienza (o stato meditativo). L'atto volitivo ha la possibilità di direzionare una tendenza che poi si impregnerà a livello di substrato organico (divenendo "un automatismo inconscio" cioè un'abitudine): interferenza psicosomatica molto simile alla interazione che gli orientali applicano per agire sul "corpo sottile". 11 Mente e coscienza Dimentichiamo lo scetticismo, e assumiamo che il mondo fisico esiste, incluso il tuo corpo e il tuo cervello; e mettiamo da parte il nostro scetticismo sulle altre menti. Assumerò che tu sia cosciente se tu assumi che io lo sia. Ora, quale potrebbe essere la relazione tra coscienza e cervello? Chiunque sa che ciò che accade nella coscienza dipende da ciò che accade al corpo. Se batti il dito del piede ti fa male. Se chiudi gli occhi non puoi vedere cosa ti sta di fronte. Se addenti un pezzo di Droste senti il gusto del cioccolato. Se qualcuno ti colpisce in testa svieni. L'evidenza mostra che per ogni cosa che accade nella tua mente o coscienza, qualcosa deve accadere nel tuo cervello. (Non sentiresti alcun dolore per il colpo sul dito se i nervi della gamba e della spina dorsale non portassero gli impulsi dal dito al tuo cervello.) Non sappiamo cosa accade nel cervello quando pensi "Mi chiedo se questo pomeriggio avrò il tempo di farmi tagliare i capelli". Ma siamo abbastanza sicuri che succede qualcosa – qualcosa che implica mutamenti chimici e elettrici nei bilioni di cellule nervose di cui è fatto il tuo cervello. In certi casi sappiamo come il cervello influisce sulla mente e come la mente influisce sul cervello. Sappiamo, per esempio, che la stimolazione di certe cellule cerebrali vicine alla parte posteriore della testa produce esperienze visive. E sappiamo che quando decidi di prenderti un'altra fetta di dolce certe altre cellule cerebrali mandano impulsi ai muscoli nel tuo braccio. Non conosciamo la maggior parte dei dettagli, ma è chiaro che vi sono relazioni complesse tra quello che accade nella tua mente e i processi fisici che si verificano nel tuo cervello. Fin qui tutto ha a che fare con la scienza, non con la filosofia. Ma vi è anche una questione filosofica sulla relazione tra mente e corpo, e è la seguente: la tua mente è qualcosa di diverso dal tuo cervello, sebbene a esso connessa, oppure è il tuo cervello? I tuoi pensieri e sentimenti, le tue percezioni e sensazioni, e i tuoi voleri sono cose che accadono in aggiunta a tutti i processi fisici nel tuo cervello, o sono in se stessi parte di quei processi fisici? Cosa accade, per esempio, quando addenti un pezzo di cioccolato? Il cioccolato si scioglie sulla tua lingua e causa mutamenti chimici nelle tue papille gustative; le papille gustative inviano alcuni impulsi elettrici lungo i nervi che vanno dalla tua lingua al tuo cervello, e quando quegli impulsi raggiungono il cervello vi producono ulteriori mutamenti fisici; infine, tu senti il gusto del cioccolato. Che cos'è questo? Potrebbe essere solo un evento fisico in alcune cellule del tuo cervello, o deve trattarsi di qualcosa di completamente differente? Se uno scienziato ti togliesse la calotta cranica e guardasse nel tuo cervello mentre stai mangiando il pezzo di cioccolato, tutto quello che vedrebbe è una grigia massa di neuroni. Se usasse strumenti per misurare cosa sta accadendo all'interno, scoprirebbe complicati processi fisici di tipo molto differente. Ma troverebbe il gusto del cioccolato? È come se non potesse trovarlo nel tuo cervello perché la tua esperienza del gusto del cioccolato è chiusa nella tua mente in un modo che la rende inosservabile da parte di chiunque altro – anche se ti apre la calotta cranica e ti guarda dentro il cervello. Le tue esperienze sono dentro la tua mente con un tipo di internità che è differente dal modo in cui il tuo cervello è dentro la tua testa. Qualcun altro può aprire la tua testa e vedere cosa c'è dentro, ma non può aprire la tua mente e guardarci dentro – almeno, non nello stesso modo. Non è soltanto che il gusto del cioccolato è un sapore e quindi non si può vedere. Supponiamo che uno scienziato fosse abbastanza pazzo da cercare di osservare la tua esperienza del gusto del cioccolato leccando il tuo cervello mentre mangi un pezzo di cioccolato. Prima di tutto, il tuo cervello, probabilmente, non avrebbe per lui il gusto del cioccolato. Ma anche se ce l'avesse egli non riuscirebbe a entrare nella tua mente e osservare la tua esperienza di gustare il cioccolato. Scoprirebbe soltanto, e abbastanza ovviamente, che quando gusti del cioccolato il tuo cervello 12 cambia in modo da sapere di cioccolato per altre persone. Lui avrebbe il suo gusto di cioccolato e tu il tuo. Se quanto accade nella tua esperienza è dentro il tuo cervello in un modo in cui quel che accade nel tuo cervello non lo è, è come se la tua esperienza e altri stati mentali non potessero essere soltanto stati fisici del tuo cervello. Deve esservi di più in te che non il tuo corpo con il suo indaffarato sistema nervoso. Una possibile conclusione è che deve esservi un'anima, attaccata al tuo corpo in un certo modo, che consente loro di interagire. Se è vero, allora sei fatto di due cose del tutto differenti: un organismo fisico complesso e un'anima che è puramente mentale. (Questa visione è chiamata dualismo, per ovvie ragioni.) Ma molti pensano che quella nell'anima sia una credenza all'antica e priva di scientificità. Qualsiasi altra cosa nel mondo è fatta di materia fisica – differenti combinazioni degli stessi elementi chimici. Perché noi no? I nostri corpi si sviluppano attraverso un processo fisico complesso dalla singola cellula prodotta dall'unione di sperma e ovulo al momento del concepimento. La materia ordinaria si aggiunge gradualmente in modo che la cellula si trasforma in un bambino con braccia, gambe, occhi, orecchie e un cervello, capace di muoversi, sentire e vedere, e alla fine di parlare e pensare. Alcuni credono che questo sistema fisico complesso sia in se stesso sufficiente a dare origine a una vita mentale. Perché non dovrebbe essere così? In ogni modo, come può un semplice argomento filosofico mostrare che non è così? La filosofia non può dirci di cosa sono fatti stelle o diamanti, per cui come può dirci di cosa sono o non sono fatte le persone? La visione secondo cui le persone non sono fatte che di materia fisica, e i loro stati mentali sono stati fisici del loro cervello è chiamata fisicalismo (o talvolta materialismo). I fisicalisti non hanno una teoria specifica di quale processo nel cervello può essere identificato come l'esperienza del gusto del cioccolato, per esempio. Ma credono che gli stati mentali siano solo stati del cervello, e che non vi è alcuna ragione filosofica di pensare che non possano esserlo. I dettagli saranno scoperti attraverso la scienza. L'idea è che potremmo scoprire che le esperienze sono davvero processi cerebrali proprio come abbiamo scoperto che altre cose familiari hanno una natura reale che non avremmo potuto congetturare finché non è stata rivelata dalla ricerca scientifica. Per esempio, risulta che i diamanti sono composti di carbonio, lo stesso materiale di cui è fatto il carbone: gli atomi sono solo differentemente disposti. E l'acqua, come tutti sappiamo, è composta di idrogeno e ossigeno, anche se quei due elementi non sono affatto acqua quando presi in se stessi. Per cui, anche se potrebbe sembrare sorprendente che l'esperienza del gusto del cioccolato non possa essere altro che un complicato evento fisico nel tuo cervello, non sarebbe affatto più strano della quantità di cose che sono state scoperte sulla natura reale di oggetti e processi ordinari. Gli scienziati hanno scoperto che cos'è la luce, come crescono le piante, come si muovono i muscoli – è solo questione di tempo prima che scoprano la natura biologica della mente. Ecco quanto pensano i fisicalisti. Un dualista replicherebbe che quelle altre cose sono diverse. Quando scopriamo la composizione chimica dell'acqua, per esempio, abbiamo a che fare con qualcosa che è chiaramente là fuori nel mondo fisico – qualcosa che tutti possiamo vedere e toccare. Quando scopriamo che è fatta di atomi di idrogeno e ossigeno scomponiamo soltanto una sostanza fisica esterna in parti fisiche più piccole. È una caratteristica essenziale di questo tipo di analisi che non forniamo una scomposizione chimica del modo in cui l'acqua ci sembra, di come la sentiamo, del gusto che ha per noi. Queste cose avvengono nella nostra esperienza interna, non nell'acqua che abbiamo scomposto in atomi. L'analisi fisica o chimica dell'acqua le lascia da parte. Ma per scoprire che gustare del cioccolato era in effetti solo un processo cerebrale avremmo dovuto analizzare qualcosa di mentale – non una sostanza fisica esternamente osservabile, ma una sensazione gustativa interna – nei termini di parti che sono fisiche. E non c'è modo in cui un ampio numero di eventi fisici nel cervello, per quanto complessi, possano essere le parti di cui è composta 13 una sensazione gustativa. Un tutto fisico può essere analizzato in parti fisiche più piccole, ma un processo mentale no. Parti fisiche non possono proprio dare luogo a un tutto mentale. Vi è un'altra possibile visione che è differente sia dal dualismo sia dal fisicalismo. Il dualismo è la visione che tu sei fatto di un corpo più un'anima, e che la tua vita mentale avviene nella tua anima. Il fisicalismo è la visione che la tua vita mentale è fatta di processi fisici nel tuo cervello. Ma un'altra possibilità è che la tua vita mentale avvenga nel tuo cervello, e che tuttavia tutte quelle esperienze, quei sentimenti, pensieri e desideri non siano processi fisici nel tuo cervello. Questo vorrebbe dire che la materia grigia di bilioni di cellule nervose nella tua scatola cranica non è solo un oggetto fisico. Ha una quantità di proprietà fisiche – si verifica in essa una grande quantità di attività chimica e elettrica – ma vi avvengono anche processi mentali. La visione che il cervello è la sede della coscienza, ma che i suoi stati coscienti non sono solo stati fisici è chiamata teoria del doppio aspetto. La si chiama così perché essa implica che quando addenti un pezzo di cioccolato questo produce nel tuo cervello uno stato o processo con due aspetti: un aspetto fisico che coinvolge vari mutamenti chimici e elettrici, e un aspetto mentale – l'esperienza del sapore del cioccolato. Quando si verifica questo processo uno scienziato che guardi nel tuo cervello sarà in grado di osservare l'aspetto fisico, ma sarai tu stesso, dall'interno, a sperimentare l'aspetto mentale: avrai la sensazione di gustare del cioccolato. Se fosse vero, il tuo stesso cervello avrebbe un interno che non potrebbe essere percepito da un osservatore esterno anche se lo apre in due. Ti darebbe una certa sensazione o gusto il fatto che quel processo si verifichi nel tuo cervello. Potremmo esprimere questa visione dicendo che tu non sei un corpo più un'anima – che sei solo un corpo, ma il tuo corpo, o almeno il tuo cervello, non è solo un sistema fisico. È un oggetto con aspetti fisici e mentali: può essere sezionato, ma ha anche il tipo di interiorità che non può essere svelata tramite dissezione. C'è qualcosa come gustare cioccolato dall'interno perché c'è qualcosa come avere dall'interno il tuo cervello nella condizione che è prodotta quando mangi un pezzo di cioccolato. I fisicalisti credono che nulla esiste se non il mondo fisico che può essere studiato dalla scienza: il mondo della realtà oggettiva. Ma allora devono trovare posto in qualche modo per sentimenti, desideri, pensieri e esperienze – per te e per me – in un mondo del genere. Una teoria proposta in difesa del fisicalismo è che la natura mentale dei tuoi stati mentali consiste nelle loro relazioni con cose che li causano e cose che essi causano. Per esempio, quando ti fai male al dito e senti dolore, il dolore è qualcosa che si verifica nel tuo cervello. Ma la sua dolorosità non è solo la somma delle sue caratteristiche fisiche, e non è neppure qualche misteriosa proprietà non fisica. Piuttosto quello che ne fa un dolore è che si tratta del tipo di stato del tuo cervello di solito provocato da una lesione, e che di solito ti fa urlare e zoppicare e evitare ciò che ha causato la lesione. E questo potrebbe essere uno stato puramente fisico del tuo cervello. Ma ciò non sembra sufficiente per fare di qualcosa un dolore. È vero che i dolori sono causati da una lesione, e ti fanno urlare e zoppicare. Ma si sentono anche in un certo modo, e questo sembra essere qualcosa di diverso da tutte le loro relazioni con cause e effetti, come da tutte le proprietà fisiche che possono avere – se sono di fatto eventi nel tuo cervello. Per quanto mi riguarda, credo che questo aspetto interno del dolore e di altre esperienze coscienti non possa essere adeguatamente analizzato nei termini di qualche sistema di relazioni causali con stimoli fisici e comportamento, per quanto complesso. Sembrano esservi due tipi di cose del tutto differenti che avvengono nel mondo: le cose che appartengono alla realtà fisica, che molte persone differenti possono osservare dall'esterno, e quelle altre cose che appartengono alla realtà mentale, che ciascuno di noi sperimenta dall'interno nel suo caso. Questo non vale solo per esseri umani: cani, gatti, cavalli e uccelli sembrano essere coscienti, e anche pesci, formiche e scarabei probabilmente lo sono. Chi sa dove ci si ferma? Non avremo una concezione generale adeguata del mondo finché non potremo spiegare come, quando una quantità di elementi fisici sono messi insieme nel modo giusto, formano non solo un organismo biologico funzionante, ma un essere cosciente. Se la coscienza stessa potesse essere 14 identificata con un certo tipo di stato fisico, si aprirebbe la strada per una teoria fisica unificata di mente e corpo, e quindi, forse, per una teoria fisica unificata dell'universo. Ma le ragioni contro una teoria puramente fisica della coscienza sono abbastanza forti da fare apparire probabile che una teoria fisica di tutta la realtà è impossibile. La scienza fisica ha progredito lasciando la mente fuori da quanto cerca di spiegare, ma può esservi di più nel mondo di quanto la scienza fisica possa comprendere. Lo studio della nostra coscienza e dei segreti riguardanti il funzionamento del nostro cervello costituisce probabilmente, a causa della sua importanza fondamentale, l’ultima frontiera della scienza e, insieme allo studio dei fenomeni caotici e complessi rappresenta il settore più vitale e ricco di prospettive della scienza odierna. I filosofi hanno per secoli considerato la mente umana e tutte le sue più importanti caratteristiche (per esempio l’intelligenza e l’autocoscienza) come un loro campo d’indagine esclusivo ed hanno elaborato varie teorie su questo tema affascinante, che vanno dal più rigido materialismo e meccanicismo all’esaltazione dello spirito e della sua libertà nei confronti della materia. La scienza sembra ora voler togliere alla filosofia persino quest’ultimo terreno di caccia, anche se comprendere la coscienza e più in generale i vari meccanismi mentali è forse l’obiettivo più ambizioso che la scienza si sia mai posto. Varie linee di ricerca, condotte con metodi differenti, si sono sviluppate negli ultimi anni, dal riduzionismo biologico di Crick e dal darwinismo neurale di Edelman alla coscienza quantistica di Penrose, Popper ed Eccles ed all’intelligenza artificiale di Minsky. Molti filosofi hanno cercato in qualche modo di correre ai ripari ed hanno elaborato una serie di argomentazioni allo scopo di dimostrare che esistono ancora buoni motivi, per ora non confutati, in base ai quali la mente rimarrà per sempre un mistero. Sicuramente l’aspetto della mente umana che da sempre più ha colpito i filosofi è stato la coscienza che abbiamo di noi stessi, cioè la sensazione soggettiva di esistere. Si tenga presente, infatti, che mentre l’intelligenza è in qualche modo osservabile in alcuni mammiferi, l’autocoscienza sembra essere una prerogativa solamente dell’uomo. Noi siamo consapevoli di esistere, abbiamo una coscienza con la quale possiamo elaborare pensieri anche astratti e con la quale possiamo riflettere sul fatto che possiamo elaborare pensieri. Per molti anni in campo psicologico la scienza è stata condizionata dal comportamentismo di B. F. Skinner, secondo il quale le uniche entità oggettive, osservabili e sperimentabili erano i nostri comportamenti e la coscienza, con il suo significato implicito di soggettività, non era osservabile e quindi non esisteva. La coscienza non può essere definita ed essendo un falso problema non deve neanche essere presa in considerazione. Il comportamentismo è stato ormai abbandonato dalla quasi totalità degli scienziati e così la coscienza ha riguadagnato il suo ruolo centrale e fondamentale per la comprensione del comportamento umano. Sono quattro i principali filoni di ricerca che vengono attualmente esplorati: l’approccio biologico fondato sui neuroni di Crick e Edelmann, la possibilità di avere effetti quantistici determinanti per il funzionamento della coscienza come sostenuto da Penrose e Eccles, il tentativo dei sostenitori dell’intelligenza artificiale di ricondurre la coscienza ad una sorta di fenomeno collettivo emergente dall’interazione di numerosi programmi (software) che girano sulla materia (hardware) costituita dalle cellule del cervello ed infine i modelli basati sulle reti neurali e sulla metafora del cervello come calcolatore analogico. La tesi biologica, che vede nei Premi Nobel Crick e Edelman i loro maggiori sostenitori, sostiene che per capire il funzionamento della mente non si può fare a meno di riferirsi alle caratteristiche chimico-fisiche delle cellule del cervello (neuroni), perché il pensiero deve essere inteso come una proprietà emergente dall’interazione dei neuroni. Nel caso di Crick questa posizione sfocia in una sorta di materialismo biologico, che respinge ogni visione spiritualistica e nega la possibilità del libero arbitrio. Ogni decisione che noi prendiamo, apparentemente in maniera autonoma, non è affatto libera, perché è strettamente determinata dall’interazione dei neuroni ed avrebbe potuto, almeno in linea di principio, essere prevista da un modello matematico abbastanza accurato della 15 nostra mente. D’altra parte l’elaborazione di un modello neurale sul funzionamento del cervello potrebbe produrre delle teorie talmente complicate e complesse da risultare praticamente incomprensibile. Potrebbero inoltre entrare in gioco dei comportamenti caotici di questi modelli, tali da far perdere un potere predittivo a lungo termine al modello stesso. Nel caso di Edelman la posizione è più sfumata e complessa, perché sembra far intravedere la necessità di introdurre concetti e modelli di livello superiore non strettamente riconducibili al riduzionismo esasperato delle sole interazioni neurali. Gli studi biologici sul funzionamento del cervello stanno permettendo di costruire mappe sempre più accurate del cervello e stanno correlando ogni zona del cervello con determinate proprietà della nostra mente (attenzione, linguaggio, memoria, ecc.). Tutte queste ricerche potranno sicuramente migliorare la cura di certe malattie mentali, ma esiste il rischio di farne nascere molte altre. Si pensi per esempio al fatto che, una volta individuata la struttura e la posizione del nostro centro del piacere, potrei mandare degli adeguati stimoli elettrici a quei neuroni e stare tutto il giorno in una sorta di paradiso a sentire un grande ed immenso piacere “virtuale”! I sostenitori dell’intelligenza artificiale, come Minsky e Moravec, partendo dagli studi pionieristici di Turing, sostengono una tesi che potremmo definire funzionalista, in base alla quale l’essenza della mente è di essere un superprogramma, molto complesso, ma comunque riproducibile da un computer abbastanza potente, che probabilmente potrà essere costruito in un prossimo futuro. Il punto centrale della loro argomentazione è che, essendo il software completamente indipendente dall’hardware, perché i programmi possono essere eseguiti da un qualunque computer, allora questo implica che è del tutto inessenziale il fatto che la nostra mente sia costituito da cellule. Alcuni studiosi sono arrivati a prevedere la possibilità di poter scaricare il programma corrispondente alla mente di una certa persona su un supercomputer, che diventerebbe in tutto e per tutto quella persona e sarebbe da essa indistinguibile. Una delle obiezioni maggiori a queste tesi è data dal teorema di Godel, secondo il quale qualunque sistema logico-deduttivo, come un computer, che manipola simboli di cui ignora il significato, giunge a costruire delle proposizioni per le quali non riesce a decidere se sono vere o false. Al contrario un uomo sarebbe immediatamente in grado di riconoscere la verità o falsità di queste proposizioni, basandosi sulla dimensione semantica e non sintattica dei simboli, cioè sul loro reale significato. Di solito i sostenitori dell’intelligenza artificiale hanno cercato di superare questo problema asserendo che è sempre possibile per il computer assumere quella proposizione come un nuovo assioma del suo sistema logico. Recentemente hanno acquistato una certa importanza i modelli di reti neurali che non postulano la presenza della non linearità direttamente al livello fisiologico del singolo neurone, ma introducono invece l’ipotesi che la non linearità nasca dai parametri che esprimono l’intensità dei collegamenti fra i singoli neuroni e che sono variabili con continuità. Si passa così da un modello digitale della mente ad un modello analogico, che sembra essere per certi versi più potente e flessibile. La mente inoltre non deve essere considerata un sistema chiuso in cui l’unico effetto dell’ambiente esterno sia la modifica di determinati parametri. Per tenere conto che ambiente e mente possono modificare continuamente la loro linea di demarcazione, sono stati introdotti dei modelli a frontiera mobile in cui le condizioni al contorno non sono rigidamente fissate. Si scopre allora che emergono dei comportamenti collettivi che possono essere messi in corrispondenza con determinate funzioni mentali (apprendimento, attribuzione di significato, percezione, ecc.). Un altro filone di ricerca riguarda la possibilità, che gode di un certo seguito soprattutto fra alcuni fisici, dell’esistenza di un collegamento fra il funzionamento del cervello e le caratteristiche più misteriose della meccanica quantistica. Fin dagli Anni Trenta sono state avanzate delle ipotesi sul collegamento fra la spiritualità ed il meccanismo della misura quantistica, e studiosi come Penrose, Eccles e Popper hanno perfezionato queste idee. Penrose sostiene che il funzionamento della coscienza non può per il momento essere pienamente compreso, perché le nostre attuali conoscenze scientifiche sono inadeguate per comprendere la mente. Solamente quando disporremo di una nuova teoria, che risolva le incompatibilità oggi 16 presenti fra meccanica quantistica e teoria della relatività, si potrà realizzare qualche significativo progresso. Penrose sembra comunque escludere una visione spiritualistica della coscienza e per questo aspetto si trova d’accordo con i modelli biologici ed informatici del cervello. Al contrario, Eccles e Popper hanno proposto una teoria che cerca di dimostrare la presenza dello spirito nel nostro corpo, ritenendolo responsabile di quel libero arbitrio, negato da tutte le teorie materialistiche, che ci permette di prendere autonomamente delle decisioni, e quindi, in termini biologici, di far accendere i neuroni responsabili del pensiero che corrisponde a quella decisione. I filosofi hanno risposto in modo assai variegato a questi tentativi scientifici di spiegare il funzionamento della mente. Si trovano sia posizioni di esaltazione delle tesi più estremiste dell’intelligenza artificiale sia argomentazioni volte a dimostrare l’impossibilità per la scienza di riuscire a capire che cosa sia la soggettività e quindi l’autocoscienza. Una critica molto articolata all’intelligenza artificiale che nega decisamente la possibilità per un computer di raggiungere il pensiero umano è stata condotta da Agazzi, anche se è più nota nel mondo anglosassone quella, per alcuni aspetti simile, di Searle, sulla base della distinzione fra la capacità di manipolare simboli, comune all’uomo ed al computer, e la capacità di afferrare il significato di questi simboli, cioè di capire quale realtà esterna corrisponde al simbolo, che sarebbe una caratteristica esclusiva dell’uomo. Da tutte queste ricerche sulla nostra mente, sembra emergere che la scienza si trovi di fronte a un problema insormontabile, perlomeno se continua ad utilizzare i suoi metodi tradizionali: capire come nasce e come funziona l’autocoscienza, cioè come si può realizzare un modello oggettivo della soggettività, sembra ancora al di fuori della portata della scienza contemporanea. La coscienza è il più grande dei misteri. È forse uno dei problemi più difficili al quale la scienza deve ancora dare una risposta. Le scienze fisiche sono ben comprese, e le scienze biologiche hanno rimosso molti degli antichi misteri che circondavano la natura della vita. Molti progressi sono stati compiuti anche nella scienza della mente. Gli studi recenti nell'ambito della scienza cognitiva e delle neuroscienze ci hanno portato ad una migliore comprensione del comportamento umano e dei processi sottostanti che lo guidano. Certo non conosciamo nei dettagli la cognizione umana ma le ricerche fanno prevedere che nuovi risultati non siano così lontani. La coscienza, tuttavia, sembra sfuggire alle leggi fisiche, chimiche e biologiche; è qualcosa di straordinariamente familiare e indiscutibile, ma, nello stesso tempo, diviene misteriosa non appena la pensiamo sullo sfondo dell'immagine fisica del mondo. La nostra esperienza cosciente è costituita da innumerevoli stati qualitativi, ovvero colori, odori, sapori, dolori, sensazioni tattili, cinestetiche, propriocettive; e ancora piaceri, emozioni, stati d'animo ecc. Tutte queste sensazioni sono profondamente reali e indubitabili e contornano la nostra vita soggettiva. Eppure non è chiaro in che rapporto la coscienza sia con la realtà che ci circonda; la realtà scoperta e illustrata dalle leggi fisiche. Negli ultimi anni è stato scritto molto sulla coscienza e questo potrebbe far pensare che stiamo facendo dei progressi. Tuttavia, la gran parte dei lavori non tocca i problemi più spinosi relativi alla coscienza. Essi si occupano spesso di quelli che potrebbero essere chiamati i problemi semplici della coscienza. Si rimane quindi con la sensazione che il problema centrale resti enigmatico come d'altronde è sempre stato. Questo enigma, come sostiene Chalmers non deve essere fonte di scoraggiamento; esso piuttosto fa del problema della coscienza una delle più eccitanti sfide intellettuali del nostro tempo. La coscienza, come sostengono alcuni studiosi, con molta probabilità scaturisce dal cervello ed è per questo motivo che filosofi e studiosi di discipline con scarse conoscenze sul funzionamento del sistema nervoso dovrebbero prendere in seria considerazione lo studio della neuroanatomia. In effetti, come ha sostenuto Eccles: Troppa poca considerazione è stata dedicata in passato al meccanismo neuronale implicato nelle varie manifestazioni della mente auto-cosciente. I filosofi che presentano teorie fisicaliste del problema cervello-mente, come la teoria dell'identità di Feigl o la teoria dello stato centrale di 17 Armstrong, dovrebbero costruire le loro filosofie sulla comprensione scientifica più accreditata del cervello loro disponibile. Sfortunatamente essi si accontentano di informazioni sommarie o antiquate che spesso li inducono ad abbracciare idee erronee. C'è una tendenza generale a sopravvalutare la conoscenza scientifica del cervello, che riguarda, deplorevolmente, anche molti studiosi del cervello e scrittori scientifici. Tuttavia, anche la filosofia è di estrema importanza per la comprensione della coscienza, dunque allo stesso modo i neuroscienziati dovrebbero considerare, per i loro studi sulla coscienza, le tematiche filosofiche della mente. È proprio in questa visione dei fatti che dobbiamo, esaminare la coscienza. È grazie a studiosi di discipline diverse, che vanno dalla neurofisiologia, alla psichiatria, dalla neuropsicologia alla filosofia, che si potrà arrivare ad una conoscenza più approfondita della coscienza. Una rappresentazione è una configurazione che sostituisce la realtà fornendo alcune informazioni su di essa e tralasciandone altre. Le rappresentazioni aiutano il pensiero umano, facilitano il ragionamento e guidano il comportamento. Si possono distinguere in rappresentazioni esterne, che sono usate nella vita di tutti i giorni, e rappresentazioni interne, che sono le rappresentazioni del mondo che abbiamo nella nostra mente. Le rappresentazioni esterne, a loro volta, si suddividono in pittoriche e proposizionali. Le rappresentazioni pittoriche, come i disegni, le mappe e i diagrammi sono analogiche, cioè mantengono la struttura percettiva del mondo rappresentato. In altre parole, in esse sono mantenute le relazioni topologiche tra i vari elementi che le compongono. Le rappresentazioni proposizionali, invece non sono analogiche, perché la relazione tra il segno e l'oggetto cui esso si riferisce è arbitraria. Il caso tipico è il linguaggio, in cui non c'è alcuna ragione intrinseca che leghi un oggetto al nome che gli diamo, ma è solo frutto di una convenzione. Le rappresentazioni linguistiche hanno una struttura grammaticale. In pratica possiedono non solo classi differenti di simboli, ma anche regole per combinarli tra loro. Infine si può dire che l'informazione contenuta nelle rappresentazioni linguistiche non ha necessariamente relazione con il canale percettivo attraverso cui è veicolata. La distinzione fatta per le rappresentazioni esterne è applicabile anche alle rappresentazioni interne o mentali. Le rappresentazioni mentali analogiche hanno la struttura d'immagini e possono essere di tipo visivo, uditivo, olfatttivo o tattile. Paivio (1971) propone la teoria della doppia codifica, il cui punto centrale è che esistano due distinti sistemi per la rappresentazione e l'elaborazione delle informazioni. Esisterebbero, secondo Paivio, un sistema è verbale, che tratta le informazioni linguistiche e le cui unità rappresentazionali di base sono i logogeni, e un sistema deputato all'elaborazione delle informazioni non verbali, le cui unità rappresentazionali sono gli immageni. Ogni sistema è ulteriormente suddiviso in sottosistemi e i due sistemi simbolici comunicano tra loro attraverso relazioni tra immageni e logogeni. Questa teoria e i relativi risultati sperimentali concorderebbero con l'ipotesi che rappresentazioni analogiche e proposizionali siano sostanzialmente separate e differenti, anche se interdipendenti. Le immagini mentali visive sarebbero, secondo questa posizione, rappresentazioni simili a fotografie e come tali ruotabili ed esplorabili. Alcune ricerche, condotte allo scopo di esplicitare quale fosse la natura delle immagini mentali, confermano queste ipotesi: gli esperimenti sulle rotazioni mentali degli oggetti immaginati dimostrano che, almeno quando non sono troppo complessi, essi hanno le caratteristiche degli oggetti reali. Inoltre le immagini mentali possono essere esplorate come se il soggetto percorresse con la mente una mappa (Eysenck, 1990). Le rappresentazioni mentali proposizionali sono più simili al linguaggio, il che non significa che si tratti di parole, ma solo che ci permettono di esprimere concetti astratti. Esse costituiscono una specie di linguaggio universale, che non è collegato a nessuna lingua in particolare e a nessuna modalità percettiva. Solitamente la natura di queste rappresentazioni è specificata nei termini del 18 “calcolo di predicati”, dove gli oggetti sono gli “argomenti” e le relazioni tra essi sono i “predicati”. Ogni volta che un predicato è collegato a degli argomenti si ha una “proposizione”. Alcuni autori non concordano con l'attribuire alle immagini mentali uno status proprio. Ad esempio, Pylyshyn (1973) le considera epifenomeni e ipotizza l'esistenza di una sola forma di rappresentazione mentale, quella proposizionale. In altri termini, secondo questo ed altri autori, l'immagine sarebbe costruita a partire dalla sua sottostante rappresentazione proposizionale. Un'idea è una rappresentazione mentale che generalmente ha un contenuto ben definito. Ogni idea ha almeno un protagonista (la cosa su cui l'idea stessa si è formata) e tutte le informazioni relative ad essa che abbiamo acquisito con la nostra esperienza personale o che ci sono state fornite da altri (genitori, educatori, ecc.). Potremmo pensare ad una idea come ad un nucleo centrale formato da una parola che richiama il soggetto dell'idea e tanti fili che collegano questo nucleo con tutte le parole con cui il soggetto è stato associato nel corso della nostra vita. Per semplificare proviamo a pensare all'idea di una mucca; la mucca è il nucleo centrale ma da esso partono decine di fili che arrivano ad altre parole del tipo: latte, vitello, corna, contadino, stalla, ecc, che ci danno tutta una serie di informazioni senza le quali l'idea della mucca non potrebbe esistere. Il numero di informazioni presenti in una idea è assai importante perché è da esse che la mente cosciente trae gli elementi per decidere e giudicare mentre la mente istintiva (sub/conscia) prende il necessario per provvedere alla sopravvivenza. Se ci capita di vedere qualcosa di familiare la memoria ci presenta tutte le informazioni che abbiamo memorizzato al suo riguardo. Possiamo ritenere che l'informazione più importante contenuta in una idea sia il grado in cui quella cosa si presenta attraente o repulsiva. In altre parole la valutazione del suo contenuto in termini di piacere o di dolore. Nell'animale questo è l'unico elemento di giudizio mentre nell'uomo la valutazione viene opportunamente filtrata usando le informazioni presenti in altre idee con contenuto etico, religioso o morale. L'intenzione di un piano di studio è quella di arricchire la mente degli studenti di idee con un contenuto teorico e di altre idee con un contenuto pratico per fare in modo che gli stessi sappiano come agire per affrontare le problematiche inerenti ai materiali studiati. È molto importante avere ben chiare le leggi con cui la mente memorizza delle nuove idee e come essa sia in grado di fare delle associazioni tra le medesime e le altre idee che sono state memorizzate in precedenza. Una nuova idea che viene associata ad una già presente nella nostra mente ha molte più probabilità di essere ricordata che non una idea i cui contenuti sono completamente nuovi ed originali. La stessa cosa accade per quanto riguarda l'accettazione di nuove idee. Più l'idea è insolita e meno probabilità vi sono che essa formi delle associazioni nella mente dell'ascoltatore; questo potrebbe spiegare la grande difficoltà che viene incontrata da chi presenta delle idee innovatrici. Si pensi a galileo ed alle persecuzioni da lui subite per il fatto che il sole come punto centrale del sistema solare non trovava nessuna associazione con le idee presenti nella mente dei componenti il tribunale religioso eretto a giudicare le sue asserzioni. In definitiva possiamo assumere che un'idea è tanto più facilmente assimilata e memorizzata quanto più: 1. il suo contenuto trova qualche similitudine con quello di altre idee già presenti in noi, 2. vi è in essa una forte carica di piacere o dolore, 3. il suo contenuto desta il nostro interesse o la nostra curiosità, 4. la stessa idea viene ripetuta molte volte fintanto che rimane impressa fortemente. Jarry Fodor, filosofo della mente e psicologo influenzato dalle idee di Chomsky, internista, nell’opera Psychological Explanation (Random House, New York 1968) si inserisce nella svolta psicologista della prospettiva analitica, contestando le teorie a base linguistica della Oxford19 Cambridge Philosophy o di filosofie ad essa riconducibili (Moore, il secondo Wittgenstein, Wright, Austin, Ryle, Ayer, etc…). Fodor ritiene che l’atteggiamento proposizionale implichi pur sempre l’esistenza di una rappresentazione interna, che precede l’espressione linguistica. Per essere più chiari, Fodor ripristina la psicologia e la filosofia della mente tradizionali, nel momento in cui parla di un linguaggio del pensiero, cioè un codice mentale prelinguistico di carattere solipsistico e privato distinto dal linguaggio standard. Fodor s’interroga sull’origine e il senso degli stati mentali, e trova questa risposta: gli stati mentali sono “relazioni tra gli organismi e le rappresentazioni interne, e stati mentali casualmente intercorrelati si succedono gli uni agli altri in accordo con i principi computazionali che valgono formalmente per le rappresentazioni”. Ne La mente modulare (1983; trad. it. Il Mulino, Bologna 1988) Fodor accentua ulteriormente i termini del rapporto analogico mente/computer; la struttura della mente va descritta in termini rappresentazionali, sulla base del modello input-output. Come il computer, la mente umana elabora simboli e significati, che agiscono al livello delle rappresentazioni. Queste teorie sono state ribadite nel suo lavoro più importante, Psicosemantica (1987; trad.it. Il Mulino, Bologna 1990) che si occupa del significato all’interno della filosofia della mente, e ricava da questo tema una riflessione sulla necessità di una teorica scientifica dell’intenzionalità, fondamento di ogni atto mentale (credenze, desideri, etc…). 20 Mente e realtà Il problema della riducibilità o non riducibilità dei qualia a qualcosa di ontologicamente o scientificamente prioritario è un problema che riguarda non solo la filosofia della mente. A tale problema si collega la questione della plausibilità e sostenibilità della distinzione fra qualità primarie e qualità secondarie, insieme alla possibilità di operare una demarcazione fra proprietà essenziali e proprietà inessenziali. Sul piano più generale della teoria della conoscenza, il problema dei qualia può essere convertito nel problema di definire il ruolo giocato dall’esperienza nel processo conoscitivo. Fino a prova contraria, infatti, il concetto di esperienza difficilmente risulta separabile da un elemento intrinsecamente qualitativo e contenutistico. Se sul piano etico lo schema della psicologia intenzionale sembra essere per molti una struttura concettuale necessaria al fine di rendere conto della nostra attività normativa e valutativa, la polemica riduzionismo-antiriduzionismo in materia di stati qualitativi sembra inoltre riflettere, su un piano ancora più generale, quella che Sellars etichettava come il rompicapo che ha origine dal contrasto fra immagine manifesta e immagine scientifica. La controversa questione dell’aspetto qualitativo del mentale, e il contrasto fra quella che Chalmers chiama la distinzione fra mente fenomenica e mente psicologica o cognitiva ha delle radici nella tradizione filosofica. Una di queste, fra l’altro del tutto e del tutto a torto trascurata, è rintracciabile nella polemica fra Husserl e Schlick intorno al concetto di intuizione e nella distinzione fra contenuto (l’aspetto qualitativo, secondario, esperenziale) e forma (l’aspetto quantitativo, primario, concettuale). Quello che nella filosofia della mente è il problema dei qualia, in questo pezzo di tradizione filosofica è il problema dell’intuizione, o del contenuto intuitivo. Due sono gli aspetti che ritengo a questo proposito rilevanti: a) mostrare l’esistenza di legami sostanziali fra la polemica Husserl - Schlick sul concetto di intuizione da un lato e la polemica riduzionisti - anti-riduzionisti nella filosofia della mente dall’altro; b) mostrare l’utilità di alcune nozioni tecniche di matrice fenomenologica al fine di superare la rigida separazione fra i sostenitori dell’assoluta irriducibilità dell’elemento qualitativo e coloro che, pur non negando l’esistenza di tale elemento, asseriscono la sua necessaria riducibilità a qualcosa di altro. Nella aspra polemica fra Husserl e Schlick rispetto alla nozione di intuizione e al come utilizzare tale nozione in un concreto atteggiamento scientifico-conoscitivo, due sono le principali questioni teoriche emergenti: 1) La prima concerne il valore conoscitivo che siamo disposti a attribuire al contenuto intuitivo o, nel caso della filosofia della mente, all’esistenza di qualia. Strettamente connessa a tale questione vi è quella della possibilità di articolare e analizzare con strumenti filosofici appropriati il concetto di contenuto intuitivo, oppure di concepire tale concetto inarticolato, inesprimibile e del tutto ineffabile (anche se esistenzialmente essenziale). La domanda centrale in questo caso è: possiamo lavorare ulteriormente sulla nozione di qualia oppure dobbiamo reputare tale nozione primitiva e indefinibile? 2) Il secondo tipo di questione riguarda lo statuto ontologico dei qualia. E’ in questo contesto che assume un senso parlare di riduzione, o addirittura di eliminazione, degli stati mentali qualitativi a favore di altre entità (fisico-neuronali o funzionali). In questo caso una domanda fondamentale sembra essere : qual è la relazione ontologica fra stati mentali e stati cerebrali? Sembrerebbe che mentre rispetto a quella che abbiamo definito la questione conoscitiva, le considerazioni fatte da Husserl e da Schlick contribuiscano molto a chiarire e anche ad approfondire i problemi di cui si occupa la filosofia della mente, rispetto a quella che abbiamo definito questione ontologica quelle stesse considerazioni abbiano poco da dire. La mia idea è che, al contrario, alcuni centrali concetti fenomenologici possano essere indirettamente utilizzati anche rispetto a questo 21 secondo problema, al fine di formulare quello che può essere definito una sorta di fisicalismo minimale. Esiste una prima questione, quella concernente cioè il valore conoscitivo attribuibile al contenuto intuitivo e la possibilità di articolare maggiormente, dal punto di vista filosofico, tale nozione. E’ ora mia intenzione rivolgermi alla seconda questione, quella concernente l’irriducibilità o, rispettivamente, riducibilità ontologica dei qualia. E’ importante che le due questioni, e le relative risposte, siano tenute ben distinte. Questo sembra essere, del resto, il senso della obiezione che un riduzionista come Churchland rivolge alla posizione anti-riduzionista espressa da Searle, Nagel e Jackson. Com’è noto, Churchland ritiene che questa posizione, nel compiere l’errore di derivare la natura di ciò che è conosciuto dal modo in cui è conosciuto, sia soggetta a una fallacia intensionalista. In generale, il modo in cui qualcosa è conosciuto e descritto non corrisponde infatti a una proprietà di quel qualcosa. Io credo che l’obiezione di Churchland sia nella sostanza corretta: in realtà quello che viene generalmente etichettato come l’argomento della conoscenza confonde quei due piani che ho fin dall’inizio tenuti distinti: il piano della rilevanza conoscitiva e quello dello statuto ontologico dei qualia. Mi sembra tuttavia che, sebbene la parte negativa dell’argomento utilizzato contro l’antiriduzionismo sia sostanzialmente corretta, altrettanto non si possa dire della parte costruttiva. L’argomento dei riduzionisti sembra infatti cadere a sua volta in una fallacia che denominerei, parafrasando lo stesso Churchland, fallacia estensionalista. Questo tipo di fallacia, che sembra fra l’altro coinvolgere ogni forma di riduzionismo in relazione al rapporto mente-corpo, può così essere espressa: le modalità o gli atteggiamenti conoscitivi sono di fatto molteplici e tuttavia il livello ontologico, il livello di ciò che esiste effettivamente e delle proprietà di ciò che esiste effettivamente, è in realtà un unico livello: quello dei processi cerebrali o neurologici i quali determinano, come loro epifenomeno, stati mentali qualitativi. Chi ci garantisce, tuttavia, che modalità alternative di riferimento non comportino una pluralità degli oggetti cui ci si riferisce? E se è vero che abbiamo più modalità di riferimento, perché privilegiarne una a scapito delle altre? Su questo punto esiste a dire il vero una risposta del materialista: il fatto che più modalità conoscitive convergano su un punto prestabilito (teoria dell’identità) è un’ipotesi empirica e come tale può essere confermata o smentita solo sperimentalmente. In questa prospettiva, in assenza di una attuale conferma empirica, ciò che al materialista rimane è la fiducia nei futuri risultati del progresso scientifico riguardo alla possibilità di scoprire una piena identificazione fra funzioni cerebrali e fenomeni mentali. A me sembra che l’argomento basato sulla fiducia nella possibilità della scienza cada in quella che Husserl soleva denominare fallacia naturalistica o pregiudizio dei dati di fatto. Uno dei principi cardine della fenomenologia è infatti che qualsiasi oggetto, e in primo luogo l’oggetto della ricerca scientifica, è frutto dell’opera di costituzione di una soggettività. Tutte le teorie naturalistiche (e in particolare la naturalizzazione della coscienza) cadono, per Husserl, in una sorta di ragionamento circolare: esse presuppongono infatti come valida la scienza naturale nello stesso momento in cui si interrogano sulla sua possibile validità. E nel fare questo tali teorie cadono inevitabilmente nel dogmatismo. La mia idea è che i confini di una sorta di fisicalismo minimale e soprattutto il supporto argomentativo a tale fisicalismo possano essere tracciati se concepiamo la relazione stati mentalistati cerebrali alla luce della teoria dell’intero e delle parti di Husserl. In questa prospettiva mente e corpo possono essere concepiti come parti di un intero fra loro connesse da un rapporto di fondazione, fondazione che in questo specifico caso deve essere interpretata come unilaterale o asimmetrica e non come bilaterale o simmetrica (quella che si verifica, per esempio, nel noto caso del colore e dell’estensione). Tutti gli stati mentali si fondano su stati cerebrali, ma non vale il viceversa, si pensi agli stati cerebrali che regolano le funzioni vegetative e del metabolismo. 22 La tesi della sopravvenienza mereologica che ne deriva è compatibile sia con l’emergentismo sia con la tesi della realizzazione fisica, stando alla quale ogni proprietà mentale ha una base fisica che ne garantisce l’esemplificazione e senza la quale non può di fatto realizzarsi. Ciò facendo questa tesi sembra cogliere una sorta di condizione minimale che tutte le posizioni fondamentalmente fisicaliste relative alla natura del mentale devono condividere. La tesi della sopravvenienza mereologica sembra in grado di superare la fallacia naturalistica o estensionalista: non si tratta infatti di operare una sorta di riduzione bensì solo di stabilire relazioni di dipendenza, o di fondazione che non privilegiano una componente, o una direzione di ricerca, a scapito dell’altra. Il concetto di sopravvenienza non costituisce infine una teoria esplicativa. Ciò che tale concetto si limita a rilevare è un modello di co-variazione fra proprietà mentali e proprietà fisiche che ha tuttavia un carattere di necessità: se esiste qualcosa che ha le caratteristiche del mentale, questo qualcosa deve sopravvenire mereologicamente su uno stato fisico. La sopravvenienza non si pronuncia sulla natura metafisica di tale relazione di dipendenza. Ciò trova una conferma nell’idea husserliana che non esiste, oltre al legame di fondazione fra le parti, un autonomo momento di unità suscettibile di essere estrapolato e indagato rispetto al concreto di cui costituisce, appunto, l’unificazione. Ancora di più: la fenomenologia husserliana sembra sancire chiaramente l’impossibilità di indagare una relazione “metafisicamente profonda” che vada oltre i rapporti di fondazione fra le parti nonindipendenti. Il riferimento a entità ontologiche sottostanti e prioritarie è in questa prospettiva del tutto bandito. Se vale la nostra applicazione della teoria dell’intero e delle parti alla relazione mente-corpo, anche in questo caso sembrerebbe preclusa la possibilità di individuare una spiegazione metafisica della sopravvenienza mereologica del mentale sul fisico. Tutto ciò che una teoria fisicalista non metafisica può sancire e indagare sono i necessari rapporti di fondazione unilaterale che sussistono fra quelle particolari parti non-indipendenti di un concreto che denominiamo stati mentali e stati cerebrali. Una distinzione va fatta al fine di produrre chiarezza su due livelli organizzativi dell'esperienza, la forma ed il processo per raggiungere la forma, ogni azione, è Bateson a suggerirlo in modo molto chiaro e semplice, ogni azione semplice nel momento che viene legata assieme ad altre azioni semplici produce una sorta di processo che passa per essere descritto attraverso una categoria definita forma, se prendiamo ad esempio l'idea di ipnosi possiamo definirla una forma compiuta, composta da processi tra loro suddivisi in ulteriori forme di precedenti processi, l'ipnosi è la forma, o semplicemente il nome, di un insieme di processi prodotti da azioni intelligenti, dell'intelligenza, l'intelligenza è il nome che si da ad un insieme di processi, azioni della mente, orientati ad ottenere risultati, nuove forme, agiamo, dunque, attraverso un insieme di processi, descriviamo le nostre azioni attraverso un dare forma, nominare, i processi stessi. Se andiamo a vedere il processo di costruzione della realtà potremmo dire che il cervello compie delle azioni separate tra loro, ad esempio la percezione, forma, può essere scomposta nella visione, ulteriore forma di un processo, infatti la vista diviene la forma attraverso cui nominiamo il processo visivo, così l'udito ed il tatto, forme di processi separabili tra loro, il nostro cervello costruisce forme attraverso processi, le descrizioni, come questa che sto utilizzando, sono forme ricavate da precedenti processi. Quale utilità ha allora il distinguere le forme dai processi? L'utilità è operativa, una forma, il nome ad esempio della rosa, non va confuso con il processo della costruzione della rosa stessa, il nome "rosa" non è la rosa, anche se in noi il termine, nome, "rosa" scatena l'idea della rosa, dunque il nostro cervello emula l'idea "rosa" e dietro al processo attivato dal nome c'è la rosa stessa, la sua immagine, la parola "rosa"per l'appunto, la sua fragranza, o altra esperienza tattile. 23 La cosa particolare è che la mente dell'uomo non distingue tra il livello forma ed il livello processo, sono una cosa unica, per pensare al nome devo pensare alla cosa, ma nel pensare alla cosa io ne vedo l'immagine, nel vedere l'immagine ne sento la fragranza, provo la sensazione vellutata al tatto e così via, forma e processo sono indifferenziati a livello di esperienza, l'esperienza è un processo che diviene forma senza che noi possiamo farci nulla direttamente. Così se prendiamo ad esempio un idea, come il concetto: "io amo gli altri e gli altri mi amano!", nel dire questo noi facciamo una descrizione, diamo forma a degli elementi di percezione raccolti dagli altri, a seguito di questa proiezione di un idea sulla realtà noi andiamo ad identificarci nella realtà stessa percependo la forma descritta, proiezione, come l'azione stessa del percepire, il processo, la forma è nata da un processo che è nato da una forma che è nata da un processo, così di seguito, forma e processo, proiezione di un idea ed identificazione nella stessa divengono un unico processo di una nuova forma la realtà che ci circonda, così che il concetto: "io amo gli altri e gli altri mi amano!" mi fa realmente vivere in un mondo di amore dove do e ricevo amore, lo stesso processo naturalmente è guida per la differente forma dove l'amore è sostituito per altre ragioni dall'odio. Amare ed odiare sono in fondo due forme di uno stesso processo, proiezione di una forma ed identificazione nel processo, ecco la ragione per cui definire i processi mentali uguali con uguali forme, in modo da considerare che comuni processi portano a comuni forme anche se queste sono definite in modi differenti. L'ipnosi è quindi un comune processo mentale che racchiude in se processi differenti la cui somma da come risultato il processo stesso. Con l'ipnosi si procede da una forma di pensiero, il pensare, differenziato ad una forma di pensiero maggiormente unificato o indifferenziato, questo processo di semplificazione dell'esperienza risulta comune a forme descritte come diverse ma sostanzialmente uguali nel processo sotteso. Probabilmente arrivando alla prima forma del primo processo si arriva a quell'atto di distinzione, "primo", nato per dare forma alle cose, il primo atto di conoscenza, per conoscere bisogna agire, agire la prima forma di distinzione del conoscere, una prima proiezione percettiva, la memoria di quel primo atto di distinzione è coinciso anche con la proiezione stessa nell'esperienza del ricordare, per ricordare devo ri-vivere, la memoria è legata ad un processo mentale, stato mentale, un equilibrio transitorio tra una percezione/sensazione già processo di raccolta di elementi, (i famosi dati del reale più propriamente definibili "presi" o scelti), ed una descrizione/definizione, dello stato in cui ci si trova attraverso idee o pensieri, come forma di riferimento, per ricordare, o meglio nel processo del ricordare, io costruisco la realtà evocata e questo atto di proiezione è un processo mentale che evoca uno stato o forma di riferimento, l'idea o pensiero connesso al ricordare stesso, a cui vanno a legarsi successivi processi (complessi di azioni) che permettono o meglio impongono al processo di conoscenza stesso di progredire, la conoscenza si impone a noi attraverso l'atto (processo) stesso del memorizzare che è un processo proiettivo o di disvelamento che crea distinzioni nella realtà, dopo aver distinto ho difficoltà ad annullare un processo di quel tipo dal momento che per fare la distinzione stessa ho avuto bisogno di creare nella mia mente il processo stesso di realizzazione, non è possibile conoscere (fare distinzioni) senza rimaner coinvolti nel processo stesso di proiezione ed identificazione della distinzione stessa. La difficoltà del processo conoscitivo è legata alla necessità costruttiva della mente, se si comprende questo processo di emulazione si comprende la portata della conoscenza e di quanto questa si imponga nelle nostre esperienze. L'esperienza è la causa ed il mondo è la sua conseguenza, ci dice in modo chiaro Heinz von Foerster uno dei padri della cibernetica, ma il processo di costruzione della realtà, messo in luce dalle neuroscienze, impone all'esperienza di essere anticipata per essere percepita, anticipata da un processo percettivo che opera attraverso continue proiezioni ed identificazioni seguenti al processo del distinguere e percepire, in un processo continuo in cui la conoscenza passata è l'esperienza attraverso cui si è disvelato a noi il mondo, il processo di disvelamento seguito all'atto di distinzione è un processo esperienziale che crea il mondo che lo definisce, tutto rientra in un continuo processo ricorsivo che si ripresenta continuamente, in un divenire senza mai lasciarci nello stesso mondo. 24 Noi siamo nell'esperienza del mondo che ci ha creati, siamo in quella dimensione indifferenziata in cui lo stesso procedere della vita ci ha differenziati per farci vivere nel processo di differenziazione in cui ci troviamo ospitati dalla nostra stessa esperienza di vita. Il pensiero descrittivo seguente al riconoscimento dell'impatto dell'attività conoscitiva su di noi può sembrare una vertigine, e così, in effetti, si presenta a noi l'esperienza del ritorno al pensiero indifferenziato, un'unica indescrivibile esperienza di unione con il tutto, un ritorno all'indifferenziazione originale, l'origine della vita è ben rappresentata dalla teoria del big bang, l'origine della vita mentale è rappresentabile da un esperienza analoga in cui si ha la possibilità di transitare più volte tra i suoi poli opposti attraverso l'esperienza dell'ipnosi. Quando tentiamo di ricordare un numero di telefono che ci è stato appena dettato, il nome di una persona da poco presentata o la lista delle cose da comprare al supermercato, attingiamo a un particolare scompartimento del magazzino della memoria dove le informazioni vengono registrate temporaneamente: la memoria a breve termine. Come è capitato di verificare più volte, la quantità di ricordi che possiamo tenere a mente per un breve periodo è limitata e le tracce mnestiche immagazzinate nella memoria a breve termine sono labili e facilmente cancellabili. In questo magazzino, infatti, possono soggiornare al massimo una dozzina di informazioni per un periodo che può andare da pochi secondi fino a qualche minuto. A questo punto le tracce vengono perse oppure definitivamente trasferite nella memoria a lungo termine dove, grazie a una condizione più stabile, possono essere mantenute per lunghi periodi (in taluni casi per sempre). Si ricordi però che in questo caso le tracce, per non andare perdute, devono essere “ripescate” e mantenute in esercizio. La storia delle macchine pensanti è una storia che si sviluppa nella seconda metà del Novecento. Il suo percorso non è affatto lineare perché via via tecnologia e discipline della mente umana si chiariscono reciprocamente ambiti e definizioni. A loro volta, i mass media (insieme alla forza prorompente del cinema fantascientifico) propongono miti, esaltano successi e creano scenari non sostenibili dal punto di vista realizzativo. Le delusioni per risultati sperati non raggiunti sono ancora più cocenti e il percorso è tutto un susseguirsi di affannose accelerazioni e repentine scomparse dalla scena. Tuttavia cinquant'anni di storia hanno permesso di definire chiaramente il quadro di riferimento: il progettista di macchine che pensano non confonde più macchine ‘dal comportamento intelligente' con macchine senzienti, cioè dotate di una coscienza artificiale. Ancora nel 1982 il biofisico Antonio Borsellino chiamato a parlare sul tema "Dall'intelligenza naturale a quella artificiale", sottolineava, infastidito, che le domande che gli rivolgevano erano sempre le stesse: "Un calcolatore può acquisire coscienza di sé (e come può se ‘sa' così poco di se stesso, per ora)? può un calcolatore formulare giudizi estetici o avere sentimento religioso? Avremo anche un'estetica artificiale e una religione artificiale?" Il ruolo del calcolatore elettronico è stato determinante in questo progressivo processo di chiarificazione: ha creato quel substrato comune sul quale tecnologi, scienziati e umanisti hanno potuto confrontarsi, ma soprattutto ha dato l'occasione a filosofi, psicologi e neuroscienziati di formulare teorie che l'elaboratore stesso avrebbe potuto validare o confutare. In questi cinquant'anni abbiamo assistito all'avvento della cibernetica, della bionica, della robotica, delle reti neurali, della loro scomparsa e del loro riapparire sotto la dizione di connessionismo Ci hanno annunciato i calcolatori della quinta generazione e, prima che essi si materializzassero, i biochip ci sono stati presentati come i componenti dei calcolatori della sesta generazione. Abbiamo addirittura intravisto macchine pensanti virtuali nei robot-software e nei virus che infestano Internet, suggestionati, forse, dalle inquietanti creature della Vita Artificiale. Ma questi percorsi, ancorché tortuosi e ricchi di vicoli ciechi, hanno permesso di rivisitare migliaia di anni del pensiero dell'essere umano, intuizioni e idee di giganti che avevano a disposizione solo le loro capacità di introspezione e di comprensione del mondo e di loro stessi. Sicuramente il calcolatore elettronico 25 non è stato decisivo in questo processo di chiarificazione, ma è stato il deus ex machina che ha permesso una nuova riflessione e sistematizzazione delle discipline relative allo studio della mente e del cervello. La filosofia (o le filosofie) della mente, la scienza cognitiva, la psicologia cognitiva e le neuroscienze sono, oggi, in grado di definire ambiti e contesti in cui il costruttore dovrà muoversi, anche se, paradossalmente, il calcolatore elettronico potrebbe non essere il componente d'elezione attorno al quale progettare macchine intelligenti o coscienti. L'essere artificiale, nell'immaginario collettivo, deve dimostrare una di essere intelligente o di essere cosciente? Il termine intelligenza richiama una prestazione che possiamo attribuire a oggetti e animali.. Il termine coscienza sembra più appropriato per gli esseri viventi: sicuramente per gli umani, a volte per qualche specie animale. Tuttavia per una serie di motivi economici la dicotomia intelligenza/coscienza è stata sbrigativamente ridotta al primo termine. Negli anni cinquanta era lecito solo interrogarsi sull'intelligenza delle macchine. E' interessante sottolineare che la maggior parte dei contributi scientifici sull'argomento, dagli anni Cinquanta agli anni Ottanta, è riferita a macchine i cui progettisti erano ansiosi di farle apparire intelligenti.. D'altra parte l'avvento del calcolatore suggerì ai progettisti di simulare alcune caratteristiche cognitive proprie dell'essere umano. Poiché il calcolatore riesce a operare in ambiti computazionalsintattici, la prima forma di intelligenza presa in considerazione fu il ragionamento logico. La disciplina denominata intelligenza artificiale nasce con questa connotazione, anche se non coincide con la totalità delle forme di intelligenza che potrebbero essere progettate e costruite dall'essere umano. Il motivo per cui si è identificata la progettazione ingegneristica dell'intelligenza con l'intelligenza artificiale, enfatizzando certi aspetti dell'intelligenza (le prestazioni deduttive e logicomatematiche) trova un preciso riscontro in una particolare fase dell'evoluzione del pensiero tecnicoscientifico che ha trovato nel calcolatore lo strumento paradigmatico per eccellenza. Inoltre non sono da trascurare le articolate connessioni con il mercato e le varie strategie di finanziamento: spesso nel frastagliato confine tra ricerca e mercato si confonde l'esigenza di una certa disciplina con l'esistenza della stessa. Quando nel 1956 un gruppo di visionari coniò il termine artificial intelligence il mercato era lontano: l'obiettivo era quello di utilizzare la scienza dei calcolatori per togliere a filosofi, psicologi e neurofisiologi il monopolio dello studio delle attività mentali dell'essere umano, con particolare riferimento all'intelligenza. Molte delle speranze e delle illusioni che l'intelligenza artificiale (IA) aveva suscitato sono riconducibili all'ambiguità insita nelle sue due iniziali accezioni: IA forte e IA debole. Secondo la debole, il calcolatore è in grado di costituire un ottimo strumento per lo studio della mente; secondo la forte, i computer, se programmati, presentano stati cognitivi e, quindi, i programmi (il software) si possono identificare con le capacità cognitive dell'uomo. Era facile per il filosofo John R. Searle scrivere: "Esattamente quella caratteristica dell'intelligenza artificiale forte che sembrava così attraente - la distinzione tra il programma e la realizzazione - si dimostra letale all'affermazione in base alla quale la simulazione può essere replicazione. Nessuno crede che la simulazione al calcolatore di un incendio brucerà tutto il vicinato". Nel contesto della disciplina intelligenza artificiale il concetto di cane è rappresentato dall'insieme delle sue proprietà (abbaia, ha quattro zampe, ecc.) che sono anch'esse entità simboliche. Invece, durante il processo di apprendimento di una rete neurale artificiale, a ogni concetto viene associata una diversa distribuzione delle proprietà quantitative delle connessioni tra neuroni che non hanno alcun significato simbolico. E' quello che avviene nel cervello umano in cui è difficile trovare entità simboliche - come concetti, proprietà, regole - mentre quello che troviamo sono entità fisiche (neuroni, assoni, sinapsi, trasmettitori chimici) che devono essere descritte in termini fisici quantitativi. Osservava, alcuni anni fa, John Searle: "Solamente una macchina può pensare (ossia i cervelli e quelle macchine che hanno gli stessi poteri causali dei cervelli)... e questa è la principale 26 ragione per la quale l'intelligenza artificiale forte ha avuto poco da dirci sul pensiero: perché non ha nulla da dirci sulle macchine. Per la sua stessa definizione ha a che fare con i programmi (ossia il software), e iprogrammi non sono macchine (ossia hardware)". Il robot teleguidato, utilizzato dalla polizia per ispezionare oggetti e auto sospette, è una metafora di quello che i filosofi intendono con l'ipotesi dell'homunculus. Per spiegare come funziona la mente spesso si ipotizza che tutti i vari stimoli che provengono dall'esterno (e che vengono veicolati all'interno del cervello attraverso gli organi di senso e il sistema nervoso periferico) siano interpretati e gestiti da un ente misterioso residente in qualche zona della struttura cerebrale: il cosiddetto homunculus. Esso - in base agli stimoli esterni e agli obiettivi e motivazioni che vuole darsi — decide cosa fare e invia opportuni comandi ai suoi organi effettori: i muscoli che controllano il sistema di locomozione (per esempio le gambe), il sistema di manipolazione (torsobraccia-mani), l'apparato vocale, il movimento degli occhi. Il robot teleguidato - una specie di carretto mobile dotato di ruote o cingoli, munito di uno o più manipolatori meccanici e di una o più telecamera integrata con sensori di vario tipo - è spesso ospite dei telegiornali di tutto il mondo. E' un corpo che invia segnali sensoriali e riceve comandi motori da un essere umano che diviene, quindi, l'homunculus personale del robot, ovvero la sua mente. Il fatto che l'essere umano sia situato a distanza di sicurezza è del tutto irrilevante. La metafora mantiene inalterata la sua validità anche se sarebbe più pregnante la presenza di un piccolo gnomo nascosto nel carretto, come avveniva, d'altra parte, nell'automa ‘giocatore di scacchi di Maelzel' in cui Edgar Allan Poe aveva dimostrato la presenza di un uomo nascosto. Gli anni Settanta e l'inizio degli anni Ottanta avevano testimoniato i grandi successi dell'intelligenza artificiale e della robotica industriale. Sembrava che i costruttori di automi avessero deciso di separare lo studio del corpo degli organismi artificiali (robotica industriale) dallo studio della loro mente (intelligenza artificiale). In realtà era stato il mercato a imporre le direzioni della ricerca. Il robot industriale non può avere vita propria, ma deve accettare e adattarsi alle regole della fabbrica. Analogamente l'intelligenza artificiale doveva simulare le attività intellettuali più sofisticate dell'essere umano, perché lì risiede la possibilità di costruire pacchetti applicativi in grado sostituire gli esperti umani. Il luogo di lavoro del robot industriale è la fabbrica; le applicazioni più redditizie dell'intelligenza artificiale sono le banche e le istituzioni burocratico-amministrative. L'intelligenza artificiale aveva scelto di svincolarsi dal confronto reale con l'ambiente circostante. Anzi, in analisi critiche sull'intelligenza artificiale, si osserva che il momento di stallo, in cui si è trovata la disciplina, sarebbe potuto essere imputabile alla difficoltà di gestire - secondo le classiche metodologie - alcuni tra i temi centrali dell'interazione tra le forme viventi e l'ambiente quali l'apprendimento e la rappresentazione del mondo esterno. Se ciò risultasse vero, potrebbe diventare paradigmatico il ruolo della robotica intesa come la disciplina che, nell'ambito delle forme di intelligenza costruite dall'essere umano, sposta il centro dell'attenzione dalla simulazione alla costruzione di oggetti reali che devono agire in ambienti non ordinati. La conseguenza di tale prospettiva consistette nella perdita del ruolo dominante della simulazione delle attività cognitive superiori, mentre esaltò il ruolo di un corpo con il quale affrontare l'infinita variabilità del mondo in cui dovrà operare. L'analogia tra l'intelligenza artificiale e quella naturale divenne fragile, sfumando confronti e rendendo più pregnanti eventuali sorgenti di preoccupazione sulle implicazioni delle future generazioni di macchine pensanti. Negli anni Ottanta la metafora della mente come computer (secondo la quale la mente sta al cervello come il software sta all'hardware) sembra perdere molto dello smalto acquisito nei precedenti decenni. O meglio i seguaci della Intelligenza Artificiale forte, per cui la mente è esattamente un programma per computer, non riescono a reggere gli attacchi di coloro che sostengono che la mente è qualcosa di più della manipolazione di simboli formali. Quando pensiamo, le parole che attraversano la nostra mente non sono semplicemente simboli formali non 27 interpretati: le parole hanno un significato, una semantica. I simboli formali di un programma per computer non garantiscono la presenza del contenuto semantico che si trova nelle menti reali. Si assiste, invece, alla definitiva affermazione dell'accezione debole dell'Intelligenza Artificiale, secondo la quale il computer è uno strumento utile per fare simulazioni della mente, così come lo è per fare simulazioni di qualsiasi cosa che possiamo descrivere con precisione. Supponiamo che qualcuno suoni il campanello della porta di casa. Conosciamo perfettamente come il campanello provochi le vibrazioni dell'aria e come queste siano in grado di eccitare il nostro apparato acustico; siamo anche in grado di ipotizzare il possibile percorso dei relativi segnali nervosi lungo le reti neurali del nostro cervello. Tuttavia come avvenga che nel mio cervello si verifichi il "din don" causato dall'aver pigiato il pulsante del campanello resta un mistero. Per coscienza intendiamo questa capacità di fare un'esperienza, un'esperienza cosciente. Finora solo pochi hanno indirizzato la ricerca delle modalità di costruzione di un soggetto artificiale genuinamente intenzionale e pertanto anche cosciente. Fra questi va annoverato il pluriennale tentativo di Igor Aleksander, dell'Imperial College di Londra, di definire e costruire un agente artificiale cosciente, nella convinzione che uno sviluppo adeguato di un essere artificiale non possa che corrispondere alla nascita di una dimensione mentale (cosciente) artificiale. Del resto anche Searle, storico sostenitore della natura biologica della coscienza umana, ha ribadito che non vi è alcun motivo a priori per negare che una creatura artificiale, capace di riprodurre i meccanismi fondamentali del cervello umano, possa corrispondere a un soggetto cosciente. Quanto poi la comprensione dei meccanismi biologici sia necessaria alla realizzazione dei meccanismi che sottostanno alla emergenza della coscienza non è affatto chiaro. Da un lato l'intelligenza artificiale classica ha sempre rifiutato di imitare i processi biologici. D'altro lato, proprio il fallimento dell'IA classica — nel riprodurre un soggetto comparabile all'essere umano — sembra spingere connessionisti e neuroscienziati a cercare nella riproduzione esatta dei meccanismi del cervello l'unica via possibile per replicare un soggetto. Nell'ambito delle tematiche della coscienza artificiale ci si deve interrogare su cosa s'intende per coscienza? Non la coscienza morale, bensì quella che gli anglosassoni definiscono consciousness e che corrisponde alla capacità di un soggetto umano di fare esperienza dei propri pensieri, di se stesso e del mondo. La coscienza è stata la grande assente della ricerca scientifica nel Novecento: adesso i tempi stanno cambiando e la letteratura sull'argomento sta dilagando, impegnando studiosi e premi Nobel che provengono dalle discipline più disparate (Roger Penrose, Gerard Edelman e Francis Crick). Fino a oggi si sono applicate al problema della coscienza le categorie di Galileo, di successo nello spiegare i fenomeni fisici, ma insufficienti nello spiegare i fenomeni mentali. Quando un essere umano fa esperienza del mondo (ossia percepisce colori e sapori, oppure prova dolore e piacere) coglie degli aspetti qualitativi della realtà, che la scienza galileiana non è in grado di misurare. Tuttavia le qualità esistono: anche se da Cartesio in poi esse sono state relegate nel chiuso di una dimensione spirituale che non può venire aggredita scientificamente. Finora è stato possibile eludere il problema perché non vi erano le condizioni tecnologiche per poter costruire un essere cosciente artificiale. Finora la progettazione di artefatti (automobili, ponti, satelliti, computer) non ha richiesto la comprensione della coscienza. Oggi che i robot iniziano ad avvicinarsi all'essere umano - sia come capacità di calcolo sia come struttura fisica — il problema non può più essere evitato. Come si è detto, la scienza, allo stadio attuale, non ha la minima idea di come sia possibile che un sistema fisico (un cervello, un sistema nervoso, un insieme di neuroni) possa produrre quell'insieme strano di fenomeni che corrispondono alla nostra esperienza cosciente. Non solo. La scienza non sa neppure cosa siano questi fenomeni. Paradossalmente il problema della coscienza sta diventando sempre più urgente e importante man mano che le nostre possibilità di indagine del cervello 28 progrediscono. Alcuni decenni fa, quando era pressoché impossibile studiare, in vivo, gli unici cervelli di cui si sappia con certezza che producano la coscienza (i cervelli umani), si poteva sempre sperare che il progredire dei mezzi di indagine avrebbe permesso di scoprire all'interno del cervello un qualche fenomeno fisico sconosciuto e straordinario che avrebbe risolto ogni incertezza. Questo non è avvenuto e il cervello, per quanto complesso, è rimasto un oggetto fisico come gli altri. D'altro lato le teorie filosofiche sulla coscienza, attuali e passate, non forniscono indicazioni chiare su come procedere nella costruzione di un soggetto e sono per questo non-scientifiche nel senso di non-falsificabili empiricamente. Ma perché è così difficile il problema della coscienza? Un esempio chiarirà la cosa. Immaginiamo di stare guardando una penna rossa. Noi facciamo esperienza della penna e delle sue proprietà, tra le quali quella del rosso. Tuttavia, secondo la scienza, noi siamo il nostro cervello e tutte le volte che facciamo esperienza di qualcosa è perché dentro il nostro cervello succede qualcosa che provoca la nostra esperienza. E tuttavia … il nostro cervello non diventa rosso quando noi guardiamo la penna rossa. Il nostro cervello rimane un oggetto fisico distinto dalla penna che osserva, non ne riproduce le proprietà. E' straordinario che per tanto tempo si sia accettata l'idea che l'oggetto cervello potesse ‘creare' le nostre sensazioni quasi che una ‘sensazione' non fosse nulla di ‘reale' o quasi che il cervello potesse compiere un'azione di ‘magica creazione'. Per quanto se ne sa, nessun oggetto è in grado di creare nessun altro oggetto, al più di assemblare, trasformare, modificare. E l'oggetto cervello non può essere diverso dagli altri da questo punto di vista. Del resto tutte le discipline scientifiche mature sono rette da qualche forma del principio di conservazione. La scienza biologica conobbe uno dei suoi più grandi progressi quando rifiutò l'idea della possibilità della generazione spontanea. La scienza fisica quando introdusse i principi di conservazione del moto e della massa. L'elenco potrebbe continuare numeroso. Non si vede perché il significato e l'esperienza dovrebbero seguire criteri diversi. Inoltre quello che il cervello dovrebbe creare non è neppure descrivibile in termini di presenza fisica. Sensazioni, pensieri, immagini, percezioni nel senso di contenuti della coscienza sono entità quantomeno evanescenti e prive di ogni traducibilità fisica oggettiva (ma non empirica). Attendersi che, quasi per magia, i "segnali nervosi diventino immagini e sensazioni" è ancora più incredibile. L'assunto Galileiano secondo il quale tutte le entità fisiche sono entità oggettive, implica che i segnali, in qualunque sistema fisico (e quindi anche dentro i nostri cervelli) siano e restino fenomeni di tipo fisico. Il plurisecolare dibattito sulla natura e sulla relazione tra le qualità primarie/secondarie ha, di fatto, generato un'innumerevole progenie di paradossi ed enigmi. Forse è tempo che sia posta in dubbio. Ma se gli esseri umani sono coscienti si deve spiegare come sia possibile che un sistema fisico produca l'esperienza cosciente. Pensiamo alla Terra prima della comparsa degli esseri viventi. E' piuttosto ragionevole supporre che, in assenza di organismi viventi, non vi fosse nessuna esperienza cosciente. All'altro estremo, quattro miliardi di anni dopo, abbiamo la terra popolata dagli esseri umani che, come abbiamo detto, sono coscienti. A un certo punto l'evoluzione deve avere determinato la comparsa dell'esperienza cosciente: dove e perché? Del resto, e l'esempio è così quotidiano che si tende a dimenticare, l'esperienza cosciente viene prodotta ogni volta che un nuovo essere umano è concepito e si sviluppa. Pensiamo a un ovulo fecondato. E' un oggetto fisico come gli altri dal punto di vista dell'esperienza cosciente. Siccome è privo di sistema nervoso pare ragionevole che sia privo anche di esperienza cosciente. Dopo qualche mese o dopo alcuni anni avrà un'esperienza cosciente paragonabile alla nostra. Un oggetto fisico privo di esperienza cosciente è diventato un soggetto cosciente che fa esperienza di sé e del mondo. Cosa è successo? Oggigiorno non è chiaro quale sia l'elemento determinante per l'insorgere della coscienza. Non è neppure chiaro se la coscienza insorga in modo brusco o graduale. 29 L'essere cosciente è legato a qualche altro fattore che l'evoluzione ha selezionato e che lo sviluppo realizza per ciascun individuo . Non sappiamo neppure se esistano limiti a questa capacità di essere coscienti o se possa avere una ulteriore espansione. E' necessario sottolineare che l'essere coscienti è separato dall'essere vivi. Essere vivi significa essere costituiti da molecole basate sulla replicazione del DNA, essere coscienti significa essere in grado di fare esperienza del mondo. Il fatto che, per ora gli unici esseri coscienti siano anche esseri vivi non deve precludere il tentativo di costruire esseri coscienti senza fare ricorso a strutture biologiche viventi. Una ulteriore precisazione: in base alle conoscenze odierne, niente lega la struttura del DNA o dell'atomo di carbonio al nostro essere coscienti. E se questo fosse vero significa che è possibile supporre e immaginare il modo in cui una struttura artificiale possa produrre un soggetto dotato di esperienze coscienti. In sintesi, è possibile che il secolare impasse in cui si è imbattuta la scienza, nello spiegare la natura della mente cosciente, sia causato non tanto dalla natura della problema in sé quanto dalle ipotesi che acriticamente si sono accettate sulla natura della realtà. Cambiando queste, e sottoponendole al vaglio dell'evidenza è possibile che si guadagni una migliore comprensione tanto della coscienza quanto della realtà. 30 Mente e computer L'analogia fra computers e cervello ha affascinato l'umanità e gli scienziati fin dalla costruzione dei primi "cervelli elettronici". Il padre della moderna intelligenza artificiale, Alan Turing, elaborò fin dal 1950 un ipotetico test cruciale in grado di definire il raggiungimento da parte di un computer di un livello di intelligenza, non solo computazionale, ma anche emozionale paragonabile a quella umana. Secondo il test di Turing tale raggiungimento potrebbe considerarsi completato quando una persona che intervisti senza vederli un computer ed un essere umano non sia in grado di decidere quale sia il computer e chi l'umano. Nonostante la capacità computazionale dei computers aumenti esponenzialmente e sia stimata oggi più che raddoppiare ogni anno e nonostante alcune previsioni prevedano che un computer da 1.000 euro supererà la capacità di calcolo di tutti i cervelli umani esistenti entro i prossimi 40 anni, nessun computer ha superato fino ad oggi qualcosa di equivalente al test di Turing. Accanto a computers sempre più potenti ma che utilizzano meccanismi computazionali non paragonabili a quelli cerebrali, gli studiosi dell'intelligenza artificiale stanno sviluppando sistemi computazionali, quali le reti neurali, che partono dal principio fondamentale del funzionamento dei circuiti neurali, la plasticità sinaptica e la capacità di modificare la propria attività sulla base dell'apprendimento e della precedente attività. Così, i più entusiasti studiosi dell'intelligenza artificiale prevedono che nel corso del presente secolo non solo si avranno computers in grado di avere consapevolezza di sé e di sentire qualcosa di molto simile alle emozioni umane, ma ipotizzano addirittura una sempre più stretta simbiosi fra l'uomo ed un computer che abbia raggiunto il livello evolutivo non solo di una macchina intelligente ma addirittura di una macchina spirituale. L’idea alla base del modello computazionale della mente è che la mente sia il programma e il cervello l’hardware di un sistema computazionale. Uno slogan che si incontra spesso dice: «La mente è per il cervello ciò che il programma è per l’hardware». Iniziamo la nostra indagine su questo tema distinguendo fra tre questioni: Il cervello è un computer digitale? La mente è un programma per computer? Le operazioni svolte dal cervello possono essere simulate da un computer digitale? Affronterò la prima questione, non la seconda o la terza. Penso che alla seconda si possa rispondere in modo decisamente negativo. Dal momento che i programmi sono definiti in modo puramente formale o sintattico e dal momento che le menti possiedono un intrinseco contenuto mentale, ne consegue immediatamente che il programma non può costituire la mente. La sintassi formale del programma non è sufficiente a garantire da sola la presenza di contenuti mentali. È stato dimostrato una decina di anni fa nell’Argomento della stanza cinese (1980). Un computer, io ad esempio, potrebbe svolgere i passaggi nel programma grazie a qualche capacità mentale, come per esempio comprendere il cinese senza capire una parola di cinese. L’argomento si fonda sulla semplice verità logica per cui la sintassi non corrisponde alla semantica, né è di per sé sufficiente a determinare la semantica. Così la risposta alla seconda domanda è ovviamente «no». La risposta alla terza domanda mi sembra egualmente ovvio sia «sì», almeno per quanto riguarda l’interpretazione naturale. Interpretata naturalmente, la domanda significa: esiste una descrizione del cervello tale che con quella descrizione si possa compiere una simulazione computazionale delle operazioni cerebrali? Ma, se si accoglie la tesi di Church per cui ogni cosa di cui può essere data una caratterizzazione sufficientemente precisa come di una sequenza di passi può essere simulata su un computer digitale, ne deriva banalmente che la domanda ha una risposta affermativa. Le operazioni cerebrali possono essere simulate su un computer digitale nello stesso senso in cui possono essere simulati i sistemi del tempo atmosferico, il comportamento del mercato di New 31 York o il modello dei voli di linea sopra l’America latina. Allora la nostra domanda non è: «La mente è un programma?», la cui risposta è «no»; né è: «Può il cervello essere simulato?», la cui risposta è «sì». La domanda è: «Il cervello è un computer digitale?». Per le intenzioni di questa discussione io sto considerando questa domanda come equivalente a: «I processi cerebrali sono suscettibili di calcolo?». Si potrebbe pensare che questa domanda perderebbe gran parte del suo interesse con una risposta negativa alla seconda domanda. Il che vuol dire che si potrebbe supporre che al di là del fatto che la mente sia un programma, non c’è nessun interesse per la domanda se il cervello sia un computer. Ma non è questo il punto, in realtà. Persino per quanti ritengono che i programmi non siano i soli elementi costitutivi dei fenomeni mentali resta ancora aperta una domanda importante: ammesso che nella mente ci sia altro oltre le operazioni sintattiche di un computer digitale, nondimeno potrebbe darsi che gli stati mentali siano almeno stati computazionali e che i processi mentali siano processi computazionali che operano sulle strutture formali di questi stati mentali. è questa, infatti, a mio parere, la posizione maggiormente condivisa. Non dico che la visione sia pienamente chiara, ma l’idea suona più o meno così: a un certo livello descrittivo i processi mentali sono sintattici; ci sono, per così dire, delle «frasi nella testa». Queste devono essere non in inglese o in cinese, ma, forse, nel «linguaggio del pensiero» (Fodor, 1975). Ora, come tutte le frasi, anche queste hanno una struttura sintattica e una semantica, o significato, e il problema della sintassi può essere separato dal problema della semantica. Il problema della semantica è: come acquisiscono un significato queste frasi nella testa? La questione può essere discussa indipendentemente da come il cervello funzioni nell’elaborare queste frasi; tipicamente si suppone che lavori come un computer, eseguendo operazioni di calcolo sulla struttura sintattica delle frasi nella testa. Tanto per fare chiarezza sui termini, io chiamo Intelligenza artificiale forte la visione in cui tutto ciò che è necessario per avere una mente è avere un programma, Intelligenza artificiale debole la visione in cui processi cerebrali (e mentali) possono essere simulati con un computer, e cognitivismo, la visione in cui il cervello è un computer. Tratterò ora del cognitivismo, e sarà meglio spiegare fin dall’inizio ciò che mi motiva. Se si leggono libri sul cervello (per esempio Shepherd, 1983; oppure Kuffler e Nicholls, 1976) si trova una certa idea di ciò che accade nel cervello. Se si guarda a libri sulla computabilità (per esempio Boolos e Jeffrey, 1989) si trova un’idea della struttura logica della teoria della computabilità. Se poi ci si rivolge ai libri sulle scienze cognitive (per esempio Pylyshyn, 1985), essi sostengono che ciò che viene descritto nei libri sul cervello è in effetti la stessa cosa che viene descritta nei libri sulla computabilità. Da un punto di vista filosofico la cosa non mi convince e ho ormai imparato a seguire, almeno all’inizio di una ricerca, il mio istinto. II. La Storia originaria Desidero iniziare la discussione cercando di affermare con la massima chiarezza possibile perché il cognitivismo mi sia sembrato intuitivamente attraente. Esiste una storia della relazione tra l’intelligenza umana e la computazione che risale almeno fino al classico scritto di Turing (1950) e io credo che sia da porre lì il momento fondativo della visione cognitivista. Lo chiamerò la Storia originaria. Iniziamo con due risultati di logica matematica: la tesi di Church-Turing (o equivalentemente, la tesi di Church) e il teorema di Turing. Per quanto ci riguarda, la tesi Church-Turing afferma che per ogni algoritmo esiste una macchina di Turing che può implementare quell’algoritmo. La tesi di Turing dice che esiste una macchina di Turing universale che può simulare qualunque macchina di Turing. Ora, se consideriamo insieme queste due affermazioni abbiamo come risultato che una macchina di Turing universale può implementare un algoritmo qualsiasi. Cos’è che rende questo risultato così eccitante? Ciò che mandò i brividi su e giù per la spina dorsale di un’intera generazione di giovani ricercatori nel campo dell’intelligenza artificiale è il pensiero seguente: «Immagina che il cervello sia una macchina di Turing universale». 32 Ci sono delle valide ragioni per supporre che il cervello sia una macchina di Turing universale? Continuiamo con la Storia originaria. è chiaro che almeno alcune abilità mentali dell’uomo sono algoritmiche. Per esempio, io posso coscientemente eseguire una lunga divisione seguendo i passi di un algoritmo destinato alla risoluzione delle divisioni lunghe. Segue, inoltre, dalla tesi di Church-Turing e dal teorema di Turing che tutto ciò che un essere umano può fare con un algoritmo può essere fatto anche con una macchina di Turing universale. Per esempio posso implementare su un computer esattamente lo stesso algoritmo che uso per fare una divisione lunga a mano. In questo caso, come ha scritto Turing (1950), sia io, il computer umano, che il computer meccanico stiamo implementando lo stesso algoritmo; io lo sto facendo consciamente, il computer inconsciamente. Ora, sembra ragionevole supporre che ci siano moltissimi processi mentali che sono attivi nel mio cervello inconsciamente e che sono anche computazionali. Se le cose stanno così, allora potremmo scoprire come funziona il cervello simulando tutti quei processi su un computer. Proprio come è stata realizzata una simulazione al computer dei processi per fare lunghe divisioni, allo stesso modo potremmo costruire una simulazione al computer dei processi di comprensione linguistica, percezione visiva, categorizzazione e così via. «Ma che dire della semantica? Dopo tutto, i programmi sono puramente sintattici». A questo proposito, un altro insieme di risultati logico-matematici entra in scena nella nostra storia. Lo sviluppo della teoria della dimostrazione ha mostrato che, entro limiti ben definiti, le relazioni semantiche tra proposizioni possono essere interamente riflesse dalle relazioni sintattiche tra le frasi che esprimono quelle proposizioni. Ora, supponiamo che nella testa i contenuti mentali siano espressi sintatticamente, allora tutto ciò che dovremmo considerare per i processi mentali sarebbero i processi computazionali fra gli elementi sintattici nella testa. Se comprendiamo correttamente la teoria della dimostrazione, gli elementi semantici prenderanno cura di loro stessi; ed è quanto fanno i computer: implementano la teoria della dimostrazione. Abbiamo perciò un programma di ricerca ben definito. Cerchiamo di scoprire i programmi implementati nel cervello programmando i computer per implementare programmi uguali. Mettiamo ciò in pratica portando il computer meccanico allo stesso livello di performance del computer umano (cioè che possa superare il test di Turing) e poi invitando gli psicologi a provare che i processi interni sono gli stessi in entrambi i tipi di computer. Vorrei che il lettore tenesse in mente, leggendo le pagine che seguono, la Storia originaria come l’abbiamo descritta, notando in particolare il contrasto evidenziato da Turing fra l’implementazione cosciente del programma presso il computer umano e l’implementazione non cosciente dei programmi, sia essa del cervello o del computer meccanico; è da notare inoltre l’idea che sia possibile scoprire dei programmi che funzionano nel mondo naturale, esattamente gli stessi programmi che noi inseriamo nei nostri elaboratori meccanici. Nei libri o articoli che sostengono il cognitivismo si trovano varie assunzioni comuni, spesso non dichiarate, ma non per questo meno pervasive. 1. Si assume spesso che l’unica alternativa all’idea che il cervello sia un computer digitale sia una certa forma di dualismo. L’idea è che, a meno che non si creda nell’esistenza di un’anima immortale come suggeriva Cartesio, si è costretti a credere che il cervello sia un computer digitale. Infatti spesso si ha l’impressione che l’affermazione secondo la quale il cervello è un meccanismo fisico che determina i nostri stati mentali e quella per cui il cervello equivale a un computer digitale non siano altro che la stessa cosa. L’idea, a livello retorico, è di costringere il lettore a pensare che o si trova d’accordo con ciò che sta leggendo oppure si rende protagonista di strane idee antiscientifiche. Recentemente il campo è stato allargato un po’ e si è accettata la possibilità che il cervello possa essere diverso dall’antiquato modello di computer di Von Neumann, ma piuttosto un tipo più sofisticato di elaboratore parallelo. Ancora oggi affermare che il cervello non è simile a un elaboratore equivale a rischiare la propria reputazione scientifica. 2. è stato anche detto che interrogarsi a proposito della natura computazionale delle elaborazioni cerebrali è soltanto una semplice domanda empirica. Deve essere sottoposta a investigazione come 33 per esempio è successo per dimostrare che il cuore è paragonabile a una pompa e che le foglie delle piante permettono la fotosintesi. Non c’è spazio per la logica spiccia né per la semplice analisi concettuale, questo perché stiamo parlando di materia strettamente scientifica. In effetti non credo che molti studiosi del campo riterrebbero che il titolo di questo scritto rimandi in alcun modo a una domanda di natura filosofica. «Il cervello è realmente un computer digitale?» non è una domanda filosofica più di quanto non lo sia «Il neurotrasmettitore delle giunzioni neuromuscolari è realmente acetilcolene?». Anche persone che non hanno simpatia per il cognitivismo come Penrose e Dreyfus, sembrano trattare l’argomento come un semplice dato di fatto. Non sembrano preoccuparsi poi molto di chiarire esattamente quale asserzione stiano mettendo in dubbio. Ma la domanda che interessa me è: quali sono gli elementi del cervello che permettono di pensarlo come fosse un computer? 3. Un’altra prerogativa stilistica di questi scritti è l’astio e a volte persino la noncuranza con cui le domande fondamentali vengono evitate. Quali sono esattamente le funzioni anatomiche e fisiologiche che vengono discusse a proposito del cervello? Cos’è esattamente un computer digitale? E come dovrebbero connettersi fra loro le risposte a queste due domande? La procedura comune in questi libri e articoli è quella di fare alcune osservazioni a proposito degli 0 e degli 1, dare un riassunto della famosa tesi di Church e Turing e poi continuare elencando una serie di argomenti interessanti quali conquiste e fallimenti nel mondo dei computer. Leggendo questi scritti mi sono sorpreso nello scoprire che c’è un peculiare iato filosofico. Da un lato abbiamo un elegante insieme di risultati matematici che vanno dal teorema di Turing e dalle tesi di Church fino alla Teoria delle funzioni ricorsive. Dall’altro abbiamo un impressionante quantità di congegni elettronici che utilizziamo quotidianamente. Dal momento che abbiamo una matematica così avanzata e un’elettronica così efficace, supponiamo che in qualche modo qualcuno deve avere fatto il lavoro filosofico basilare di collegare la matematica all’elettronica. Ma per quanto ne so, posso dire che ciò non è accaduto. Al contrario, siamo in una situazione particolare dove c’è poco accordo teorico tra i professionisti su domande fondamentali quali: Cos’è esattamente un computer digitale? Cos’è esattamente un simbolo? Cos’è esattamente un processo computazionale? Sotto quali condizioni fisiche esattamente i due sistemi stanno implementando lo stesso programma? III. La definizione di computazione Dal momento che non c’è un accordo universale sulle domande fondamentali, credo sia meglio tornare indietro fino alle fonti, fino alle definizione originale data da Alan Turing. Secondo Turing, una macchina di Turing può eseguire certe operazioni elementari: può riscrivere uno 0 sul suo nastro come un 1, può riscrivere un 1 sul suo nastro come uno 0, può spostare il nastro di un passo a sinistra o può spostare il nastro di un passo a destra. è controllata da un programma di istruzioni e ogni istruzione specifica una condizione e un’azione da eseguire se la condizione è soddisfatta. Questa è la definizione standard di computazione, ma, presa letteralmente, è almeno in parte fuorviante. Se voi aprite il vostro computer di casa nella maggior parte dei casi è poco probabile che troviate uno 0 o un 1 o un nastro. Ma non è questo in realtà il problema della definizione. Per scoprire se un oggetto è realmente un computer digitale, risulta che noi non dobbiamo cercare davvero uno 0 e un 1 ecc. Dobbiamo piuttosto cercare qualcosa che possiamo trattare, calcolare o che possa essere usato come funzionante a 0 e 1. Inoltre, per rendere la questione più complessa, c’è il fatto che questa macchina potrebbe essere fatta pressoché in qualsiasi modo. Come dice Johnson-Laird, «Essa potrebbe essere costituita da ingranaggi e leve come un vecchio calcolatore meccanico; potrebbe essere costituita da un sistema idraulico attraverso il quale scorre l’acqua; potrebbe essere costituita da transistor posti in un microcircuito attraverso cui passa la corrente elettrica; potrebbe essere eseguita anche dal cervello. Ognuna di queste macchine usa un diverso mezzo per rappresentare i simboli binari. Le posizioni degli ingranaggi, la presenza o l’assenza di acqua, la differenza di potenziale e forse gli impulsi nervosi» (Johnson-Laird, 1988, p. 39). Osservazioni simili sono fatte dalla maggior parte delle persone che scrivono su questo argomento. Per esempio, Ned Block (Block, 1990), mostra come possiamo avere cancelli elettrici in cui l’1 e lo 34 0 sono assegnati rispettivamente a differenze di potenziale di 4 volt e di 7 volt. Così potremmo pensare che dobbiamo considerare i livelli di tensione. Ma Block dice che solo «convenzionalmente»1 è assegnato a un certo livello di tensione. La situazione diviene più sconcertante quando ci informa ulteriormente che non avremmo bisogno di usare l’elettricità, ma avremmo potuto usare un complesso sistema di gatti e di topi e di formaggio e creare i nostri cancelli in modo tale che il gatto starà in tensione al guinzaglio e aprirà tirando un cancello che possiamo trattare come se fosse uno 0 o un 1. Il punto su cui Block insiste è «l’irrilevanza della realizzazione dell’hardware per la descrizione computazionale. Questi cancelli lavorano in modi diversi ma essi sono nondimeno computazionalmente equivalenti» (Ivi, p. 260). Nell stesso filone, Phylyshyn dice che una sequenza computazionale può essere realizzata da «un gruppo di piccioni addestrati a beccare come una macchina di Turing!» (Phylyshn, 1985, p. 57). Ma se tentiamo di prendere in seria considerazione l’idea che il cervello sia un computer digitale, otteniamo lo scomodo risultato di poter costruire un sistema che fa tutto quello che fa il cervello. Parlando computazionalmente, da questo punto di vista, si potrebbe ottenere un «cervello» che funzioni proprio come il mio o il vostro pur essendo costituito da cani, gatti e formaggio, dalle leve, dalle tubature, dai piccioni o da qualunque altra cosa a condizione che i due sistemi siano, nell’accezione di Block, «computazionalmente equivalenti». Servirebbe solo una terribile quantità di gatti, piccioni, tubature o qualunque altra cosa. I sostenitori del cognitivismo riportano questo risultato con autentico e manifesto piacere. Invece io penso che dovrebbero esserne preoccupati, e proverò a mostrare che si tratta solo della punta di un intero iceberg di problemi. IV. Prima difficoltà: la sintassi non è intrinseca alla fisica Perché i sostenitori del computazionalismo non temono le implicazioni della realizzabilità multipla? La risposta è che essi ritengono che sia tipico del valore funzionale che la stessa funzione ammetta realizzazioni multiple. In tale prospettiva i computer sono come carburatori o termostati. Proprio come i carburatori possono essere fatti di rame o di acciaio, allo stesso modo i computer possono essere fatti con una serie indefinita di materiali. Ma c’è una differenza: le classi dei carburatori e dei termostati sono definite in termini di produzione di determinati effetti fisici. Questo è il motivo per cui, per esempio, nessuno dice che si possono realizzare carburatori con dei piccioni. Ma la classe dei computer è definita sintatticamente in termini di assegnazione di 0 e di 1. La realizzabilità multipla non è un conseguenza del fatto che lo stesso effetto fisico può essere ottenuto con diverse sostanze fisiche, quanto del fatto che le proprietà rilevanti sono puramente sintattiche. La costituzione fisica è irrilevante nella misura in cui ammette l’assegnazione di 0 e di 1 e il passaggio di stato tra di loro. Ma tale dato ha due conseguenze che potrebbero rivelarsi disastrose: 1. Lo stesso principio che implica la realizzabilità multipla sembrerebbe implicare anche la realizzabilità universale. Se la computazione è definita in termini di assegnazione di sintassi allora ogni cosa potrebbe essere un computer digitale, perché ogni oggetto può avere sue attribuzioni sintattiche. Ogni cosa potrebbe essere descritta in termini di 0 e di 1. 2. Ancora peggio, la sintassi non è intrinseca alla fisica. L’attribuzione di proprietà sintattiche è sempre relativa a un agente o osservatore che tratta determinati fenomeni fisici come sintattici. Ora, perché queste conseguenze sarebbero disastrose? Dunque, noi volevamo sapere come funziona il cervello, e in particolare come produce fenomeni mentali. E dire che il cervello è un computer digitale come lo sono lo stomaco, il fegato, il cuore, il sistema solare e lo stato del Kansas non servirebbe a rispondere alla domanda. Il modello che avevamo era tale che noi avremmo scoperto qualcosa riguardo alle operazioni cerebrali in grado di mostrarci che esso è un computer. Volevamo sapere se non ci fosse qualche senso in cui il cervello fosse intrinsecamente un computer digitale, nello stesso modo in cui le foglie verdi intrinsecamente svolgono la fotosintesi, o il cuore intrinsecamente pompa sangue. Non siamo noi che, arbitrariamente o «convenzionalmente», assegniamo la parola «pompare» al cuore o «fotosintesi» alle foglie: c’è un dato di fatto vero e proprio. E ciò che ci chiedevamo è: «Esiste un elemento del 35 cervello che lo rende un computer digitale?». Non è una risposta affermare che i cervelli sono computer digitali perché ogni cosa è un computer digitale. Sulla base della definizione standard di computazione: Per ogni oggetto esiste una descrizione di quell’oggetto per cui in base a quella descrizione l’oggetto è un computer digitale. Per ogni programma esiste un oggetto sufficientemente complesso tale che ci sia almeno una descrizione dell’oggetto sulla base della quale l’oggetto implementa il programma. Così per esempio il muro dietro di me sta implementando in questo preciso momento il programma «Wordstar», perché esiste un modello di movimento delle molecole isomorfo rispetto alla struttura formale di «Wordstar». Ma se il muro sta implementando «Wordstar» allora se è un muro abbastanza grande ne segue che sta implementando qualsiasi programma e anche qualsiasi programma implementato nel cervello. Penso che la principale ragione per cui i sostenitori del computazionalismo non considerano la realizzabilità multipla o universale un problema è che non la vedono come una conseguenza di un punto assai più centrale, cioè che «sintassi» non è il nome di una caratteristica fisica, come la massa o la gravità. Al contrario parlano di «motori sintattici» e persino di «motori semantici» come se un tale discorso fosse lo stesso dei motori a benzina o diesel, come se potesse essere soltanto una questione fattuale che il cervello o qualsiasi altra cosa sia un motore sintattico. Credo sia possibile, con buona probabilità, bloccare il risultato della realizzabilità universale restringendo la nostra definizione di computazione. Di certo dovremmo rispettare il fatto che i programmatori e gli ingegneri la considerano come un ghiribizzo delle definizioni originarie di Turing e non come una reale caratteristica della computazione. Opere non pubblicate di Brian Smith, Vinod Goel e John Batali suggeriscono che una definizione più realistica enfatizzerà alcune caratteristiche come relazioni causali tra stati di programma, programmabilità e controllabilità del meccanismo, localizzazione nel mondo reale. Ma queste ulteriori restrizioni sulla definizione di computazione non ci aiutano in questa discussione perché il problema veramente centrale è che la sintassi è essenzialmente una nozione relativa all’osservatore. La realizzabilità multipla di processi computazionalmente equivalenti in differenti mezzi fisici era non solo un segno del fatto che i processi erano astratti, ma anche del fatto che non erano affatto intrinseci al sistema. Essi dipendevano da una interpretazione esterna. Stavamo cercando fatti che avrebbero reso i processi cerebrali computazionali. Ma dato il modo in cui abbiamo definito la computazione non ci potranno mai essere tali fatti. Non possiamo dire da un lato che è un computer digitale ogni oggetto cui possiamo assegnare una sintassi e presupporre dall’altro che ci sia una questione di fatto intrinseca alla sua operazione fisica che dipende dal fatto che un sistema naturale come il cervello sia o meno un computer digitale. E se la parola «sintassi» sembra enigmatica, lo stesso punto può essere raggiunto senza essa. Infatti qualcuno potrebbe affermare che le nozioni di «sintassi» e «simboli» sono solo un modo di dire e ciò che ci interessa veramente è l’esistenza di sistemi di fenomeni fisici discreti e gli stati di transizione fra loro. In quest’ottica non abbiamo veramente bisogno di 0 e 1; sono solo dei diminutivi di comodo. Ma credo che ciò non serva. Uno stato fisico di un sistema è uno stato computazionale soltanto relativamente all’assegnazione a quello stato di un qualche ruolo computazionale, funzione o interpretazione. Lo stesso problema affiora senza 0 e 1 perché nozioni quali computazione, algoritmo e programma non danno il nome a caratteristiche intrinseche fisiche dei sistemi. Gli stati computazionali non sono scoperti all’interno della fisica, ma assegnati alla fisica. Questo è un argomento diverso dall’Argomento della stanza cinese. L’Argomento della stanza cinese ha mostrato che la semantica non è intrinseca alla sintassi. Io ora sto dimostrando il fatto separato e differente che la sintassi non è intrinseca alla fisica. Ai fini della prima questione sto semplicemente supponendo che la caratterizzazione sintattica del computer non fosse problematica. Ma questo è un errore. Non c’è modo di scoprire che qualcosa è intrinsecamente un computer digitale perché la caratterizzazione di esso come un computer digitale è sempre relativa a un osservatore che assegna un’interpretazione sintattica alle pure caratteristiche fisiche del sistema. Allo stesso modo, applicato all’ipotesi del «linguaggio del pensiero», ciò ha come conseguenza che 36 la tesi risulti incoerente. Non c’è modo di scoprire che ci sono, intrinsecamente, frasi sconosciute nella mente perché qualcosa è una frase solo in relazione a un qualche agente o utente che la usa come frase. Egualmente, applicata generalmente al modello computazionale, la caratterizzazione di un processo come computazionale è una caratterizzazione di un sistema fisico dall’esterno; e l’identificazione di un processo come computazionale non identifica una caratteristica intrinseca della fisica ma è essenzialmente una caratterizzazione dipendente dall’osservatore. Questo punto deve essere compreso esattamente. Non sto dicendo che ci siano dei limiti a priori sui modelli che possiamo scoprire in natura. Potremmo senza dubbio scoprire un modello di eventi nel mio cervello che sia isomorfo all’implementazione del programma «vi» su questo computer. Ma dire che qualcosa sta funzionando come un processo computazionale è dire qualcosa di più che un modello di eventi fisici sta avvenendo. Richiede l’assegnazione di una interpretazione computazionale da parte di qualche agente. Analogamente, potremmo scoprire in natura oggetti che abbiano all’incirca la stessa forma delle sedie e che potrebbero anche essere usati come sedie; ma non potremmo scoprire oggetti in natura che funzionino come sedie se non relativamente ad alcuni agenti che li considerano o li usano come sedie. V. Seconda difficoltà: la fallacia dell’omuncolo è endemica nel cognitivismo Così sembra di essere giunti a un problema. La sintassi non fa parte della fisica. Ciò porta al fatto che se la computazione è definita in modo sintattico, allora niente è di per sé un computer digitale solamente in virtù delle sue proprietà fisiche. C’è una strada che ci porti fuori da questo problema? Sì, esiste, ed è una strada che viene generalmente adottata nella scienza cognitiva, ma con essa si cade dalla padella alla brace. La maggior parte degli studi che ho visto sulla teoria computazionale della mente riporta diverse varianti della fallacia dell’omuncolo. L’idea è sempre quella di trattare il cervello come se ci fosse al suo interno un qualche agente che lo utilizza al fine di compiere un calcolo. Un tipico caso è quello di David Marr (1982) che descrive la visione come un procedimento che parte da una rete visiva bidimensionale sulla retina e arriva a una descrizione tridimensionale del mondo esterno, come risultato del sistema visivo. La difficoltà è: chi sta leggendo la descrizione? Infatti, nel libro di Marr e in altri studi simili sul tema, sembra quasi di dover invocare un omuncolo all’interno del sistema che permetta di trattare queste operazioni come genuinamente computazionali. Molti scrittori ritengono che la fallacia dell’omuncolo non sia realmente un problema, perché, dicendolo con Dennett (1978), costoro credono che l’omuncolo possa essere «scaricato». L’idea è questa: visto che le operazioni computazionali del computer possono essere analizzate in unità che sono progressivamente sempre più semplici, fino ad arrivare al semplice circuito bistabile, configurazioni tipo «sì-no» o «1-0», sembrerebbe che gli omuncoli del livello più alto si scarichino in omunculi progressivamente sempre più stupidi, fino ad arrivare al livello basilare di un semplice circuito bistabile che non richiede nessun tipo di omuncolo. L’idea, in breve, è che una scomposizione ricorsiva eliminerà gli omuncoli. Mi ci è voluto molto tempo per comprendere a cosa queste persone stessero riferendosi, così in caso qualcuno si senta sconcertato per lo stesso motivo, lo spiegherò in dettaglio con un esempio. Supponiamo di avere un computer che moltiplichi sei volte otto per aver quarantotto. Ora ci si chiede: «Come fa?». Bene, la risposta potrebbe essere che addiziona il numero sei a se stesso per sette volte. Ma se ci si chiede: «Ma in che modo addiziona il numero sei a se stesso per sette volte?», la risposta è che innanzitutto il computer converte tutti questi numeri in informazione binaria e poi applica un semplice algoritmo per operare in sistema binario fino a che si arriva al livello basilare nel quale le istruzioni sono nella forma: «Scrivi uno zero, cancella un uno». Così per esempio al livello massimo il nostro omuncolo intelligente dice: «Io so come moltiplicare sei volte otto per avere quarantotto». Ma al livello inferiore esso è rimpiazzato da un più stupido omuncolo che dice: «Io non so attualmente come fare la moltiplicazione, ma posso fare l’addizione». Sotto ne abbiamo di ancora più stupidi che dicono: «Non sappiamo come fare addizione e moltiplicazione, ma sappiamo come convertire il sistema decimale in binario». Più in basso altri ancora più stupidi 37 dicono: «Non sappiamo niente in materia, ma sappiamo come si opera in simboli binari». Al livello base c’è un gruppo compatto di omuncoli che dice solo: «Zero-uno, zero-uno». Tutti i livelli più alti si riducono così a quello di base. Solamente il livello base però esiste realmente; i livelli superiori consistono tutti solo in come-se. Vari autori (Haugeland, 1981; Block, 1990) descrivono questa configurazione dicendo che il sistema è un meccanismo sintattico che conduce a un meccanismo semantico. Ma dobbiamo ancora affrontare il problema che avevamo prima: Quali fattori intrinseci al sistema lo rendono sintattico? Quali fattori riguardanti il livello base od ogni altro livello fanno tali operazioni tra zero e uno? Senza un omuncolo che si trova fuori dalla scomposizione ricorsiva, non possiamo avere ancora una sintassi con cui operare. Il tentativo di eliminare la fallacia dell’omuncolo attraverso la scomposizione ricorsiva è erroneo, perché l’unico modo per avere una sintassi intrinseca alla fisica è porre l’omuncolo nella fisica. C’è un aspetto affascinante riguardo a tutto ciò. I cognitivisti ammettono volentieri che i livelli più alti della computazione, per esempio «moltiplica 6 volte 8», sono relativi all’osservatore; non c’è nulla in essi che corrisponda direttamente alla moltiplicazione; tutto è nell’occhio dell’omuncolo/osservatore. Ma essi non vogliono riconoscere tale proprietà ai livelli più bassi. Il circuito elettronico, essi ammettono, non moltiplica davvero 6x8 come tale, esso nella realtà si serve di «zeri» e «uni» e queste operazioni, per così dire, portano alla moltiplicazione. Ma ammettere che i livelli più alti della computazione non sono intrinseci alle scienze naturali è già ammettere che neppure i livelli più bassi lo sono. Ecco dunque che la fallacia dell’omuncolo è ancora con noi. Per i computer del tipo che puoi comprare al negozio, non c’è problema di alcun omuncolo, ciascun utente reale diventa l’omuncolo in questione. Ma se supponiamo che il cervello sia un computer digitale, stiamo ancora di fronte alla domanda: «E chi è l’utente?». Tipiche domande da omuncolo nelle scienze cognitive sono le seguenti: «Come calcola la forma dall’ombreggiatura un sistema visivo? Come calcola la distanza di un oggetto dalla misura dell’immagine impressa nella retina?». Una domanda parallela potrebbe essere: «Come calcolano i chiodi la distanza che percorrono nell’asse dall’impatto del martello e dalla densità del legno?». E la risposta è la stessa in ambedue i tipi di caso: se stiamo parlando di come il sistema lavora intrinsecamente né i chiodi né il sistema visivo calcolano un bel niente. Noi, come gli omuncoli esterni, potremmo descriverli computazionalmente ed è spesso utile far così. Ma non si comprenderebbe il meccanismo del martellare col supporre che i chiodi stiano in qualche modo intrinsecamente calcolando gli algoritmi del martellamento e non si capirebbe il meccanismo della visione col postulare che il sistema stia calcolando, per esempio, la forma a partire dall’algoritmo dell’ombra che essa proietta. VI. Terza difficoltà: la sintassi non ha poteri causali Nelle scienze naturali alcuni tipi di spiegazioni precisano meccanismi la cui funzione causale nella produzione di fenomeni resta da giustificare. Ciò è particolarmente diffuso nelle scienze biologiche. Si pensi alla teoria dei germi patogeni, al caso della fotosintesi, alla teoria dei tratti ereditari basata sul Dna e perfino alla teoria darwiniana della selezione naturale. In ciascun caso viene stabilito un meccanismo causale e in ciascun caso tale specificazione dà una spiegazione dei risultati del meccanismo. Ora se si torna indietro e si considera la Storia originaria appare chiaro che la spiegazione promessa dal cognitivismo è di questo tipo. I meccanismi grazie ai quali i processi mentali producono conoscenze si ipotizza siano computazionali e con lo specificare i programmi avremo specificato le cause della cognizione. Un aspetto positivo di questo programma di ricerca, spesso sottolineato, è che non abbiamo bisogno di conoscere i dettagli del funzionamento del cervello per spiegare la cognizione. I processi cerebrali forniscono solo la macchina esecutrice dei programmi cognitivi, ma il livello del programma è quello a cui le spiegazioni cognitive effettive vengono date. Secondo la classificazione standard stabilita, per esempio, da Newell, ci sono tre livelli di spiegazione: struttura, programma e intenzionalità (Newell chiama questo ultimo livello il livello della conoscenza) e il contributo particolare delle scienze cognitive è reso al livello del programma. 38 Ma se quanto ho sostenuto finora è corretto, allora c’è qualcosa di sospetto nell’intero progetto. Finora ho pensato che, in quanto spiegazione causale, la teoria dei cognitivisti fosse quantomeno falsa, ma ora sto avendo difficoltà perfino a formulare una versione che sia coerente con l’idea per cui essa potrebbe essere una tesi empirica tout court. La tesi è che ci siano una gran quantità di simboli che vengono manipolati nel cervello, «zeri» e «uni» che balenano attraverso il cervello alla velocità della luce, invisibili non solo ad occhio nudo, ma perfino ai microscopi elettronici più potenti e che sia ciò a causare la cognizione. Ma la difficoltà sta nel fatto che «zeri» ed «uni» non hanno alcun potere causale poiché essi non esistono nemmeno se non negli occhi dell’osservatore. Il programma implementato non ha altri poteri causali che quelli del mezzo che lo implementa giacché il programma non ha esistenza reale, non una propria ontologia aldilà di quella che gli conferisce il mezzo che lo implementa. Parlando in termini materiali non esiste qualcosa come un «livello programma» autonomo. Ciò lo si può capire tornando alla Storia originaria e ricordando la differenza che c’è tra il computer meccanico e la macchina di Turing umana. Nella macchina di Turing umana c’è effettivamente un livello programma intrinseco al sistema ed esso risulta funzionante in modo causale a quel livello nel convertire input in output. Ciò avviene perché il soggetto umano sta seguendo in modo consapevole le regole per compiere una determinata computazione, il che consente di spiegare in modo causale la sua operazione. Ma quando programmiamo il computer meccanico affinché compia la medesima computazione, l’assegnazione di una interpretazione computazionale è ora relativa a noi, omuncoli esterni. E non c’è più un livello di causa intenzionale intrinseco al sistema. Il computer umano segue consapevolmente delle regole, e questo spiega il suo comportamento, ma il computer meccanico, alla lettera, non segue nessuna regola. è ideato per comportarsi esattamente come se dovesse seguire delle regole, e solo questo è rilevante ai fini pratici o commerciali. Adesso il cognitivismo ci rivela che il cervello funziona come un computer commerciale e questo causa la cognizione. Ma senza un omuncolo, sia il computer commerciale che il cervello sono solo modelli e i modelli non hanno capacità causali oltre quelle dei media che li implementano. Così sembra che non ci sia un modo affinché il cognitivismo possa dare una spiegazione causale della cognizione. Dal mio punto di vista tuttavia rimane aperto un rompicapo. Chiunque lavori con i computer sa, anche casualmente, che spesso diamo spiegazioni causali che si richiamano al programma. Per esempio, possiamo dire che quando batto questo tasto ottengo risultati simili, perché la macchina sta eseguendo il software «vi» piuttosto che l’«emacs», il che appare come una spiegazione causale ordinata. Così il rompicapo è il seguente: come conciliamo il fatto che la sintassi, come tale, non ha capacità causali con il fatto che noi diamo spiegazioni causali che fanno appello ai programmi? E, ancor più importante, questo tipo di spiegazioni forniranno un modello appropriato per il cognitivismo? Salveranno il cognitivismo? Potremmo, per esempio, mantenere l’analogia con I termostati, sottolineando che proprio come la nozione di «termostato» compare in spiegazioni causali indipendentemente da alcun riferimento alla sua realizzazione fisica, così la nozione di «programma» potrebbe essere esplicativa e altrettanto indipendente dalla fisica. Per esaminare questo rompicapo tentiamo di fare il punto sul cognitivismo estendendo la Storia originaria per mostrare in che modo le procedure investigative del cognitivista lavorano nella ricerca quotidiana. L’idea che si ha in genere è di programmare un computer commerciale così che simuli qualche capacità cognitiva, come la visione o il linguaggio. Poi, se otteniamo una buona simulazione, una che ci dia almeno l’equivalenza di Turing, ipotizziamo che il computer cerebrale faccia girare lo stesso programma del computer commerciale, e per testare l’ipotesi, cerchiamo un’evidenza psicologica indiretta, come i tempi di reazione. Così sembra che possiamo spiegare causalmente il comportamento del computer cerebrale citando il programma esattamente nello stesso senso in cui possiamo spiegare il comportamento del computer commerciale. Ora, che cosa è inesatto in tutto ciò? Non sembra forse un programma di ricerca scientifico perfettamente legittimo? Sappiamo che la trasformazione del computer commerciale di input in output è spiegata da un programma e nel cervello scopriamo lo stesso programma, perciò abbiamo una spiegazione causale. 39 Due cose dovrebbero preoccuparci immediatamente di questo programma. Primo, non accetteremmo mai questo tipo di spiegazione per nessuna funzione cerebrale di cui abbiamo capito il funzionamento a un livello neurobiologico. Secondo, non accetteremmo questo programma per altri tipi di sistema che possiamo simulare computazionalmente. Per illustrare il primo punto, riferiamoci per esempio al famoso resoconto What the Frog’s eye tells the Frogs Brain [Che cosa dice l’occhio della rana al cervello della rana] (Lettvin et al., 1959 in McCulloch, 1965). Il resoconto è dato interamente in termini dell’anatomia e della fisiologia del sistema nervoso di una rana. Un tipico passo scelto a caso dice: 1. Rivelatori di contrasto sostenuto Un assone non ricoperto di mielina di questo gruppo non risponde quando l’illuminazione generale è accesa o spenta. Se il bordo netto di un oggetto, che sia più chiaro o più scuro dello sfondo, si muove nel suo campo e si ferma, l’assone scarica prontamente e continua a scaricare, non importa quale sia la forma del bordo né se l’oggetto sia più piccolo o più grande del campo recettivo» (Ivi, p. 239). Io non ho mai sentito nessuno dire che tutto questo fosse soltanto l’implementazione dell’hardware, e che essi avrebbero dovuto soltanto individuare quale programma la rana stesse implementando. Io non dubito che si possa trovare una simulazione al computer dei «rilevatori d’insetti» della rana. Forse qualcuno l’ha fatto. Ma noi tutti sappiamo che una volta compreso come il sistema visivo di una rana lavora realmente, il «livello computazionale» divenga irrilevante. Per illustrare il secondo punto, consideriamo le simulazioni di altri tipi di sistemi. Io, per esempio, sto digitando queste parole su una macchina che simula il comportamento di una desueta macchina da scrivere meccanica. Mentre le simulazioni continuano, il programma di scrittura simula una macchina da scrivere meglio di quanto ogni programma di Intelligenza artificiale che io conosco possa simulare il cervello. Ma nessuna persona sana pensa: «Ormai è da molto tempo che sappiamo come funzionano le macchine da scrivere; sono implementazioni dei programmi di scrittura». Semplicemente, in generale le simulazioni computazionali non forniscono spiegazioni causali dei fenomeni simulati. Allora cosa ne consegue? Noi, in generale, non supponiamo che le simulazioni dei processi cerebrali ci diano una qualche spiegazione causale in sostituzione o in aggiunta a un resoconto neurobiologico che spieghi come il cervello funziona realmente. E, in generale, non prendiamo in considerazione la frase «X è una simulazione computazionale di Y» per nominare una relazione simmetrica. Cioè, non supponiamo che poiché il computer simula una macchina da scrivere, allora la macchina da scrivere simula un computer. Non supponiamo che poiché un programma di previsione del tempo simula un uragano allora la spiegazione causale del comportamento dell’ uragano sia fornita dal programma. Ma allora perché dovremmo fare un’eccezione a questi principi quando si tratta di processi cerebrali sconosciuti? Ci sono delle buone ragioni per fare un’eccezione? E che tipo di spiegazione causale è una spiegazione che cita un programma formale? Qui, credo, ci sia la soluzione al nostro puzzle. Una volta tolto l’omuncolo dal sistema, si rimane soli con una configurazione di eventi a cui qualcuno dall’esterno può attribuire un’interpretazione computazionale. Ora l’unico senso nel quale la specificazione della configurazione si fornisce da sola di una spiegazione causale è che se si sa che una certa configurazione esiste in un sistema allora si sa anche che c’è una causa dello schema. Si possono quindi, per esempio, predire fasi successive da fasi precedenti. Inoltre, se si sa già che il sistema è stato programmato da un omuncolo esterno, si possono fornire spiegazioni che fanno riferimento all’intenzionalità degli omuncoli. Si può dire, per esempio, questa macchina sta facendo quel che deve perché sta eseguendo il programma «vi». è come spiegare che questo libro inizia con un brano che riguarda famiglie felici e non contiene alcun lungo brano che tratta di un gruppo di fratelli, perché è il libro di Tolstoj Anna Karenina non I fratelli Karamazov di Dostoevskij. Ma non si può spiegare un sistema fisico come una macchina da scrivere o un cervello identificando una configurazione che ce lo mostra con la sua simulazione computazionale, perché l’esistenza della configurazione non ci spiega in che modo il sistema lavora realmente in quanto sistema fisico. Nel caso della cognizione 40 la configurazione è a un livello troppo elevato di astrazione per spiegare eventi mentali concreti (e perciò fisici) quali una percezione visiva o la comprensione di una frase. Ora, penso sia ovvio che non possiamo spiegare come funzionano una macchina da scrivere o degli uragani individuando delle configurazioni formali che condividono con le loro simulazioni computazionali. Perché non è ovvio nel caso del cervello? Così arriviamo alla seconda parte della nostra soluzione del rompicapo. Facendo il punto sul cognitivismo stavamo supponendo tacitamente che il cervello potesse implementare algoritmi per la cognizione nello stesso senso in cui il computer umano di Turing e il suo computer meccanico implementano algoritmi. Ma è precisamente questa assunzione che abbiamo visto essere erronea. Per rendercene conto chiedamoci cosa succede quando un sistema implementa un algoritmo. Nel computer umano il sistema svolge consapevolmente i passi dell’algoritmo, quindi il processo è sia causale che logico; logico perché l’algoritmo fornisce un insieme di regole per far derivare i simboli dell’output dai simboli dell’input; causale, perché l’agente sta facendo uno sforzo cosciente per svolgere i passi dell’algoritmo. Similmente, nel caso del computer meccanico l’intero sistema include un omuncolo esterno, e con l’omuncolo il sistema è sia causale che logico. Logico perché l’omuncolo fornisce un’interpretazione al sistema della macchina, e causale perché l’hardware della macchina lo causa per avanzare nel processo. Ma tali condizioni non possono essere mescolate con le operazioni neurofisiologiche cerebrali che sono brute, cieche e inconsce. Nel computer cerebrale non c’è un’implementazione intenzionale e conscia dell’algoritmo come invece avviene nel computer umano, ma non ci può essere nessuna implementazione inconscia come avviene invece nel computer meccanico perché ciò richiederebbe un omuncolo esterno per associare un’interpretazione computazionale a degli eventi fisici. Il massimo che possiamo fare è ritrovare nel cervello una configurazione di eventi che sia formalmente simile al programma implementato dal computer meccanico, ma la configurazione da sola non ha la capacità di nominarsi da sola né, quindi, di spiegare nulla. Insomma, il fatto che l’attribuzione di sintassi non individui alcun potere causale risulta fatale all’esigenza del programma di fornire una spiegazione causale della cognizione. Per analizzare le conseguenze di ciò, ricordiamoci di come appaiono in realtà le spiegazioni dei cognitivisti. Spiegazioni come quella di Chomsky della sintassi dei linguaggi naturali o quella di Marr del processo visivo funzionano stabilendo un insieme di regole seguendo le quali un input simbolico si trasforma in un output simbolico. Nel caso di Chomsky, per esempio, un singolo simbolo input, S, viene trasformato in uno qualsiasi dei potenziali numeri infiniti di frasi mediante l’applicazione ripetuta di un insieme di regole sintattiche. Nel caso di Marr, le rappresentazioni di vettore visivo bidimensionale vengono trasformate in «descrizioni» tridimensionali del mondo seguendo alcuni algoritmi. La distinzione tripartita di Marr tra compito computazionale, soluzione algoritmica del compito e implementazione hardware dell’algoritmo, è diventata famosa (con il nome di distinzione di Newell) come un’asserzione del modello generale della spiegazione. Se queste spiegazioni vengono considerate ingenuamente, come faccio io, è meglio pensarle come se fosse soltanto un uomo solo in una stanza che procede attraverso una serie di passi seguendo delle regole al fine di formare frasi in inglese o descrizioni tridimensionali, secondo il caso. Ma ora chiediamoci quali eventi del mondo reale si suppone corrispondano a queste spiegazioni come fossero applicate al cervello. Nel caso di Chomsky, per esempio, non siamo tenuti a pensare che l’agente consciamente attraversi una serie di ripetute applicazioni di regole; e neppure siamo tenuti a pensare che sta percorrendo la sua strada inconsciamente attraverso una serie di regole. Piuttosto le regole sono «computazionali» e il cervello esegue le computazioni. Ma cosa significa ciò? Beh, ci si aspetta da noi che pensiamo non sia nulla di diverso da un computer commerciale. Quell’oggetto che corrisponde all’attribuzione a un computer commerciale da parte di un certo insieme di regole lo si ritiene corrispondere all’attribuzione al cervello da parte di quelle stesse regole. Ma abbiamo visto che nel computer commerciale l’attribuzione è sempre relativa all’osservatore, l’attribuzione è relativa a un omuncolo che assegna interpretazioni computazionali agli stati dell’hardware. Senza l’omuncolo non c’è computazione, ma solo un circuito elettronico. 41 Ma allora come facciamo ad avere computazione nel cervello senza un omuncolo? Per quanto ne so né Chomsky né Marr hanno mai sollevato la questione né pensato che si potesse dare una simile questione. Ma senza un omuncolo non c’è un potere esplicativo alla postulazione delle condizioni del programma. C’è solo un meccanismo fisico, il cervello, con i suoi reali livelli causali di descrizione fisici e fisico/mentali. VII. Quarta difficoltà: il cervello non elabora informazioni In questa sezione tratto finalmente ciò che penso sia, per alcuni versi, la questione centrale di tutto il discorso, la questione dell’elaborazione delle informazioni. Molti di coloro che si situano nel paradigma scientifico della «scienza cognitiva» riterranno buona parte della mia discussione semplicemente irrilevante e argomenteranno contro di essa come segue: «C’è una differenza tra il cervello e tutti questi altri sistemi che hai descritto finora, e questa differenza spiega perché una simulazione computazionale nel caso degli altri sistemi sia una mera simulazione mentre nel caso del cervello duplica effettivamente le proprietà funzionali del cervello, e non le modellizza solamente. La ragione è che il cervello, diversamente da questi altri sistemi, è un sistema che elabora informazioni. E questa caratteristica del cervello è, secondo le tue parole, «intrinseca». è un dato di fatto della biologia che le funzioni cerebrali svolgano il processo informativo, e dal momento che possiamo anche processare le stesse informazioni computazionalmente, i modelli computazionali dei processi cerebrali hanno un ruolo del tutto differente da quello dei modelli computazionali del tempo, per esempio». Ecco allora una ben definita questione della ricerca: «Le procedure computazionali con cui il cervello elabora l’informazione sono le stesse procedure con cui i computer elaborano la medesima informazione?». Quanto ho appena immaginato che un oppositore dicesse rappresenta uno dei peggiori errori della scienza cognitiva. L’errore è di presupporre che i cervelli elaborino informazioni nello stesso modo in cui i computer sono usati per elaborare informazioni. Per vedere che è un errore confrontiamo quel che accade in un computer con quel che accade in un cervello. Nel caso del computer, un agente esterno codifica delle informazioni in una forma tale da poter essere processata dai circuiti di un computer. Ovvero, lui o lei mettono a punto una realizzazione sintattica dell’informazione che il computer può implementare, per esempio, in differenti livelli di voltaggio. Il computer, quindi, attraversa una serie di passaggi elettrici che l’agente esterno può interpretare sia sintatticamente che semanticamente, anche se, ovviamente, l’hardware non ha sintassi o semantica intrinseche: è tutto nell’occhio dell’osservatore. E la fisica non ha importanza, a condizione che si possa arrivare ad essa per implementare l’algoritmo. Infine, l’output viene prodotto nella forma di un fenomeno fisico che un osservatore può interpretare come simbolo con una sintassi e una semantica. Confrontiamo quanto sopra con il cervello. Nel caso del cervello nessuno dei processi neurobiologici principali sono relativi all’osservatore (sebbene, ovviamente, possano essere descritti dal punto di vista di un osservatore, come ogni altra cosa) e la specificità della neurofisiologia conta moltissimo. Per chiarire tale differenza facciamo un esempio. Supponete che io veda una macchina venire verso di me. Un modello computazionale standard della visione prenderà l’informazione dalla mia retina e infine emetterà la frase: «C’è una macchina che viene verso di me». Tuttavia non è questo ciò che accade nella realtà biologica. In biologia una serie concreta e determinata di reazioni elettrochimiche vengono prodotte dall’arrivo dei fotoni sulle cellule fotorecettrici della mia retina, e l’intero processo si risolve alla fine in un’esperienza visiva concreta. La realtà biologica non è quella di un mucchio di parole o simboli prodotti dal sistema visivo quanto piuttosto un evento visivo cosciente, determinato e concreto; questa è la vera esperienza visiva. Ora, l’evento visivo concreto è determinato e concreto quanto lo è un uragano o la digestione di un pasto. Noi possiamo, con il computer, creare un modello di elaborazione dell’informazione di quell’evento o della sua produzione, così come possiamo creare un modello per il tempo, per la digestione o per qualunque altro fenomeno, ma i fenomeni di per se stessi non sono sistemi di elaborazione dell’informazione. 42 In breve, l’elaborazione dell’informazione nel senso usato nelle scienze cognitive è un concetto con un livello di astrazione troppo elevato per catturare la concreta realtà biologica dell’intenzionalità intrinseca. L’«informazione» nel cervello è sempre relativa a una qualche modalità. è specifica per il pensiero, per la visione, l’udito o il tatto, per esempio. Il livello di elaborazione dell’informazione quale è descritto nel modello computazionale della cognizione delle scienze cognitive, d’altra parte, è semplicemente il fatto di ricevere un insieme di simboli come output in risposta a un insieme di simboli immessi come input. Noi siamo impossibilitati a cogliere questa differenza per il fatto che la stessa frase, «Vedo una macchina venire verso di me», può essere usata per registrare sia l’intenzionalità della visione che l’output del modello computazionale della visione. Ma ciò non dovrebbe impedirci di vedere che l’esperienza visiva è un evento concreto ed è prodotto nel cervello da determinati processi biologici ed elettrochimici. Confondere tali eventi e processi con la manipolazione di simboli formali equivale a confondere la realtà con il suo modello. Il punto centrale di questa parte del discorso è che usando il termine «informazione» nell’accezione usata nelle scienze cognitive è semplicemente falso dire che il cervello è un dispositivo per elaborare informazioni. VIII. Indice della discussione Questa breve discussione ha una semplice struttura logica che ora vado ad esporre: Nella definizione standard, la computazione è definita sintatticamente in termini di manipolazione di simboli. Ma sintassi e simboli non sono definiti in termini di fisica. Sebbene le occorrenze dei simboli siano sempre occorrenze fisiche, «simbolo» e «stesso simbolo» non sono definiti in termini fisici. In breve, la sintassi non è connessa intrinsecamente alla fisica. La conseguenza di ciò è che la computazione non è stata scoperta con la fisica ma ad essa è stata attribuita. Alcuni fenomeni fisici sono attribuiti o usati o programmati o interpretati sintatticamente. La sintassi e i simboli sono relativi all’osservatore. Ne consegue che non è possibile «scoprire» che il cervello o qualsiasi altra cosa sia intrinsecamente un computer digitale, sebbene sia possibile attribuirgli un’interpretazione computazionale così com’è possibile per qualsiasi altra cosa. La questione non è che l’affermazione: «Il cervello è un computer digitale» sia falsa, ma piuttosto che non raggiunga un livello di falsità. Non ha un senso chiaro. Il mio discorso sarà mal interpretato se si crede che io stia argomentando sul fatto che sia semplicemente falso che il cervello sia un computer digitale. La domanda «Il cervello è un computer digitale?» è mal posta come le domande «è un abaco?», «è un libro?», «è un insieme di simboli?» o «è un insieme di formule matematiche?». Alcuni sistemi fisici facilitano l’uso computazionale molto meglio di altri. Per questo noi li costruiamo, li programmiamo e li usiamo. In tali casi noi siamo l’omuncolo nel sistema che interpreta i fenomeni fisici sia in termini sintattici che semantici. Ma le spiegazioni causali che diamo non citano proprietà causali diverse da quelle fisiche dell’implementazione e dell’intenzionalità dell’omuncolo. La via d’uscita standard, sebbene tacita, è di affidarsi alla fallacia dell’omuncolo. La fallacia dell’omuncolo è endemica ai modelli computazionali di cognizione e non può essere rimossa dagli argomenti di scomposizione ricorsiva standard. Questi ultimi affrontano una questione diversa. Non possiamo evitare i risultati precedenti supponendo che il cervello «elabori informazioni». Il cervello, per quanto riguarda le operazioni intrinseche, non elabora informazioni. è un organo biologico specifico e i suoi processi neurobiologici specifici producono forme specifiche di intenzionalità. Nel cervello, intrinsecamente, avvengono processi neurobiologici e qualche volta questi producono consapevolezza. Ma qui finisce la storia. 43 L'uno e il molteplice Il fenomeno della diffrazione è estremamente significativo per quanto riguarda le leggi che governano il comportamento della materia. Una sola fenditura produce una immagine indifferenziata mentre due fenditure generano una immagine differenziata, la figura di interferenza, lo spettro a righe caratteristico. Il passaggio dall'uno al molteplice non avviene in maniera caotica ma risulta soggetto a leggi che intrinsecamente governano il fenomeno fisico a livello statistico. La suddivisione dell'unità in una molteplicità implica la creazione di una relazione tra le varie componenti, tale relazione si presenta come principio ordinatore rispetto al caos preesistente. L'uno non presuppone null'altro che sé stesso. Nell'unità si realizza la totalità dell'essere. Nel momento in cui l'uno si suddivide nel molteplice subentra la varietà dell'essere, ciascuna parte è libera di esistere in maniera indipendente dal tutto. Eppure la natura ci mostra come si mantenga una correlazione tra le varie parti, correlazione soggetta a leggi statistiche. Il comportamento della materia a livello subatomico indica come le possibilità di movimento delle singole particelle sia soggetta oltre che a forze fisiche anche a leggi matematiche che ne governano il comportamento a livello statistico. Sembrerebbe che le particelle siano in relazione scambievole tra loro e siano influenzate reciprocamente. L'equazione matematica che descrive il comportamento statistico delle particelle sembra trascendere le interazioni fisiche tra le particelle stesse e nondimeno predice con precisione l'evolversi dell'intero sistema. La stabilità della materia si basa sul comportamento complessivo di una molteplicità di particelle in moto caotico. Tale comportamento complessivo rivela una unita' di struttura che ha validità solo statisticamente e si produce a partire da un notevolissimo numero di comportamenti caotici individuali. L'esistenza di una tale legge generale di comportamento richiama alla memoria la legge dei grandi numeri, ma per la propria specificità non sembra plausibile che ad essa possa ricondursi completamente. Intuitivamente saremmo propensi a pensare ad un principio di correlazione tra le diverse parti che ricostituisca l'omogeneità del tutto originario, in altri termini il molteplice che ritorna nell'unità: tutto è uno. Due orologi che forniscono la stessa ora non sono correlati da interazioni fisiche ma il sincronismo deriva dalla struttura comune ed ha origine nello stato complessivo iniziale. Allo stesso modo le leggi matematiche di correlazione statistica dei singoli eventi fisicamente separati conserva l'unità complessiva dell'intero sistema. Le particelle sono coordinate non da uno scambio fisico di informazione ma piuttosto dalla propria intrinseca natura. In effetti l'esistenza di una tale legge matematica, che suggerisce una corrispondente proprietà fisica della materia, risulta essere una sorpresa non facilmente spiegabile dall'intelletto in termini di interazioni soggette al principio di causa ed effetto. Definire cosa sia l'informazione pura è estremamente difficoltoso. In particolare siamo talmente abituati a dare un significato all'informazione che spesso dimentichiamo che è la nostra mente ad attribuire un significato ai messaggi che riceviamo continuamente. Dal punto di vista di una particella materiale le cose stanno molto diversamente. Comunque possiamo tentare di definire l'informazione come una correlazione fra due stati materialmente possibili. In particolare se disponiamo di due rappresentazioni collegate tramite un canale di trasmissione possiamo definire l'informazione come una correlazione fra elementi nelle rispettive rappresentazioni. Questa definizione funziona molto bene quando cerchiamo di capire cosa succede quando due persone si scambiano informazione. Nella meccanica quantistica la funzione d'onda contiene la correlazione fra le possibili misurazioni fisiche. 44 Gli stati possibili descritti dalla funzione d'onda sono quindi in relazione reciproca in maniera istantanea anche se non siamo in presenza di alcun segnale scambiato. Possiamo quindi ipotizzare che l'informazione, intesa come correlazione tra stati, possa essere trasmessa senza scambio di messaggi specifici, in particolare senza l'utilizzo di energia. Nell'esperimento EPR due particelle correlate si influenzano reciprocamente. L'esperimento EPR è un fenomeno non razionalizzabile caratteristico delle dinamiche della meccanica quantistica, per cui azioni tra luoghi distanti - che normalmente avvengono in tempi e spazi diversi - avvengono invece nello stesso tempo e conspazialmente. Questo fenomeno è presentato dai quanti, da protoni o altre particelle, da elettroni, da interi atomi, da parti di molecole aventi due possibili stati morfologici (ad esempio, le proteine neuroniche "tubulina alfa" e "tubulina beta", che differiscono solo per l'orientamento spaziale di parte della molecola), i quali talvolta vengono emessi e/o si presentano in modo correlato ("entangled"). Il modo correlato consiste in uno "stato di sovrapposizione" che attribuisce contemporaneamente, ai vari enti sopraelencati, proprietà normalmente antagoniste, quali ad es. velocità in due o più diverse direzioni, spin (rotazione) destrorsa e sinistrorsa, orientamenti spaziali in direzioni diverse, proprietà corpuscolari spazialmente definite che si trasformano in onde di materia stazionarie e fluttuanti con continuità (elettroni nelle proprie orbite atomiche o nei circuiti superconduttori). Ciò fu intuito (e rifiutato) dai fisici Einstein, Podolsky, Rosen (le esperienze compiute, che indicavano questo comportamento furono da allora dette "EPR", dalle iniziali dei loro cognomi). Al contrario, Niels Bohr affermò: "...anche se due fotoni (correlati) si trovassero su due diverse galassie, continuerebbero a rimanere pur sempre un unico ente, e l'azione compiuta su uno di essi avrebbe effetti istantanei anche sull'altro...". La disputa terminò nel 1982, con gli esperimenti di Alain Aspect che dimostrarono inconfutabilmente la giustezza delle suelencate proprietà della meccanica quantistica. Le equazioni della meccanica quantistica descrivono dunque una correlazione istantanea tra le particelle, questa correlazione contiene informazione. Una particella conosce lo stato dell'altra istantaneamente. Questa interazione reciproca viola il principio di località come è stato più volte osservato. In particolare le particelle non sono separabili nonostante la distanza che le separa, continuano a comportarsi in maniera olistica, come un tutto unico, e sono descritte dalla meccanica quantistica in maniera unitaria. Sembrerebbe quindi che l'informazione debba propagarsi a velocità infinita senza utilizzo di energia. L'informazione contenuta nella funzione d'onda rappresenta la probabilità che si verifichi una determinata misurazione e questa informazione è perfettamente comprensibile all'intelletto umano, in particolare ci consente di prevedere (statisticamente) quali saranno le nostre misurazioni. Ma questa informazione potrebbe anche essere una componente reale caratterizzante gli stati fisici, in particolare potrebbe essere una proprietà dotata di senso per la natura. Così come il campo gravitazionale trasporta l'informazione che da origine all'attrazione tra corpi materiali, la correlazione contenuta nella funzione d'onda descritta matematicamente determina il comportamento delle particelle elementari. La tecnologia della microfabbricazione e lo sviluppo dei materiali per la microelettronica hanno portato e continueranno a portare ad un livello progressivo di miniaturizzazione impressionante, esponenziale, dei componenti elettronici dei calcolatori. Gli effetti quantistici non possono non essere tenuti in considerazione se si vuole garantire un corretto funzionamento dei microchips, quando questi vengono utilizzati in dispositivi per manipolare informazione. Questa considerazione, anche se essa non è stata dominante nel processo che ha portato alla nascita della informazione e della computazione quantistica, certamente gioca un ruolo importante nel giustificare l'enorme interesse che questa ha suscitato non solo a livello scientifico, ma anche nel mondo delle imprese a tecnologia avanzata basate su tecnologie informatiche. 45 Tuttavia, la computazione quantistica, che combina quelle che sono due fra le maggiori rivoluzioni scientifiche del XX° secolo, vale a dire la meccanica quantistica e la scienza dell'informazione è ben altro. Oltre all'energia c'è un'altra proprietà della fisica, a prima vista molto più astratta che si direbbe appartenere piuttosto all'ambito della metafisica, che ha validità universale, cioè si può esprimere in maniere totalmente differenti l'una dall'altra, indipendenti dal supporto fisico: l'informazione. Come le osservabili della fisica, l'informazione deve essere contenuta in oggetti che possono essere del tutto diversi, le parole pronunciate sono convogliate dalle variazioni di pressione dell'aria, quelle scritte dalla disposizione delle molecole di inchiostro sulla carta, perfino i pensieri corrispondono a particolari configurazioni dei neuroni, e soprattutto, come per le osservabili della fisica, l'informazione viene lasciata immutata da certe trasformazioni. L'informazione si comporta in un qualche modo come una grandezza fisica, che può essere conservata, trasformata, misurata e dissipata. Oggigiorno tutti conosciamo il computer come eccellente elaboratore di informazioni. La facilità con cui l'informazione può essere manipolata automaticamente nasce proprio dalla universalità, dal fatto che essa può essere espressa in maniere diverse senza perdere la sua natura essenziale e che, come accade nella fisica, anche le trasformazioni più complesse si possono realizzare con tante operazioni semplici. Non c'è informazione senza un portatore fisico, ma per converso, l'informazione è essenzialmente indipendente da come essa è espressa fisicamente e può essere liberamente trasferita da una forma ad un'altra: è questo che fa dell'informazione un candidato naturale ad un ruolo fondamentale nella fisica, esattamente come energia e quantità di moto. Storicamente gran parte della fisica di base ha avuto a che fare con il compito di scoprire i costituenti fondamentali della materia e le leggi che descrivono e governano le loro interazioni e la loro dinamica. Ora comincia ad emergere come ugualmente importante e fondamentale il programma di scoprire in quali modi la natura permetta o proibisca che l'informazione venga espressa, immagazzinata, manipolata e trasmessa. L'ambizioso programma di riconsiderare i principi fondamentali della fisica dal punto di vista della teoria della informazione è ancora nella sua infanzia, tuttavia promette di dare frutti importanti: i concetti e i metodi della informazione e della computazione quantistica sono i primi fra questi. Dai tempi di Turing essenzialmente nessun cambiamento sostanziale ha avuto luogo nell'idea di che cosa sia e come operi un computer, fino a che la meccanica quantistica non ha aperto la possibilità di un cambiamento di paradigma. La meccanica quantistica è una struttura matematica per descrivere la natura che, almeno in linea di principio, include qualsiasi sistema fisico, essa ci confronta con uno schema fatto di paradigmi ben diversi dal suo corrispondente classico: variabili dinamiche associate ad operatori che agiscono in uno spazio degli stati in cui i vettori possono avere infinite componenti complesse, le funzioni d'onda, solo con una sequenza di difficili reinterpretazioni del concetto di misura e del significato delle proprietà spettrali di tali operatori si possono mettere in relazione le analoghe variabili classiche. È interessante notare come la proprietà della teoria quantistica più rilevante ai fini della applicazione alla informazione e alla computazione non sono tanto nei dettagli delle equazioni del moto e della dinamica che esse generano, quanto proprio nel fatto che lo stato del sistema sia descritto da vettori di stato in uno spazio di Hilbert. Essa ci insegna infatti che la quantizzazione di un sistema fisico classico con N gradi di libertà genera un sistema quantistico il cui spazio degli stati ha un volume che cresce esponenzialmente con N e dunque si presta ad una complessità combinatoria di strutture dinamiche possibili enormemente grande. Le proprietà che rendono le varie operazioni di manipolazione quantistica della informazione (immagazzinamento, trasferimento, acquisizione, modificazione, lettura) così radicalmente differenti dalle loro analoghe classiche, sono proprio quelle proprietà quantistiche che non hanno un corrispondente classico. 46 L'informazione classica è abitualmente codificata in stringhe di bit completamente misurabili ad ogni passo del processo di calcolo, al contrario l'informazione quantistica è immagazzinata in stati quantistici. La struttura dello spazio di tali stati è tale che questi risultano essere genericamente la sovrapposizione complessa di tutte le sequenze possibili di bit, ciascuna con una sua probabilità di essere individuata da una operazione di misura. L'evoluzione quantistica si rappresenta semplicemente scrivendo la soluzione della equazione di Schrödinger. Gli ingredienti che la fisica quantistica ci fornisce per realizzare il calcolo quantistico sono: i. la sovrapponibilità degli stati: un computer quantistico può stare in qualsiasi combinazione di tutti i possibili stati di uno classico. I coefficienti di tali combinazioni sono numeri complessi, caratterizzati in quanto tali da un modulo e da una fase. ii. L'interferenza: essenziale ai fini del calcolo, perché è grazie ad essa che gli stati coesistenti si possono fare interferire, costruttivamente o distruttivamente manipolando le loro fasi relative. Un computer quantistico universale ha un numero infinito di stati computazionali e il processo di calcolo si può pensare come una infinità di percorsi in ciascuno dei quali tutti gli stati possibili evolvono in parallelo. Sono le fasi di questi stati lungo i vari percorsi che interferendo danno luogo ad un unico ben definito output. iii. L'entanglement (intreccio): è una delle proprietà caratteristiche della natura quantistica di un sistema fisico a più componenti. Essa comporta che si possano costruire stati quantistici ben definiti di sistemi composti i quali non corrispondono a stati ben definiti delle loro parti costituenti. iv. L'indeterminazione: è proprietà anch'essa caratteristica (negativa) che fa sì che uno stato non noto non possa essere clonato senza essere irreversibilmente disturbato dal processo. Il principio di indeterminazione ci dice che le osservabili dette coniugate hanno la strana proprietà che non è possibile conoscerne il valore esatto nello stesso stato per entrambe. L'idea che si possa immagazzinare informazione negli stati microscopici è per i fisici una sfida senza precedenti, in quanto apre la prospettiva di usare la materia stessa nella sua struttura fondamentale per fare calcolo. La possibilità della realizzazione di questo programma è tanto affascinante quanto ardua. Gli effetti di interferenza che permettono agli algoritmi quantistici di funzionare rendono tali algoritmi anche molto fragili. La computazione quantistica mira a realizzare schemi computazionali esponenzialmente più efficienti dei corrispondenti classici proprio grazie alle proprietà caratteristiche della fisica quantistica. 47 Intelligenza artificiale Gli scienziati dicono di avere già imparato molte cose sul modo in cui il cervello elabora le informazioni che riceve dai cinque sensi. Prendete, ad esempio, il modo in cui elabora gli stimoli visivi. Gli occhi della mente La luce raggiunge gli occhi e colpisce la retina, una struttura formata da tre strati di cellule che si trova sul fondo del bulbo oculare. La luce penetra fino al terzo strato. Qui si trovano cellule dette bastoncelli, che sono sensibili alle variazioni di luminosità, e coni, che reagiscono a luce di diverse lunghezze d'onda corrispondenti ai colori rosso, verde e blu. La luce scolora il pigmento presente in queste cellule. Questo genera un segnale che viene trasmesso alle cellule del secondo strato e da queste ad altre cellule ancora nello strato più esterno. Gli assoni di queste cellule si uniscono per formare il nervo ottico. I milioni di neuroni del nervo ottico arrivano a una regione del cervello nota come chiasma ottico. Qui i neuroni che portano i segnali provenienti dalla parte sinistra della retina di ciascun occhio si incontrano e proseguono paralleli fino alla parte sinistra del cervello. Analogamente, i segnali provenienti dalla parte destra di ciascuna retina si uniscono e viaggiano verso la parte destra. Gli impulsi arrivano poi a un "ripetitore" situato nel talamo, e da li i neuroni successivi li trasmettono a una zona nella parte posteriore del cervello nota come corteccia visiva. Elementi diversi dell'informazione visiva viaggiano su strade parallele. I ricercatori sanno ora che la corteccia visiva primaria, insieme a un'area vicina, funge un po' da "ufficio postale" in quanto seleziona, smista e integra le molte informazioni portate dai neuroni. Una terza area percepisce i contorni, ad esempio i margini di un oggetto, e i movimenti. Una quarta area riconosce sia la forma che il colore, mentre una quinta aggiorna di continuo mappe di dati visivi per seguire i movimenti. Le ricerche attuali fanno pensare che ci siano ben 30 aree cerebrali diverse che elaborano le informazioni visive raccolte dagli occhi! Ma in che modo queste aree collaborano per dar vita a un'immagine? Sì, come fa la mente a "vedere"? "Vedere" con il cervello L'occhio raccoglie informazioni per il cervello, ma è evidentemente la corteccia a elaborare le informazioni che il cervello riceve. Se scattate una foto. questa rivelerà particolari dell'intera scena. Se invece guardate la stessa scena con gli occhi, osservate consapevolmente solo quella parte su cui fissate l'attenzione. In che modo il cervello faccia questo rimane un mistero. C'è chi ritiene che questo sia il risultato di un'integrazione progressiva dell'informazione visiva in cosiddette "aree di convergenza", che permettono di paragonare ciò che si vede con ciò che si conosce già. Altri suggeriscono che quando non si vede qualcosa di evidente, è semplicemente perché i neuroni che controllano la visione cosciente non producono impulsi. Comunque stiano le cose. Le difficoltà che gli scienziati incontrano nello spiegare i meccanismi della visione sono insignificanti in paragone con i problemi che pone il definire cosa sia implicato nei concetti di "consapevolezza" e "mente". Raffinate tecniche di indagine diagnostica, come la risonanza magnetica e la tomografia a emissione di positroni (PET), hanno permesso agli scienziati di osservare il cervello umano in modi nuovi. E osservando come il sangue affluisce a certe regioni del cervello durante i processi mentali hanno concluso con ragionevole certezza che udire le parole, visualizzarle e pronunciarle sono processi che coinvolgono aree diverse della corteccia cerebrale. Nondimeno, conclude uno scrittore, "il fenomeno della mente, ovvero della consapevolezza, è molto più complesso ... di quanto si potesse sospettare". Si, i misteri del cervello sono ancora in gran parte da svelare. Il cervello: solo uno straordinario computer? Per comprendere la complessità del cervello può essere utile fare dei paragoni. All'inizio della rivoluzione industriale, a metà del XVIII secolo, divenne di moda paragonare il cervello a una 48 macchina. In seguito, quando le centraline telefoniche divennero un simbolo di progresso, il cervello venne paragonato a una centralina in piena attività con un operatore che prendeva decisioni. Ora che i compiti più complessi sono affidati a computer, c'è chi paragona il cervello a un computer. Ma il paragone spiega a sufficienza come funziona il cervello? Tra il cervello e un computer esistono significative differenze basilari. Il cervello è fondamentalmente un sistema chimico, non elettrico. All'interno di ogni cellula avvengono numerose reazioni chimiche, mentre un computer funziona in maniera completamente diversa. Inoltre, come osserva Susan A. Greenfield, "il cervello non è programmato da nessuno: è un organo che si autoorganizza spontaneamente". Un computer, invece, deve essere programmato. I neuroni comunicano tra loro in maniera complessa. Molti neuroni reagiscono a 1.000 o più "input" sinaptici. Per comprendere quali conseguenze ha questo fatto, notate i risultati ottenuti da un neurobiologo che ha studiato una regione della base del cervello, posta dietro il naso e leggermente più in alto, per scoprire come facciamo a distinguere gli odori. Egli osserva: "Persino questo compito apparentemente semplice, che sembra una sciocchezza in paragone con il dimostrare un teorema di geometria o con l'apprezzare un quartetto d'archi di Beethoven, coinvolge circa 6 milioni di neuroni, ciascuno dei quali può ricevere 10.000 stimoli dai suoi simili". Ma il cervello non è solo un insieme di neuroni. Per ogni neurone vi sono diverse cellule dette gliali. Queste, oltre a servire da sostegno strutturale, provvedono all'isolamento elettrico dei neuroni, combattono le infezioni e si uniscono per formare la cosiddetta "barriera ematoencefalica" che protegge il cervello. Secondo i ricercatori le cellule gliali potrebbero avere altre funzioni non ancora scoperte. "L'ovvia analogia con i computer di fattura umana, che elaborano informazioni elettroniche in forma digitale, potrebbe essere talmente incompleta da risultare fuorviante", conclude la rivista Thè Economist. E ci resta da spiegare ancora un altro mistero. Di cosa sono fatti i ricordi? La memoria, che secondo quanto scrive Ri-chard F. Thompson nel libro II cervello è "il fenomeno più straordinario di tutto il mondo naturale", coinvolge vari sistemi cerebrali distinti. La maggior parte degli studiosi del cervello distingue fra due tipi di memoria: dichiarativa e procedurale. La memoria procedurale ha a che fare con capacità e abitudini, mentre quella dichiarativa implica l'immagazzinare dati. Il succitato libro sul cervello classifica i processi della memoria sulla base del tempo: c'è la memoria a brevissimo termine, che si conserva per circa 100 millisecondi; la memoria a breve termine, che permane per alcuni secondi; la memoria di lavoro, che conserva le esperienze recenti; e la memoria a lungo termine, che immagazzina le informazioni verbali e le capacità motorie che sono state ripetute molte volte. Una possibile spiegazione della memoria a lungo termine afferma che essa trae origine dall'attività della parte anteriore del cervello. L'informazione selezionata per la memoria a lungo termine passa sotto forma di impulso elettrico a una parte del cervello nota come ippocampo. Qui un meccanismo chiamato potenziamento a lungo termine accresce la capacità dei neuroni di trasmettere messaggi. Una teoria diversa sul funzionamento della memoria parte dall'idea che le onde cerebrali vi svolgano un ruolo fondamentale. I suoi sostenitori ritengono che le regolari oscillazioni dell'attività elettrica cerebrale, un po' come i colpi di un tamburo che scandisce il tempo, aiutino ad associare i ricordi e a coordinare l'attivazione di varie cellule cerebrali. Per quanto molti dei misteri del cervello rimangano irrisolti, questo organo straordinario ci permette di pensare, meditare e richiamare alla mente le cose imparate. Ma come possiamo usarlo al meglio? SINAPSI E NEUROTRASMETTITORI Quando un neurone viene stimolato, un impulso nervoso viaggia lungo l'assone. Quando l'impulso raggiunge la terminazione dell'assone (il cosiddetto "bottone" sinaptico), fa sì che le minuscole vescicole sinaptiche che vi si trovano, ciascuna delle quali contiene migliala di molecole di neurotrasmettìtore, si fondano con la membrana dell'assone e liberino il loro carico di neurotrasmettitori nello spazio della sinapsi. 49 Attraverso un complicato sistema di chiavi e serrature, il neurotrasmettitore apre e chiude canali di accesso nel neurone successivo. Di conseguenza, particelle dotate di carica elettrica entrano nel neurone bersaglio e vi provocano ulteriori modificazioni chimiche che generano un impulso elettrico oppure inibiscono l'ulteriore attività elettrica. Quando la stimolazione dei neuroni e la conseguente liberazione dei neurotrasmettitori nello spazio sinaptico avvengono con regolarità si verifica un fenomeno detto potenziamento a lungo termine. Secondo alcuni ricercatori questo implicherebbe un avvicinamento dei neuroni. Secondo altri ci sarebbero le prove che il neurone bersaglio invia a sua volta un messaggio a quello da cui è arrivato l'impulso. Questo, a sua volta, provoca delle modificazioni chimiche tali che viene prodotta una quantità ancora maggiore di proteine perché fungano da neurotrasmettitori. A loro volta, queste rafforzano il legame tra i neuroni. La modificabilità delle connessioni all'interno del cervello, la sua cosiddetta "plasticità", è all'origine del detto: "Ciò che non si usa si perde". Pertanto, se si vuole ricordare una cosa è utile richiamarla alla mente spesso. CAPACITA' CARATTERISTICHE DELL'UOMO Grazie a regioni cerebrali specializzate dette aree del linguaggio gli esseri umani sono dotati di eccezionali capacità di comunicazione. A quanto pare quello che vogliamo dire viene organizzato dalla regione dell'emisfero cerebrale sinistro nota come area di Wemicke (1). Questa è in comunicazione con l'area di Broca (2), che applica le regole grammaticali. Gli impulsi arrivano poi ad alcune vicine aree motorie che controllano i muscoli facciali e aiutano a formare dovutamente le parole. Queste aree, inoltre, sono connesse con il sistema visivo del cervello così che possiamo leggere, con il sistema uditivo così che possiamo udire, capire quello che gli altri ci dicono e agire di conseguenza, e — fatto non meno importante — con le banche dati della memoria, così che possiamo immagazzinare pensieri significativi. "Quello che davvero distingue gli esseri umani dagli altri animali", osserva una pubblicazione di carattere scientifico, "è la capacità di imparare un'incredibile varietà di comportamenti, fatti e regole, non solo in relazione agli oggetti fisici dell'ambiente in cui si trovano, ma soprattutto in relazione alle altre persone e a ciò che le spinge a comportarsi in un determinato modo". —Journey to thè Centres of thè Brain. Può un computer arrivare a pensare? Così su due piedi, qualsiasi risposta diate è dettata dall'emotività, quindi non vale granché. Comunque, anche riflettendoci sopra un sacco di tempo, ciascuno di noi potrebbe tirare fuori risposte diverse o addirittura contraddittorie, dal momento che la domanda di per sé può essere interpretata in diversi modi, dare adito ad equivoci. Infatti, siete sicuri di sapere che cos'è un computer? E soprattutto, siamo tutti d'accordo su cosa significa pensare? L'ultima questione è piuttosto spinosa, e quindi cercheremo di aggirarla. Quanto invece alla precedente, ovvero che cosa sia effettivamente un computer, non l'ho posta per semplice sfiducia nei confronti del lettore. Il fatto è che quando si prova a definire rigorosamente un concetto che credevamo acquisito, esso ci sfugge come sabbia tra le dita. Diceva Sant'Agostino a proposito del tempo: "Se nessuno mi chiede cos'è, lo so. Ma se qualcuno me lo chiede, non lo so più". Vediamo di non fare la stessa fine! Un computer è "una macchina (o un insieme di apparecchiature) destinate all'elaborazione dei dati secondo procedimenti anche complessi, definiti attraverso programmi che vengono svolti automaticamente dalla macchina stessa." Esso si divide essenzialmente in due parti: l'hardware (la macchina in sé) e il software (il programma che fa funzionare la macchina). Quale che sia il modello di elaboratore elettronico che stiamo considerando, la sua struttura interna è basata sullo schema logico elaborato da John Von Neumann alla fine degli anni '40, detto appunto schema di Von Neumann. Secondo tale concezione, il computer è costituito da unità periferiche (tastiera, schermo, memorie ausiliarie, stampanti, ecc.) e unità centrale, detta CPU (Central Processing Unit). Quest'ultima è composta a sua volta da un'unità centrale di governo, un'unità aritmetico-logica e dalla memoria di lavoro, che contiene i dati e i programmi in corso di elaborazione. 50 Altre due caratteristiche tipiche di tutti i computer, e che sono fondamentali per il discorso che tenteremo di fare sono le seguenti • • 1. Gli elaboratori elettronici sono macchine digitali, ovvero operano su quantità discrete: numeri, caratteri, parole. I dati al loro interno non circolano sotto forma di grandezze fisiche continue (come ad esempio la tensione elettrica, o la fase), bensì in forma binaria, attraverso due soli tipi di segnale elettrico: una corrente costante che rappresenta l'uno, e l'assenza di corrente, che rappresenta lo zero. Questo comporta notevoli vantaggi dal punto di vista della semplicità dei circuiti, che sono disegnati solamente in base alle tre funzioni fondamentali previste dalla logica binaria: AND, OR e NOT. 2. Gli elaboratori elettronici sono macchine seriali, ovvero compiono una sola operazione per volta. Il fatto che a noi sembri che facciano più cose insieme è dovuto alla loro estrema velocità nel portare a termine i compiti assegnati. Ad esempio, il personal che sto usando in questo istante ha una clock di 40 Mhz, il che significa che è in grado di compiere 40 milioni di operazioni al secondo. Ecco perché sembra che la tastiera funzioni contemporaneamente al monitor mentre la memoria immagazzina quello che scrivo. In realtà, il PC fa funzionare prima il monitor, poi legge quanto proviene dalla tastiera, poi lo memorizza, infine lo fa apparire sul monitor, e quindi ricomincia il ciclo. Il microprocessore però riesce a scambiare informazioni con le periferiche 40 milioni di volte in un secondo, e questo mi dà l'illusione che tutto avvenga nello stesso momento. Al contrario, noi esseri umani, come tutti gli altri organismi biologici, siamo "macchine" parallele, riusciamo cioè a fare più cose insieme, come ad esempio parlare, camminare e respirare senza soffocare né inciampare né dimenticare cosa stavamo dicendo. Il software è il programma, ovvero l'elenco di istruzioni che consente al computer di svolgere di volta in volta le elaborazioni cui è destinato. I programmi sono scritti in linguaggi simbolici detti linguaggi di programmazione, come il fortran, il Pascal, il C, che i compilatori (programmi particolari che fanno parte del software di base come anche i sistemi operativi) provvedono poi a "tradurre" nel linguaggio macchina proprio di ogni tipo di elaboratore. Un amico che lavora da decenni nel campo dell'informatica, una volta mi disse: "Il computer è la macchina più stupida del mondo. Perché se accendi un trapano, il trapano funziona. Quando accendi un computer, invece, devi spiegargli come deve funzionare." Ritorniamo alla domanda da cui siamo partiti. Come può questo manufatto che abbiamo appena descritto, questo "stupido" ammasso di silicio e circuiti stampati arrivare a pensare? Se si è convinti del fatto che un pensiero razionale è costituito da pensieri razionali di taglia più ridotta, assemblati secondo regole logiche precise, come recita la scuola tradizionale della disciplina conosciuta come Intelligenza Artificiale, allora le attuali macchine, dotate di opportuno software, già sono in grado di "pensare". Questa è la posizione sostenuta da alcuni dei padri fondatori della IA, come Herbert Simon e Allen Newell. Ma quella che abbiamo appena dato è una definizione soddisfacente di pensiero? Esistono differenti modi di pensare? Certo noi non assegniamo lo stesso grado di consapevolezza ad un gatto e ad un essere umano, ma appare evidente che il gatto assume comportamenti che presuppongono una certa capacità di osservare l'ambiente, di costruirsene una rappresentazione interna e di agire di conseguenza. Quando il gatto caccia il topo, diciamo che esso segue l'istinto, ma è ovvio che un'operazione complessa come quella del cacciare necessita di una forma, seppur primitiva, di intelligenza. Gli esseri umani elaborano forme più sofisticate di pensiero, come il pensiero razionale, o il pensiero intuitivo. Ma ciò che davvero distingue l'uomo dagli altri animali è il pensiero cosciente. Oltre ad una rappresentazione dell'ambiente, l'uomo è in grado di costruire una rappresentazione di se stesso, di avere coscienza della propria esistenza. E' in grado di formulare una frase come Cogito, ergo sum, penso dunque esisto. Io posso quindi affermare in tutta tranquillità di essere autocosciente e intelligente. Ma come faccio a sapere che gli altri esseri umani, i miei amici, le mie amiche, le persone che frequento sono anch'esse autocoscienti e intelligenti? 51 Semplice: lo deduco dal loro comportamento. Da come rispondono agli stimoli dell'ambiente, alle domande che pongo loro. Visto che le definizioni di coscienza e di intelligenza sono così difficili da ricavare, perché non applicare questo criterio comportamentista anche alle macchine? Partendo dall'assunto che una macchina che riesca a simulare un comportamento intelligente deve possedere caratteristiche che davvero la rendono molto simile ad un essere intelligente, Alan Turing ha elaborato un test per individuare forme di pensiero evoluto nelle macchine. Il test consiste nel chiudere uno sperimentatore in una stanza con un terminale. Lo sperimentatore può porre al terminale tutte le domande che vuole, ma non sa se dall'altra parte c'è un computer o un altro essere umano. Se la macchina riesce a ingannare lo sperimentatore, Turing sostiene che essa ha buone probabilità di essere una macchina pensante. Certo, ci sono domande che sono più efficaci di altre per smascherare un computer: D.: Per cortesia, mi scriva un sonetto che tratti del Ponte sul Forth [un ponte sul fiordo di Forth, in Scozia]. R.: Non faccia affidamento su di me per questo, non ho mai saputo scrivere poesie. D.: Sommi 34957 a 70764. R.. (Pausa di circa 30 secondi e poi la risposta) 105621. D.: Gioca a scacchi? R.: Sì. D.: Ho il Re in e1 e nessun altro pezzo. Lei ha solo il Re in c3 e una Torre in h8. Tocca a lei muovere. Che mossa fa? R.: (Dopo una pausa di 15 secondi) Torre in h1, matto. Comunque, molti ritengono che questo sia un buon metodo per verificare lo stato di evoluzione di una macchina, tanto che William Gibson, nell'ormai mitico Neuromante, chiama Registro Turing la polizia che si occupa della repressione delle Intelligenze Artificiali. Esistono a tutt'oggi macchine in grado di superare il test di Turing? Joseph Weizenbaum nel 196667 realizzò un programma battezzato Eliza che simulava il trattamento terapeutico di uno psicoterapeuta a colloquio con un paziente umano, apprendendo via via dall'esperienza a migliorare le sue prestazioni. Weizenbaum non aveva progettato la sua "creatura" per superare il test di Turing, bensì per studiare il problema della comprensione del linguaggio, ma di certo Eliza avrebbe ingannato più di un paziente. Il punto è che la validità del test dipende da quanto dura e da chi lo conduce. C'è però chi sostiene che con il test di Turing non è possibile stabilire se davvero un macchina è in grado di pensare. John Searle ci propone un Gedankenexperiment, un esperimento ideale, davvero interessante: la stanza cinese. Immaginiamo di chiudere in una stanza un uomo di madrelingua inglese che non capisce assolutamente il cinese, che anzi vede gli ideogrammi come "sgorbi privi di significato". Da una fessura gli inviamo un testo in cinese, con un questionario, sempre in cinese, sulla comprensione di quel testo, e un foglio di istruzioni in inglese che gli spieghi come collegare degli ideogrammi del testo con altri del questionario e quali copiare su un foglio bianco da infilare in una seconda fessura. Chi legge il foglio che esce dalla stanza ci trova scritte le corrette risposte alle domande che erano state poste e deduce quindi che la stanza capisce il cinese. Ma noi tutti sappiamo che l'uomo della stanza non ha fatto altro che manipolare simboli formali senza comprendere il loro significato. E questo, sostiene il filosofo americano, è esattamente quello che fanno i computer attuali: elaborano dati senza capire cosa questi rappresentano, e ciò non significa affatto aver realizzato l'Intelligenza Artificiale, dal momento che "[...] le elaborazioni di simboli formali non hanno di per sé alcuna intenzionalità; sono assolutamente prive di senso; non sono neppure elaborazioni di simboli, poiché i simboli non simboleggiano nulla. Per usare il gergo dei linguisti, essi hanno una sintassi ma non hanno una semantica. L'intenzionalità che i calcolatori sembrano possedere è unicamente nella mente di coloro che li programmano e che li usano, di coloro che immettono gli ingressi e programmano le uscite." 52 Le obiezioni mosse da Searle sono a mio parere molto fondate e difficilmente confutabili. Sommate a quelle di altri critici della IA tradizionale, possono essere riassunte in tre punti fondamentali. • 1. L'esistenza di una sintassi non è condizione sufficiente per l'esistenza di una semantica. • 2. Non dobbiamo fare troppa confusione tra simulazione e riproduzione: quando facciamo girare sul computer la simulazione di un uragano, non ci aspettiamo certo di essere bagnati dalla pioggia. Perché invece facendo girare la simulazione di un comportamento intelligente ci aspettiamo di aver riprodotto l'intelligenza? • 3. Nel paragonare il cervello a un computer e la mente a un programma si commette un errore di fondo, dal momento che hardware e software sono facilmente e nettamente separabili (tanto che lo stesso software può girare su hardware diversi), mentre questo non è altrettanto vero per la coppia cervello-mente. Non siamo affatto sicuri che la struttura e le capacità della mente umana siano totalmente indipendenti dal loro supporto biologico. Per usare le parole di Marcello Cini, "L'identificazione del cervello con un computer trascura infatti una quantità di risultati che mostrano come il modo utilizzato dagli esseri umani e dagli animali per classificare gli oggetti e gli avvenimenti in categorie non ha niente a che vedere con la logica o con il calcolo. L'analisi dell'evoluzione, dello sviluppo e della struttura del cervello rende infatti estremamente improbabile l'ipotesi che esso funzioni come una macchina di Turing." Questo significa che non riusciremo mai a realizzare le macchine sognate da tanti scrittori? Certo, con l'attuale architettura sarà difficile arrivare ad un computer sensibile come il Multivac, che se non gli dici "per favore" si offende e non comincia a fare i calcoli! E il terribile computer-dio del racconto La risposta di Brown? Ve lo ricordate? Tutti gli elaboratori elettronici della galassia vengono collegati in un unico super cervellone che deve rispondere alla fatidica domanda: "Esiste dio?" E il computer risponde: "Sì, adesso Dio esiste.", e con una saetta celeste incenerisce il povero tecnico che cercava di staccare la spina. Fortunatamente, l'eventuale produzione di un tale manufatto sembra molto lontana, come sembrano lontani i fratellini di HAL 9000, che all'occorrenza si trasformano in sofisticati killer, o le inquietanti IA che mettono in atto la secessione dalla razza umana per occuparsi con maggior libertà dei propri affari. Ma cosa manca ai nostri computer per essere intelligenti, o meglio per avviarsi sulla strada del comportamento intelligente? Sicuramente tre caratteristiche tipiche dei sistemi biologici in cui per la prima volta questo tipo di comportamento è emerso, ovvero il parallelismo, la ridondanza e l'autoreferenzialità. Del parallelismo abbiamo già parlato. Gli organismi viventi possono compiere azioni differenti nello stesso momento, gli elaboratori elettronici no. E a poco valgono gli sforzi per superare il collo di bottiglia dell'entrata alla CPU attraverso incredibili velocità di calcolo: le macchine seriali falliscono miseramente in compiti relativamente semplici come riconoscere le sagoma di un oggetto in un ambiente disturbato. Per ovviare a questo inconveniente si stanno sperimentando architetture interne che si discostino nettamente dallo schema di Von Neumann, e vedremo più avanti a che punto si è con questi tentativi. Per quanto riguarda la ridondanza, il discorso e un po' più complicato. Una macchina che venga progettata per un determinato scopo possiede un numero finito di pezzi, ciascuno dei quali essenziale per il compito che deve svolgere. Se uno solo dei pezzi si rompe, la macchina non è più in grado di funzionare. Di qui il famoso adagio "Una catena è forte quanto il suo anello più debole". Per gli organismi viventi, siano essi batteri unicellulari o mammiferi superiori, le cose non stanno affatto così. Una stessa funzione può essere espletata da organi differenti. La perdita di un pezzo, in genere, non rende la macchina biologica inutilizzabile. Facciamo qualche esempio. Le proteine delle quali il nostro corpo ha bisogno vengono assemblate dagli organuli delle cellule, seguendo il programma scritto nel nostro codice genetico. Le proteine sono costituite da mattoni più piccoli detti aminoacidi. Questi vengono individuati dal DNA 53 attraverso particolari sequenze, dette triplette, perché formate da tre basi azotate. Le basi utilizzate dal DNA per descrivere gli aminoacidi sono quattro: adenina, guanina, timina e citosina. Un rapido calcolo ci informa che con questo sistema è possibile individuare 64 aminoacidi. Ma in natura ne esistono solo 20. Di conseguenza, più triplette differenti indicano lo stesso aminoacido. Questo è un fenomeno di ridondanza, fondamentale per la sopravvivenza e l'evoluzione degli esseri viventi. Spiega Cini: "[...] il DNA ripetitivo, come ridondanza strutturale iniziale, e la degenerazione del codice genetico, come ridondanza funzionale, possono essere spiegati come possibili meccanismi di differenziazione cellulare durante lo sviluppo embrionale. In questo modo infatti la quantità di informazione contenuta nel "programma" genetico può essere considerevolmente ridotta rispetto a quella necessaria per una determinazione rigorosa dei dettagli del processo di differenziazione. In altre parole questi dettagli non sono specificati a priori nel patrimonio genetico, ma sono frutto del processo evolutivo che li origina attraverso la distruzione della ridondanza iniziale da parte dell'intervento aleatorio dell'ambiente. Questo sembra valere in particolare per lo sviluppo del sistema nervoso, [...] evitando la necessità di codificare nell'informazione genetica tutti i dettagli di un sistema costituito da dieci miliardi di neuroni interconnessi." L'uso della ridondanza si riflette anche sul modo in cui circolano le informazioni all'interno del cervello. Se anche un solo bit di un programma va perduto, il programma non gira più, non funziona. Quando invece il segnale di un neurone si perde nel rumore di fondo del nostro cervello, i nostri pensieri continuano ad avere un senso compiuto. Addirittura la morte di un numero non troppo elevato di neuroni non inficia le nostre capacità intellettive. Tutto questo grazie alla ridondanza e all'alto grado di parallelismo dell'architettura cerebrale. L'autoreferenzialità è un'altra caratteristica fondamentale, sebbene poco nota, dei sistemi biologici. Darne una definizione chiara non è semplice. Vediamo di cominciare con un esempio che risulti comprensibile a tutti. Ricordate il paradosso del mentitore? Una delle sue forme più conosciute è questa: Epimenide il cretese dice: "Tutti i cretesi mentono" Il paradosso è evidente: se Epimenide dice il vero, sta mentendo, perché lui è un cretese che non mente; se invece Epimenide sta mentendo, dice il vero, perché appunto conferma che tutti i cretesi mentono. Insomma, Epimenide mente o dice il vero? Come si esce da questo vicolo cieco logico? La soluzione è meno complessa di quanto può sembrare: è vero che tutti i cretesi mentono, ma non contemporaneamente! Esiste cioè almeno un cretese che, in un certo istante, dice il vero: Epimenide, appunto. La frase che origina il paradosso ha un carattere autoreferenziale, il significato della seconda riga interviene su quello della prima, parla cioè di se stessa, è una sorta di cane che si morde la coda. Per uscire dal cortocircuito linguistico, facciamo ricorso ad una proprietà nuova, della quale non c'è traccia nelle frase stessa, ovvero la collocazione temporale delle azioni di cui si parla. Se proprio vogliamo dare un significato profondo alla frase, essa ci comunica appunto che non tutti i cretesi mentono contemporaneamente, una informazione che non compare affatto nel distico sopra riportato. Il messaggio risulta quindi essere qualcosa più della somma delle parole della frase. L'autoreferenzialità porta all'emergere di proprietà superiori, nascoste, impreviste. Gli organismi viventi, considerati da questo punto di vista, sono dei paradossi biochimici: la loro organizzazione interna è infatti strutturata in una gerarchia di livelli caratterizzati da proprietà non riducibili a quelle del livello più elementare. Basta pensare che il DNA contiene l'informazione necessaria per la sintesi delle proteine, ma le proteine sono necessarie per realizzare questa sintesi e duplicare lo stesso DNA. La gerarchia interna dei sistemi biologici deve quindi essere "intrecciata", cioè dev'essere sede di catene causali circolari (anelli ricorsivi) che rompono l'ordine gerarchico lineare facendo retroagire reciprocamente i livelli superiori con quelli inferiori. Gli organismi acquistano in tal modo un carattere autoreferenziale, un carattere che, se sul piano della logica 54 formale produce paradossi (come abbiamo appena visto), nel mondo del divenire degli oggetti reali genera, come risoluzione del paradosso, l'emergere di nuove strutture e di nuove proprietà. Una di queste proprietà è proprio l'intelligenza cosciente. Per riprodurla in un manufatto dobbiamo tentare di riprodurre catene causali, anelli ricorsivi. Nel caso degli esseri viventi, essi erano costituiti dalla possibilità di retroazione reciproca dei livelli fisici di una struttura organizzata gerarchicamente. Qui si tratta di livelli della struttura informazionale di un programma, ma il problema è lo stesso. Questo approccio è lontano anni luce dagli attuali modelli di IA. Sarebbe come se un programma potesse modificare il compilatore che lo sta compilando, o come se un PC potesse riscrivere da solo il proprio sistema operativo. Anzi, peggio, perché nel nostro cervello, nuove esperienze producono nuove sinapsi, inediti collegamenti tra mappe neuroniche: il software che modifica l'hardware! Roba da far venire i brividi agli hacker più spregiudicati! Ma sentiamo cosa ha da dire sull'argomento Douglas Hofstadter, uno dei ricercatori più brillanti nel campo dell'IA: "Le spiegazioni dei fenomeni emergenti nel nostro cervello - idee, speranze, immagini, analogie, e alla fine coscienza e libero arbitrio - si fondano sull'esistenza di anelli ricorsivi, cioè di interazioni fra livelli tali che il livello superiore retroagisce su quello inferiore e lo influenza, mentre al tempo stesso è a sua volta determinato da quello inferiore. [...] Il «sé» nasce nel momento in cui acquista il potere di riflettere se stesso." E ancora: "Ciò è del tutto estraneo allo stile attuale dell'informatica, che vuole l'implementazione dei livelli uno sopra l'altro, in maniera strettamente verticale e a compartimenti stagni. Che un livello superiore sia capace di retroagire e influire sui livelli inferiori - che sono i suoi stessi puntelli - è una sorta di operazione magica che ci sembra molto vicina al nucleo della coscienza." I tentativi di costruire un elaboratore parallelo hanno finora portato a due risultati notevoli: le reti neurali e la Connection Machine. Entrambe queste soluzioni possiedono anche delle caratteristiche "ridondanti", mentre per quanto riguarda l'autoreferenzialità siamo ancora in alto mare. La Connection Machine nasce proprio da una riflessione sui limiti dello schema di Von Neumann. Anziché concentrare tutte le capacità di calcolo in una CPU superpotente e tutti i dati e i programmi in una megamemoria di difficile gestione, questo rivoluzionario computer sfrutta 65.536 unità di elaborazione semplicissime, ciascuna delle quali dotata della sua piccola memoria. Sebbene ogni unità sia molto meno potente di un normale PC, lavorando insieme esse riescono a eseguire parecchi miliardi di istruzioni al secondo. La macchina connessionistica è quindi uno dei più veloci elaboratori mai costruiti, ma la cosa più impressionante è la sua flessibilità, dovuta fondamentalmente alla sua originalissima architettura. Sentiamone una descrizione dalla viva voce del suo ideatore, W. Daniel Hillis: "L'elemento fondamentale che si ripete nella macchina connessionistica è un circuito integrato composto di 16 piccole unità di elaborazione e di un dispositivo per l'instradamento della comunicazione. Ogni unità è dotata di 4069 bit di memoria.[...] Le 16 unità sono incise su un'unica piastrina (chip) e la piastrine sono a loro volta incapsulate a gruppi di 32 su un unico pannello a circuiti stampati. La macchina contiene 128 di questi pannelli, che sono sistemati in un cubo di 1,5 metri di lato.[...] Le 16 unità di elaborazione di ciascuna piastrina sono collegate mediante un commutatore che consente di stabilire un collegamento diretto tra due elementi qualunque. Per ottenere un collegamento diretto tra due qualunque delle 65.536 unità del sistema, sarebbero necessari più di due miliardi di fili, un'impresa impossibile. Invece si è collegato il dispositivo d'instradamento di ciascuna piastrina con altri 12 dispositivi dello stesso tipo. Questi «instradatori» sono collegati fra loro secondo uno schema chiamato cubo booleano a n dimensioni." Cosa sia esattamente un cubo booleano a n dimensioni non è cosa facile da spiegare in poche parole. Hillis, comunque, ci riesce: "Il comune cubo tridimensionale può essere pensato come un membro di una successione di «cubi» corrispondenti a dimensioni spaziali diverse. Per esempio, un segmento può essere considerato come un «monocubo» o cubo unidimensionale. Collegando gli estremi di due monocubi si ottiene 55 un «bicubo» cioè un quadrato; congiungendo i vertici di due quadrati si ottiene un «tricubo», cioè la figura che normalmente chiamiamo cubo. Allo stesso modo, collegando i vertici di due tricubi si ottiene un «quadricubo». Questo procedimento può essere ripetuto un numero arbitrario di volte, e si può dimostrare agevolmente che un dodecacubo possiede 212 (cioè 4096) vertici, tanti quante sono le piastrine della macchina connessionistica." Lo schema del dodecacubo presenta indubbi vantaggi. Innanzitutto, nessuna unità di elaborazione dista più di 12 fili da qualsiasi altra, e questo facilita la comunicazione della rete. Inoltre, in questo modo è possibile individuare qualsiasi vertice del dodecacubo con una sequenza di 12 cifre binarie. Questi indirizzi instradano i messaggi che si scambiano le 4096 piastrine, e affinché un messaggio arrivi a destinazione non occorrono mai più di dodici passi. Per il momento, la Connection Machine viene utilizzata per trattare immagini ad alta definizione o per simulare fenomeni i cui modelli matematici prevedono il calcolo simultaneo di un numero enorme di grandezze fisiche. Le applicazioni della macchina connessionistica all'IA si limitano attualmente all'impostazione di problemi relativi ai ragionamenti basati sul buon senso. Le reti neurali, come dice il nome stesso, sono costituite da tante piccole unità di elaborazione simili a neuroni (sebbene estremamente più semplici), connesse tra loro da una fitta serie di collegamenti. Hanno poco a che spartire sia con i computer in generale sia con lo schema di Von Neumann in particolare. Il modello su cui si basano questo tipo di reti è infatti prettamente biologico, cercano di imitare la struttura e le funzioni dei tessuti nervosi viventi. I simulatori di neuroni sono in genere piccoli amplificatori operazionali, mentre sinapsi e dendriti sono costituiti da resistori e condensatori. Le reti non sono digitali (sebbene ne esistano simulazioni software), ma analogiche, ed è proprio l'intensità del segnale che i neuroni artificiali si scambiano a veicolare il messaggio. Per il momento, questi dispositivi vengono utilizzati per risolvere problemi di ottimizzazione, che richiedono una decisione collettiva di tutte le componenti della macchina. Nell'esecuzione di questi compiti, le reti sono più rapide e più affidabili degli elaboratori convenzionali, proprio grazie alla loro struttura parallela. Inoltre, la loro memoria non è costituita da supporti ferromagnetici, che hanno tempi e modalità di accesso incompatibili con la memoria associativa tipica degli organismi viventi, bensì dalle stesse connessioni che mettono in comunicazione gli pseudoneuroni, in stretta analogia con quanto avviene nel nostro cervello. Recenti studi mostrano come sia possibile costruire una rete neurale non dedicata ad uno scopo preciso per poi addestrarla a compiere determinate operazioni. La rete è in grado di apprendere e riprodurre il comportamento che le viene richiesto, anche se per il momento è assolutamente prematuro parlare di intenzionalità. Se mai l'IA venisse realizzata, credo sia molto più probabile che si raggiunga lo scopo grazie a manufatti come quelli appena illustrati piuttosto che attraverso gli attuali, ottusi manipolatori di simboli formali. Un neonato ha enormi potenzialità, potenzialità che vengono sviluppate attraverso la crescita e l'apprendimento. Tappe fondamentali del suo sviluppo sono la scoperta del corpo e l'esplorazione dell'ambiente circostante. Senza attraversare queste due fasi un bambino (ma anche un qualsiasi altro cucciolo animale) non può in alcun modo raggiungere una qualche forma di intelligenza e di consapevolezza. Analogamente, c'è chi è convinto, a mio parere giustamente, che non è possibile creare l'IA senza dotare la macchina pensante di un corpo con il quale esplorare l'habitat, attraverso il quale interagire con cose e persone. Insomma, se guardiamo con più attenzione ai processi evolutivi che hanno portato all'apparire sul nostro pianeta della vita intelligente, ci accorgiamo che è assai più plausibile che la consapevolezza venga raggiunta da un robot anziché da un semplice computer. Sottolinea infatti Vincenzo Tagliasco: "Almeno per quanto concerne le macchine, si è potuto verificare che una intelligenza senza un corpo che le permetta di confrontarsi e di interagire col mondo esterno si arena di fronte agli usuali problemi del vivere quotidiano (il cosiddetto buonsenso, il sapere euristico, l'insieme delle conoscenze e delle attitudini che ci permettono di sopravvivere)." 56 La parola robot appare per la prima volta nel dramma di Karel Capek R.U.R (Rossum's Universal Robots), scritto nel 1920 e andato in scena nel 1921. I robot descritti da questo autore sono costruiti con materiale organico (oggi sarebbero definiti androidi o cyborg), e sono destinati unicamente al lavoro. Racconta il protagonista del dramma di Capek: "Il vecchio Rossum cercò di imitare con una sintesi chimica la sostanza viva detta protoplasma finché un bel giorno scoprì una sostanza il cui comportamento era del tutto uguale a quello della sostanza viva... Dapprincipio tentò di fare un cane artificiale... e poi si diede alla formazione dell'uomo.[...] Il giovane Rossum inventò l'operaio con il minor numero di bisogni. Eliminò tutto quello che non serviva direttamente al lavoro. Insomma, eliminò l'uomo e fabbricò il Robot." La descrizione del robot sopra riportata molto si avvicina a quello che sarà poi il reale sviluppo dell'automazione. A parte infatti i primi animaletti cibernetici degli anni cinquanta, quali la machina docilis di W. Grey Walter (1950) o lo scoiattolo artificiale Squee di Jensen, Koff e Szabò (1951), la produzione di robot si limita a manufatti a scopo industriale, lontani anni luce dai meravigliosi umanoidi asimoviani. Questi operai meccanici vengono progettati per rendere al massimo, e perdono immediatamente qualsiasi sembianza antropomorfa. Anzi, forse è addirittura fuori luogo chiamarli robot, se abbiamo in mente l'iconografia classica del termine. I protagonisti della fabbrica postmoderna sono delle braccia meccaniche, dei manipolatori governati a distanza dal computer centrale. Sono da considerarsi i perfetti alimentatori delle macchine utensili che costituiscono l'ossatura della catena di montaggio. Fino al 1985, la robotica si è occupata principalmente di progettare questo tipo di "automi", perché questo chiedeva il mercato, e quindi per questo tipo di studi erano disponibili finanziamenti. Ma quando ci si rese conto che il disegno facciamo-uscire-unoperaio-facciamo-entrare-un-robot non poteva essere completato senza ripensare ex novo l'intero processo manifatturiero (operazione che avrebbe richiesto investimenti astronomici), la domanda di robot industriali conobbe una flessione la cui ripida pendenza andava al di là dei classici cicli recessivi dell'economia capitalista. E si aprirono spiragli per una robotica più vicina alle suggestioni della cibernetica e della bionica. Il nuovo corso della robotica si propone, in un certo senso, di dare un corpo a quelle menti che per decenni sono state sviluppate nei laboratori di Intelligenza Artificiale. E infatti, molti degli attuali robot soffrono di difetti simili a quelli dei programmi "intelligenti" quando si imbattono in problemi "sporchi" come il riconoscimento delle forme in movimento, o la comprensione del linguaggio, sembrando incapaci di applicare il semplice buonsenso. Questi sfortunati manufatti automatici tendono così a cacciarsi in pasticci da cui né il ragionamento né i servomotori riescono a tirarli fuori: per esempio si incastrano sotto un sedia. Il problema è che il mondo reale è complesso (lo sappiamo bene noi che dobbiamo viverci tutti i giorni!!), e quindi una sua rappresentazione, quand'anche limitata allo scopo di attraversare una stanza senza inciampare nel mobilio, lo sarà altrettanto. Quindi, o immettiamo nel cervello del robot un quantità enorme di informazioni corredate da altrettante regole per correlarle (il che probabilmente trascinerà il poveretto in un vicolo cieco logico alla prima difficoltà che incontra), oppure lo mettiamo in condizione di imparare. La chiave dell'IA, dell'automazione, della vita artificiale sembra proprio essere questa: l'imitazione degli analoghi naturali, tenendo ben presente l'importanza dei processi evolutivi nello sviluppo delle caratteristiche morfologiche e comportamentali. Sempre Tagliasco ci fa notare che: "Nell'evoluzione delle macchine intelligenti si è cercato di saltare intere generazioni di macchine più modeste, ma in grado di fornire preziosi stimoli per capire come gli organismi biologici interagiscono con l'ambiente attraverso la percezione, la locomozione, la manipolazione." Ma ora, fortunatamente, c'è chi segue un approccio più coerente a una visione filogenetica della robotica: prima di insegnare a un robot a giocare a scacchi, è necessario insegnargli a muoversi, a vedere, a sentire. Insomma, anche nel robot intelligente occorre creare non solo una ontogenesi che riassuma un preciso percorso filogenetico, ma anche una infanzia, che gli consenta di mettere a punto autonomi processi di apprendimento e di adattamento all'ambiente in cui vivrà. E' necessario quindi riprodurre due evoluzioni parallele: una che da costrutti più semplici porti alla produzione di 57 macchine sempre più complesse e sofisticate, un'altra, tutta interna alla vita del singolo automa, che lo faccia crescere intellettivamente, dandogli modo di apprendere, da solo o sotto la supervisione umana, le nozioni necessarie alla sua sopravvivenza nel nostro caotico habitat. Da tutte le chiacchiere fatte finora, anche se non siamo riusciti a capire che cosa significhi pensare o cosa sia davvero l'intelligenza, abbiamo visto che molte delle idee tradizionali che per decenni hanno guidato le ricerche dell'IA si sono rivelate poco adatte allo sviluppo di macchine pensanti, proprio perché poco attente al mondo biologico e troppo attratte da una visione logico-razionale dell'attività cerebrale. Tommaso Poggio, ne L'occhio e il cervello, fa a questo riguardo una osservazione: "Sarebbe certo interessante riuscire a proporre una definizione di intelligenza che enfatizzi l'aspetto dell'apprendimento. Considerate un sistema artificiale come un robot o il computer che lo controlla: il sistema ci sembrerà intelligente se sarà capace di imparare dall'esplorazione dell' ambiente, come un bambino." 58 L'uomo è un computer? Ci si chiede spesso se sia possibile clonare un essere umano non solo dal punto di vista "fisico" ma anche da quello "intellettivo". Cioè ci si domanda, in ambito scientifico ma non solo, se sarà possibile, in un futuro anche non troppo vicino, trasferire tutte le conoscenze di un uomo adulto su un computer e da lì all'interno di un corpo clonato in laboratorio, per ottenere due individui perfettamente uguali non solo nell'aspetto fisico ma anche nei ricordi, nei pensieri e nella coscienza di sé. Infatti, se la clonazione fisica di un corpo umano in teoria può essere effettuata (è solo questione di tempo: l'ambiente scientifico pensa che il genoma umano verrà mappato completamente nel giro di cinque/ sei anni), non si è altrettanto sicuri su una possibile duplicazione "psichica". Toccando questo argomento ci si rende abbastanza bene conto che da scienza a fantascienza il passo è veramente breve! Il professore di bioinformatica americano Pierre Baldi sta scrivendo un libro sull'argomento, intitolato The end of evolution. Egli è convinto (e devo dire che ha convinto anche buona parte della platea del seminario, con conti matematici e molto probabili) che, con il potenziamento esponenziale dei computer e con il progresso della bioingegneria, sarà possibile, entro una cinquantina d'anni, mettere tutti i ricordi e le sensazioni di un essere umano adulto all'interno di una memoria di un calcolatore. Da qui il passo verso un clone "psichico" sarebbe veramente breve: sarebbe infatti questione di interfacciare opportunamente il cervello "artificiale" con questa memoria di massa e di fargli apprendere tutte le nozioni. Il progresso dell’intelligenza artificiale non ha seguito quello vertiginoso delle tecnologie informatiche: se le prestazioni dei computer odierni vanno al di là della maggior parte delle previsioni di mezzo secolo, non è lo stesso per quanto riguarda i più modesti risultati ottenuti all’AI. I paladini delle obiezioni di Lady Ada Lovelace contro la possibilità di costruire computer dotati di autentica intelligenza, o magari di "anima" sono riusciti ad arrivare all’alba del XXI secolo pressoché indenni. Chi sostiene che – prima o poi – i computer riusciranno a raggiungere l’uomo può invocare a suo favore, più che gli scarsi risultati attuali, il fatto sperimentato innumerevoli volte che sia quasi impossibile, nella scienza, dire "mai". Possiamo forse dire che nel 2050 non avremo ancora computer "intelligenti". Possiamo azzardarci a mantenere questa affermazione per il 2200? E per il 3000? È però anche vero che a volte la scienza ha trovato dei limiti, ad esempio secondo molti il limite della velocità della luce sarebbe assolutamente invalicabile. Non potrebbe esservi un limite simile anche per l’intelligenza, o per la coscienza? Dato che viene spesso osservato che il limite fra genio e pazzia è piuttosto tenue, non potrebbe proprio la follia essere il limite per una crescita indefinita dell’intelligenza? Una cosa che comunque risulta chiara è che non possiamo programmare un computer se non sappiamo cosa deve fare. Ogni passo avanti dell’AI è anche un passo avanti nella nostra conoscenza di come ragioniamo e sentiamo il mondo: se inizialmente l’AI ha avuto bisogno di importare idee e categorie dalla filosofia "classica", adesso è vero anche il contrario: è nata la media philosophy, che ha gettato nuova luce su alcuni aspetti fondamentali della filosofia tradizionale. A questo proposito sono di fondamentale importanza le opere di Dennett e di Hofstadter, in particolare "L’io della mente" e l’arcinoto "Gödel, Escher Bach: un’eterna ghirlanda brillante". Questi autori preferiscono partire dall’ipotesi che sia possibile costruire computer capaci di superare il test di Turing, ed esaminano quali conseguenze scaturiscono da quest’ipotesi, compresi alcuni interessanti "cortocircuiti": in uno dei saggi più interessanti, si fa l’esempio di un ingegnere statunitense 59 (l’hardware), rinchiuso in una stanza: da una fessura gli vengono passati fogli scritti in cinese (i dati), lingua che egli ignora totalmente. Ha però a disposizione un grosso libro (il software) col quale, in modo del tutto meccanico, elabora delle risposte – sempre in cinese – che poi manda fuori dalla fessura. Il libro contiene appunto il software di emulazione di un poeta cinese, per cui chi è fuori dalla stanza, è condotto a pensare che al suo interno si trovi imprigionato un poeta cinese, che scrive struggenti versi sulla sua situazione. Ma, proprio come noi "dobbiamo" ammettere che se un computer supera il test di Turing per un essere umano, è un essere umano (ne ha cioè la coscienza, o "l’anima" che dir si voglia"), dobbiamo ugualmente ammettere che lì, da qualche parte, c’è veramente un poeta cinese. La domanda è allora: dov’è il cinese? O, se vogliamo, il tutto è davvero solo la somma delle sue parti? Una delle (poche) accuse che si possono muovere a quest’opera – come a buona parte dell’AI – è il suo meccanicismo. Un computer è un insieme assolutamente deterministico, mentre un cervello non lo è: quando scegliamo di emularlo a livello dei neuroni (come nel caso delle reti neuronali) o della manipolazione di simboli (come nel caso di un programma di AI classico) stiamo in realtà nascondendo sotto al tappeto tutti gli altri livelli, e, soprattutto, il caos. La scarica di un neurone in effetti non è deterministico come quella di una porta logica: per quanto sia in gran parte statisticamente prevedibile, è comunque soggetta a fluttuazioni casuali. Potremmo allora formulare un’ipotesi affascinante ed innovativa: è proprio la casualità, l’indeterminazione assente della simulazione virtuale ma inevitabilmente presente nel mondo reale, la radice della coscienza. È proprio l’errore, l’imprecisione, che danno al reale una ricchezza irraggiungibile dai circuiti digitali. Prima che il lettore prenda troppo sul serio questa ipotesi, voglio però concludere con un’osservazione ed una domanda. L’osservazione è che – dato che il reale ed il virtuale sono mondi fortunatamente comunicanti – possiamo sempre collegare il nostro software AI con un generatore di rumore casuale. Una tazza di tè bollente potrebbe bastare, come accade in un bel libro di fantascienza. Una volta ottenuta la casualità che ci mancava, possiamo finalmente creare un software dotato di "anima". Sorge allora una domanda interessante (specialmente per un riduzionista): • l’insieme software + tazza di tè bollente ha un’anima • il software non ha l’anima • si può allora dedurre che l’anima è nella tazza di tè? INDUZIONE, SOLIPSISTI E REALISTI TRA GLI ELEFANTI ROSA Ci sono alcune questioni che vanno chiarite prima di iniziare ad addentrarsi nei ragionamenti. Supponiamo di chiedere a una persona sull'esistenza del mondo reale: potrebbe non avere dubbi sul fatto che è lì dove tutti sappiamo, e sembra ridicolo porsi una questione del genere. Ma proviamo a indagare meglio il fenomeno: chiediamo ad esempio se il Sole sorgerà domani mattina. Come possiamo rispondere? Il ragionamento più sensato è quello di dire: oggi è sorto, ieri è sorto, tutti i giorni sorge. Dunque suppongo plausibile che anche domani sorgerà. Certo, per ragioni ignote potrebbe succedere una enorme esplosione, o comparire al posto del Sole un enorme elefante rosa. La probabilità che associamo a questi fatti è scarsissima, ma quella che facciamo è comunque una estrapolazione. In realtà stiamo applicando l'induzione. Se le cose cioè sono sempre andate così, immaginiamo che ancora sarà così. E la deduzione, riconosciuta come altra strategia di pensiero nell'indagine umana, è in realtà come fatto notare ad esempio da Giuliano Toraldo di Francia in un intervento su Deep Blue e le strategie di pensiero, una legge che vale proprio sulla base della induzione! E' un meccanismo innestato nel cervello per selezione naturale: funziona bene, e chi lo applica ha più probabilità di sopravvivere. Già Hume, dopo questa stessa riflessione, intuiva in modo embrionale questa spiegazione. 60 Quindi è plausibile che vengano dei dubbi quando lascio un oggetto dietro le spalle: esso è ancora al suo posto? Sulla base di esperienze precedenti posso dire che quando mi giravo lo trovavo sempre lì, ma a riguardo di stavolta? Quasi tutti concorderebbero che l'oggetto è ancora lì, va contro il buon senso. Ad esempio potrei escogitare l'astuzia seguente: un amico continua a guardare e mi tiene informato. Ma non è qui il punto: mettiamo da parte il buon senso che tanto confonde le idee in certe questioni e proviamo a mettere in dubbio i fondamenti del nostro agire: pensiamo di chiudere gli orecchi, e non avere nessun tipo di percezione riguardo a quell'oggetto. Io non so cosa gli stia succedendo, non posso dire niente riguardo lo stato attuale di ciò che non raggiunge i miei organo percettivi, neppure se esiste. Tutto questo perché abbiamo messo in discussione una strategia di pensiero che non possiamo effettivamente giustificare in nessun modo se non probabilisticamente: l'induzione. Di fronte a queste argomentazioni si può reagire in almeno due modi. Il primo è quello detto solipsismo: riconosciutele di valore cruciale, si dichiara che tutto quello che mi lega all'esterno sono le percezioni istantanee e sono l'unica cosa di cui si può parlare. Il solipsista è egocentrico: l'unico riferimento e l'unica entità di cui garantisce l'esistenza è se stesso. Il motivo per cui le cose poi vanno sempre nello stesso modo è non spiegabile, cioè il noumeno è effettivamente inconoscibile. Questo non toglie che faccia comunque comodo l'induzione e non è difficile solipsisti che fanno benzina prima di un viaggio. Il secondo modo è il 'realismo': verifico che l'induzione non sbaglia quasi mai, e mai in particolare su certe cose a memoria d'uomo e quindi si ritiene arbitrariamente che vi sia qualcosa sotto: ad esempio che il mondo reale corrisponde a qualcosa di fissato, e si finisce per assumere questo come un postulato verificato al 100%. COME BY-PASSARE LE FILOSOFIE DELLA MENTE? Può a priori un computer pensare? Senza ancora specificare cosa si intende per pensare, facendo riferimento al concetto che tutti possediamo, per un solipsista la risposta è no. Intanto già non è d'accordo che si possa credere che gli uomini pensino come lui sta pensando in quel momento. Io so che penso, vedo gli altri che agiscono come se stessero pensando come me, ma nulla in effetti posso dire, non si possono comparare le mie sensazioni con quelle di un altro. Ad esempio, la sola percezione del colore: come vedono gli altri quel colore che io vedo come blu e che entrambi chiamiamo blu? A nulla valgono ragionamenti sui sintomi di stress che si percepiscono vedendo il colore rosso: posso dire che entrambi abbiamo una reazione di fronte a una certa lunghezza d'onda delle radiazioni elettromagnetiche, ma su come nel mio cervello veda il rosso, questo è un fatto non descrivibile se non da stati di neuroni e non quantificabile in ultima analisi visto che ogni cervello è diverso. Figuriamoci insomma se quella che diciamo coscienza per noi si può estendere a un altro uomo; a un computer poi... La critica che viene portata sembra effettivamente molto solida. Se essa fosse corretta, non sarebbe possibile per me neo-solipsista concepire un computer pensante; se non lo fosse potrei procedere, io anti-solipsista, alla dimostrazione del contrario, e non è detto che vi riuscirei per cause ora ignote. In ogni caso rispondere a questa obiezione potrebbe richiedere una ricerca di anni. Forse però è possibile non rispondere e riuscire egualmente a procedere, con un atteggiamento pratico che fondi sulle strategie di pensiero umane così ben sperimentate negli ultimi millenni e da me stesso (in senso lato!). IL TEST DI TURING Se vogliamo essere pratici, per muoverci in avanti, siamo costretti a delineare ciò che fenomenologicamente una macchina deve saper fare per poter dire che pensa. Affidiamoci per il momento all'idea di test di Turing, espressa da Alan Turing negli anni cinquanta, in uno storico articolo che precorreva straordinariamente i tempi, in cui si proponeva di rispondere alla domanda: 'può una macchina pensare' quando ancora l'informatica e la computer science erano agli albori. Turing utilizza questo test per procedere nel modo che anche noi ci proponiamo. Consiste in questo: un uomo si trova al calcolatore in una stanza; in un altro luogo, si trovano un uomo, una donna e un calcolatore collegati al calcolatore nella stanza. L'uomo non sa se a rispondergli è uno dei due umani o il programma del calcolatore; egli pone delle domande a cui chi risponde può dire la verità o mentire con astuzia. Se l'uomo della stanza non è in grado di stabilire chi dei due ha risposto quando uno dei due è il calcolatore, allora il computer sa pensare secondo Turing. Credo che questo 61 test oggi abbia dei limiti, cioè possa essere superato brillantemente da un computer istruito adeguatamente e con un database enorme in modo totalmente meccanico, cioè con un libretto di istruzioni per manipolare oggetti a seconda del tipo di ingresso, scritto da un uomo vero. Supponendo fosse possibile, in linea di principio basterebbe che un uomo fosse interrogato su tutto il suo scibile per mesi e anni, scrivendo tutte le risposte alle possibili domande ordinate per aree semantiche con qualche criterio, e resterebbe fuori ben poco: avremmo una quasi-copia di quell'uomo, ma il meccanismo che genera le risposte sarebbe tutt'altro che cosciente, e neppure l'insieme di tutte le informazioni rappresenterebbe la coscienza di quell'uomo: ne sarebbe solo l'epifenomeno. Quello che manca è ciò che intuitivamente possiamo dire l'originalità. Il programma, per chi l'ha costruito, sarebbe totalmente prevedibile, mentre non lo sarebbe l'uomo che è stato per così dire clonato, che potrebbe sempre sorprendere il programmatore che implementava la sua copia con una risposta nuova. NECESSITA' DEL CONCETTO DI SIMBOLO Non credo si possa accettare che un programma di questo tipo renda una macchina pensante. Di questa stessa opinione è ad esempio Searle. Questo sembra confermare il teorema di Church nella versione proposta da Hofstadter nel suo famoso libro "Godel, Escher, Bach", che afferma ironicamente che l'IA (Intelligenza Artificiale) è tutto ciò che non si è riusciti a realizzare del pensiero umano; in realtà il problema è notevole e siamo costretti a rafforzare le richieste perché in qualche modo ci sentiamo spronati dal pungolo dei solipsisti, che rifiutano l'idea che già a livello di uomini si possa comparare in qualche modo il loro pensiero con quello degli esseri che percepiscono, di cui non possono dire nulla a priori e a proposito dei quali tutto quello che sanno è per la descrizione a parole che essi possono dare di se stessi. Allora quello che effettivamente richiediamo quando vogliamo che una macchina pensi è in qualche modo che essa pensi come noi. Cioè vogliamo identificare una procedura che avviene nei cervelli di uomini e animali, e dire che ragionevolmente essa è uguale per tutti in quanto tutti possono a livello comportamentale confermarla, e che è un buon modello per verificare il comportamento degli animali. Espressa in altri termini, questa è anche la tesi dei Churchland. Per sapere cosa effettivamente questo voglia dire, occorre precisare meglio. Se un computer addestrato come quello di prima sa rispondere in modo corretto, questo avviene grazie a una programmazione sapiente che gestisce in modo opportuno stringhe (insiemi di caratteri) e combinazioni di stringhe in modo che chi legge vi attribuisca un significato, indipendentemente da quello che il computer coglie. Il problema sta nel fatto che anche il programmatore, se trascuriamo il dettaglio che andrebbe molto più lento, potrebbe ottenere lo stesso risultato, perché dovrebbe solo applicare il suo algoritmo. Anche un bambino con una certa destrezza potrebbe riuscire ad applicare le regole che al programma permettono di rispondere; il fatto è che potremmo tradurre le parole ad esempio in colori, usare le stesse regole, e avere un meccanismo che funziona bene indipendentemente da ciò che si può associare ai simboli visivi, senza che ci sia nessun significato. Un sistema di questo tipo è chiamato anche il gioco delle scatole cinesi. Il sistema sarebbe 'chiuso'. E' necessario rafforzare le richieste di Turing, sempre per l'ottima ragione che vogliamo procedere in modo costruttivo nella ricerca. Richiediamo quindi che il meccanismo con cui vogliamo che la macchina pensi passi in primo luogo da simboli memorizzati con procedure di ingresso-uscita, di addestramento, in un modo che ricalca l'apprendimento dei bambini: all'input corrisponde una uscita che modifica lo stato del calcolatore: vedo una mela e mia madre dice MELA; così imparo ad associare a percezioni diverse la stessa configurazione e dico che ad esse corrisponde un simbolo. Cioè il simbolo è una coppia di percezioni applicate all'oggetto materiale (cervello, chip) che riceve la codifica degli organi di senso (in impulsi elettrici). Negli uomini come negli animali è evidente che l'apprendimento passa per questo canale. Il cervello degli animali superiori inoltre, nell'uomo sicuramente, è selezionato in modo tale da poter richiamare come ricordo una percezione, e usarlo in luogo della percezione stessa, all'occorrenza. A questo proposito, bisogna dire che il meccanismo è certamente variabile da individuo a individuo, e questo sembrerebbe confermare almeno alcune affermazioni di un solipsista o di uno scettico: ad esempio parlando con molte persone ho scoperto 62 che esse sono in grado di vedere mentalmente immagini in movimento, mentre io non ne sono in grado se non durante il sonno; altri non lo sono mai. Comunque il simbolo, definito in questo modo, permette l'apprendimento, e nell'uomo la facoltà della parola permette di ricostruire la percezione uditiva in modo fedele, incrementando notevolmente la forza del simbolo stesso. Il cervello apprende in modo elementare per uguaglianze, nelle prima fasi dello sviluppo. Poi l'apprendimento di un linguaggio permette l'immissione di informazione in maniera più rapida; ma ricordo che ancora a sei anni non conoscevo parole per esprimere certe mie sensazioni interne dovute a malattie, e che i miei genitori cercavano di suggerirmi a tentativi. Il fatto di non avere la percezione interna in comune riportava il problema di apprendimento alla radice, lo metteva a nudo. Successivamente si apprendono termini associati a percezioni interne, riunite in raggruppamenti che chiamiamo concetti. Con il linguaggio è possibile cioè implementare nel cervello simboli astratti, che si riferiscono non solo a classi di oggetti (identificare un triangolo, come potrebbe fare una rete neurale) ma a estrapolazioni e a generalizzazioni. Ad esempio, mi si insegna, se vedo una persona interrompersi nel compiere un lavoro, sostare immobile, e poi riprendere: quell'uomo ha pensato. Io attribuisco alla conoscenza della mia esperienza personale un legame con ciò che ho osservato per analogia, strategia di pensiero che si autoseleziona, e apprendo che quello che compio quando penso si dice pensare. Oppure mi si può ricordare tutti gli avvenimenti in cui un uomo ne ha ucciso un altro e associare a questo insieme il termine omicidio. Un cervello che ragiona per simboli astratti è pronto per assumere l'identità di mente cosciente. Da qui al passo successivo, cioè rendere un pezzo di silicio una mente cosciente, il salto, anche se tecnicamente immenso, è concettualmente breve. LA MENTE COSCIENTE Tra le tante associazioni possibili che il cervello può fare ce n'è una, che si distingue dalle altre, che chiude il cerchio. Supponiamo che il cervello abbia appreso l'uso del termine percezione, nel senso consueto relativo agli organi di senso compresi quelli chimici interni, e quello del termine percepire, riferito alla propria azione. Supponiamo che, tramite gli organi di senso, esso abbia percezione di se stesso, e vi abbia associato il simbolo IO. A questo proposito ricordiamo che il bambino, nei primi mesi di vita, impara ad associare le proprie percezioni tattili nelle dita, e successivamente quelle visive, con le percezioni tattili passive dei propri organi, e poi impara ad associare la parola IO a tutto ciò; e anche le scimmie sono in grado di recepire questo simbolo, come mostrano certi esemplari che imparano codici di vario tipo (muto o pittografico) e che formano proposizioni contenenti riferimenti a sé. Il passo seguente è assolutamente centrale per la nostra indagine, pur nella sua semplicità. Nel momento in cui il cervello formula la proposizione 'Io percepisco me stesso che mi percepisco ', in quel preciso momento il cervello è una mente cosciente. Questo è quanto occorre e basta per definire la mente cosciente. Bisogna osservare che un uomo, pur rappresentando in certi momenti una mente cosciente, non lo è sempre. Nella maggior parte del tempo un uomo si dedica a una attività, e pensa cose esterne a se stesso. Poi ripensa a se stesso, si ridefinisce mente cosciente, e ricordando di averlo già fatto, si attribuisce questa proprietà in maniera continuata nel tempo, ma adesso solo in senso improprio! Il passo verso l'implementazione di una mente cosciente artificiale è breve in termini astratti. Nella pratica vi sono difficoltà tecniche enormi, ma se fossero superate sarebbe sufficiente questa proposizione per rendere la mente artificiale una mente nostra pari. All'atto pratico questa M.C.A. (mente cosciente artificiale), se interrogata sulla propria coscienza di sé, risponderebbe come un uomo. E' chiaro che non basta questo poi a renderla autosufficiente intellettualemente, ma questo mi pare secondario. Il fatto che sia pungolata da 'istinti' che la spingono a ricercare il proprio piacere, è una naturale richiesta per generare un'entità che tenda a svilupparsi, e questo è fuori discussione; questo è il primo passo di tutte le ricerche intraprese. Per fare un esempio, ognuno di noi è debitore di tutti i suoi predecessori in tutti i campi del sapere, e ci sentiamo originali mentre in realtà imitiamo le forme che ci sono consuete: un bambino lasciato 63 selvaggio nella foresta non scriverà mai una poesia né formulerà un'equazione. Per una M.C.A si tratterebbe solo di imparare come noi e di essere provvista artificialmente (questo lo si ottiene facilmente) di un istinto all'imitazione con varianti, caratteristica che tra l'altro ci vede accomunati alle scimmie. Il fatto rilevante è che credo che quella detta, ovvero la possibilità di formulare il pensiero autocosciente, sia la discriminante che si deve richiedere per ottenere una I.A., sulla base della differenza che noi uomini osserviamo tra la nostra natura e quella degli altri animali. Prima di concludere vorrei prevenire alcune obiezioni che sorgono spontanee da parte dei più: la prima è di carattere epistemologico, e ritorna sulla questione di partenza: si può dire sulla base di quanto detto che una M.C.A. sarebbe nostra pari a livello di coscienza? Se rispondesse correttamente a chi la interroga non resterebbe il dubbio che la reazione non sia 'automatica'? La risposta è semplice: se questa contestazione la si prende in considerazione, essa vale per ogni uomo diverso da me; ricordiamoci che il cervello di ciascuno è diverso ad esempio dal mio, e che quella che io chiamo coscienza per me non si estende a priori neanche ai miei simili. Si pensi solo alle diverse rappresentazioni mentali delle immagini. Quindi visto che ci accordiamo di parlare della stessa cosa 'a scatola chiusa', dobbiamo accettare di farlo per ogni sistema che abbia la mia stessa modalità di apprendimento: silicio compreso o chi per esso. La seconda obiezione la potremmo definire di orgoglio: può un uomo ammettere che un suo prodotto abbia la caratteristica che lo contraddistingue nell'universo, o ancora peggio che un pezzo di silicio abbia un anima? Anche qui non ci resta che chinare la testa di fronte alla realtà dei fatti, quali che essi saranno, perché la realtà non è ciò che noi desideriamo o l'opposto di ciò che temiamo, ma semplicemente è costituita da ciò che possiamo misurare. Ed è ovvio che non ci sia spazio per la metafisica nella fisica, per definizione; la metafisica si occupa di altro, per chi ci crede, e a un livello che la fisica non può mettere a nudo. Quello che mi preme di sottolineare, infine, è che credo che questa sia la risposta all'ironica affermazione di Hofstadter, sulla definizione sfuggente e mai definitiva di I.A.. Se venisse realizzata una M.C.A. sulla base della ricetta che ho presentato, non avrei veramente più nulla da obiettare, e la partita la considererei chiusa. Con buona pace dei solipsisti. COME SI FA A CREARE un robot intelligente? Una macchina capace di imparare e sviluppare abilità nuove, proprio come facciamo noi umani, partendo dall’osservazione del mondo e dall’interazione con l’ambiente? La nuova direzione in cui si muove lo studio dell’intelligenza artificiale – grande sogno di Alan Turing, il matematico che per primo ideò nel 1935 l’antenato dei nostri computer – si chiama “sviluppo mentale autonomo”. Ed è un principio su cui lavorano, a sforzi congiunti, due discipline a prima vista lontane tra loro: le neuroscienze e le scienze dell’informazione. A studiare il potenziale di questo principio è oggi un gruppo di ricercatori della Michigan State University, in Usa, guidati da Juyang Weng, del Dipartimento di computer science della stessa università. Il contributo del team americano a un’avventura umana, che non manca di affascinare il mondo della scienza così come quello della letteratura e del cinema, è apparso questa settimana sulla rivista Science. Ma cos’è lo “sviluppo mentale autonomo”? Pensiamo a cosa succede nell’uomo. Con la nascita ha inizio un processo di apprendimento che durerà per tutta la vita: attraverso i sensi, l’uomo interagisce con il suo ambiente e invia i dati raccolti in tempo reale al cervello. Infine, grazie al suo particolare programma di sviluppo, scritto nei geni, l’uomo accresce le proprie capacità mentali. Un robot capace di imparare dalle sue esperienze funziona, secondo gli studiosi, in modo analogo: un sistema artificiale, che fa le veci del cervello umano, viene guidato dal suo particolare programma di sviluppo, disegnato in questo caso dal programmatore. Resta immutata la scintilla che dà il via all’apprendimento, e cioé la raccolta dei dati sull’ambiente esterno, attraverso i sensori della macchina. Come Weng scrive su Science, i robot progettati secondo il metodo tradizionale non sanno cosa stanno facendo: si limitano a eseguire un programma. Queste macchine dunque non possono fare nulla di diverso dalle funzioni per cui erano state pensate fin dall’inizio. Se, durante l’esecuzione del programma, alcuni parametri vengono modificati in base ai dati sensoriali raccolti dal robot, 64 allora si dice che il robot “sta imparando”. Ma non è questa la forma di apprendimento intesa dai sostenitori dello “sviluppo mentale autonomo”. Secondo il nuovo paradigma, infatti, il robot dovrebbe essere disegnato per sviluppare sul lungo periodo le stesse articolate abilità di un cervello adulto. Come la capacità visiva, il ragionamento, il linguaggio. Ecco dunque la ricetta, secondo i ricercatori americani, per creare un vero robot capace di sviluppo mentale autonomo. Prima di tutto bisogna disegnargli un corpo adatto alle condizioni ambientali di lavoro in cui sarà inserito (per esempio, sul terreno piuttosto che sottacqua). Poi bisogna progettare il suo programma di sviluppo. Il robot “nasce” la prima volta che esegue tale programma. E “cresce” mentalmente grazie alle cure degli scienziati, che interagiscono con il robot in tempo reale. Secondo questo principio, la macchina “vive” nel mondo in maniera autonoma, dietro parziale supervisione dell’uomo. E dall’”infanzia” all’”età adulta”, il robot ha il tempo di sviluppare abilità e astuzie, a seconda degli stimoli esterni che ha ricevuto. Ma non è tutto. L’idea nuova rispetto a quelle tradizionali sta nel non fissare a priori le funzioni specifiche che avrà il futuro robot. Al momento della programmazione, infatti, tali funzioni sono ancora sconosciute. Così, la macchina dovrà essere progettata per riuscire a svolgere ogni lavoro che il futuro proprietario potrà insegnarle. Naturalmente, il programma di sviluppo mentale autonomo deve tener conto di un processo di apprendimento “per gradi”: prima di insegnare a scrivere a un robot, per esempio, bisogna insegnargli come tenere in mano una penna. E dopo? Cosa c’è nel futuro di queste macchine intelligenti? «Dall’avanzamento degli studi in questa nuova direzione prevediamo un grosso impatto su scienza, economia e società », affermano gli studiosi della Michigan State University. Secondo il team di Weng, infatti, lo “sviluppo mentale autonomo“ aiuterà i ricercatori a gettare nuova luce su molte delle nostre abilità cognitive. Potremmo così approfondire le attuali conoscenze sulla capacità visiva, uditiva e di azione, ma anche sul linguaggio, e sulla facoltà di pianificare, prendere decisioni ed eseguire compiti. Come spesso si dice, infatti, anche il nostro cervello “lavora come un computer”. I circuiti neuronali assomigliano a quelli elettronici contenuti in un microchip, e allo stesso modo svolgono calcoli e risolvono problemi. È perciò molto importante, per psicologi e neuroscienziati, riuscire a scoprire i principi computazionali della nostra mente. Studiare questi principi nei robot potrebbe aiutarci dunque a rispondere ad alcune delle principali questioni ancora aperte, su come il cervello umano sviluppa il senso del mondo attorno a sé e, forse, la sua stessa coscienza. Per quanto riguarda l'intelligenza umana, essa è senz'altro capace di svolgere con successo calcoli e operazioni basate sulla logica formale, anche se, in questo tipo di attività, un essere umano è solitamente meno veloce e maggiormente soggetto ad errori rispetto a un computer. Ma la nostra intelligenza va ben al di là della meccanica applicazione di algoritmi per lo svolgimento di compiti la cui soluzione è, in ultima analisi, già contenuta in potenza nella procedura utilizzata. Una delle definizioni di intelligenza più largamente accettate è infatti quella di capacità di risolvere problemi. Questi devono essere nuovi, almeno per certi aspetti, o comunque contenere elementi di diversità rispetto a problemi affrontati (o visti affrontare) con successo in passato. Oppure è necessario che i problemi stessi vengano risolti in maniera innovativa rispetto ai casi precedenti. Ciò significa che la semplice applicazione di regole e procedimenti noti, per lo svolgimento di compiti di cui si conoscono già tutti gli aspetti implicati, non può essere considerata un'attività autenticamente intelligente. Perché, altrimenti, la componente ripetitiva e meccanica delle attività degli esseri viventi, anche se spesso di fondamentale importanza ai fini della sopravvivenza, sarebbe stata assegnata dall'evoluzione ad automatismi o a sequenze comportamentali posti sotto il controllo dell'istinto? Del resto, solitamente non si considerano intelligenti gli idiot savant, individui capaci di eseguire mentalmente calcoli molto elaborati, ma estremamente limitati in altri campi; come non viene 65 reputato intelligente l'impiegato che mostra di saper svolgere con grande precisione le mansioni affidategli applicando alla lettera procedure e regolamenti. Per quanto possa apparire sorprendente, tuttavia, è proprio a questo tipo di operatività che gli scienziati fanno riferimento quando parlano di computazione (o di intelligenza artificiale), convinti che essa sia in grado di esaurire tutti gli aspetti e le possibilità che caratterizzano l'intelligenza umana. L'intelligenza sembrerebbe quindi potersi caratterizzare come la capacità di andare oltre l'ordine esistente: ciò che permette di affrontare la componente di novità insita in una data situazione, reale o semplicemente immaginata. Essa si esprime attraverso uno sforzo di adattamento, di trasposizione, di ricerca di analogie e differenze, di classificazione, generalizzazione e discriminazione: sforzo che non può essere, a sua volta, delimitato da procedure completamente formalizzate. Tale attività di elaborazione costituisce senz'altro l'aspetto più caratteristico dell'intelligenza umana, quello che la fa qualitativamente diversa dalla computazione, e implica il più delle volte, una sorta di "salto logico", non interamente ricostruibile attraverso i riferimenti posseduti in partenza. Una ricostruzione puntuale è possibile, ma soltanto dopo, alla luce di regole e procedimenti elaborati successivamente. Per questo, si può dire che l'intelligenza è inscindibile da quella caratteristica tutta particolare rappresentata dalla creatività (che si manifesta spesso sotto forma di improvvise intuizioni), la quale, per definizione, è aliena da qualsiasi tentativo di riconduzione a schemi precostituiti. Purtroppo, non esiste alcuno spazio all'interno della concezione computazionale per la creatività, né sembra possibile una seria considerazione per essa da parte della scienza. La computazione, operando secondo regole predefinite, appare assolutamente incompatibile con qualsiasi forma di creatività, la quale implica, precisamente, un porsi al di là delle regole; il modello di spiegazione scientifica basato sulla riconduzione a leggi di validità generale, in maniera strettamente analoga, è costretto a rifiutare a priori l'idea di una creatività svincolata da qualsiasi principio regolativo. L'unica possibilità concessa, alla luce di tali prospettive, è quella di creatività frutto del puro caso. Ma si tratta di una soluzione assai poco soddisfacente, che viene ad aggiungersi alle risposte, altrettanto poco soddisfacenti, offerte dalla computazione (e dalla scienza in generale) sulle problematiche relative ad altre caratteristiche della nostra mente. 66 Il punto di vista Ogni uomo osserva il mondo dal proprio particolarissimo punto di vista, una finestra sul mutevole divenire della realtà. Il solipsismo può essere sostenuto con grande coerenza. Ogni cosa è riferita ad un osservatore e in questo senso l'uomo è la misura di tutte le cose. Secondo Russell, la conoscenza comporta un riferimento esterno ad oggetti la cui esistenza è indipendente dal pensiero e la cui struttura "atomica" è direttamente presente alla percezione. Questa dottrina è conforme al comune "buon senso", ma molti filosofi considerano gli oggetti come prodotti del pensiero; essi, scrive Russell in Introduzione alla filosofia matematica, "vogliono persuadere se stessi e gli altri che il mondo reale è differente dal mondo apparente". Secondo Wittgenstein, in ciò d’accordo con il Circolo di Vienna, le proposizioni della metafisica, dell’etica e della religione sono estranee all’ambito logico-espressivo dei "fatti"; pertanto, sono enunciati senza senso. Filosofia, intuizione, rivelazione, mistero sono concetti "ineffabili" e privi di logica. I problemi vitali non possono essere chiariti dalla filosofia che, infatti, si limita a dire ciò che accade, senza comprenderlo. Ogni accadimento ha lo stesso senso di qualunque altro; tutti i "fatti sono di pari valore" e i valori sono separati dai fatti, sicché l’uomo non è in condizione di pensare ed esprimere una gerarchia di valori. Secondo Wittgenstein, l’ambito espressivo è ben ristretto perché è riferito al "mondo dei fatti" senza riguardare la soluzione dei problemi dell’esistenza. Da questo sentimento dei limiti della conoscenza umana egli pervenne al "solipsismo", cioè al convincimento che il senso della vita è attingibile solo nell’autocentralità dell’individuo, che rimane unico riferimento a se stesso. Secondo la meccanica quantistica è l'osservatore a decidere il risultato degli esperimenti: se voglio osservare onde il fotone mostrerà il suo aspetto ondulatorio, se voglio osservare particelle il fotone si comporterà come una particella. È in questo modo che si supera il dualismo onda particella, per quanto possa sembrare incredibile. La sfera fenomenologica è comunque una sfera soggettiva. Su di ciò non vi sono dubbi: l’oggetto mi appare come una cosa reale che è nel mondo - oppure come una mia immagine fantastica. Gli atti di verifica che io compio per accertare se ciò che io vedo è una pura e semplice illusione oppure una cosa reale sono in grado di esibire una distinzione tra «reale» e «immaginario», ma questa distinzione non ha altra garanzia oltre questi stessi miei atti di verifica. Perciò si tratta di una distinzione soggettiva. Ma - ed è questo il punto essenziale - questo carattere soggettivo non ottiene il suo senso dalla contrapposizione con una oggettività già data. Posso dire che il dato fenomenologico vale come reale anzitutto per me: ma in ciò non è ancora implicito il fatto che questa validità sia una validità solo per me o anche per tutti. È su questo terreno che si pone in modo legittimo la questione della distinzione tra oggettivo e soggettivo in senso comune. Quando parliamo di una verità soggettiva contrapponendola a una verità oggettiva, intendiamo in realtà affermare che un determinato oggetto è valido solo per me e non per tutti.. Ma in entrambi i casi vi è un riferimento soggettivo che diventa visibile nel momento in cui formulo il problema in termini di validità: questa validità è sempre una validità per qualcuno. Ciò che muta è il senso del soggetto per il quale qualcosa è valido, non il riferimento soggettivo in quanto tale. Perciò vi è una sottile quanto decisiva differenza di senso tra il carattere soggettivo dell’esperienza fenomenologica e il carattere soggettivistico di una esperienza scettico-fenomenistica.. Se si accetta questa impostazione non si chiederà in che modo l’oggettività del sapere sia garantita dall’essere in sè della realtà, ma piuttosto: in che modo a partire dall’esperienza che anzitutto è mia e che vale anzitutto per me si costituisce una esperienza che non sia soltanto mia, ma anche di altri, 67 così da dare origine a una validità per tutti, a un dato che può essere riconosciuto da tutti come valido e che quindi è oggettivo? È naturale che scompaia allora la questione della possibilità della conoscenza: essa era agitata dallo scettico sulla base del presupposto fondamentale del realismo teorico. O più precisamente: questo problema assume un significato completamente diverso, dal momento che esso non dà più luogo a insolubili aporie ma si traduce semplicemente in un compito, solubile per principio, di descrizione sistematica del processo soggettivo nel quale qualcosa si dà a me come conosciuta nella sua verità oggettiva, e cioè valida per tutti. Perciò ha ragione il senso comune quando rifiuta le argomentazioni scettiche come vuoti sofismi. Soltanto che per cogliere il senso e le motivazioni di questo rifiuto occorre fare un giro molto più lungo, passare attraverso e oltre la teorizzazione della tesi latente dell’esistenza di una realtà oggettiva, accettare la provocazione scettica e superarla dall’interno. Allora non avremo la semplice conferma acritica di una credenza o l’accettazione dogmatica di una filosofia - la filosofia del «senso comune» o un’altra forma di realismo filosofico più compiutamente elaborato - ma si porrà piuttosto il problema di un’esplorazione del terreno di questa credenza che sia in grado di portare alla luce le sue motivazioni. All’interno di questa impostazione complessiva ritroviamo alcuni dei classici problemi dello scetticismo, ma con un significato del tutto nuovo. Ritroviamo anzitutto la questione del solipsismo. Tuttavia esso non si presenta ora come una posizione teorica e neppure come una situazione aporetica. L’esperienza fenomenologica è in primo luogo solipsistica e non può essere che solipsistica. Se ci riferiamo ai termini del discorso cartesiano, è evidente che la certezza del cogito non ha bisogno di alcuna mediazione che passi attraverso gli altri: questa certezza rimane intoccata anche supponendo che non esista nessuno all’infuori di me. Ma il solipsismo non è che una conseguenza del dubbio ed anch’esso ha una pura e semplice funzione metodologica. Per questo motivo si tratterà di vedere in che modo a partire da questa esperienza solipsistica, si costituisca un’esperienza più ampia, un’esperienza che non è soltanto mia, ma di altri, e infine di tutti, in modo tale che ciò che prima avevamo chiamato semplicemente «soggettività» assume gradualmente il senso di una comunità soggettiva di soggetti o, secondo un termine caratteristico della fenomenologia, di un’intersoggettività. Se riflettiamo sulla posizione di questo problema ci rendiamo conto che esso è, per motivi non casuali, del tutto estraneo al «realismo ingenuo» o alla critica che lo scetticismo tenta di esercitare nei suoi confronti. Per una posizione ingenuamente realistica esso non sussiste perché il carattere di oggettività di una conoscenza dipende unicamente dal fatto che essa rispecchia un essere in sè reale. Proprio per questo - poiché è oggettiva in questo senso - una simile conoscenza sarà valida per tutti. La validità assume dunque, rispetto all’oggettività, un senso logicamente secondario. La stessa impostazione di fondo si può ritrovare nello scetticismo: esso riproduce la stessa situazione, ma soltanto «a rovescio». Poiché non vi è nessuna adeguazione tra questa conoscenza e la realtà che essa deve rispecchiare, ogni conoscenza può essere valida solo per me, e per nessun altro. Anche qui il significato dell’essere valido è subordinato alla questione dell’adeguazione e del rispecchiamento della conoscenza della realtà. Tutto ciò che osservo è rapportato a me come soggetto. Le informazioni convogliate dai sensi giungono alla mia coscienza che è unica ed irripetibile. Che cosa succede allorchè il dato meramente fisico diventa oggetto della coscienza? Esiste uno iato incolmabile tra il mondo fisico e l'atto di coscienza. Ognuno continuamente sperimenta lo stato di coscienza, ma ha accesso solo alla propria coscienza che si incarna in un corpo fisico particolare e precisamente collocato nel tempo e nello spazio. Il gusto di questo caffè è accessibile solo a me mentre lo sperimento. Ognuno di noi costituisce una finestra sul mondo, ognuno dal proprio punto di vista. Grazie al linguaggio è possibile collegare tutti questi punti di vista per originare una realtà condivisa. Ogni cervello è unico e irripetibile, ogni coscienza fornisce di senso alle cose del mondo. Il significato di ogni informazione sul mondo risiede nella mente di un osservatore. 68 Ogni cosa di cui si possa parlare richiede un interlocutore umano che interpreti le informazioni e fornisca loro un significato. Ogni pensiero è pensato da una mente. 69 Indice Mente e cervello Mente e coscienza Mente e realtà Mente e computer L'uno e il molteplice Intelligenza artificiale L'uomo è un computer Il punto di vista 70