IL DIBATTITO TRA ROGER PENROSE E JOHN R. SEARLE NEL CONTESTO DEL ‘PROBLEMA MENTE-CORPO’ La discussione filosofica intorno al cosiddetto ‘problema mente-corpo’ vede contrapporsi, a partire dal secondo dopoguerra, due filoni principali di ricerca: quello materialista, soprattutto nella forma della ‘teoria dell’identità’, per cui gli stati mentali sono identici a stati fisici cerebrali; quello funzionalista, che definisce gli stati mentali come stati funzionali, cioè in base al ruolo assunto nel sistema complessivo dei comportamenti e degli altri stati mentali del soggetto di cui fanno parte, indipendentemente dalla particolare concretizzazione che tale soggetto, e tali stati, si trovano ad avere. Il punto di maggior contrasto tra le due tesi consiste proprio nel fatto che mentre per i materialisti la produzione di uno stato mentale è legata a uno specifico processo neurofisiologico (o comunque fisico), per i funzionalisti essa è realizzabile in modi fisicamente eterogenei a seconda del sistema cui lo stato mentale appartenga, avendo come paradigma la modalità con cui gli stessi programmi per computer sono espletati da diversi hardware. In realtà i confini tra i due punti di vista, e tra essi e la posizione dualista, che ritiene gli ambiti del fisico e del mentale due sfere del tutto distinte, sono alquanto sfumati. Il funzionalismo, per esempio, viene classificato tra i ‘materialismi’ dal filosofo statunitense John Searle,1 che sottolinea che esso, diversamente dal dualismo, vede nella mente qualcosa che non esiste né può esistere separatamente dal mondo fisico e negli stati mentali particolari stati fisici (che però sono mentali in quanto si trovano inseriti in un certo «schema di relazioni causali»).2 Anche alcuni tra i maggiori sostenitori della rilevanza filosofica e scientifica del funzionalismo e degli studi sull’intelligenza artificiale, come Daniel Dennett e Donald Gillies, ne sottolineano gli importanti ‘aspetti di materialità’.3 D’altra parte, come lo stesso Searle evidenzia,4 i funzionalisti prescindono totalmente dalla realizzazione concreta che esegue il ‘programma-mente’, e «accettano il presupposto che la mente sia in qualche modo avulsa dalla realtà ordinaria e impura, imperfetta e materiale in cui viviamo. La mente appare loro (le parole sono di Dennett e Hofstadter) come qualcosa di 1 J. R. Searle, Mente cervello intelligenza, Bompiani, Milano 1988, p. 9; J. R. Searle, La riscoperta della mente, Bollati Boringhieri, Torino 1994, pp. 22-23 e pp. 56-61. 2 J. R. Searle, Il mistero della coscienza, R. Cortina, Milano 1998, pp. 113-114. 3 D. Gillies, Intelligenza artificiale e metodo scientifico, R. Cortina, Milano 1998 (particolarmente a p. 81, pp. 137-138 e p.162); A. R. Damasio et al., Cervelli che parlano, B. Mondadori, Milano 1997, p. 71. 4 J. R. Searle et al., Menti, cervelli e programmi: un dibattito sull’intelligenza artificiale, CLUP-CLUED, Milano 1984, pp. 70-71; Searle, La riscoperta della mente, cit., pp. 59-60. “formale e astratto”».5 Dunque, «è meglio considerare l’IA forte come una sorta di tentativo estremo di dualismo».6 Perfino nel materialismo odierno è possibile individuare la presenza di ‘allusioni’ dualistiche. È questo il caso dello scienziato Alwin Scott, che si dice ‘materialista’ (ma non ‘materialista riduzionista’),7 e che nello stesso tempo propone un ‘dualismo emergente’, per cui «non dovrebbe stupire che la ‘materia del cervello’, e quindi quella della mente, sia diversa dalla ‘materia nervosa’».8 La prospettiva vuole sempre essere materialista (‘materia del cervello’ e ‘della mente’ coincidono), ma Scott considera la Natura come descrivibile a vari livelli, dinamicamente interagenti l’uno con l’altro, ma ognuno con leggi specifiche (pur riconducibili alle leggi chimico-fisiche), con regolarità indipendenti da quelle che si manifestano ai livelli inferiori.9 In questo quadro, la coscienza è vista come un «fenomeno emergente che nasce da molteplici eventi discreti, fusi insieme a formare un’esperienza unitaria»,10 non riducibile ai – ma comprensibile attraverso lo studio dei – suoi livelli inferiori (neuroni, proteine, atomi…). Concezione simile è quella di Searle, il quale pur sentendosi ugualmente a disagio davanti alle categorie classiche di ‘dualismo’ e ‘materialismo’, da un lato non manca mai di ricordare che la mente può produrre effetti sulla natura solo nella misura in cui ne fa parte, fondandosi sulla neurofisiologia,11 e che la coscienza è interamente causata dal «comportamento di fenomeni biologici di basso livello»,12 dall’altro ritiene che gli stati mentali non possano essere proprietà «ricavate limitandosi a osservare la composizione degli elementi costitutivi e le loro relazioni con l’ambiente circostante: devono invece essere spiegate in base alle interazioni causali che intercorrono tra gli elementi stessi».13 Viene così introdotta una discriminazione tra riduzione causale e ontologica, e la seconda è decisamente criticata: «La pura sensazione qualitativa del dolore è una caratteristica del cervello assai diversa dalla combinazione delle scariche neuronali che causano il dolore. È dunque possibile avere una riduzione causale del dolore rispetto alle scariche neuronali, ma non una riduzione ontologica. Ovvero, si può fornire un resoconto 5 J. R. Searle, L’analogia cervello/computer: un errore filosofico, in G. Giorello e P. Strata (a cura di), L’automa spirituale: menti, cervelli e computer, Laterza, Bari 1991, pp. 209-210. 6 Searle, Il mistero della coscienza, cit., p. 157. Su questo tipo di considerazioni, vedi per esempio anche Damasio et al., Cervelli che parlano, cit., p. 37. 7 A. Scott, Scale verso la mente: nuove idee sulla coscienza, Bollati Boringhieri, Torino 1998, p. 218: «Essendo uno scienziato della natura, credo anch’io che tutto sia fatto delle particelle e dei campi della fisica (e di qualcosa che, probabilmente, dobbiamo ancora scoprire) […] Questo è il materialismo: i problemi sorgono – a mio parere – con il materialismo riduzionista, secondo cui i movimenti degli atomi basterebbero a raccontare l’intera storia». 8 Ivi, p. 220. 9 Ivi, p. 170. 10 Ivi, p. 22. 11 Searle, Mente cervello intelligenza, cit., pp. 81-82. 12 Searle, La riscoperta della mente, cit., p. 108. 13 Ivi, pp. 126-127. 2 causale completo del perché proviamo dolore, ma questo non dimostra che il dolore non esista veramente».14 Questo perché c’è un aspetto reale di esperienza soggettiva, insito negli stati di coscienza, che non può essere colto dalla descrizione fisica oggettiva; l’apparenza soggettiva fa parte della realtà della coscienza, e il nostro schema di riduzioni consueto, per com’è strutturato oggi, non riesce a coglierla.15 Rimane quindi una distinzione ontologica tra stati mentali come le sensazioni e stati fisici come i processi neuronali. Del resto gli esempi della solidità dei tavoli e della liquidità dell’acqua16 dimostrano per Searle che gli stati mentali non sono l’unico caso di ‘proprietà emergenti’, cioè spiegabili, ma non riducibili, né tantomeno eliminabili, tramite il ricorso alla descrizione dei rapporti causali tra i componenti dei sistemi fisici considerati. C’è poi da notare che per quanto concerne la riproducibilità di stati mentali in macchine artificiali (tesi tipica del funzionalismo), il materialista, più o meno ortodosso, non ne contesta la possibilità. Il concetto è espresso in modo esemplare da Donald Davidson: «Una persona è un oggetto fisico che funziona in accordo con le leggi fisiche del mondo naturale, dunque non vi è alcuna ragione contraria all’ipotesi di riprodurre un artefatto perfettamente simile a un essere umano naturale. Da questo segue che non c’è alcuna ragione per non ritenere che tale artefatto possa anche pensare, ragionare, prendere decisioni, agire, avere credenze, desideri e intenzioni».17 Bisogna però mettere in evidenza che per i non funzionalisti tale possibilità è legata alla capacità di riprodurre le modalità fisiche che originano gli stati mentali desiderati, non alla messa in opera di un adeguato programma ‘mentale’ in un macchinario predisposto. Sulla questione, Searle è esplicito: «In linea di principio sarebbe possibile costruire un artefatto, un cervello artificiale, che possa anche causare tali stati interiori […] Eppure è chiaro che un qualsiasi altro sistema capace di causare la coscienza per funzionare dovrebbe possedere poteri causali equivalenti a quelli del cervello. Questo punto segue banalmente dal fatto che il cervello funziona in maniera causale».18 Diverso è il simulare tramite computer dal riprodurre: «I neuroni possono davvero essere simulati da un programma di computer, ma l’imitazione delle scariche neuronali non assicura il potere dei neuroni di causare la coscienza, più di quanto la simulazione al computer di un temporale o dello scoppio di un incendio non garantisca i poteri causali della pioggia o del fuoco».19 Searle definisce questo tipo di posizione ‘IA debole’, per Searle, Il mistero della coscienza, cit., p. 23. Searle, La riscoperta della mente, cit., pp. 137-139. 16 Searle, Il mistero della coscienza, cit., p. 5 e p. 14. 17 Damasio et al., Cervelli che parlano, cit., p. 56. 18 Searle, Il mistero della coscienza, cit., pp. 88-89. 19 Ivi, p. 45. 14 15 3 contrapporla polemicamente alla IA forte, per la quale simulare computazionalmente (la funzione de) i neuroni equivale a riprodurre la coscienza. Due sono gli argomenti specifici addotti da Searle contro l’IA forte. Il primo risale al più vecchio intervento di Searle sul problema mente-corpo, Minds, Brains and Programs,20 ma viene ripetuto in tutti gli scritti su questo tema.21 Si tratta dell’‘argomento della stanza cinese’, che paragona il lavoro che un computer fa sui simboli che riceve, elabora e dà come output, a quello di un inglese incapace di comprendere il cinese che venga chiuso in una stanza piena di ideogrammi e dotato di una serie di regole nella propria lingua che gli dicano quali segni cinesi, e in quale combinazione, spedire fuori dalla stanza quando certi altri segni cinesi gli vengano recapitati: né il computer né l’inglese in questione capiscono il significato dei simboli che maneggiano, pur potendo entrambi perfino condurre conversazioni in cinese! Ma, nelle parole di Searle: «Ora mi sembra che l’argomento della stanza cinese conceda troppo all’IA forte, in quanto concede che la teoria sia perlomeno falsa. Penso che essa sia invece incoerente, ed ecco perché. Chiedetevi quale sia il fatto che fa sì che le operazioni della macchina con cui ora sto scrivendo siano sintattiche o simboliche. Per quanto riguarda la fisica si tratta di un circuito elettronico altamente complesso. […] La sintassi, in breve, non è intrinseca alla fisica del sistema ma è negli occhi dell’osservatore. Fatta eccezione per i pochi casi degli agenti coscienti che effettivamente elaborano il calcolo, addizionando 2 + 2 per ottenere 4, ad esempio, la computazione non è un processo intrinseco in natura come la digestione o la fotosintesi, ma esiste soltanto in relazione ad alcuni agenti che forniscono un’interpretazione computazionale della fisica».22 Dunque, a partire dagli anni Novanta,23 Searle sviluppa questa seconda argomentazione che mostra che, quasi sempre, gli stati computazionali esistono solo in quanto stati fisici interpretati in tal senso («la sintassi non è intrinseca alla fisica»).24 La conseguenza è che «a parte i processi mentali del pensiero, nulla è intrinsecamente un computer digitale»,25 pur essendo tutto quanto, compreso il cervello umano, interpretabile come tale da un dato osservatore.26 Searle et al., Menti, cervelli e programmi, cit. Vedi per esempio Searle, La riscoperta della mente, cit., pp. 60-61. 22 Searle, Il mistero della coscienza, cit., p. 11. 23 Searle, L’analogia cervello/computer, cit., pp. 206-207; Searle, La riscoperta della mente, cit., pp. 222-227. 24 Ivi, p. 223. 25 Searle, Il mistero della coscienza, cit., p. 13. L’autore si attiene alla «definizione di Turing secondo la quale qualsiasi cosa a cui si possa assegnare uno 0 e un 1 è un computer» (ibidem). 26 La conclusione che «poiché tutto è un computer digitale, il cervello lo è pure», ma che ciò non basta per spiegare la coscienza, pur senza l’argomento sulla computazione che deve essere interpretata come tale, è rintracciabile già in Searle et al., Menti, cervelli e programmi, cit., pp. 71-72. Vedi anche Searle, Mente cervello intelligenza, cit., p. 28. 20 21 4 Non tutti i materialisti (in senso ampio), in ogni caso, concordano con l’idea di Searle che sia comunque possibile simulare la mente umana con un software adatto. Il clamoroso ‘caso contro’ è quello del matematico e fisico inglese Roger Penrose, che ha un ruolo preminente nel dibattito degli ultimi anni. Penrose combatte insieme con Searle la battaglia contro chi sostiene che rendere operativo un certo tipo programma per computer (o un algoritmo, «un procedimento di calcolo di qualche tipo»,27 come dice Penrose) sia sufficiente per essere in presenza di una coscienza, ma si distingue per il fatto di impostare il proprio punto di vista sull’impossibilità da parte dell’attività computazionale perfino di simulare una mente cosciente. Le posizioni in campo sono chiarite dallo stesso Penrose all’inizio del libro Ombre della mente: «A: ogni pensiero è computo; in particolare, il senso della consapevolezza è suscitato puramente e semplicemente dall’esecuzione di computi appropriati. B: la consapevolezza è una caratteristica dell’azione fisica del cervello; e mentre qualsiasi azione fisica può essere simulata computabilmente, la simulazione computabile non può di per sé suscitare consapevolezza. C: un’appropriata azione fisica del cervello suscita la consapevolezza, ma questa azione fisica non può neppure essere adeguatamente simulata computabilmente. D: la consapevolezza non può essere spiegata in termini fisici, computabili o di altro tipo scientifico».28 Il primo punto di vista rispecchia l’IA forte; il secondo il pensiero di Searle, che unisce un materialismo non riduzionista e l’IA debole; il terzo il ‘materialismo non simulabile computazionalmente’ di Penrose; il quarto la posizione di chi ritiene la mente un problema non scientificamente risolvibile. L’originale analisi di Penrose inizia cinque anni prima, in un libro dal titolo La mente nuova dell’imperatore, proprio dal succitato slogan di Searle: «Pare sia diffusa la convinzione che “ogni cosa è un computer digitale”. È mia intenzione, in questo libro, di cercare di mostrare perché, e forse come, non sia necessariamente così».29 Il testo, che intende confutare l’IA forte, discute preliminarmente l’esperimento mentale della stanza cinese, giudicando che ha «una forza considerevole, anche se non è del tutto conclusivo».30 Secondo Penrose infatti, l’argomento mal risponde all’obiezione che l’algoritmo, l’insieme di regole, da utilizzare per operare coi ‘simboli cinesi’ potrebbe essere talmente complesso da non poter essere eseguito ‘a mano’ da una sola persona. Searle ribatte infatti che l’inglese della versione originale può essere sostituito da un insieme anche immenso di persone non parlanti il cinese, ma a questo punto si potrebbe R. Penrose, La mente nuova dell’imperatore: la mente, i computer, le leggi della fisica, Rizzoli, Milano 1992, p. 39. R. Penrose, Ombre della mente: alla ricerca della coscienza, Rizzoli, Milano 1996, p. 29. 29 Penrose, La mente nuova dell’imperatore, cit., p. 47. 30 Ivi, p. 44. 27 28 5 obiettare identificando questa ‘popolazione’ nella stanza cinese con l’insieme dei neuroni di un cervello; i singoli ‘neuroni’ non capiscono il cinese, ma si può sostenere che la stanza nel suo insieme (vale a dire: il cervello nel suo complesso) ha, a partire da una mera ma complicata manipolazione di simboli, una comprensione di ciò che ‘le passa dentro’ per poi ‘uscirne fuori’.31 Quindi per Penrose il «ragionamento di Searle» è molto potente, ma «non stabilisce in modo rigoroso che non esiste una qualche sorta di “comprensione” disincarnata, associata all’esecuzione di quell’algoritmo».32 Anni dopo, Penrose ne ribadisce gli aspetti convincenti, esplicitando che il motivo per cui però non ci si può fermare ad esso, risiede nel fatto che è «completamente negativo», cioè non dà (secondo lui) alcuna indicazione su come si possa spiegare scientificamente la questione mente-corpo.33 In ogni caso, l’attacco definitivo che Penrose vuole sferrare nei confronti dell’IA, è talmente radicale che, se portato a compimento, consente non solo di togliere di mezzo i pochi dubbi lasciati dalla ‘stanza cinese’ rispetto alla IA forte, ma anche di sconfiggere l’IA debole e la sua pretesa che tutto possa essere interpretato e simulato computazionalmente. Per far questo, Penrose cerca di mostrare che non solo «gli aspetti interni della coscienza» ma anche «le manifestazioni esterne della coscienza non sono riproducibili dalla computazione».34 Già nel suo primo intervento del 1989, pur toccando numerosi altri soggetti, la linea di Penrose prevede: in primo luogo, la dimostrazione, con un argomento logico, dell’esistenza negli esseri coscienti di comportamenti non algoritmici, e quindi non riproducibili da parte di un computer (contro le sopra enunciate posizioni A e B); successivamente, l’identificazione di quei processi fisici che permettono di avere negli uomini tali comportamenti oltre la computabilità (contro D). La ‘parte logica’ rilevante, ristretta essenzialmente al cap. 4 e ripresa poi nel conclusivo cap. 10, sviluppa (senza qui citarlo) un argomento esposto per la prima volta dal filosofo John R. Lucas35 e basato sul risultato dimostrato dal matematico Kurt Gödel nel 1931 e noto come ‘teorema di Gödel’.36 La ‘parte fisica’, distesa su molte pagine, ma culminante nel cap. 8 e nel cap. 9, conclude che le teorie fisiche attuali non lasciano spazio all’esistenza di processi non algoritmici, e quindi, dato che tali processi devono esistere, come dimostrato dal Così fa Jerry Fodor; vedi Damasio et al., Cervelli che parlano, cit., pp. 146-147. Penrose, La mente nuova dell’imperatore, cit., p. 44. 33 R. Penrose, Il grande, il piccolo e la mente umana, R. Cortina, Milano 1998, pp. 173-174. 34 Ivi, p. 174. 35 J. R. Lucas, Minds, Machines and Gödel, in «Philosophy» 36 (1961), pp. 112-127. 36 K. Gödel, Über formal unentscheidbare Sätze der «Principia Mathematica» und verwandter Systeme, I, in «Monatshefte für Mathematik und Physik» 38 (1931), pp. 173-198. 31 32 6 ragionamento di logica, bisognerà attendere la scoperta di una nuova fisica, che dovrà spiegare tra l’altro anche i misteri della meccanica quantistica e della teoria della relatività. L’acceso dibattito37 che segue la pubblicazione del libro tende a soffermarsi in particolare sulle questioni di logica, essendo poste le tematiche di fisica a un livello molto più congetturale. Ciò convince l’autore a produrre un secondo libro, il già citato Ombre della mente, dove la parte relativa a Gödel è corredata da un’ampia collezione di possibili obiezioni e di repliche, mentre le supposizioni relative alla nuova fisica da trovare si fanno più precise e ‘documentate’. In realtà gli argomenti sviluppati nella sezione logica sono due (anche se i commentatori sovente non se ne accorgono),38 come confermato in una ulteriore discussione sul tema da Penrose stesso: «L’argomento semplice (che per me è sempre stato convincente a sufficienza) è, di base, il ‘mero’ ragionamento gödeliano […] applicato alla credenza dei matematici di stare “facendo realmente ciò che pensano di stare facendo”, piuttosto che seguire le regole di qualche insondabile algoritmo […] Di conseguenza, le procedure disponibili ai matematici dovrebbero tutte essere conoscibili! […] Le linee di argomentazione complicate sono indirizzate più a quelli che prendono il punto di vista che i matematici non stanno “facendo realmente ciò che pensano di stare facendo”, ma stanno agendo secondo qualche inconscio algoritmo insondabile […] Adotto una linea d’approccio completamente diversa. Cioè esamino come un tale algoritmo insondabile possa plausibilmente prodursi. Si è fatto riferimento prima alla questione del ruolo della selezione naturale […] L’altra possibilità che ho discusso era qualche forma di deliberata costruzione dell’IA».39 L’argomento gödeliano procede supponendo, per assurdo, che i matematici ragionino secondo una certa procedura computazionale chiamata A, perfettamente conoscibile e da loro ritenuta valida. È possibile (grazie a Gödel) codificare, ordinare, le famiglie di computi, vale a dire di problemi matematici, in modo tale da poter supporre che A si applichi a ciascuna di esse, giungendo a termine nel caso in cui il particolare problema su cui ‘ha ragionato’ non abbia soluzione. Risulta allora che A sarebbe «una sorta di compendio di tutte le procedure disponibili ai matematici umani per dimostrare in modo convincente che una computazione non ha fine».40 Ma a questo punto il teorema di Gödel entra in gioco in modo decisivo, dimostrando che il problema dell’arresto è irrisolvibile in modo computazionale, cioè 37 In parte testimoniato da R. Penrose et al., “Precis of The Emperor’s New Mind” and comments, in «Behavioral and Brain Sciences» 13 (1990), pp. 643-705 e da R. Penrose et al., “An Emperor Still Without Mind” and comments, in «Behavioral and Brain Sciences» 16 (1993), pp. 611-622. 38 Vedi Searle, Il mistero della coscienza, cit., pp. 51-52, oltreché R. Penrose, Beyond the Doubting of a Shadow. A Reply to Commentaries on Shadows of the Mind, in «Psyche. An Interdisciplinary Journal of Research on Consciousness», 2 (1996), sez. 1.3 [http://psyche.cs.monash.edu.au/v2/psyche-2-23-penrose.html]. 39 Ivi, sez. 7.5-7.6. 40 Penrose, Il grande, il piccolo e la mente umana, cit., p. 113. 7 che se si crede che la procedura A sia valida, sarà sempre possibile costruire un particolare computo che non ha fine, nonostante il fatto che in quel caso neppure A termina, e quindi (contrariamente alle aspettative) non riesce a mostrare che esso non ha fine. Quindi, dato che noi sappiamo e vediamo che quel computo non termina, e A ‘non lo sa’, A non può rappresentare la nostra ‘comprensione matematica’, che non può dunque essere ridotta a pura computazione: è non computazionale!41 Penrose, soddisfatto del risultato raggiunto, che chiama G: «I matematici umani non stanno usando un algoritmo conoscibilmente valido per accertare la verità matematica»42 (ma si limita ai matematici unicamente perché ritiene di poter rendere rigoroso il ragionamento solo in questo campo, non perché sia convinto che solo qui si sia in presenza di processi non algoritmici),43 passa ad esaminare tutta una serie di obiezioni di tipo logico-matematico riguardanti l’applicazione del teorema di Gödel. Ma il fulcro del contrattacco di Penrose sta nell’esame delle osservazioni più facilmente ipotizzabili, al di là delle sottigliezze tecniche, cioè che il procedimento A non sia valido oppure che sia inconoscibile (il procedimento in sé o il proprio ruolo di algoritmo alla radice della comprensione matematica). Il primo caso è liquidato in poche pagine,44 distinguendo comunque due sottocasi. Se si suppone che sia l’algoritmo alla base della comprensione sia questo suo ruolo di cardine siano conoscibili, procediamo facendo notare che: la sola credenza che il sistema formale F (a noi noto) alla base della nostra comprensione45 sia valido (e una credenza in senso contrario «sarebbe un punto di vista matematico irragionevole»)46 implica la credenza che «il sistema formale F è consistente» sia vera; ma dato che in tal caso il solito teorema di Gödel (nella forma secondo cui un sistema formale tale da includere l’aritmetica non può essere consistente e completo) dice che questo non sarebbe un teorema di F stesso, ciò contraddice l’ipotesi che F racchiuda tutta la comprensione di tipo matematico. Se invece riteniamo che l’algoritmo sia conoscibile ma che il suo ruolo nella nostra comprensione non lo sia, potremmo realmente essere condotti a concepire che esso non sia valido, sempre con un argomento che sfrutta il teorema di Gödel,47 «ma è realmente credibile che le nostre inconfutabili convinzioni matematiche possano riposare su un sistema non valido – così non valido che “1=2” faccia parte, in linea di principio, di Penrose, Ombre della mente, cit., pp. 99-104. Ivi, p. 103. 43 Ivi, p. 76. 44 Ivi, p. 169 e pp. 177-182. 45 In questa discussione è pacifica l’equivalenza tra sistemi formali e algoritmi; ivi, p. 125. In realtà non per tutti è così: vedi Gillies, Intelligenza artificiale e metodo scientifico, cit., p. 179. 46 Penrose, Ombre della mente, cit., p. 169. 47 Ivi, p. 173. 41 42 8 queste convinzioni?».48 Nel caso invece che l’algoritmo sia valido, sempre sotto l’ipotesi che esso sia conoscibile, ma non quanto al ruolo di «radice della comprensione matematica»,49 è altrettanto impossibile escludere logicamente che sia realmente l’algoritmo che stiamo cercando; Penrose sottolinea però che questa eventualità sarebbe legata alla presenza, nel ‘nostro’ sistema formale F, di regole di inferenza dalla validità non evidente, per cui non potremmo mai «essere sicuri che F includa effettivamente con precisione la totalità delle nostre conoscenze e intuizioni matematiche inconfutabili»,50 e sostiene che questa conclusione non dovrebbe rendere felici i sostenitori dell’IA, che vorrebbero trovare il modo di riprodurre un simile sistema formale, ma che non potrebbero mai essere sicuri né della sua esistenza né del modo in cui raggiungerlo.51 Resta infine l’altra possibilità, cioè che si possa ‘agire matematicamente’ in base a un procedimento computazionale del tutto inconoscibile (in tal caso non potremmo costruire quel certo computo che metterebbe in crisi il procedimento computazionale stesso), e intorno ad essa si sviluppa il resto della ‘parte logica’ del libro, con le cosiddette «linee di argomentazione complicate».52 Si tratta di un tipo di obiezione molto ricorrente, contro l’argomento gödeliano di Penrose. La replica indaga sull’origine che il presunto algoritmo inconoscibile potrebbe avere. L’algoritmo alla base della comprensione matematica potrebbe essere stato favorito dalla selezione naturale, ma Penrose contesta l’ipotesi sostenendo che «una particolare abilità a fare matematica incomprensibile [all’epoca dello sviluppo degli esseri umani, quando essi lottavano per la sopravvivenza] non può avere avuto alcun vantaggio selettivo diretto per chi la possedeva, e io sono dell’opinione che non ci può essere stato alcun motivo per la nascita di un simile algoritmo».53 Tutto cambia se si ritiene la comprensione una capacità non algoritmica di rapporto col mondo, che ha per accidente un aspetto di versatilità matematica: «A superare la soglia della selezione è stata un’abilità generale nel comprendere – che, come caratteristica accidentale, può essere applicata anche alla comprensione matematica. Questa abilità non è algoritmica (a causa dell’argomento di Gödel), ma si applica a molte altre cose, diverse dalla matematica».54 Alternativamente, potremmo supporre che l’inconoscibile ‘algoritmo matematico’ possa essere prodotto passo dopo passo a partire da robot inizialmente costruiti dall’uomo, ma Ivi, p. 177. Ivi, pp. 170-177. 50 Ivi, p. 170. 51 Ivi, pp. 176-177. 52 Penrose, Beyond the Doubting of a Shadow, cit., sez. 7.6. 53 Penrose, Ombre della mente, cit., p. 192. 54 Penrose, Il grande, il piccolo e la mente umana, cit., p. 185. 48 49 9 successivamente in grado di ‘crescere e svilupparsi’ per proprio conto, di apprendere dall’esperienza, grazie a determinate caratteristiche dei loro software (i cosiddetti programmi organizzati in modo bottom-up, predisposti per imparare a partire dalle conoscenze accumulate).55 Penrose è comunque sicuro, sebbene sia «preparato ad accettare che le procedure “bottom-up” che sono usate […] potrebbero condurre a un prodotto finale di una complicazione quasi inimmaginabile[, che t]uttavia, questi meccanismi che entrano nella costruzione definitiva dei robot sarebbero in realtà conoscibili – anzi, si potrebbe ben dire […] che questi meccanismi sono, in effetti, già noti».56 Ponendo dunque come conoscibili i meccanismi M alla base dei ragionamenti matematici degli ipotizzati robot capaci di imparare, anche il sistema formale Q(M) costruito in base a tali meccanismi e le verità matematiche inconfutabili (chiamate *-affermazioni) da esso raggiunte, devono essere considerati umanamente conoscibili. Con questa mossa, Penrose si riconduce57 al tipo di ragionamento già effettuato nel primo caso esposto, quello relativo all’algoritmo consciamente conoscibile, anche rispetto al proprio ruolo58 (stavolta però, dal punto di vista dei robot). Un robot, infatti, non può «credere fermamente che Q(M) sia equivalente alla sua nozione di convinzione matematica inconfutabile»59 perché in tal caso arriverebbe a una contraddizione: sarebbe ‘costretto’ a credere che Q(M) sia valido, e quindi a credere che «il sistema formale Q(M) è consistente» sia vera ma al tempo stesso, per il teorema di Gödel, oltre i poteri dimostrativi di Q(M), cioè oltre le proprie convinzioni. Ma «gli appropriati esperti di IA» potrebbero sapere che il robot è stato costruito proprio secondo i meccanismi computazionali M, e «questo sembra dirci che possiamo avere accesso a verità matematiche […] che sono oltre le capacità del robot, nonostante il fatto che queste siano ritenute pari (o superiori) a quelle umane».60 In realtà c’è un risultato ancor più sorprendente che Penrose raggiunge subito dopo, e cioè che il robot in questione (ma anche un uomo stesso) non potrebbe credere di essere ‘costruito’ nei suoi aspetti matematici in base a M, «indipendentemente dal fatto che lo sia o non lo sia realmente!».61 L’argomento, nella sua forma più stringata e generale è il seguente: «Un matematico umano [ma non solo], se gli si presenta F [sistema formale valido che si suppone inglobi tutti i metodi di ragionamento matematico umanamente accessibili] potrebbe ragionare come segue […]: anche se non so di essere necessariamente [equivalente a] F, concludo che se Penrose, Ombre della mente, cit., p. 36. Penrose, Beyond the Doubting of a Shadow, cit., sez. 7.7. 57 Penrose, Ombre della mente, cit., pp. 208-209. 58 Ivi, p. 169. 59 Ivi, p. 209. 60 Ibidem. 61 Ivi, p. 211. 55 56 10 lo fossi, allora il sistema F dovrebbe essere valido e, ancor più appropriatamente, che F' dovrebbe essere valido, dove F' è uguale a F integrato dall’ulteriore asserzione “io sono F”. Io percepisco che dall’assunzione che io sono F segue che la proposizione gödeliana G(F') [«che asserisce la consistenza di F'»] dovrebbe essere vera e, inoltre, che ciò non sarebbe una conseguenza di F' [per il teorema di Gödel]. Ma ho appena percepito che “se capitasse che io fossi F, allora G(F') dovrebbe essere vera”, e percezioni di questo tipo sono proprio quelle che si suppone che F' dovrebbe avere [e che invece non può]. Dunque, poiché sono capace di percepire qualcosa oltre i poteri di F’, ne deduco che dopo tutto non posso essere [equivalente a] F [ipotesi iniziale che ha condotto a un assurdo]».62 Penrose ne conclude che «nessun essere cosciente matematicamente consapevole […] può operare secondo un qualsiasi insieme di meccanismi che sia in grado di apprezzare»,63 e quindi l’unica possibilità che un essere di questo tipo ragioni secondo un algoritmo inconoscibile deriva dall’eventualità che un intervento divino lo abbia posto dentro di lui (e che sia dunque totalmente al di là della raggiungibilità da parte dell’IA!).64 Giunto a questo punto, l’autore, avendo escluso la possibilità dualista (prefigurata dallo stesso Gödel)65 che la mente sia capace di operare in modo non computabile, rimanendo invece il cervello sottoposto alle consuete regole computazionali della fisica (o, al limite, casuali della meccanica quantistica), deve porsi alla ricerca della non computabilità in fisica, secondo quanto richiesto dal punto di vista C. Dall’analisi condotta sulla fisica attuale, Penrose trae la conclusione che le teorie odierne non lasciano spazio ad azioni non computabili che possano spiegare la comprensione quantomeno a livello matematico. Questo fatto, unito al rilevamento dei problemi della teoria della relatività e delle difficoltà insite nella spiegazione quantistica della realtà, in particolare al livello dei processi di misurazione, induce Penrose ad asserire che debba essere cercata una nuova fisica, che dia ragione sia dell’esistenza di processi fisici non computazionali che dei misteri della scienza contemporanea. Penrose articola anche una proposta66 di soluzione al ‘problema della misurazione’ della meccanica quantistica e di indicazione di possibili luoghi e situazioni nel cervello in cui potrebbero avvenire processi non computabili. Alla domanda «Perché non assistiamo, a livello macroscopico, alle sovrapposizioni di stati quantistici che invece sono attestate a livello microscopico?», comunemente mascherata dall’applicazione del postulato della ‘riduzione della Penrose, Beyond the Doubting of a Shadow, cit., sez. 3.2. Penrose, Ombre della mente, cit., p. 213. 64 Ivi, p. 210. 65 Ivi, pp. 165-166. 66 Vedi per esempio Penrose, Il grande, il piccolo e la mente umana, cit., p. 135. 62 63 11 funzione d’onda’, si propone di rispondere che le sovrapposizioni microscopiche persistono fino a un certo momento in cui avviene una ‘riduzione oggettiva’, cioè un processo (detto OR) di reale scelta, non casuale né arbitraria, ma possibilmente non computabile, di uno degli stati del sistema fisico coinvolti nella sovrapposizione.67 A scanso di equivoci, verrà chiarito successivamente, «a nessun livello ho suggerito che sarebbe nella precisa cadenza della riduzione della sovrapposizione quantistica che una significativa non-computabilità avverrebbe […] Non è tanto una questione di quando, ma di quale all’interno della collezione di stati sovrapposti la Natura in realtà sceglie […] Sarebbe nella particolare scelta che la Natura fa che la non-computabilità potrebbe entrare in modo significativo».68 La nuova fisica dovrà dunque collocare un processo del tipo di OR al posto del ‘collasso della funzione d’onda’, spiegando l’equivalenza sperimentale dei due. Ma dove entra questa non computabilità nella fisica del cervello? L’indicazione che emerge da Ombre della mente è piuttosto particolareggiata, e viene congetturato che un ruolo determinante sia da attribuire non ai neuroni (‘troppo grandi’ per essere protagonisti di processi che comunque si devono svolgere a un livello di tipo quantistico), ma ai microtubuli, vere e proprie piccole strutture tubulari poste all’interno dei citoscheletri (a loro volta strutture interne ai neuroni), con caratteristiche adatte ad ospitare azioni di tipo quantistico e probabilmente coinvolte nell’importante (per la mente) operazione di determinazione dell’intensità delle sinapsi tra i diversi neuroni.69 La struttura di tali microtubuli suggerisce a Penrose, che elabora in seguito più a fondo questa ipotesi insieme a Stuart Hameroff,70 che possano darsi al loro interno effetti quantistici, e che questi possano poi venire accoppiati agli eventi classici che si realizzano lungo l’esterno dei microtubuli stessi, proprio tramite il presunto processo non computazionale OR.71 In tal modo questa azione non algoritmica influenzerebbe la dinamica delle sinapsi, e quindi il pensiero, come richiesto dai risultati logici raggiunti nella prima parte. Anche il dibattito intorno ad Ombre della mente, come già accaduto per La mente nuova dell’imperatore, si concentra sulle questioni di logica,72 e Penrose pare lamentarsene.73 La recensione del libro da parte di Searle74 sembra sfuggire alla regola, in quanto egli tratta e critica Penrose, Ombre della mente, cit., pp. 415-419; Penrose, Il grande, il piccolo e la mente umana, cit., pp. 86-93. Penrose, Beyond the Doubting of a Shadow, cit., sez. 12.6. 69 Penrose, Ombre della mente, cit., pp. 435-446. 70 Per i loro lavori comuni su questo tema, vedi il sito: http://www.consciousness.arizona.edu/hameroff/PenHam/penrose_hameroff_publications.htm. 71 Penrose, Ombre della mente, cit., pp. 455-458. 72 B. J. Baars et al., Symposium on Roger Penrose’s Shadows of the Mind, in «Psyche. An Interdisciplinary Journal of Research on Consciousness», 2 (1995) [http://psyche.cs.monash.edu.au/psyche-index-v2.html]. 73 Penrose, Beyond the Doubting of a Shadow, cit., sez. 1.2. 74 Pubblicata nel novembre 1995 sulla New York Review of Books e poi ripubblicata in Searle, Il mistero della coscienza, cit., pp. 41-75. 67 68 12 (da buon sostenitore dell’IA debole) il modo in cui sono legate la parte logica e quella fisica della linea di pensiero di Ombre della mente. Il filosofo individua subito una ‘crepa’ nel ragionamento di Penrose: «Ciò che l’argomento dimostra è che io non posso essere simulato, al livello del ragionamento matematico, da un programma che utilizza soltanto regole valide di dimostrazione matematica. Ma la conclusione cui giunge Penrose è che io non posso essere simulato da nessuna descrizione possibile dei processi che mi consentono di cogliere la verità delle affermazioni di Gödel. Tale conclusione non segue necessariamente».75 Per capire precisamente cosa abbia in mente, bisogna tenere presente la concezione della coscienza di Searle: essa è una caratteristica del cervello causata da – ma non riducibile a – processi di livello inferiore del cervello stesso.76 Searle si riferisce dunque a simulazioni (computabili) dei processi cerebrali, per le quali «le questioni di validità o correttezza non si pongono nemmeno […] Tali simulazioni imitano semplicemente una serie di processi neurologici, semplici e casuali; quelli che stanno alla base dei nostri ragionamenti matematici o di altro tipo».77 Un esempio banale (ma per Searle un software non è che «una sequenza finita di tali banalità»):78 se il simbolo 0 sta per «Penrose sta pensando alla verità delle proposizioni di Gödel» e 1 sta per «Penrose coglie la verità di tali proposizioni», allora un programma che dica a un computer di passare dallo stato 0 allo stato 1, simula computazionalmente il ragionamento matematico di Penrose. Similmente, si possono simulare gli eventi cerebrali del suo cervello legati ai suddetti pensieri, ma senza riferimento diretto ad essi, solo a livello di ‘scariche neuronali’, esattamente nel modo in cui si simulano al computer i temporali.79 È un tipo di simulazione che non garantisce giudizi veri? Ma «nemmeno i processi reali del cervello garantiscono la verità».80 Dunque, pur essendo poco plausibile, non è impossibile che una comprensione matematica derivi, in modo del tutto non normativo, da simili programmi algoritmici di simulazione del cervello.81 Nel commentare le questioni fisiche Searle ritorna su questo tipo di argomento, generalizzandone la conclusione: se anche fosse vero che non è possibile simulare computabilmente la coscienza «non segue necessariamente che le entità che causano la coscienza non possano essere simulate al computer. Più in generale, non c’è alcun problema nel supporre che una serie di relazioni che non sono computabili ad un certo livello di descrizione, possano essere il risultato di processi che sono invece computabili, ad un altro livello di Ivi, p. 56. Ivi, p. 5. 77 Ibidem. 78 Ivi, p. 57. 79 Ivi, pp. 56-57. 80 Ivi, p. 59. 81 Ivi, p. 60. L’ipotesi è comunque definita ‘fantascientifica’. 75 76 13 descrizione».82 La non computabilità nel mentale, nel senso che ‘mentale’ ha per Searle, non implica dunque la non computabilità nel fisico. La risposta di Penrose non si fa attendere. Maudlin, nel suo commento a Ombre della mente, fa in modo più conciso la stessa osservazione di Searle: «La conclusione della I Parte è che la comprensione matematica non è solo questione di usare algoritmi conoscibilmente validi. In quel senso, c’è più che molta attività computabile nel cervello. Ma semplicemente non segue che l’azione fisica del cervello non sia governata da una dinamica che possa essere simulata su un computer».83 Penrose, facendo anche riferimento a Searle,84 traduce tali annotazioni nell’asserzione che «la computabilità o meno dei matematici non ha conseguenze esternamente osservabili».85 L’argomento funziona in quanto si basa sul fatto che non ci può essere un output infinito derivante da un essere umano finito, e che quindi ci potrebbe essere «qualche programma di computer che potrebbe, almeno in linea di principio, simulare l’azione di quella persona. Questa è una linea di ragionamento davvero strana, perché invaliderebbe qualsiasi forma di deduzione riguardo la teoria fisica a partire dall’osservazione».86 Fra l’altro, già in Ombre della mente, Penrose non escludeva la possibilità di una casuale «effettiva simulazione dell’attività umana cosciente»,87 data la finitezza di essa. Non si deve comunque credere, distratti dalla polemica tra Searle e Penrose, che quest’ultimo si distingua dall’avversario (e più in generale dagli altri materialisti) per il fatto di ritenere irriproducibile il pensiero. Certo, la coscienza non può essere né riprodotta né simulata computazionalmente, ma Penrose esprime ripetutamente88 la convinzione che un artefatto pensante sia costruibile: «Il punto di vista C accetta che futuri sviluppi scientifici possano condurre alla costruzione di dispositivi – non basati sui calcolatori che conosciamo ora, ma su quella azione fisica non computabile che, secondo C, deve essere alla base stessa dei nostri processi di pensiero cosciente – che potrebbero ottenere intelligenza e consapevolezza reali. Forse questi dispositivi, non i ‘calcolatori’ che ora conosciamo, alla fine supereranno di slancio tutte le capacità umane».89 Ivi, p. 68. Baars et al., Symposium on Roger Penrose’s Shadows of the Mind, cit. 84 Penrose, Beyond the Doubting of a Shadow, cit., nota 6. 85 Penrose, Beyond the Doubting of a Shadow, cit., sez. 10.1. 86 Ibidem. 87 Penrose, Ombre della mente, cit., p. 112. 88 Penrose, La mente nuova dell’imperatore, cit., p. 525; Penrose, Il grande, il piccolo e la mente umana, cit., p. 178. 89 Penrose, Ombre della mente, cit., p. 56. 82 83 14 L’autore ritiene questo punto implicito nel fatto che il punto di vista C «ammette che le facoltà mentali possano infine essere comprese in termini scientifici».90 Dunque non pare che ci siano ‘ansie’, da parte di Penrose, riguardo un possibile superamento delle facoltà umane da parte dell’intelligenza artificiale, come invece supposto da Gillies nel suo commento all’argomento gödeliano di Lucas e Penrose.91 Quale può essere allora l’origine di una posizione così fortemente ‘anti-computazionalista’? Searle, nella sua già commentata recensione, ritiene che il non fermarsi all’IA debole derivi dalla convinzione che «la scienza adotta un “punto di vista operazionale” e, se è possibile programmare un computer affinché si comporti esattamente come un essere umano, sarebbe molto attraente da un punto di vista scientifico pensare che il computer possa avere anche gli stessi stati mentali. Penrose vuole dimostrare che non è possibile realizzare un simile programma».92 In effetti Penrose stesso si esprime in termini simili: «Credo che la normale posizione scientifica (nel senso di opposta a quella filosofica) sarebbe concentrarsi su ciò che può essere osservato esternamente, così un sistema che riesce a simulare gli effetti esteriori della coscienza sarebbe sospettato anche di suscitarli. Così, il mio “punto di vista B” potrebbe non essere felice per un pratico scienziato».93 Possiamo però individuare un’altra ragione, ‘più filosofica’ ma forse ugualmente importante, in un pensiero espresso per la prima volta in una pagina di La mente nuova dell’imperatore: «Il problema del determinismo nella teoria fisica è importante, ma io credo che sia solo una parte della storia. Il mondo, per esempio, potrebbe essere deterministico ma non computabile. Il futuro potrebbe quindi essere determinato dal presente in un modo in linea di principio non calcolabile […] La libertà del volere, che sentiamo in noi, dovrebbe essere quindi intimamente connessa con qualche ingrediente non computabile nelle leggi che governano il mondo in cui viviamo».94 Dunque, il costante impegno a dimostrare l’esistenza di questo «ingrediente non computabile» può essere spiegato col tentativo di trovare un posto all’umana libertà (posto concessole a fatica dalla ‘fisica classica’), senza entrare in conflitto con la spiegazione scientifica del mondo. La realtà è deterministica, ma la nostra sensazione di libertà ha qualche fondato motivo di essere, pare concludere Penrose. Ivi, p. 477. Gillies, Intelligenza artificiale e metodo scientifico, cit., pp. 136-138. 92 Searle, Il mistero della coscienza, cit., p. 46. 93 Penrose, Beyond the Doubting of a Shadow, cit., sez. 15.6. 94 Penrose, La mente nuova dell’imperatore, p. 224. 90 91 15