PROBLEMA MENTE-CORPO

annuncio pubblicitario
IL DIBATTITO TRA ROGER PENROSE E JOHN R. SEARLE
NEL CONTESTO DEL ‘PROBLEMA MENTE-CORPO’
La discussione filosofica intorno al cosiddetto ‘problema mente-corpo’ vede contrapporsi, a
partire dal secondo dopoguerra, due filoni principali di ricerca: quello materialista, soprattutto
nella forma della ‘teoria dell’identità’, per cui gli stati mentali sono identici a stati fisici cerebrali;
quello funzionalista, che definisce gli stati mentali come stati funzionali, cioè in base al ruolo
assunto nel sistema complessivo dei comportamenti e degli altri stati mentali del soggetto di cui
fanno parte, indipendentemente dalla particolare concretizzazione che tale soggetto, e tali stati,
si trovano ad avere. Il punto di maggior contrasto tra le due tesi consiste proprio nel fatto che
mentre per i materialisti la produzione di uno stato mentale è legata a uno specifico processo
neurofisiologico (o comunque fisico), per i funzionalisti essa è realizzabile in modi fisicamente
eterogenei a seconda del sistema cui lo stato mentale appartenga, avendo come paradigma la
modalità con cui gli stessi programmi per computer sono espletati da diversi hardware.
In realtà i confini tra i due punti di vista, e tra essi e la posizione dualista, che ritiene gli
ambiti del fisico e del mentale due sfere del tutto distinte, sono alquanto sfumati. Il
funzionalismo, per esempio, viene classificato tra i ‘materialismi’ dal filosofo statunitense John
Searle,1 che sottolinea che esso, diversamente dal dualismo, vede nella mente qualcosa che non
esiste né può esistere separatamente dal mondo fisico e negli stati mentali particolari stati fisici
(che però sono mentali in quanto si trovano inseriti in un certo «schema di relazioni causali»).2
Anche alcuni tra i maggiori sostenitori della rilevanza filosofica e scientifica del funzionalismo e
degli studi sull’intelligenza artificiale, come Daniel Dennett e Donald Gillies, ne sottolineano gli
importanti ‘aspetti di materialità’.3
D’altra parte, come lo stesso Searle evidenzia,4 i funzionalisti prescindono totalmente dalla
realizzazione concreta che esegue il ‘programma-mente’, e «accettano il presupposto che la
mente sia in qualche modo avulsa dalla realtà ordinaria e impura, imperfetta e materiale in cui
viviamo. La mente appare loro (le parole sono di Dennett e Hofstadter) come qualcosa di
1 J. R. Searle, Mente cervello intelligenza, Bompiani, Milano 1988, p. 9; J. R. Searle, La riscoperta della mente, Bollati
Boringhieri, Torino 1994, pp. 22-23 e pp. 56-61.
2 J. R. Searle, Il mistero della coscienza, R. Cortina, Milano 1998, pp. 113-114.
3 D. Gillies, Intelligenza artificiale e metodo scientifico, R. Cortina, Milano 1998 (particolarmente a p. 81, pp. 137-138 e p.162);
A. R. Damasio et al., Cervelli che parlano, B. Mondadori, Milano 1997, p. 71.
4 J. R. Searle et al., Menti, cervelli e programmi: un dibattito sull’intelligenza artificiale, CLUP-CLUED, Milano 1984, pp. 70-71;
Searle, La riscoperta della mente, cit., pp. 59-60.
“formale e astratto”».5 Dunque, «è meglio considerare l’IA forte come una sorta di tentativo
estremo di dualismo».6
Perfino nel materialismo odierno è possibile individuare la presenza di ‘allusioni’ dualistiche.
È questo il caso dello scienziato Alwin Scott, che si dice ‘materialista’ (ma non ‘materialista
riduzionista’),7 e che nello stesso tempo propone un ‘dualismo emergente’, per cui «non
dovrebbe stupire che la ‘materia del cervello’, e quindi quella della mente, sia diversa dalla
‘materia nervosa’».8 La prospettiva vuole sempre essere materialista (‘materia del cervello’ e
‘della mente’ coincidono), ma Scott considera la Natura come descrivibile a vari livelli,
dinamicamente interagenti l’uno con l’altro, ma ognuno con leggi specifiche (pur riconducibili
alle leggi chimico-fisiche), con regolarità indipendenti da quelle che si manifestano ai livelli
inferiori.9 In questo quadro, la coscienza è vista come un «fenomeno emergente che nasce da
molteplici eventi discreti, fusi insieme a formare un’esperienza unitaria»,10 non riducibile ai – ma
comprensibile attraverso lo studio dei – suoi livelli inferiori (neuroni, proteine, atomi…).
Concezione simile è quella di Searle, il quale pur sentendosi ugualmente a disagio davanti alle
categorie classiche di ‘dualismo’ e ‘materialismo’, da un lato non manca mai di ricordare che la
mente può produrre effetti sulla natura solo nella misura in cui ne fa parte, fondandosi sulla
neurofisiologia,11 e che la coscienza è interamente causata dal «comportamento di fenomeni
biologici di basso livello»,12 dall’altro ritiene che gli stati mentali non possano essere proprietà
«ricavate limitandosi a osservare la composizione degli elementi costitutivi e le loro relazioni
con l’ambiente circostante: devono invece essere spiegate in base alle interazioni causali che
intercorrono tra gli elementi stessi».13 Viene così introdotta una discriminazione tra riduzione
causale e ontologica, e la seconda è decisamente criticata: «La pura sensazione qualitativa del
dolore è una caratteristica del cervello assai diversa dalla combinazione delle scariche neuronali
che causano il dolore. È dunque possibile avere una riduzione causale del dolore rispetto alle
scariche neuronali, ma non una riduzione ontologica. Ovvero, si può fornire un resoconto
5 J. R. Searle, L’analogia cervello/computer: un errore filosofico, in G. Giorello e P. Strata (a cura di), L’automa spirituale: menti,
cervelli e computer, Laterza, Bari 1991, pp. 209-210.
6 Searle, Il mistero della coscienza, cit., p. 157. Su questo tipo di considerazioni, vedi per esempio anche Damasio et al.,
Cervelli che parlano, cit., p. 37.
7 A. Scott, Scale verso la mente: nuove idee sulla coscienza, Bollati Boringhieri, Torino 1998, p. 218: «Essendo uno scienziato
della natura, credo anch’io che tutto sia fatto delle particelle e dei campi della fisica (e di qualcosa che, probabilmente,
dobbiamo ancora scoprire) […] Questo è il materialismo: i problemi sorgono – a mio parere – con il materialismo
riduzionista, secondo cui i movimenti degli atomi basterebbero a raccontare l’intera storia».
8 Ivi, p. 220.
9 Ivi, p. 170.
10 Ivi, p. 22.
11 Searle, Mente cervello intelligenza, cit., pp. 81-82.
12 Searle, La riscoperta della mente, cit., p. 108.
13 Ivi, pp. 126-127.
2
causale completo del perché proviamo dolore, ma questo non dimostra che il dolore non esista
veramente».14 Questo perché c’è un aspetto reale di esperienza soggettiva, insito negli stati di
coscienza, che non può essere colto dalla descrizione fisica oggettiva; l’apparenza soggettiva fa
parte della realtà della coscienza, e il nostro schema di riduzioni consueto, per com’è strutturato
oggi, non riesce a coglierla.15 Rimane quindi una distinzione ontologica tra stati mentali come le
sensazioni e stati fisici come i processi neuronali. Del resto gli esempi della solidità dei tavoli e
della liquidità dell’acqua16 dimostrano per Searle che gli stati mentali non sono l’unico caso di
‘proprietà emergenti’, cioè spiegabili, ma non riducibili, né tantomeno eliminabili, tramite il
ricorso alla descrizione dei rapporti causali tra i componenti dei sistemi fisici considerati.
C’è poi da notare che per quanto concerne la riproducibilità di stati mentali in macchine
artificiali (tesi tipica del funzionalismo), il materialista, più o meno ortodosso, non ne contesta
la possibilità. Il concetto è espresso in modo esemplare da Donald Davidson: «Una persona è
un oggetto fisico che funziona in accordo con le leggi fisiche del mondo naturale, dunque non
vi è alcuna ragione contraria all’ipotesi di riprodurre un artefatto perfettamente simile a un
essere umano naturale. Da questo segue che non c’è alcuna ragione per non ritenere che tale
artefatto possa anche pensare, ragionare, prendere decisioni, agire, avere credenze, desideri e
intenzioni».17 Bisogna però mettere in evidenza che per i non funzionalisti tale possibilità è
legata alla capacità di riprodurre le modalità fisiche che originano gli stati mentali desiderati, non
alla messa in opera di un adeguato programma ‘mentale’ in un macchinario predisposto. Sulla
questione, Searle è esplicito: «In linea di principio sarebbe possibile costruire un artefatto, un
cervello artificiale, che possa anche causare tali stati interiori […] Eppure è chiaro che un
qualsiasi altro sistema capace di causare la coscienza per funzionare dovrebbe possedere poteri
causali equivalenti a quelli del cervello. Questo punto segue banalmente dal fatto che il cervello
funziona in maniera causale».18 Diverso è il simulare tramite computer dal riprodurre: «I
neuroni possono davvero essere simulati da un programma di computer, ma l’imitazione delle
scariche neuronali non assicura il potere dei neuroni di causare la coscienza, più di quanto la
simulazione al computer di un temporale o dello scoppio di un incendio non garantisca i poteri
causali della pioggia o del fuoco».19 Searle definisce questo tipo di posizione ‘IA debole’, per
Searle, Il mistero della coscienza, cit., p. 23.
Searle, La riscoperta della mente, cit., pp. 137-139.
16 Searle, Il mistero della coscienza, cit., p. 5 e p. 14.
17 Damasio et al., Cervelli che parlano, cit., p. 56.
18 Searle, Il mistero della coscienza, cit., pp. 88-89.
19 Ivi, p. 45.
14
15
3
contrapporla polemicamente alla IA forte, per la quale simulare computazionalmente (la
funzione de) i neuroni equivale a riprodurre la coscienza.
Due sono gli argomenti specifici addotti da Searle contro l’IA forte. Il primo risale al più
vecchio intervento di Searle sul problema mente-corpo, Minds, Brains and Programs,20 ma viene
ripetuto in tutti gli scritti su questo tema.21 Si tratta dell’‘argomento della stanza cinese’, che
paragona il lavoro che un computer fa sui simboli che riceve, elabora e dà come output, a quello
di un inglese incapace di comprendere il cinese che venga chiuso in una stanza piena di
ideogrammi e dotato di una serie di regole nella propria lingua che gli dicano quali segni cinesi,
e in quale combinazione, spedire fuori dalla stanza quando certi altri segni cinesi gli vengano
recapitati: né il computer né l’inglese in questione capiscono il significato dei simboli che
maneggiano, pur potendo entrambi perfino condurre conversazioni in cinese! Ma, nelle parole
di Searle: «Ora mi sembra che l’argomento della stanza cinese conceda troppo all’IA forte, in
quanto concede che la teoria sia perlomeno falsa. Penso che essa sia invece incoerente, ed ecco
perché. Chiedetevi quale sia il fatto che fa sì che le operazioni della macchina con cui ora sto
scrivendo siano sintattiche o simboliche. Per quanto riguarda la fisica si tratta di un circuito
elettronico altamente complesso. […] La sintassi, in breve, non è intrinseca alla fisica del
sistema ma è negli occhi dell’osservatore. Fatta eccezione per i pochi casi degli agenti coscienti
che effettivamente elaborano il calcolo, addizionando 2 + 2 per ottenere 4, ad esempio, la
computazione non è un processo intrinseco in natura come la digestione o la fotosintesi, ma
esiste soltanto in relazione ad alcuni agenti che forniscono un’interpretazione computazionale
della fisica».22
Dunque, a partire dagli anni Novanta,23 Searle sviluppa questa seconda argomentazione che
mostra che, quasi sempre, gli stati computazionali esistono solo in quanto stati fisici interpretati
in tal senso («la sintassi non è intrinseca alla fisica»).24 La conseguenza è che «a parte i processi
mentali del pensiero, nulla è intrinsecamente un computer digitale»,25 pur essendo tutto quanto,
compreso il cervello umano, interpretabile come tale da un dato osservatore.26
Searle et al., Menti, cervelli e programmi, cit.
Vedi per esempio Searle, La riscoperta della mente, cit., pp. 60-61.
22 Searle, Il mistero della coscienza, cit., p. 11.
23 Searle, L’analogia cervello/computer, cit., pp. 206-207; Searle, La riscoperta della mente, cit., pp. 222-227.
24 Ivi, p. 223.
25 Searle, Il mistero della coscienza, cit., p. 13. L’autore si attiene alla «definizione di Turing secondo la quale qualsiasi cosa a
cui si possa assegnare uno 0 e un 1 è un computer» (ibidem).
26 La conclusione che «poiché tutto è un computer digitale, il cervello lo è pure», ma che ciò non basta per spiegare la
coscienza, pur senza l’argomento sulla computazione che deve essere interpretata come tale, è rintracciabile già in Searle et
al., Menti, cervelli e programmi, cit., pp. 71-72. Vedi anche Searle, Mente cervello intelligenza, cit., p. 28.
20
21
4
Non tutti i materialisti (in senso ampio), in ogni caso, concordano con l’idea di Searle che sia
comunque possibile simulare la mente umana con un software adatto. Il clamoroso ‘caso contro’
è quello del matematico e fisico inglese Roger Penrose, che ha un ruolo preminente nel
dibattito degli ultimi anni. Penrose combatte insieme con Searle la battaglia contro chi sostiene
che rendere operativo un certo tipo programma per computer (o un algoritmo, «un
procedimento di calcolo di qualche tipo»,27 come dice Penrose) sia sufficiente per essere in
presenza di una coscienza, ma si distingue per il fatto di impostare il proprio punto di vista
sull’impossibilità da parte dell’attività computazionale perfino di simulare una mente cosciente.
Le posizioni in campo sono chiarite dallo stesso Penrose all’inizio del libro Ombre della mente:
«A: ogni pensiero è computo; in particolare, il senso della consapevolezza è suscitato puramente
e semplicemente dall’esecuzione di computi appropriati. B: la consapevolezza è una
caratteristica dell’azione fisica del cervello; e mentre qualsiasi azione fisica può essere simulata
computabilmente, la simulazione computabile non può di per sé suscitare consapevolezza. C:
un’appropriata azione fisica del cervello suscita la consapevolezza, ma questa azione fisica non
può neppure essere adeguatamente simulata computabilmente. D: la consapevolezza non può
essere spiegata in termini fisici, computabili o di altro tipo scientifico».28 Il primo punto di vista
rispecchia l’IA forte; il secondo il pensiero di Searle, che unisce un materialismo non
riduzionista e l’IA debole; il terzo il ‘materialismo non simulabile computazionalmente’ di
Penrose; il quarto la posizione di chi ritiene la mente un problema non scientificamente
risolvibile.
L’originale analisi di Penrose inizia cinque anni prima, in un libro dal titolo La mente nuova
dell’imperatore, proprio dal succitato slogan di Searle: «Pare sia diffusa la convinzione che “ogni
cosa è un computer digitale”. È mia intenzione, in questo libro, di cercare di mostrare perché, e
forse come, non sia necessariamente così».29 Il testo, che intende confutare l’IA forte, discute
preliminarmente l’esperimento mentale della stanza cinese, giudicando che ha «una forza
considerevole, anche se non è del tutto conclusivo».30 Secondo Penrose infatti, l’argomento mal
risponde all’obiezione che l’algoritmo, l’insieme di regole, da utilizzare per operare coi ‘simboli
cinesi’ potrebbe essere talmente complesso da non poter essere eseguito ‘a mano’ da una sola
persona. Searle ribatte infatti che l’inglese della versione originale può essere sostituito da un
insieme anche immenso di persone non parlanti il cinese, ma a questo punto si potrebbe
R. Penrose, La mente nuova dell’imperatore: la mente, i computer, le leggi della fisica, Rizzoli, Milano 1992, p. 39.
R. Penrose, Ombre della mente: alla ricerca della coscienza, Rizzoli, Milano 1996, p. 29.
29 Penrose, La mente nuova dell’imperatore, cit., p. 47.
30 Ivi, p. 44.
27
28
5
obiettare identificando questa ‘popolazione’ nella stanza cinese con l’insieme dei neuroni di un
cervello; i singoli ‘neuroni’ non capiscono il cinese, ma si può sostenere che la stanza nel suo
insieme (vale a dire: il cervello nel suo complesso) ha, a partire da una mera ma complicata
manipolazione di simboli, una comprensione di ciò che ‘le passa dentro’ per poi ‘uscirne
fuori’.31 Quindi per Penrose il «ragionamento di Searle» è molto potente, ma «non stabilisce in
modo rigoroso che non esiste una qualche sorta di “comprensione” disincarnata, associata
all’esecuzione di quell’algoritmo».32
Anni dopo, Penrose ne ribadisce gli aspetti convincenti, esplicitando che il motivo per cui
però non ci si può fermare ad esso, risiede nel fatto che è «completamente negativo», cioè non
dà (secondo lui) alcuna indicazione su come si possa spiegare scientificamente la questione
mente-corpo.33
In ogni caso, l’attacco definitivo che Penrose vuole sferrare nei confronti dell’IA, è talmente
radicale che, se portato a compimento, consente non solo di togliere di mezzo i pochi dubbi
lasciati dalla ‘stanza cinese’ rispetto alla IA forte, ma anche di sconfiggere l’IA debole e la sua
pretesa che tutto possa essere interpretato e simulato computazionalmente. Per far questo,
Penrose cerca di mostrare che non solo «gli aspetti interni della coscienza» ma anche «le
manifestazioni esterne della coscienza non sono riproducibili dalla computazione».34
Già nel suo primo intervento del 1989, pur toccando numerosi altri soggetti, la linea di
Penrose prevede: in primo luogo, la dimostrazione, con un argomento logico, dell’esistenza
negli esseri coscienti di comportamenti non algoritmici, e quindi non riproducibili da parte di
un computer (contro le sopra enunciate posizioni A e B); successivamente, l’identificazione di
quei processi fisici che permettono di avere negli uomini tali comportamenti oltre la
computabilità (contro D). La ‘parte logica’ rilevante, ristretta essenzialmente al cap. 4 e ripresa
poi nel conclusivo cap. 10, sviluppa (senza qui citarlo) un argomento esposto per la prima volta
dal filosofo John R. Lucas35 e basato sul risultato dimostrato dal matematico Kurt Gödel nel
1931 e noto come ‘teorema di Gödel’.36 La ‘parte fisica’, distesa su molte pagine, ma culminante
nel cap. 8 e nel cap. 9, conclude che le teorie fisiche attuali non lasciano spazio all’esistenza di
processi non algoritmici, e quindi, dato che tali processi devono esistere, come dimostrato dal
Così fa Jerry Fodor; vedi Damasio et al., Cervelli che parlano, cit., pp. 146-147.
Penrose, La mente nuova dell’imperatore, cit., p. 44.
33 R. Penrose, Il grande, il piccolo e la mente umana, R. Cortina, Milano 1998, pp. 173-174.
34 Ivi, p. 174.
35 J. R. Lucas, Minds, Machines and Gödel, in «Philosophy» 36 (1961), pp. 112-127.
36 K. Gödel, Über formal unentscheidbare Sätze der «Principia Mathematica» und verwandter Systeme, I, in «Monatshefte für
Mathematik und Physik» 38 (1931), pp. 173-198.
31
32
6
ragionamento di logica, bisognerà attendere la scoperta di una nuova fisica, che dovrà spiegare
tra l’altro anche i misteri della meccanica quantistica e della teoria della relatività.
L’acceso dibattito37 che segue la pubblicazione del libro tende a soffermarsi in particolare
sulle questioni di logica, essendo poste le tematiche di fisica a un livello molto più congetturale.
Ciò convince l’autore a produrre un secondo libro, il già citato Ombre della mente, dove la parte
relativa a Gödel è corredata da un’ampia collezione di possibili obiezioni e di repliche, mentre le
supposizioni relative alla nuova fisica da trovare si fanno più precise e ‘documentate’.
In realtà gli argomenti sviluppati nella sezione logica sono due (anche se i commentatori
sovente non se ne accorgono),38 come confermato in una ulteriore discussione sul tema da
Penrose stesso: «L’argomento semplice (che per me è sempre stato convincente a sufficienza) è,
di base, il ‘mero’ ragionamento gödeliano […] applicato alla credenza dei matematici di stare
“facendo realmente ciò che pensano di stare facendo”, piuttosto che seguire le regole di qualche
insondabile algoritmo […] Di conseguenza, le procedure disponibili ai matematici dovrebbero
tutte essere conoscibili! […] Le linee di argomentazione complicate sono indirizzate più a quelli
che prendono il punto di vista che i matematici non stanno “facendo realmente ciò che
pensano di stare facendo”, ma stanno agendo secondo qualche inconscio algoritmo insondabile
[…] Adotto una linea d’approccio completamente diversa. Cioè esamino come un tale
algoritmo insondabile possa plausibilmente prodursi. Si è fatto riferimento prima alla questione
del ruolo della selezione naturale […] L’altra possibilità che ho discusso era qualche forma di
deliberata costruzione dell’IA».39 L’argomento gödeliano procede supponendo, per assurdo, che
i matematici ragionino secondo una certa procedura computazionale chiamata A, perfettamente
conoscibile e da loro ritenuta valida. È possibile (grazie a Gödel) codificare, ordinare, le famiglie
di computi, vale a dire di problemi matematici, in modo tale da poter supporre che A si applichi
a ciascuna di esse, giungendo a termine nel caso in cui il particolare problema su cui ‘ha
ragionato’ non abbia soluzione. Risulta allora che A sarebbe «una sorta di compendio di tutte le
procedure disponibili ai matematici umani per dimostrare in modo convincente che una
computazione non ha fine».40 Ma a questo punto il teorema di Gödel entra in gioco in modo
decisivo, dimostrando che il problema dell’arresto è irrisolvibile in modo computazionale, cioè
37 In parte testimoniato da R. Penrose et al., “Precis of The Emperor’s New Mind” and comments, in «Behavioral and Brain
Sciences» 13 (1990), pp. 643-705 e da R. Penrose et al., “An Emperor Still Without Mind” and comments, in «Behavioral and Brain
Sciences» 16 (1993), pp. 611-622.
38 Vedi Searle, Il mistero della coscienza, cit., pp. 51-52, oltreché R. Penrose, Beyond the Doubting of a Shadow. A Reply to
Commentaries on Shadows of the Mind, in «Psyche. An Interdisciplinary Journal of Research on Consciousness», 2 (1996), sez. 1.3
[http://psyche.cs.monash.edu.au/v2/psyche-2-23-penrose.html].
39 Ivi, sez. 7.5-7.6.
40 Penrose, Il grande, il piccolo e la mente umana, cit., p. 113.
7
che se si crede che la procedura A sia valida, sarà sempre possibile costruire un particolare
computo che non ha fine, nonostante il fatto che in quel caso neppure A termina, e quindi
(contrariamente alle aspettative) non riesce a mostrare che esso non ha fine. Quindi, dato che
noi sappiamo e vediamo che quel computo non termina, e A ‘non lo sa’, A non può
rappresentare la nostra ‘comprensione matematica’, che non può dunque essere ridotta a pura
computazione: è non computazionale!41
Penrose, soddisfatto del risultato raggiunto, che chiama G: «I matematici umani non stanno
usando un algoritmo conoscibilmente valido per accertare la verità matematica»42 (ma si limita
ai matematici unicamente perché ritiene di poter rendere rigoroso il ragionamento solo in
questo campo, non perché sia convinto che solo qui si sia in presenza di processi non
algoritmici),43 passa ad esaminare tutta una serie di obiezioni di tipo logico-matematico
riguardanti l’applicazione del teorema di Gödel. Ma il fulcro del contrattacco di Penrose sta
nell’esame delle osservazioni più facilmente ipotizzabili, al di là delle sottigliezze tecniche, cioè
che il procedimento A non sia valido oppure che sia inconoscibile (il procedimento in sé o il
proprio ruolo di algoritmo alla radice della comprensione matematica).
Il primo caso è liquidato in poche pagine,44 distinguendo comunque due sottocasi. Se si
suppone che sia l’algoritmo alla base della comprensione sia questo suo ruolo di cardine siano
conoscibili, procediamo facendo notare che: la sola credenza che il sistema formale F (a noi noto)
alla base della nostra comprensione45 sia valido (e una credenza in senso contrario «sarebbe un
punto di vista matematico irragionevole»)46 implica la credenza che «il sistema formale F è
consistente» sia vera; ma dato che in tal caso il solito teorema di Gödel (nella forma secondo cui
un sistema formale tale da includere l’aritmetica non può essere consistente e completo) dice
che questo non sarebbe un teorema di F stesso, ciò contraddice l’ipotesi che F racchiuda tutta
la comprensione di tipo matematico. Se invece riteniamo che l’algoritmo sia conoscibile ma che
il suo ruolo nella nostra comprensione non lo sia, potremmo realmente essere condotti a
concepire che esso non sia valido, sempre con un argomento che sfrutta il teorema di Gödel,47
«ma è realmente credibile che le nostre inconfutabili convinzioni matematiche possano riposare
su un sistema non valido – così non valido che “1=2” faccia parte, in linea di principio, di
Penrose, Ombre della mente, cit., pp. 99-104.
Ivi, p. 103.
43 Ivi, p. 76.
44 Ivi, p. 169 e pp. 177-182.
45 In questa discussione è pacifica l’equivalenza tra sistemi formali e algoritmi; ivi, p. 125. In realtà non per tutti è così:
vedi Gillies, Intelligenza artificiale e metodo scientifico, cit., p. 179.
46 Penrose, Ombre della mente, cit., p. 169.
47 Ivi, p. 173.
41
42
8
queste convinzioni?».48 Nel caso invece che l’algoritmo sia valido, sempre sotto l’ipotesi che
esso sia conoscibile, ma non quanto al ruolo di «radice della comprensione matematica»,49 è
altrettanto impossibile escludere logicamente che sia realmente l’algoritmo che stiamo cercando;
Penrose sottolinea però che questa eventualità sarebbe legata alla presenza, nel ‘nostro’ sistema
formale F, di regole di inferenza dalla validità non evidente, per cui non potremmo mai «essere
sicuri che F includa effettivamente con precisione la totalità delle nostre conoscenze e intuizioni
matematiche inconfutabili»,50 e sostiene che questa conclusione non dovrebbe rendere felici i
sostenitori dell’IA, che vorrebbero trovare il modo di riprodurre un simile sistema formale, ma
che non potrebbero mai essere sicuri né della sua esistenza né del modo in cui raggiungerlo.51
Resta infine l’altra possibilità, cioè che si possa ‘agire matematicamente’ in base a un
procedimento computazionale del tutto inconoscibile (in tal caso non potremmo costruire quel
certo computo che metterebbe in crisi il procedimento computazionale stesso), e intorno ad
essa si sviluppa il resto della ‘parte logica’ del libro, con le cosiddette «linee di argomentazione
complicate».52 Si tratta di un tipo di obiezione molto ricorrente, contro l’argomento gödeliano
di Penrose. La replica indaga sull’origine che il presunto algoritmo inconoscibile potrebbe
avere.
L’algoritmo alla base della comprensione matematica potrebbe essere stato favorito dalla
selezione naturale, ma Penrose contesta l’ipotesi sostenendo che «una particolare abilità a fare
matematica incomprensibile [all’epoca dello sviluppo degli esseri umani, quando essi lottavano
per la sopravvivenza] non può avere avuto alcun vantaggio selettivo diretto per chi la
possedeva, e io sono dell’opinione che non ci può essere stato alcun motivo per la nascita di un
simile algoritmo».53 Tutto cambia se si ritiene la comprensione una capacità non algoritmica di
rapporto col mondo, che ha per accidente un aspetto di versatilità matematica: «A superare la
soglia della selezione è stata un’abilità generale nel comprendere – che, come caratteristica
accidentale, può essere applicata anche alla comprensione matematica. Questa abilità non è
algoritmica (a causa dell’argomento di Gödel), ma si applica a molte altre cose, diverse dalla
matematica».54
Alternativamente, potremmo supporre che l’inconoscibile ‘algoritmo matematico’ possa
essere prodotto passo dopo passo a partire da robot inizialmente costruiti dall’uomo, ma
Ivi, p. 177.
Ivi, pp. 170-177.
50 Ivi, p. 170.
51 Ivi, pp. 176-177.
52 Penrose, Beyond the Doubting of a Shadow, cit., sez. 7.6.
53 Penrose, Ombre della mente, cit., p. 192.
54 Penrose, Il grande, il piccolo e la mente umana, cit., p. 185.
48
49
9
successivamente in grado di ‘crescere e svilupparsi’ per proprio conto, di apprendere
dall’esperienza, grazie a determinate caratteristiche dei loro software (i cosiddetti programmi
organizzati in modo bottom-up, predisposti per imparare a partire dalle conoscenze
accumulate).55 Penrose è comunque sicuro, sebbene sia «preparato ad accettare che le
procedure “bottom-up” che sono usate […] potrebbero condurre a un prodotto finale di una
complicazione quasi inimmaginabile[, che t]uttavia, questi meccanismi che entrano nella
costruzione definitiva dei robot sarebbero in realtà conoscibili – anzi, si potrebbe ben dire […]
che questi meccanismi sono, in effetti, già noti».56 Ponendo dunque come conoscibili i
meccanismi M alla base dei ragionamenti matematici degli ipotizzati robot capaci di imparare,
anche il sistema formale Q(M) costruito in base a tali meccanismi e le verità matematiche
inconfutabili (chiamate *-affermazioni) da esso raggiunte, devono essere considerati
umanamente conoscibili. Con questa mossa, Penrose si riconduce57 al tipo di ragionamento già
effettuato nel primo caso esposto, quello relativo all’algoritmo consciamente conoscibile, anche
rispetto al proprio ruolo58 (stavolta però, dal punto di vista dei robot). Un robot, infatti, non
può «credere fermamente che Q(M) sia equivalente alla sua nozione di convinzione matematica
inconfutabile»59 perché in tal caso arriverebbe a una contraddizione: sarebbe ‘costretto’ a
credere che Q(M) sia valido, e quindi a credere che «il sistema formale Q(M) è consistente» sia
vera ma al tempo stesso, per il teorema di Gödel, oltre i poteri dimostrativi di Q(M), cioè oltre
le proprie convinzioni. Ma «gli appropriati esperti di IA» potrebbero sapere che il robot è stato
costruito proprio secondo i meccanismi computazionali M, e «questo sembra dirci che
possiamo avere accesso a verità matematiche […] che sono oltre le capacità del robot,
nonostante il fatto che queste siano ritenute pari (o superiori) a quelle umane».60
In realtà c’è un risultato ancor più sorprendente che Penrose raggiunge subito dopo, e cioè
che il robot in questione (ma anche un uomo stesso) non potrebbe credere di essere ‘costruito’
nei suoi aspetti matematici in base a M, «indipendentemente dal fatto che lo sia o non lo sia
realmente!».61 L’argomento, nella sua forma più stringata e generale è il seguente: «Un
matematico umano [ma non solo], se gli si presenta F [sistema formale valido che si suppone
inglobi tutti i metodi di ragionamento matematico umanamente accessibili] potrebbe ragionare
come segue […]: anche se non so di essere necessariamente [equivalente a] F, concludo che se
Penrose, Ombre della mente, cit., p. 36.
Penrose, Beyond the Doubting of a Shadow, cit., sez. 7.7.
57 Penrose, Ombre della mente, cit., pp. 208-209.
58 Ivi, p. 169.
59 Ivi, p. 209.
60 Ibidem.
61 Ivi, p. 211.
55
56
10
lo fossi, allora il sistema F dovrebbe essere valido e, ancor più appropriatamente, che F'
dovrebbe essere valido, dove F' è uguale a F integrato dall’ulteriore asserzione “io sono F”. Io
percepisco che dall’assunzione che io sono F segue che la proposizione gödeliana G(F') [«che
asserisce la consistenza di F'»] dovrebbe essere vera e, inoltre, che ciò non sarebbe una
conseguenza di F' [per il teorema di Gödel]. Ma ho appena percepito che “se capitasse che io
fossi F, allora G(F') dovrebbe essere vera”, e percezioni di questo tipo sono proprio quelle che
si suppone che F' dovrebbe avere [e che invece non può]. Dunque, poiché sono capace di
percepire qualcosa oltre i poteri di F’, ne deduco che dopo tutto non posso essere [equivalente
a] F [ipotesi iniziale che ha condotto a un assurdo]».62 Penrose ne conclude che «nessun essere
cosciente matematicamente consapevole […] può operare secondo un qualsiasi insieme di
meccanismi che sia in grado di apprezzare»,63 e quindi l’unica possibilità che un essere di questo
tipo ragioni secondo un algoritmo inconoscibile deriva dall’eventualità che un intervento divino
lo abbia posto dentro di lui (e che sia dunque totalmente al di là della raggiungibilità da parte
dell’IA!).64
Giunto a questo punto, l’autore, avendo escluso la possibilità dualista (prefigurata dallo
stesso Gödel)65 che la mente sia capace di operare in modo non computabile, rimanendo invece
il cervello sottoposto alle consuete regole computazionali della fisica (o, al limite, casuali della
meccanica quantistica), deve porsi alla ricerca della non computabilità in fisica, secondo quanto
richiesto dal punto di vista C. Dall’analisi condotta sulla fisica attuale, Penrose trae la
conclusione che le teorie odierne non lasciano spazio ad azioni non computabili che possano
spiegare la comprensione quantomeno a livello matematico. Questo fatto, unito al rilevamento
dei problemi della teoria della relatività e delle difficoltà insite nella spiegazione quantistica della
realtà, in particolare al livello dei processi di misurazione, induce Penrose ad asserire che debba
essere cercata una nuova fisica, che dia ragione sia dell’esistenza di processi fisici non
computazionali che dei misteri della scienza contemporanea.
Penrose articola anche una proposta66 di soluzione al ‘problema della misurazione’ della
meccanica quantistica e di indicazione di possibili luoghi e situazioni nel cervello in cui
potrebbero avvenire processi non computabili. Alla domanda «Perché non assistiamo, a livello
macroscopico, alle sovrapposizioni di stati quantistici che invece sono attestate a livello
microscopico?», comunemente mascherata dall’applicazione del postulato della ‘riduzione della
Penrose, Beyond the Doubting of a Shadow, cit., sez. 3.2.
Penrose, Ombre della mente, cit., p. 213.
64 Ivi, p. 210.
65 Ivi, pp. 165-166.
66 Vedi per esempio Penrose, Il grande, il piccolo e la mente umana, cit., p. 135.
62
63
11
funzione d’onda’, si propone di rispondere che le sovrapposizioni microscopiche persistono
fino a un certo momento in cui avviene una ‘riduzione oggettiva’, cioè un processo (detto OR)
di reale scelta, non casuale né arbitraria, ma possibilmente non computabile, di uno degli stati del
sistema fisico coinvolti nella sovrapposizione.67 A scanso di equivoci, verrà chiarito
successivamente, «a nessun livello ho suggerito che sarebbe nella precisa cadenza della
riduzione della sovrapposizione quantistica che una significativa non-computabilità avverrebbe
[…] Non è tanto una questione di quando, ma di quale all’interno della collezione di stati
sovrapposti la Natura in realtà sceglie […] Sarebbe nella particolare scelta che la Natura fa che
la non-computabilità potrebbe entrare in modo significativo».68
La nuova fisica dovrà dunque collocare un processo del tipo di OR al posto del ‘collasso
della funzione d’onda’, spiegando l’equivalenza sperimentale dei due. Ma dove entra questa non
computabilità nella fisica del cervello? L’indicazione che emerge da Ombre della mente è piuttosto
particolareggiata, e viene congetturato che un ruolo determinante sia da attribuire non ai
neuroni (‘troppo grandi’ per essere protagonisti di processi che comunque si devono svolgere a
un livello di tipo quantistico), ma ai microtubuli, vere e proprie piccole strutture tubulari poste
all’interno dei citoscheletri (a loro volta strutture interne ai neuroni), con caratteristiche adatte
ad ospitare azioni di tipo quantistico e probabilmente coinvolte nell’importante (per la mente)
operazione di determinazione dell’intensità delle sinapsi tra i diversi neuroni.69 La struttura di
tali microtubuli suggerisce a Penrose, che elabora in seguito più a fondo questa ipotesi insieme a
Stuart Hameroff,70 che possano darsi al loro interno effetti quantistici, e che questi possano poi
venire accoppiati agli eventi classici che si realizzano lungo l’esterno dei microtubuli stessi,
proprio tramite il presunto processo non computazionale OR.71 In tal modo questa azione non
algoritmica influenzerebbe la dinamica delle sinapsi, e quindi il pensiero, come richiesto dai
risultati logici raggiunti nella prima parte.
Anche il dibattito intorno ad Ombre della mente, come già accaduto per La mente nuova
dell’imperatore, si concentra sulle questioni di logica,72 e Penrose pare lamentarsene.73 La
recensione del libro da parte di Searle74 sembra sfuggire alla regola, in quanto egli tratta e critica
Penrose, Ombre della mente, cit., pp. 415-419; Penrose, Il grande, il piccolo e la mente umana, cit., pp. 86-93.
Penrose, Beyond the Doubting of a Shadow, cit., sez. 12.6.
69 Penrose, Ombre della mente, cit., pp. 435-446.
70 Per i loro lavori comuni su questo tema, vedi il sito: http://www.consciousness.arizona.edu/hameroff/PenHam/penrose_hameroff_publications.htm.
71 Penrose, Ombre della mente, cit., pp. 455-458.
72 B. J. Baars et al., Symposium on Roger Penrose’s Shadows of the Mind, in «Psyche. An Interdisciplinary Journal of Research
on Consciousness», 2 (1995) [http://psyche.cs.monash.edu.au/psyche-index-v2.html].
73 Penrose, Beyond the Doubting of a Shadow, cit., sez. 1.2.
74 Pubblicata nel novembre 1995 sulla New York Review of Books e poi ripubblicata in Searle, Il mistero della coscienza, cit.,
pp. 41-75.
67
68
12
(da buon sostenitore dell’IA debole) il modo in cui sono legate la parte logica e quella fisica
della linea di pensiero di Ombre della mente. Il filosofo individua subito una ‘crepa’ nel
ragionamento di Penrose: «Ciò che l’argomento dimostra è che io non posso essere simulato, al
livello del ragionamento matematico, da un programma che utilizza soltanto regole valide di
dimostrazione matematica. Ma la conclusione cui giunge Penrose è che io non posso essere
simulato da nessuna descrizione possibile dei processi che mi consentono di cogliere la verità delle
affermazioni di Gödel. Tale conclusione non segue necessariamente».75 Per capire precisamente
cosa abbia in mente, bisogna tenere presente la concezione della coscienza di Searle: essa è una
caratteristica del cervello causata da – ma non riducibile a – processi di livello inferiore del
cervello stesso.76 Searle si riferisce dunque a simulazioni (computabili) dei processi cerebrali, per
le quali «le questioni di validità o correttezza non si pongono nemmeno […] Tali simulazioni
imitano semplicemente una serie di processi neurologici, semplici e casuali; quelli che stanno
alla base dei nostri ragionamenti matematici o di altro tipo».77 Un esempio banale (ma per Searle
un software non è che «una sequenza finita di tali banalità»):78 se il simbolo 0 sta per «Penrose sta
pensando alla verità delle proposizioni di Gödel» e 1 sta per «Penrose coglie la verità di tali
proposizioni», allora un programma che dica a un computer di passare dallo stato 0 allo stato 1,
simula computazionalmente il ragionamento matematico di Penrose. Similmente, si possono
simulare gli eventi cerebrali del suo cervello legati ai suddetti pensieri, ma senza riferimento
diretto ad essi, solo a livello di ‘scariche neuronali’, esattamente nel modo in cui si simulano al
computer i temporali.79 È un tipo di simulazione che non garantisce giudizi veri? Ma
«nemmeno i processi reali del cervello garantiscono la verità».80 Dunque, pur essendo poco
plausibile, non è impossibile che una comprensione matematica derivi, in modo del tutto non
normativo, da simili programmi algoritmici di simulazione del cervello.81
Nel commentare le questioni fisiche Searle ritorna su questo tipo di argomento,
generalizzandone la conclusione: se anche fosse vero che non è possibile simulare
computabilmente la coscienza «non segue necessariamente che le entità che causano la
coscienza non possano essere simulate al computer. Più in generale, non c’è alcun problema nel
supporre che una serie di relazioni che non sono computabili ad un certo livello di descrizione,
possano essere il risultato di processi che sono invece computabili, ad un altro livello di
Ivi, p. 56.
Ivi, p. 5.
77 Ibidem.
78 Ivi, p. 57.
79 Ivi, pp. 56-57.
80 Ivi, p. 59.
81 Ivi, p. 60. L’ipotesi è comunque definita ‘fantascientifica’.
75
76
13
descrizione».82 La non computabilità nel mentale, nel senso che ‘mentale’ ha per Searle, non
implica dunque la non computabilità nel fisico.
La risposta di Penrose non si fa attendere. Maudlin, nel suo commento a Ombre della mente, fa
in modo più conciso la stessa osservazione di Searle: «La conclusione della I Parte è che la
comprensione matematica non è solo questione di usare algoritmi conoscibilmente validi. In
quel senso, c’è più che molta attività computabile nel cervello. Ma semplicemente non segue
che l’azione fisica del cervello non sia governata da una dinamica che possa essere simulata su
un computer».83
Penrose, facendo anche riferimento a Searle,84 traduce tali annotazioni nell’asserzione che «la
computabilità o meno dei matematici non ha conseguenze esternamente osservabili».85
L’argomento funziona in quanto si basa sul fatto che non ci può essere un output infinito
derivante da un essere umano finito, e che quindi ci potrebbe essere «qualche programma di
computer che potrebbe, almeno in linea di principio, simulare l’azione di quella persona. Questa
è una linea di ragionamento davvero strana, perché invaliderebbe qualsiasi forma di deduzione
riguardo la teoria fisica a partire dall’osservazione».86 Fra l’altro, già in Ombre della mente, Penrose
non escludeva la possibilità di una casuale «effettiva simulazione dell’attività umana cosciente»,87
data la finitezza di essa.
Non si deve comunque credere, distratti dalla polemica tra Searle e Penrose, che quest’ultimo
si distingua dall’avversario (e più in generale dagli altri materialisti) per il fatto di ritenere
irriproducibile il pensiero. Certo, la coscienza non può essere né riprodotta né simulata
computazionalmente, ma Penrose esprime ripetutamente88 la convinzione che un artefatto
pensante sia costruibile: «Il punto di vista C accetta che futuri sviluppi scientifici possano
condurre alla costruzione di dispositivi – non basati sui calcolatori che conosciamo ora, ma su
quella azione fisica non computabile che, secondo C, deve essere alla base stessa dei nostri
processi di pensiero cosciente – che potrebbero ottenere intelligenza e consapevolezza reali.
Forse questi dispositivi, non i ‘calcolatori’ che ora conosciamo, alla fine supereranno di slancio
tutte le capacità umane».89
Ivi, p. 68.
Baars et al., Symposium on Roger Penrose’s Shadows of the Mind, cit.
84 Penrose, Beyond the Doubting of a Shadow, cit., nota 6.
85 Penrose, Beyond the Doubting of a Shadow, cit., sez. 10.1.
86 Ibidem.
87 Penrose, Ombre della mente, cit., p. 112.
88 Penrose, La mente nuova dell’imperatore, cit., p. 525; Penrose, Il grande, il piccolo e la mente umana, cit., p. 178.
89 Penrose, Ombre della mente, cit., p. 56.
82
83
14
L’autore ritiene questo punto implicito nel fatto che il punto di vista C «ammette che le
facoltà mentali possano infine essere comprese in termini scientifici».90 Dunque non pare che ci
siano ‘ansie’, da parte di Penrose, riguardo un possibile superamento delle facoltà umane da
parte dell’intelligenza artificiale, come invece supposto da Gillies nel suo commento
all’argomento gödeliano di Lucas e Penrose.91
Quale può essere allora l’origine di una posizione così fortemente ‘anti-computazionalista’?
Searle, nella sua già commentata recensione, ritiene che il non fermarsi all’IA debole derivi dalla
convinzione che «la scienza adotta un “punto di vista operazionale” e, se è possibile
programmare un computer affinché si comporti esattamente come un essere umano, sarebbe
molto attraente da un punto di vista scientifico pensare che il computer possa avere anche gli
stessi stati mentali. Penrose vuole dimostrare che non è possibile realizzare un simile
programma».92 In effetti Penrose stesso si esprime in termini simili: «Credo che la normale
posizione scientifica (nel senso di opposta a quella filosofica) sarebbe concentrarsi su ciò che
può essere osservato esternamente, così un sistema che riesce a simulare gli effetti esteriori della
coscienza sarebbe sospettato anche di suscitarli. Così, il mio “punto di vista B” potrebbe non
essere felice per un pratico scienziato».93
Possiamo però individuare un’altra ragione, ‘più filosofica’ ma forse ugualmente importante,
in un pensiero espresso per la prima volta in una pagina di La mente nuova dell’imperatore: «Il
problema del determinismo nella teoria fisica è importante, ma io credo che sia solo una parte
della storia. Il mondo, per esempio, potrebbe essere deterministico ma non computabile. Il futuro
potrebbe quindi essere determinato dal presente in un modo in linea di principio non
calcolabile […] La libertà del volere, che sentiamo in noi, dovrebbe essere quindi intimamente
connessa con qualche ingrediente non computabile nelle leggi che governano il mondo in cui
viviamo».94 Dunque, il costante impegno a dimostrare l’esistenza di questo «ingrediente non
computabile» può essere spiegato col tentativo di trovare un posto all’umana libertà (posto
concessole a fatica dalla ‘fisica classica’), senza entrare in conflitto con la spiegazione scientifica
del mondo. La realtà è deterministica, ma la nostra sensazione di libertà ha qualche fondato
motivo di essere, pare concludere Penrose.
Ivi, p. 477.
Gillies, Intelligenza artificiale e metodo scientifico, cit., pp. 136-138.
92 Searle, Il mistero della coscienza, cit., p. 46.
93 Penrose, Beyond the Doubting of a Shadow, cit., sez. 15.6.
94 Penrose, La mente nuova dell’imperatore, p. 224.
90
91
15
Scarica