Intelligenza Artificiale, Filosofia della Mente e

Intelligenza Artificiale, Filosofia della Mente e Scienza Cognitiva
1. La filosofia della mente
La riflessione intorno alla natura e alle proprietà della mente umana risale all’antichità;
l’espressione " filosofia della mente " sembra, comunque, caratterizzare un particolare ambito di
discussione sulla base di alcune questioni fondamentali, come ad esempio il rapporto tra mente e
cervello, l’architettura cognitiva del cervello, l’analisi delle capacità rappresentative, ecc …
Il punto di partenza di tutte queste tematiche è Cartesio, il quale sosteneva la caratterizzazione del
pensiero cosciente come essenza del mentale e delineò la divisione fra res cogitans e res extensa
attraverso le quali studiare i rapporti conoscitivi tra soggetto conoscente e realtà conosciuta.
Inoltre considerava la mente come una sostanza immateriale che, in modo misterioso, interagisce
con il corpo: si configura così il cosiddetto dualismo interazionista, che consiste nella spiegazione
dell’interazione tra mente e corpo.
Tale concezione, però, ha in sé numerose difficoltà; per risolvere questi problemi è possibile attuare
una duplice soluzione: o negando la stretta correlazione che esiste tra eventi fisici ed eventi mentali,
o negando il dualismo stesso.
Tutto ciò può essere ottenuto in due modi:
a. puntando su un anti – sostanzialismo , moderato in Locke ( il quale sosteneva la funzione
essenziale che svolge la coscienza indipendentemente dalla sostanza ), radicale in Hume ( il
quale dissolve il soggetto conoscente in un fascio di percezioni ) o trascendentale in Kant ( il
quale sosteneva la teoria " dell’io puro").
b. rinunciando al carattere originale di una delle due res.
Nella filosofia del novecento alcuni filosofi rimasero più o meno legati al carattere dualistico di tale
riflessione, come ad esempio le teorie di Wundt e James; ben presto assunse connotazioni
materialistiche e naturalistiche, grazie al successo del comportamentismo come metodologia
dominante nella psicologia.
Tale concezione si diramò, quindi, in due correnti:
a. il comportamentismo metodologico, che accetta come dati per la rielaborazione teorica i
comportamenti osservabili , escludendo ogni riferimento all’introspezione e quindi a eventi
interni inosservabili.
b. il comportamentismo logico, il quale sostiene che le asserzioni psicologiche significano (
cioè stanno per ) comportamenti o disposizioni al comportamento.
Risposte contrastanti a questo approccio si ritrovano nei maggiori filosofi e movimenti analitici del
novecento.
Intorno agli anni ’70 la scienza cognitiva comincia ad affermarsi come settore indipendente e
segnando una svolta proponendo:
a. l’idea che la scienza della mente non può ignorare l’architettura interna dei processi
cognitivi.
b. l’uso generalizzato di modelli computazionali.
1
Si assiste così alla rinascita del materialismo dell’identità tra mente e cervello.
Questa dottrina assume due forme principali:
a. il materialismo di identità tipo tra eventi mentali e cerebrali ( a ogni classe di eventi mentali
corrisponde una classe di eventi cerebrali ).
b. il materialismo dell’identità di concorrenza in cui ogni singolo evento mentale è identico a
un evento di cerebrale.
Fanno riferimento a quest’ultima teoria sia la tesi dell’autonomia metodologica e tassonomica della
psicologia, sostenuta da Jerry Fodor, sia il monismo anomalo, sostenuto da Donald Davidson, il
quale conciliava l’autonomia dei processi psicologici con l’idea che esistono soltanto cause
materiali.
La forma più estrema di materialismo è l’eliminativismo, il quale sottolinea l’impossibilità di
tradurre il linguaggio mentale, semanticamente inconsistente e ricco di espressioni prive di
riferimento, con quello fisicalistico: questa concezione fu sostenuta da Paul e Patricia Churchland.
A questo punto di vista si avvicina anche lo strumentalismo di Daniel Dennett ,secondo il quale il
linguaggio mentalistico, pur non essendo una realtà sussistente, è necessario per conoscere noi
stessi e gli altri.
Molti filosofi, come Thomas Nagel e John Searle, furono critici nei confronti del fisicalismo,
sottolineando la difficoltà di quest’ultimo nel descrivere l’esperienza soggettiva.
Il dibattito odierno si concentra in modo particolare su alcuni aspetti fondamentali: lo statuto
ontologico delle entità mentali, l’intenzionalità, i modelli neurobiologici sulla coscienza e sui
rapporti tra razionalità ed emozioni, la modularità della mente e la sua scomponibilità in una serie di
agenzie cognitive, l’innatismo, l’analisi della percezione, dell’immaginazione e della
rappresentazione.
2. Scienza cognitiva
L’espressione "scienza cognitiva" è entrata nell’uso comune a partire dalla seconda metà degli anni
’70, per designare un’area disciplinare volta a studiare i processi cognitivi.
Essa comprende numerose discipline:
2
Atto di nascita di questa disciplina è la conferenza " Cognitive Science " tenutasi nell’agosto 1977 a
La Jolla, in California, ma è già possibile tracciarne una storia a partire dagli anni ’40 e ’50, quando
vengono introdotte nuove idee nel campo della linguistica, dell’informatica e della psicologia.
I momenti più importanti di tale rivoluzione furono sicuramente le conferenze tenute a Cambridge e
Darthmouth nel 1956, tenute dai principali esponenti di questo movimento: Herbert Simon, Noam
Chomsky, Marvin Minsky e John McCarthy.
La scienza cognitiva è caratterizzata principalmente da due punti fondamentali:
a. lo studio della mente implica la costruzione di modelli dell’architettura cognitiva interna; a
ciò si lega il concetto di rappresentazione come meccanismo essenziale di mediazione tra
input e output comportamentali. L’elaborazione più significativa di questo aspetto è
contenuta nelle opere del linguista N.Chomsky.
b. sostiene la concezione computazionale della mente, secondo cui i vari processi devono
essere intesi come manipolazioni formali di simboli ( rappresentazioni); questa idea tenta di
spiegare l’analogia tra mente e calcolatore, qualificato dalla teoria dell’attività cognitiva
come calcolo simbolico formale ( Alan Turing ).
In ambito filosofico, i maggiori risultati ottenuti da questa corrente sono stati la riabilitazione del
mentalismo e l’analisi della struttura cognitiva in termini di sistemi di elaborazione
dell’informazione.
3. Brani
3
A Searle I computer non pensano: il " test della stanza cinese "
Il brano è tratto da " Menti cervelli e programmi . Un dibattito sull’intelligenza artificiale" del 1984.
Searle distingue tra AI "forte" e AI "debole". Secondo l’AI "debole", il computer è semplicemente
un utile strumento di studio della mente; secondo l’AI "forte", invece, un computer debitamente
programmato può essere realmente considerato come una mente.
Non obbiettando sul principio dell’AI "debole", Searle cerca di confutare quella "forte" attraverso
un esperimento mentale che va sotto il nome di "test della stanza cinese".
Analisi del testo :
Il test è una sorta di " parabola informatica " in cui Searle intende mettere in evidenza come una
semplice manipolazione formale di simboli non implichi una comprensione vera e propria dei
significati e di conseguenza questo non è paragonabile al processo svolto dall’intelligenza umana.
Il filosofo americano sostiene che i computer sono "enti sintattici", cioè collegano determinati
simboli secondo regole prestabilite, ma non sono "semantici", cioè non collegano a tali simboli i
loro reali significati.
I computer non hanno una vera e propria "comprensione"; infatti conoscere una lingua non significa
solo sapere i simboli formali, ma anche possederne il significato.
Da questa riflessione comprendiamo che i computer non pensano:
" Per quanto riguarda il cinese, mi comporto semplicemente come un computer: eseguo operazioni
calcolabili su elementi formalmente specificati. Per il caso del cinese, io sono semplicemente una
istanziazione di un programma del computer."
B Dreyfus L’intelligenza umana è più olistica delle reti neurali.
Il brano è tratto da " Ricostruire la mente o progettare modelli del cervello?".
Critico nei confronti del paradigma funzionalista, Dreyfus si è dimostrato altrettanto diffidente nei
confronti di quello connessionista, affermando che nessuna rete neurale è in grado di riprodurre il
carattere olistico, situazionale e corporeo dell’intelligenza umana.
Il suo programma colpisce soltanto il programma forte dell’AI.
Analisi del testo :
I parte ( dalla riga 1 alla riga 3 ): il connessionismo si ispira al cervello. Per essere efficiente, una
rete neurale dovrebbe condividere le dimensioni, la struttura e la configurazione iniziale delle
connessioni del cervello, se mira a conoscere il mondo dei significati e delle generalizzazioni.
II parte ( dalla riga 3 alla riga 8 ): il connessionismo insegue l’ideale di macchine intelligenti capaci
di apprendere dalle proprie esperienze o di operare generalizzazioni. Per fare questo, tali macchine
dovrebbero avere bisogni, desideri, emozioni, cioè avere un corpo simile al nostro: le macchine,
però, sono enti senza corpo.
4
III parte ( dalla riga 9 alla riga 13 ): l’intelligenza umana è molto più complessa e globale delle reti
neurali. Nell’uomo l’intelligenza è motivata sia dalla totalità dell’organismo corporeo sia dalla
totalità dell’ambiente socio - culturale.
La conclusione implicita, che l’autore vuole comunicare, risulta il fatto che è del tutto utopistico
pretendere che un computer possa conseguire prestazioni uguali a quelle dell’uomo.
" l’intelligenza è motivata nell’organismo da scopi selezionati dall’organismo stesso
nell’ambiente culturale."
C J. Weizenbaum I computer possono fare i giudici o gli psichiatri ?
Tratto da " Il potere del computer e la ragione umana. I limiti dell’intelligenza artificiale " del 1987.
Analisi del testo :
L’autore pone questo quesito : " Quali possono essere gli obbiettivi e scopi umani che non è bene
delegare ai computer? ".
Con questa domanda di carattere etico l’autore vuole appurare se sia appropriato delegare ad una
macchina compiti che fin d’ora sono stati svolti da esseri umani.
I sostenitori dell’intelligenza artificiale ritengono che non vi è dominio umano su cui le macchine
non possano spaziare, dando per scontato che le macchine possono produrre pensieri.
Inoltre sostengono che, grazie ai bassi costi e all’alta efficienza, le macchine potrebbero
tranquillamente sostenere ogni tipo di responsabilità.
Non tutti gli esperti, però, di questo settore condividono questa teoria, sostenendo infatti che la
conoscenza non è solo una semplice organizzazione di fatti.
Alcuni programmi "intelligenti " sono in grado di comporre sottoprogrammi al di fuori delle
procedure memorizzate ; altri sistemi, invece, sono in grado di accumulare informazioni
direttamente dall’ambiente esterno.
Questi esempi vogliono dimostrare come è possibile insegnare alle macchine certe abilità attraverso
l’interazione con il proprio mondo e con il mondo esterno.
Comunque vi sono determinate abilità, concetti, informazioni dell’uomo che non è possibile
tradurre in linguaggio scritto o parlato.
Perciò il successivo quesito che l’autore si pone è il seguente: " Per quanta intelligenza esso possa
avere, il computer dovrà essere sempre e necessariamente estraneo a qualsiasi faccenda
autenticamente umana? "
La risposta, che l’autore fornisce, è la seguente: " Questi compiti non devono essere loro affidati.
Può darsi che in certi casi sappiano arrivare a decisioni corrette; ma sempre e necessariamente
su basi che nessun essere umano dovrebbe accettare."
In conclusione l’autore fornisce una sorta di "dogma " al fine di limitare le spinte utopistiche
sull’AI: "La più elementare regola che emerge è che, visto che non abbiamo alcun modo per
rendere saggi i computer, non dobbiamo dar loro compiti che richiedono saggezza."
5
"Una questione di rilievo sociale che voglio sollevare riguarda la collocazione da dare al
computer nell’ordinamento sociale. "
"Hubert Dreyfus […] limita la sua discussione al problema tecnico di cosa i computer possono o
non possono fare. Qualora i computer sapessero imitare l’uomo da tutti i punti di vista, sarebbe
opportuno esaminare il computer. […]Esistono atti di pensiero che dovrebbero essere esclusivo
appannaggio dell’uomo …"
"Queste considerazioni toccano […] il problema centrale di cosa significhi essere un essere
umano e cosa essere un computer …"
J. Weizenbaum
6
Storia dell’Intelligenza Artificiale
Le macchine possono pensare ?
L’espressione Artificial Intelligence fu coniata da John McCarthy, M. Minisky, N. Rochester e C.
Shannon in uno storico seminario interdisciplinare nel 1956 nel New Hampshire.
Lo scopo di tale disciplina era quello di " far fare alle macchine cose che richiederebbero
intelligenza se fossero fatte dagli uomini " ( Minisky ).
A questo proposito nacquero pareri contrastanti: c’è chi la considera una disciplina scientifica; altri
un‘area di ricerca tecnologica; altri ancora preferiscono una definizione forte, cioè il tentativo di
riprodurre comportamenti non distinguibili da quelli umani, altri una definizione debole, cioè il
tentativo di far fare ai computer cose che gli uomini sanno fare meglio.
I risultati conseguiti sin d’ora, però, sono inferiori alle attese iniziali: non solo si sono riscontrati
notevoli difficoltà nella robotica ( cioè nel costruire macchine intelligenti capaci di interagire col
mondo esterno), ma anche nelle capacità di riconoscere parole e frasi dette a voce e di comprendere
la variabilità dei loro significati.
Inoltre è stata riscontrata un’ulteriore difficoltà: immettere nel computer il "senso comune", ossia
quel background di pre-requisiti e credenze che ci vengono richiesti nel rapporto col mondo.
Nell’approccio alla AI possiamo riscontrare due tendenze, due paradigmi: quello funzionalista e
quello connessionista.
Il funzionalismo è quella corrente, il cui massimo esponente è Hilary Putnam, che considera gli
eventi mentali come caratterizzati da funzioni, cioè da ruoli operazionali.
Secondo tale concezione, inoltre, è possibile replicare la mente con supporti fisici diversi, purché
generassero le medesime relazioni e i medesimi sistemi di input e output.
Al funzionalismo è legata soprattutto l’analogia mente – computer, secondo la quale la mente è un
programma o un insieme di programmi (software) che funzionano su materiali fisici diversi
(hardware).
Il connessionismo, invece, è quella corrente che mira a riprodurre l’intelligenza attraverso la
simulazione di reti neurali.
Questa concezione fornisce lo spunto per modificare la struttura dei calcolatori in modo da superare
i limiti interni al paradigma precedente.
Trovandosi di fronte a innumerevoli definizioni di intelligenza, l’AI non può fare a meno della
filosofia, soprattutto per quanto riguarda le cosiddette "macchine pensanti ".
Nel 1956 un logico e matematico inglese, Alan Mathison Turing, pubblicò uno scritto intitolato
Macchine calcolatrici e intelligenza, in cui si chiedeva se le macchine potessero pensare.
A tale scopo ideò un esperimento (denominato gioco dell’imitazione o test di Turing) in cui un
esperto era fatto dialogare alla cieca con un altro interlocutore o con un computer; l’esperto non
7
riusciva a sapere con certezza con chi stesse dialogando, perciò sulla base di tale osservazione è
possibile affermare che le macchine pensano.
I filosofi hanno generalmente, però, assunto un atteggiamento negativo nei confronti dell’AI, in
quanto o perché è considerata puramente sintattica e priva di intenzionalità (Searle ) o perché
discreta e asituazionale, cioè slegata dal vissuto quotidiano e dall’ambiente naturale ( Dreyfus ).
John Roger Searle, nel suo libro Menti, cervelli e programmi del 1980, ideò il cosidetto test della
stanza cinese.
Tale esperimento consisteva nel fatto che un individuo, guidato con opportune istruzioni nella
propria lingua, potesse organizzare correttamente un insieme di simboli cinesi senza comprenderne
il significato.
Searle, dunque afferma che nessun sistema, che si limita ad una manipolazione formale di simboli
senza comprenderne il significato, può essere considerato come un essere pensante; quindi i
computer non sono menti, in quanto privi di coscienza e intenzionalità : la loro ipotizzata
intenzionalità e intelligenza è solo nelle menti di chi li progetta.
Lo studioso Hubert Dreyfus sosteneva, invece, che alla base dell’AI sta la concezione della mente
come dispositivo che calcola, seguendo regole ben precise tramite una sequenza di passi distinti.
Questa concezione, però,
non coincide affatto con quella umana, la quale è olistica e situazionale.
E’ olistica in quanto non coglie i singoli elementi separati, ma coglie le parti di una totalità.
E’ situazionale in quanto organizza la totalità in base ad una rete di significati connessi a specifici
interessi e finalità.
Interessi e finalità non discendono solo da bisogni interni a noi, ma anche dall’esterno, dalla nostra
corporeità: i computer non sono esseri corporei e quindi non sono a contatto con l’ambiente
esterno.
Inoltre, come già detto, l’intelligenza implica quel background primigenio, che non può essere
formalizzato e simulato.
Dreyfus, inoltre, delinea una suddivisione tra quelle azioni che possono essere completamente
formalizzate, facilmente calcolabili e rappresentate ( " azioni possibili ") e quelle azioni che hanno
natura flessibile e sono difficilmente formalizzabili ( "azioni impossibili " ).
L’aspetto forse più interessante di questo studioso è il tentativo di dimostrare come l’informatica sia
lo sbocco consequenziale della filosofia e delle scienze in generale.
In accordo con Heidegger nell’identificare la cibernetica come l’apice del " pensiero calcolante "
(cioè un pensiero meccanico, ripetitivo, privo di scopi, di programmi ), reputa che l’AI sia l’opera
finale di quel pensiero formalista, atomista e riduzionista radicato nella nostra cultura.
Alcune di queste considerazioni sono condivise da altri due studiosi del campo informatico: T.
Winorgrad e F. Flores.
8
Essi sottolineano che l’intelligenza non è un’entità astratta e logico - formale, bensì un essere- nelmondo concreto e storico, costituita quindi da corpo ed emotività.
Dato che i computer non hanno l’esserci ( cioè l’essere immersi nella quotidianità, nel mondo, nel
fenomeno ), risultano privi di quella pre-comprensione contestuale che scaturisce dal contatto con la
realtà.
In questo senso la parola "intelligenza " è usata per indicare sia quella artificiale sia quella naturale,
ma assume una connotazione più omonima che analogica.
Su questa riflessione interverrà anche Karl Popper , sentenziando che l’AI in senso forte è un "
abuso di termini e un’ideologia ".
Alcuni filosofi tentarono di ridimensionare le aspettative sull’AI; inizialmente furono guardati con
sospetto, ma in un secondo momento furono più apprezzati e ascoltati.
La riflessione che fu accolta maggiormente consisteva nel fatto che, abbandonando le ambizioni
originali e l’illusione di aver trovato nell’AI la " chiave della mente ", l’obbiettivo primario dell’AI
sta nel fatto di progettare macchine utili, cioè macchine intelligenti da utilizzare come strumenti di
studio della mente o per l’esecuzione di attività sociali e lavorative.
Alcuni studiosi si sono, inoltre, preoccupati di distinguere i due termini simulazione e emulazione.
Simulare l’intelligenza significa costruire macchine esplicitamente finalizzate a riprodurre i poteri
cognitivi dell’uomo ( modello antropomorfico ).
Emulare l’intelligenza significa costruire macchine intelligenti, senza però preoccuparsi della loro
diretta somiglianza con la mente umana ( modello non – antropomorfico).
Lo scopo della AI non è la simulazione dei processi cognitivi, ma l’emulazione di essi al fine di
costruire sistemi in grado di svolgere determinati compiti in modo efficiente.
In realtà, poiché questa distinzione non viene fatta, l’AI è contraddistinta da un’ambiguità di fondo:
" se si vogliono soltanto costruire macchine utili oppure si vuole riprodurre l’intelligenza umana ".
In aggiunta ai problemi sopra citati, ve ne sono altri di carattere teorico, di carattere puramente
scientifico, ed etico, di carattere puramente filosofico - morale: alcuni sono già presenti tuttora, altri
potrebbero presentarsi in futuro.
Husserl, Wittgenstein, Hiedegger e l’AI
nell’analisi critica di Dreyfus
Secondo Dreyfus, Husserl rappresenta il "nonno della AI ", Wittgenstein e Heidegger rappresentano
i "precursori" della critica filosofica al suo programma.
Accogliendo il sogno di Leibniz di una mathesis universale e inseguendo l’ideale di una descrizione
distaccata del sistema delle credenze umane in grado di rendere esplicito il background di nozioni
9
che qualificano la vita e che stanno alla base di ogni comportamento intelligente, Husserl poneva il
problema della possibilità dell’intelligenza artificiale.
Heidegger e Wittengstein riscontrarono che il mondo quotidiano non può essere raffigurato come
una serie di elementi senza contesto, perché esso è permeato dal senso comune e dalle sue credenze.
Le difficoltà della AI e i suoi tentativi falliti di formalizzare il senso comune sembrano aver dato
ragione a Heidegger e torto a Husserl: "il compito di scrivere un completo resoconto teoretico della
vita quotidiana si dimostrò molto più difficile di quanto ci si aspettasse".
La domanda fondamentale, che coinvolge tutti i maggiori studiosi, quindi è la seguente: può
sussistere una teoria del mondo quotidiano? Oppure: il background del senso comune è destinato
a rimanere un quid irriducibile ad ogni sistema di elementi e regole?
Dreyfus non ha dubbi sulla risposta: il sogno di Turing e di Von Neuman di realizzare
un’intelligenza artificiale identica a quella umana è fallito.
Scritto da:
Ilaria Moscheni - [email protected]
Pubblicato da:
Portale Italiano della Filosofia - http://www.portalefilosofia.com
10