Intelligenza Artificiale, Filosofia della Mente e Scienza Cognitiva 1. La filosofia della mente La riflessione intorno alla natura e alle proprietà della mente umana risale all’antichità; l’espressione " filosofia della mente " sembra, comunque, caratterizzare un particolare ambito di discussione sulla base di alcune questioni fondamentali, come ad esempio il rapporto tra mente e cervello, l’architettura cognitiva del cervello, l’analisi delle capacità rappresentative, ecc … Il punto di partenza di tutte queste tematiche è Cartesio, il quale sosteneva la caratterizzazione del pensiero cosciente come essenza del mentale e delineò la divisione fra res cogitans e res extensa attraverso le quali studiare i rapporti conoscitivi tra soggetto conoscente e realtà conosciuta. Inoltre considerava la mente come una sostanza immateriale che, in modo misterioso, interagisce con il corpo: si configura così il cosiddetto dualismo interazionista, che consiste nella spiegazione dell’interazione tra mente e corpo. Tale concezione, però, ha in sé numerose difficoltà; per risolvere questi problemi è possibile attuare una duplice soluzione: o negando la stretta correlazione che esiste tra eventi fisici ed eventi mentali, o negando il dualismo stesso. Tutto ciò può essere ottenuto in due modi: a. puntando su un anti – sostanzialismo , moderato in Locke ( il quale sosteneva la funzione essenziale che svolge la coscienza indipendentemente dalla sostanza ), radicale in Hume ( il quale dissolve il soggetto conoscente in un fascio di percezioni ) o trascendentale in Kant ( il quale sosteneva la teoria " dell’io puro"). b. rinunciando al carattere originale di una delle due res. Nella filosofia del novecento alcuni filosofi rimasero più o meno legati al carattere dualistico di tale riflessione, come ad esempio le teorie di Wundt e James; ben presto assunse connotazioni materialistiche e naturalistiche, grazie al successo del comportamentismo come metodologia dominante nella psicologia. Tale concezione si diramò, quindi, in due correnti: a. il comportamentismo metodologico, che accetta come dati per la rielaborazione teorica i comportamenti osservabili , escludendo ogni riferimento all’introspezione e quindi a eventi interni inosservabili. b. il comportamentismo logico, il quale sostiene che le asserzioni psicologiche significano ( cioè stanno per ) comportamenti o disposizioni al comportamento. Risposte contrastanti a questo approccio si ritrovano nei maggiori filosofi e movimenti analitici del novecento. Intorno agli anni ’70 la scienza cognitiva comincia ad affermarsi come settore indipendente e segnando una svolta proponendo: a. l’idea che la scienza della mente non può ignorare l’architettura interna dei processi cognitivi. b. l’uso generalizzato di modelli computazionali. 1 Si assiste così alla rinascita del materialismo dell’identità tra mente e cervello. Questa dottrina assume due forme principali: a. il materialismo di identità tipo tra eventi mentali e cerebrali ( a ogni classe di eventi mentali corrisponde una classe di eventi cerebrali ). b. il materialismo dell’identità di concorrenza in cui ogni singolo evento mentale è identico a un evento di cerebrale. Fanno riferimento a quest’ultima teoria sia la tesi dell’autonomia metodologica e tassonomica della psicologia, sostenuta da Jerry Fodor, sia il monismo anomalo, sostenuto da Donald Davidson, il quale conciliava l’autonomia dei processi psicologici con l’idea che esistono soltanto cause materiali. La forma più estrema di materialismo è l’eliminativismo, il quale sottolinea l’impossibilità di tradurre il linguaggio mentale, semanticamente inconsistente e ricco di espressioni prive di riferimento, con quello fisicalistico: questa concezione fu sostenuta da Paul e Patricia Churchland. A questo punto di vista si avvicina anche lo strumentalismo di Daniel Dennett ,secondo il quale il linguaggio mentalistico, pur non essendo una realtà sussistente, è necessario per conoscere noi stessi e gli altri. Molti filosofi, come Thomas Nagel e John Searle, furono critici nei confronti del fisicalismo, sottolineando la difficoltà di quest’ultimo nel descrivere l’esperienza soggettiva. Il dibattito odierno si concentra in modo particolare su alcuni aspetti fondamentali: lo statuto ontologico delle entità mentali, l’intenzionalità, i modelli neurobiologici sulla coscienza e sui rapporti tra razionalità ed emozioni, la modularità della mente e la sua scomponibilità in una serie di agenzie cognitive, l’innatismo, l’analisi della percezione, dell’immaginazione e della rappresentazione. 2. Scienza cognitiva L’espressione "scienza cognitiva" è entrata nell’uso comune a partire dalla seconda metà degli anni ’70, per designare un’area disciplinare volta a studiare i processi cognitivi. Essa comprende numerose discipline: 2 Atto di nascita di questa disciplina è la conferenza " Cognitive Science " tenutasi nell’agosto 1977 a La Jolla, in California, ma è già possibile tracciarne una storia a partire dagli anni ’40 e ’50, quando vengono introdotte nuove idee nel campo della linguistica, dell’informatica e della psicologia. I momenti più importanti di tale rivoluzione furono sicuramente le conferenze tenute a Cambridge e Darthmouth nel 1956, tenute dai principali esponenti di questo movimento: Herbert Simon, Noam Chomsky, Marvin Minsky e John McCarthy. La scienza cognitiva è caratterizzata principalmente da due punti fondamentali: a. lo studio della mente implica la costruzione di modelli dell’architettura cognitiva interna; a ciò si lega il concetto di rappresentazione come meccanismo essenziale di mediazione tra input e output comportamentali. L’elaborazione più significativa di questo aspetto è contenuta nelle opere del linguista N.Chomsky. b. sostiene la concezione computazionale della mente, secondo cui i vari processi devono essere intesi come manipolazioni formali di simboli ( rappresentazioni); questa idea tenta di spiegare l’analogia tra mente e calcolatore, qualificato dalla teoria dell’attività cognitiva come calcolo simbolico formale ( Alan Turing ). In ambito filosofico, i maggiori risultati ottenuti da questa corrente sono stati la riabilitazione del mentalismo e l’analisi della struttura cognitiva in termini di sistemi di elaborazione dell’informazione. 3. Brani 3 A Searle I computer non pensano: il " test della stanza cinese " Il brano è tratto da " Menti cervelli e programmi . Un dibattito sull’intelligenza artificiale" del 1984. Searle distingue tra AI "forte" e AI "debole". Secondo l’AI "debole", il computer è semplicemente un utile strumento di studio della mente; secondo l’AI "forte", invece, un computer debitamente programmato può essere realmente considerato come una mente. Non obbiettando sul principio dell’AI "debole", Searle cerca di confutare quella "forte" attraverso un esperimento mentale che va sotto il nome di "test della stanza cinese". Analisi del testo : Il test è una sorta di " parabola informatica " in cui Searle intende mettere in evidenza come una semplice manipolazione formale di simboli non implichi una comprensione vera e propria dei significati e di conseguenza questo non è paragonabile al processo svolto dall’intelligenza umana. Il filosofo americano sostiene che i computer sono "enti sintattici", cioè collegano determinati simboli secondo regole prestabilite, ma non sono "semantici", cioè non collegano a tali simboli i loro reali significati. I computer non hanno una vera e propria "comprensione"; infatti conoscere una lingua non significa solo sapere i simboli formali, ma anche possederne il significato. Da questa riflessione comprendiamo che i computer non pensano: " Per quanto riguarda il cinese, mi comporto semplicemente come un computer: eseguo operazioni calcolabili su elementi formalmente specificati. Per il caso del cinese, io sono semplicemente una istanziazione di un programma del computer." B Dreyfus L’intelligenza umana è più olistica delle reti neurali. Il brano è tratto da " Ricostruire la mente o progettare modelli del cervello?". Critico nei confronti del paradigma funzionalista, Dreyfus si è dimostrato altrettanto diffidente nei confronti di quello connessionista, affermando che nessuna rete neurale è in grado di riprodurre il carattere olistico, situazionale e corporeo dell’intelligenza umana. Il suo programma colpisce soltanto il programma forte dell’AI. Analisi del testo : I parte ( dalla riga 1 alla riga 3 ): il connessionismo si ispira al cervello. Per essere efficiente, una rete neurale dovrebbe condividere le dimensioni, la struttura e la configurazione iniziale delle connessioni del cervello, se mira a conoscere il mondo dei significati e delle generalizzazioni. II parte ( dalla riga 3 alla riga 8 ): il connessionismo insegue l’ideale di macchine intelligenti capaci di apprendere dalle proprie esperienze o di operare generalizzazioni. Per fare questo, tali macchine dovrebbero avere bisogni, desideri, emozioni, cioè avere un corpo simile al nostro: le macchine, però, sono enti senza corpo. 4 III parte ( dalla riga 9 alla riga 13 ): l’intelligenza umana è molto più complessa e globale delle reti neurali. Nell’uomo l’intelligenza è motivata sia dalla totalità dell’organismo corporeo sia dalla totalità dell’ambiente socio - culturale. La conclusione implicita, che l’autore vuole comunicare, risulta il fatto che è del tutto utopistico pretendere che un computer possa conseguire prestazioni uguali a quelle dell’uomo. " l’intelligenza è motivata nell’organismo da scopi selezionati dall’organismo stesso nell’ambiente culturale." C J. Weizenbaum I computer possono fare i giudici o gli psichiatri ? Tratto da " Il potere del computer e la ragione umana. I limiti dell’intelligenza artificiale " del 1987. Analisi del testo : L’autore pone questo quesito : " Quali possono essere gli obbiettivi e scopi umani che non è bene delegare ai computer? ". Con questa domanda di carattere etico l’autore vuole appurare se sia appropriato delegare ad una macchina compiti che fin d’ora sono stati svolti da esseri umani. I sostenitori dell’intelligenza artificiale ritengono che non vi è dominio umano su cui le macchine non possano spaziare, dando per scontato che le macchine possono produrre pensieri. Inoltre sostengono che, grazie ai bassi costi e all’alta efficienza, le macchine potrebbero tranquillamente sostenere ogni tipo di responsabilità. Non tutti gli esperti, però, di questo settore condividono questa teoria, sostenendo infatti che la conoscenza non è solo una semplice organizzazione di fatti. Alcuni programmi "intelligenti " sono in grado di comporre sottoprogrammi al di fuori delle procedure memorizzate ; altri sistemi, invece, sono in grado di accumulare informazioni direttamente dall’ambiente esterno. Questi esempi vogliono dimostrare come è possibile insegnare alle macchine certe abilità attraverso l’interazione con il proprio mondo e con il mondo esterno. Comunque vi sono determinate abilità, concetti, informazioni dell’uomo che non è possibile tradurre in linguaggio scritto o parlato. Perciò il successivo quesito che l’autore si pone è il seguente: " Per quanta intelligenza esso possa avere, il computer dovrà essere sempre e necessariamente estraneo a qualsiasi faccenda autenticamente umana? " La risposta, che l’autore fornisce, è la seguente: " Questi compiti non devono essere loro affidati. Può darsi che in certi casi sappiano arrivare a decisioni corrette; ma sempre e necessariamente su basi che nessun essere umano dovrebbe accettare." In conclusione l’autore fornisce una sorta di "dogma " al fine di limitare le spinte utopistiche sull’AI: "La più elementare regola che emerge è che, visto che non abbiamo alcun modo per rendere saggi i computer, non dobbiamo dar loro compiti che richiedono saggezza." 5 "Una questione di rilievo sociale che voglio sollevare riguarda la collocazione da dare al computer nell’ordinamento sociale. " "Hubert Dreyfus […] limita la sua discussione al problema tecnico di cosa i computer possono o non possono fare. Qualora i computer sapessero imitare l’uomo da tutti i punti di vista, sarebbe opportuno esaminare il computer. […]Esistono atti di pensiero che dovrebbero essere esclusivo appannaggio dell’uomo …" "Queste considerazioni toccano […] il problema centrale di cosa significhi essere un essere umano e cosa essere un computer …" J. Weizenbaum 6 Storia dell’Intelligenza Artificiale Le macchine possono pensare ? L’espressione Artificial Intelligence fu coniata da John McCarthy, M. Minisky, N. Rochester e C. Shannon in uno storico seminario interdisciplinare nel 1956 nel New Hampshire. Lo scopo di tale disciplina era quello di " far fare alle macchine cose che richiederebbero intelligenza se fossero fatte dagli uomini " ( Minisky ). A questo proposito nacquero pareri contrastanti: c’è chi la considera una disciplina scientifica; altri un‘area di ricerca tecnologica; altri ancora preferiscono una definizione forte, cioè il tentativo di riprodurre comportamenti non distinguibili da quelli umani, altri una definizione debole, cioè il tentativo di far fare ai computer cose che gli uomini sanno fare meglio. I risultati conseguiti sin d’ora, però, sono inferiori alle attese iniziali: non solo si sono riscontrati notevoli difficoltà nella robotica ( cioè nel costruire macchine intelligenti capaci di interagire col mondo esterno), ma anche nelle capacità di riconoscere parole e frasi dette a voce e di comprendere la variabilità dei loro significati. Inoltre è stata riscontrata un’ulteriore difficoltà: immettere nel computer il "senso comune", ossia quel background di pre-requisiti e credenze che ci vengono richiesti nel rapporto col mondo. Nell’approccio alla AI possiamo riscontrare due tendenze, due paradigmi: quello funzionalista e quello connessionista. Il funzionalismo è quella corrente, il cui massimo esponente è Hilary Putnam, che considera gli eventi mentali come caratterizzati da funzioni, cioè da ruoli operazionali. Secondo tale concezione, inoltre, è possibile replicare la mente con supporti fisici diversi, purché generassero le medesime relazioni e i medesimi sistemi di input e output. Al funzionalismo è legata soprattutto l’analogia mente – computer, secondo la quale la mente è un programma o un insieme di programmi (software) che funzionano su materiali fisici diversi (hardware). Il connessionismo, invece, è quella corrente che mira a riprodurre l’intelligenza attraverso la simulazione di reti neurali. Questa concezione fornisce lo spunto per modificare la struttura dei calcolatori in modo da superare i limiti interni al paradigma precedente. Trovandosi di fronte a innumerevoli definizioni di intelligenza, l’AI non può fare a meno della filosofia, soprattutto per quanto riguarda le cosiddette "macchine pensanti ". Nel 1956 un logico e matematico inglese, Alan Mathison Turing, pubblicò uno scritto intitolato Macchine calcolatrici e intelligenza, in cui si chiedeva se le macchine potessero pensare. A tale scopo ideò un esperimento (denominato gioco dell’imitazione o test di Turing) in cui un esperto era fatto dialogare alla cieca con un altro interlocutore o con un computer; l’esperto non 7 riusciva a sapere con certezza con chi stesse dialogando, perciò sulla base di tale osservazione è possibile affermare che le macchine pensano. I filosofi hanno generalmente, però, assunto un atteggiamento negativo nei confronti dell’AI, in quanto o perché è considerata puramente sintattica e priva di intenzionalità (Searle ) o perché discreta e asituazionale, cioè slegata dal vissuto quotidiano e dall’ambiente naturale ( Dreyfus ). John Roger Searle, nel suo libro Menti, cervelli e programmi del 1980, ideò il cosidetto test della stanza cinese. Tale esperimento consisteva nel fatto che un individuo, guidato con opportune istruzioni nella propria lingua, potesse organizzare correttamente un insieme di simboli cinesi senza comprenderne il significato. Searle, dunque afferma che nessun sistema, che si limita ad una manipolazione formale di simboli senza comprenderne il significato, può essere considerato come un essere pensante; quindi i computer non sono menti, in quanto privi di coscienza e intenzionalità : la loro ipotizzata intenzionalità e intelligenza è solo nelle menti di chi li progetta. Lo studioso Hubert Dreyfus sosteneva, invece, che alla base dell’AI sta la concezione della mente come dispositivo che calcola, seguendo regole ben precise tramite una sequenza di passi distinti. Questa concezione, però, non coincide affatto con quella umana, la quale è olistica e situazionale. E’ olistica in quanto non coglie i singoli elementi separati, ma coglie le parti di una totalità. E’ situazionale in quanto organizza la totalità in base ad una rete di significati connessi a specifici interessi e finalità. Interessi e finalità non discendono solo da bisogni interni a noi, ma anche dall’esterno, dalla nostra corporeità: i computer non sono esseri corporei e quindi non sono a contatto con l’ambiente esterno. Inoltre, come già detto, l’intelligenza implica quel background primigenio, che non può essere formalizzato e simulato. Dreyfus, inoltre, delinea una suddivisione tra quelle azioni che possono essere completamente formalizzate, facilmente calcolabili e rappresentate ( " azioni possibili ") e quelle azioni che hanno natura flessibile e sono difficilmente formalizzabili ( "azioni impossibili " ). L’aspetto forse più interessante di questo studioso è il tentativo di dimostrare come l’informatica sia lo sbocco consequenziale della filosofia e delle scienze in generale. In accordo con Heidegger nell’identificare la cibernetica come l’apice del " pensiero calcolante " (cioè un pensiero meccanico, ripetitivo, privo di scopi, di programmi ), reputa che l’AI sia l’opera finale di quel pensiero formalista, atomista e riduzionista radicato nella nostra cultura. Alcune di queste considerazioni sono condivise da altri due studiosi del campo informatico: T. Winorgrad e F. Flores. 8 Essi sottolineano che l’intelligenza non è un’entità astratta e logico - formale, bensì un essere- nelmondo concreto e storico, costituita quindi da corpo ed emotività. Dato che i computer non hanno l’esserci ( cioè l’essere immersi nella quotidianità, nel mondo, nel fenomeno ), risultano privi di quella pre-comprensione contestuale che scaturisce dal contatto con la realtà. In questo senso la parola "intelligenza " è usata per indicare sia quella artificiale sia quella naturale, ma assume una connotazione più omonima che analogica. Su questa riflessione interverrà anche Karl Popper , sentenziando che l’AI in senso forte è un " abuso di termini e un’ideologia ". Alcuni filosofi tentarono di ridimensionare le aspettative sull’AI; inizialmente furono guardati con sospetto, ma in un secondo momento furono più apprezzati e ascoltati. La riflessione che fu accolta maggiormente consisteva nel fatto che, abbandonando le ambizioni originali e l’illusione di aver trovato nell’AI la " chiave della mente ", l’obbiettivo primario dell’AI sta nel fatto di progettare macchine utili, cioè macchine intelligenti da utilizzare come strumenti di studio della mente o per l’esecuzione di attività sociali e lavorative. Alcuni studiosi si sono, inoltre, preoccupati di distinguere i due termini simulazione e emulazione. Simulare l’intelligenza significa costruire macchine esplicitamente finalizzate a riprodurre i poteri cognitivi dell’uomo ( modello antropomorfico ). Emulare l’intelligenza significa costruire macchine intelligenti, senza però preoccuparsi della loro diretta somiglianza con la mente umana ( modello non – antropomorfico). Lo scopo della AI non è la simulazione dei processi cognitivi, ma l’emulazione di essi al fine di costruire sistemi in grado di svolgere determinati compiti in modo efficiente. In realtà, poiché questa distinzione non viene fatta, l’AI è contraddistinta da un’ambiguità di fondo: " se si vogliono soltanto costruire macchine utili oppure si vuole riprodurre l’intelligenza umana ". In aggiunta ai problemi sopra citati, ve ne sono altri di carattere teorico, di carattere puramente scientifico, ed etico, di carattere puramente filosofico - morale: alcuni sono già presenti tuttora, altri potrebbero presentarsi in futuro. Husserl, Wittgenstein, Hiedegger e l’AI nell’analisi critica di Dreyfus Secondo Dreyfus, Husserl rappresenta il "nonno della AI ", Wittgenstein e Heidegger rappresentano i "precursori" della critica filosofica al suo programma. Accogliendo il sogno di Leibniz di una mathesis universale e inseguendo l’ideale di una descrizione distaccata del sistema delle credenze umane in grado di rendere esplicito il background di nozioni 9 che qualificano la vita e che stanno alla base di ogni comportamento intelligente, Husserl poneva il problema della possibilità dell’intelligenza artificiale. Heidegger e Wittengstein riscontrarono che il mondo quotidiano non può essere raffigurato come una serie di elementi senza contesto, perché esso è permeato dal senso comune e dalle sue credenze. Le difficoltà della AI e i suoi tentativi falliti di formalizzare il senso comune sembrano aver dato ragione a Heidegger e torto a Husserl: "il compito di scrivere un completo resoconto teoretico della vita quotidiana si dimostrò molto più difficile di quanto ci si aspettasse". La domanda fondamentale, che coinvolge tutti i maggiori studiosi, quindi è la seguente: può sussistere una teoria del mondo quotidiano? Oppure: il background del senso comune è destinato a rimanere un quid irriducibile ad ogni sistema di elementi e regole? Dreyfus non ha dubbi sulla risposta: il sogno di Turing e di Von Neuman di realizzare un’intelligenza artificiale identica a quella umana è fallito. Scritto da: Ilaria Moscheni - [email protected] Pubblicato da: Portale Italiano della Filosofia - http://www.portalefilosofia.com 10