Epistemologia II_ Scienze Cognitve_prof. Laudisa

EPISTEMOLOGIA E SCIENZE COGNITIVE
Parte II
Corso di Psicologia Clinica II
Prof. Marco Castiglioni
Corso di Epistemologia
Prof. Federico Laudisa
CdL Mag. Sc. Pedagogiche - A.A. 2013-2014
Ciclo di lezioni comuni
I semestre
Parte Seconda
COMPUTABILITÀ E SCIENZE COGNITIVE
CARTESIO, WATSON, TURING, SEARLE:
Presupposti per la lettura del saggio di
B.W. Williams “Comprendere l’umanità”
Le scienze cognitive: motivazioni e implicazioni
• Qual è l’oggetto delle scienze cognitive?
• La natura disciplinare della scienze cognitive
• Le radici filosofiche delle scienze cognitive: le origini
storiche
• I problemi fondamentali delle scienze cognitive
• Alcune implicazioni filosofiche delle scienze cognitive
SCIENZA COGNITIVA  Ricerche interdisciplinari finalizzate
allo studio scientifico della mente umana
PSICOLOGIA
LINGUISTICA
ANTROPOLOGIA
NEUROSCIENZE
INTELLIGENZA
ARTIFICIALE
ESAGONO COGNITIVO
FILOSOFIA
In tempi più recenti, lo studio scientifico della
cognizione, intesa come l’insieme dei processi di
acquisizione ed elaborazione di informazioni – sia
esterne sia interne – per vari fini (sopravvivenza,
adattamento, conoscenza, e così via), è stato esteso
dalla mente umana anche a sistemi biologici non
umani e a sistemi artificiali.
Se ci limitiamo agli esseri umani, le scienze cognitive
studiano facoltà cognitive ‘di base’ (percezione,
memoria, consapevolezza, attenzione, ecc.) o facoltà
cognitive ‘superiori’ (pensiero, coscienza).
Tutte queste facoltà rappresentano particolari
aspetti della mente: l’attività delle scienze cognitive
potrebbe essere considerata come un contributo al
programma generale di costruire una teoria
scientifica della mente.
Ma cosa significa fare una teoria scientifica di un
oggetto così particolare come la mente? Come
emerge il concetto moderno di mente?
Esso emerge a partire da una lunga tradizione
filosofica, di cui il concetto moderno di mente è
soltanto un particolare aspetto (quello più
strettamente 'razionale').
Proprio questo aspetto è al centro della riflessione
filosofica sulla mente e la soggettività di Cartesio
(1596-1650).
Proprio la riflessione filosofica cartesiana sulla mente e
la soggettività pone una questione fondamentale per la
moderna scienza cognitiva: il ruolo svolto dalla
rivoluzione scientifica.
Infatti la "mente" come autonomo oggetto di indagine
comincia ad avere un senso da quando la natura
diventa scientificamente autonoma.
Soltanto allora diventa sensato chiedersi: qual è il
posto della mente nella natura (se ne ha uno)?
Con la rivoluzione scientifica, il mondo naturale è
diventato oggetto autonomo di indagine (con metodi
propri, teorie proprie, ecc.).
Ma lo sviluppo della scienza ha contribuito a fissare
anche dei criteri di ‘scientificità’, rispetto ai quali
valutare altri oggetti di indagine, in particolare la
mente.
Cartesio ha svolto un ruolo di primo piano in questa
fase, perché ha operato sia sul piano della scienza sia
sul piano delle indagini filosofiche sulla "mente".
Sul piano della scienza,
perché Cartesio ha dato un contributo fondamentale
alla cinematica moderna (oltre che alla matematica)
e alla visione meccanica (o meccanicistica) del
mondo naturale.
Sul piano delle indagini sulla ‘mente’,
perché Cartesio ha dato la prima formulazione
moderna di mente come luogo esclusivo della
razionalità
(privato
di
qualsiasi
carattere
vegetativo/vitalistico/emotivo) e ha affrontato in
modo esplicito il rapporto mente/materia.
La figura di Cartesio è un riferimento storico
fondamentale nella prospettiva delle scienze
cognitive anche per una ragione più generale:
Cartesio è infatti il filosofo che rifonda l’intera
filosofia occidentale moderna, ponendo la
giustificazione della conoscenza e dei fondamenti
dell’attività razionale tra i massimi obiettivi della
riflessione filosofica in generale.
Inoltre, si deve a Cartesio l’introduzione del termine
stesso di MENTE in un senso vicino alla sensibilità
contemporanea.
Il termine viene usato nella versione latina di
un’opera fondamentale per la filosofia occidentale:
le Meditazioni metafisiche (1641).
In questo testo (che contiene il celebre argomento
del cogito), Cartesio ha come obiettivo la
dimostrazione che
a) la mente esiste,
b) la mente è indipendente dalla materia.
Un’altra tappa cruciale è rappresentata dalla nascita di
una psicologia ‘scientifica’ all’inizio del XX secolo: si
afferma l’indirizzo comportamentista nella psicologia
(Watson, Skinner, Thorndike e altri).
L’oggetto privilegiato della psicologia non è la ‘mente’
del soggetto, ma l’indagine sul suo comportamento
osservabile, analizzato nei termini della relazione
stimolo/risposta.
Espressione, nel campo della psicologia, di un generale
atteggiamento empirista (centralità dell'aspetto empirico
e osservativo) sui fondamenti della conoscenza
scientifica nella prima metà del XX secolo.
“La psicologia come la vede il behaviorista è una
scienza naturale puramente oggettiva. Il suo fine
teorico è la predizione e il controllo del
comportamento. L’introspezione non costituisce una
parte essenziale del suo metodo, né il valore scientifico
dei suoi dati dipende dalla facilità con cui essi si
prestano a essere interpretati in termini di coscienza.”
John B. Watson
Modello comportamentista di analisi
INPUT (stimolo)

mente come
“scatola nera”

OUTPUT (risposta comportamentale)
Questo modello si rivela particolarmente inadeguato
nell’analisi dell’apprendimento del linguaggio: i
comportamentisti non sono infatti in grado di
spiegare l’aspetto creativo tipico di ogni fenomeno di
apprendimento del linguaggio.
La linguistica moderna di Noam Chomsky nasce
proprio con l’obiettivo di risolvere problemi come
questi: si scopre che non è possibile lasciare la mente
come ‘scatola nera’ e che le spiegazioni cognitive
devono prendere in considerazione il livello
‘mentale’ (cioè ‘interno’).
“La scienza cognitiva viene praticata nella
convinzione che sia legittimo – e anzi di fatto
necessario – porre un livello di analisi separato, che
può
essere
chiamato
il
«livello
della
rappresentazione». Uno scienziato, quando lavora a
questo
livello,
lavora
intorno
a
entità
rappresentative, come simboli, regole, immagini – il
materiale della rappresentazione, che si trova in una
posizione intermedia tra input e output [...] Questo
livello è necessario per spiegare la varietà del
comportamento umano, del pensiero come delle
azioni.”
H. Gardner, La nuova scienza della mente. Storia
della rivoluzione cognitiva
SCIENZE COGNITIVE
input (percettivo)
livello necessario:
ma in che senso?
?
rappresentazioni,
regole, ...
output (comportamentale)
Contributo della (allora nascente) informatica per lo
sviluppo delle scienze cognitive: la concezione
computazionale della mente.
Fatto storico (contingente). Le prime prove delle
scienze cognitive si rivolgono a compiti cognitivi ‘alti’
(scacchi, logica formale), nei quali disporre di ampie
risorse e capacità computazionali è importante.
Motivazione concettuale (di principio). I computer
sono particolari realizzazioni di un modello di calcolo
– la Macchina di Turing (MT) – e la MT soddisfa una
proprietà cruciale dal punto di vista delle scienze
cognitive: la UNIVERSALITÀ (o VIRTUALITÀ).
Esistenza della MT universale (Turing 1936)
Esiste una macchina di Turing MTU (detta macchina
di Turing universale) tale che, per una generica
macchina di Turing MT, la MTU può simulare la
computazione di MT con argomento qualsiasi x.
In altri termini,
SE
il nastro di MTU può contenere come argomento la
codifica di qualsiasi possibile istruzione di MT,
ALLORA
per qualsiasi argomento x, il valore della computazione
di MTU è identico a quello di MT, cioè
MT(x) = MTU(x)
MT1
Nastro di MT1
|
|
possono essere scritte qui
Istruzioni di MT1
possono essere scritte qui
Nastro di MT2
MT2
|
|
MT1
Istruzioni di MT1

codifica (effettiva!) delle istruzioni di MT1
sul nastro di MT2

Ora, MT2 può fare tutto ciò che può fare MT1,
perché ‘incorpora’ le istruzioni di MT1 (naturalmente
i ruoli di MT1 e MT2 possono essere invertiti). In
questo caso MT2 opera ‘da Macchina Universale’
rispetto a MT1.
Di fatto, MT2 si comporta come se fosse MT1.
“Qualunque calcolatore reale, se è fornito di una
memoria abbastanza capiente da svolgere il ruolo di
nastro per la manipolazione dei simboli, può recitare la
parte della macchina universale di Turing.
Per esempio, se un microcalcolatore domestico fosse
programmato per funzionare come una macchina
universale di Turing e se, come dati in ingresso,
ricevesse una descrizione codificata di un grande
calcolatore
mainframe,
esso
simulerebbe
il
funzionamento del grande calcolatore su qualunque
successione di simboli di dati. “ (J. Hopcroft)
MT1
codifica
MT2
Conseguenza per la teoria della computabilità: è
irrilevante quale sia la particolare MT che calcola!
Implicazione epistemologica per i fondamenti delle
scienze cognitive (un'implicazione fondamentale per la
caratterizzazione computazionale delle ‘prime’ scienze
cognitive):
SE la mente ha una struttura computazionale,
ALLORA la spiegazione delle sue proprietà è
indipendente (in linea di principio) dalle sue basi
materiali
Due tesi fondamentali alle origini delle scienze
cognitive:
1. La natura computazionale della cognizione
2. Il carattere astratto delle computazioni
1. La natura COMPUTAZIONALE della cognizione
I processi cognitivi possono essere interpretati come
elaborazioni computazionali di informazioni.
2. Il carattere ASTRATTO delle computazioni
L’elaborazione computazionale delle informazioni
non dipende in modo essenziale dal supporto
materiale nel quale l’elaborazione stessa si realizza.
La tesi 2 implica il cosiddetto principio di realizzabilità
multipla (PRM): un processo cognitivo può essere
realizzato da molteplici sistemi cognitivi, sia umani sia
artificiali.
Il PRM favorisce il programma di ricerca dell’IA
(INTELLIGENZA ARTIFICIALE) cioè di quel filone delle scienze
cognitive che si propone di ‘riprodurre’ mediante
adeguati programmi le capacità cognitive di una mente.
Slogan delle prime scienze cognitive
hardware: software = cervello:mente
Universalità delle MT
(quale sia l’hardware
che realizza il software
è indifferente)
Indipendenza della mente
dalla sua struttura materiale
Dimensione filosofica dell’approccio computazionale
alla scienza cognitiva e all’IA: il funzionalismo come
tesi sulla natura degli stati mentali, considerati come
stati funzionali di un processo computazionale.
Se la mente è una sorta di programma’ per il
cervello, allora possiamo evitare di ridurre la mente
alla sua base materiale, senza per questo doversi
impegnare su quale sia la natura autentica (se ce n’è
una) della mente.
In questo senso, il funzionalismo 'aggira' la disputa
tra materialismo e dualismo sulla natura della
mente.
“L’approccio ‘behavioristico’ [...] mira a fornire una
descrizione fisicalistica completa del comportamento
umano. Ciò corrisponde alla descrizione che un
ingegnere o un fisico farebbe di una macchina di
Turing realizzata fisicamente. Ma sarebbe anche
possibile perseguire una descrizione più astratta dei
processi mentali umani, in termini di ‘stati mentali’
(la cui realizzazione fisica, se c’è, non è specificata) e
di ‘impressioni’ (che hanno il ruolo dei simboli sul
nastro della macchina).”
H. Putnam, Minds and Machines (1960)
Alan Turing e l'IA
Alan Turing, ideatore di uno dei principali modelli di
calcolo (chiamati in suo onore Macchine di Turing),
ha svolto anche un ruolo filosofico importante nello
sviluppo dell’IA. Egli infatti ha scritto un articolo
‘qualitativo’ intitolato Macchine calcolatrici e
intelligenza (1950), nel quale il problema del
rapporto tra menti e macchine è analizzato mediante
un esperimento ideale (il ‘gioco dell’imitazione’).
A. Turing, Macchine calcolatrici e intelligenza (1950)
Domanda M
“Possono pensare le macchine?”
Invece di tentare di rispondere dopo un’analisi del
significato dei termini “macchina” e “pensiero”,
Turing propone di sostituire questa domanda con
un’altra, che presuppone un esperimento ideale
(detto gioco dell’imitazione).
Gioco dell’imitazione  Test di Turing
A
C (“interrogante”)
B
A e B sono un uomo e una donna. C non sa qual’è
l’uomo e quale la donna: lo scopo del gioco consiste
nell’indovinare mediante una serie di domande
adeguate.
Ora la domanda M
“Possono pensare le macchine?”
può essere sostituita dalla domanda M*
“Cosa accade se una macchina
prende il posto di A?”
C “interrogante”
B
“Sarà dato per scontato che la migliore strategia per
la macchina sia quella di provare a formulare le
risposte che sarebbero date istintivamente da un
uomo.” (p. 169)
Approccio cognitivo “classico” (della prima scienza
cognitiva) alla mente:
Teoria computazionale-rappresentazionale della
mente
Cognizione: elaborazione di rappresentazioni
Le rappresentazioni sono il materiale minimale dei
processi cognitivi, intesi come information processing.
Il processo di elaborazione delle rappresentazioni è
guidata da regole.
Approccio cognitivo “classico” (della prima scienza
cognitiva) alla mente  Teoria computazionale e
rappresentazionale della mente (cognizione come
elaborazione computazionale di rappresentazioni)
Questo approccio risulta fecondo per aspetti importanti
- filosoficamente neutrale (niente problema mente-corpo)
- concettualmente economico
- fondato sul potente apparato formale della teoria della
computazione
ma solleva anche vari problemi, sia 'tecnici' sia
'fondazionali'.
Due classi di problemi determinati dall'approccio
computazionale, funzionalista e e simbolico allo studio
della mente e della cognizione:
- Problemi tecnici, legati alla limitata efficacia
dell'approccio computazionale nei confronti di
determinati problemi cognitivi (questi problemi sono
stati accentuati dallo sviluppo delle conoscenze
neuroscientifiche sulle proprietà e comportamento del
cervello);
- Problemi filosofici, legati a una serie di implicazioni
discutibili dell'approccio funzionalista alla mente e alla
cognizione.
Problemi tecnici per una concezione funzionalista
(computazionale) della mente e della cognizione
La metafora della mente come computer è efficace
rispetto a compiti cognitivi 'difficili' e astratti, ma è in
estrema difficoltà rispetto a compiti cognitivi che per
un essere umano sono semplici e quasi banali
(riconoscimento di oggetti, capacità di coordinazione
sensomotoria, …).
Non di rado, questo sembra dipendere dalle differenze
molto rilevanti tra la struttura di elaborazione di un
calcolatore e la struttura di elaborazione rappresentata
dal sistema nervoso (di cui il cervello è una parte).
Problemi filosofici per una concezione funzionalista
(computazionale) della mente e della cognizione
Qualunque prospettiva funzionalista sulla mente è
principalmente sintattica e simbolica: ma in che
modo le ‘rappresentazioni’ – che sarebbero il
materiale di base dei processi cognitivi – assumono
un significato?
È il cosiddetto symbol grounding problem (l'espressione
è dello scienziato cognitivo Stevan Harnad): come e
dove nasce la semantica delle rappresentazioni?
Si tratta di un problema molto difficile per le scienze
cognitive, in particolare per quelle che si occupano di
costruire sistemi cognitivi artificiali.
In una prospettiva computazionale e funzionalista, il
symbol grounding problem è una questione difficile
da risolvere: l’elaborazione di rappresentazioni viene
concepito come un processo in larga parte simbolico,
e come tale indifferente al piano dei significati.
In questo senso, il symbol grounding problem
rappresenta un punto critico dell’approccio
computazionale e funzionalista, accanto ad almeno
altri due punti:
- il problema della coscienza
- l’argomento della stanza cinese
Il problema della coscienza
Problema della natura degli stati qualitativi e
fenomenici della soggettività. Scrive il filosofo della
mente David Chalmers nel saggio Come affrontare il
problema della coscienza (1995):
"La coscienza pone i problemi più sconcertanti nella
scienza della mente. Nulla conosciamo più
intimamente dell'esperienza conscia, ma non c'è
nulla che sia più difficile da spiegare."
[Agostino diceva analogamente – ma con riferimento
al problema del tempo: "Quando non me lo
chiedono, io so cos'è il tempo, ma quando me lo
chiedono, non lo so più."]
Secondo Chalmers,
"non c'è un unico problema della coscienza. Il termine
coscienza è ambiguo, perché si riferisce a molti
fenomeni differenti e ciascuno di essi richiede una
spiegazione, sebbene alcuni siano più facili da spiegare
che altri."
Esistono in realtà, sempre secondo Chalmers, due
categorie di problemi della coscienza: i problemi "facili"
e i problemi "difficili".
"I problemi facili della coscienza sembrano
direttamente soggetti ai metodi correnti della scienza
cognitiva, attraverso i quali un fenomeno viene
spiegato mediante meccanismi computazionali o
neurali."
Esempi:
- capacità di discriminare stimoli ambientali e di reagire
- capacità di accedere ai propri stati interni
- controllo del comportamento
- differenza tra veglia e sonno
- capacità di riferire i propri stati interni
……..
Definire "facili" i problemi in questa categoria significa
che possiamo avere un'idea chiara di cosa vorrebbe
dire poterli spiegare.
Abbiamo cioè un'idea ragionevole di una possibile
spiegazione di questi problemi, anche se magari per
molti di essi non abbiamo già di fatto una simile
spiegazione.
"Il problema davvero difficile della coscienza è quello
dell’esperienza. Quando pensiamo e percepiamo c’è un
frullio di elaborazioni dell’informazione, ma c’è anche
un aspetto soggettivo. Come ha detto Nagel, c’è il
com’è [what it is like] essere un organismo conscio.
Questo aspetto soggettivo è l’esperienza."
[D. Chalmers, Come affrontare il problema della coscienza, in
Mente e corpo. Dai dilemmi della filosofia alle ipotesi della
neuroscienza, Bollati Boringhieri pp. 237-239]
Per (tentare di) affrontare il problema difficile, esistono
svariate strategie possibili che si collocano all'interno di
due estremi:
L'idea che non soltanto la coscienza (fenomenica)
esiste ma è di natura non materiale ( dualismo di
origine cartesiana)
L'idea che la coscienza (fenomenica) non esiste e che
quando abbiamo spiegato il problema che Chalmers
definisce "facile" abbiamo spiegato tutto quello che c'è
da spiegare.
Tra questi estremi esiste una grande varietà di
concezioni, tra cui vale la pena di ricordarne almeno
due.
La concezione misterica della coscienza, secondo cui la
coscienza è un fenomeno perfettamente naturale, ma
di una complessità che eccede le nostre capacità
cognitive.
Queste capacità possono cioè formulare il problema
della coscienza ma non possono risolverlo: secondo
l'espressione di Colin McGinn – il filosofo che ha difeso
questa concezione – la nostra mente è cognitivamente
chiusa rispetto al problema della coscienza.
La concezione – difesa dallo stesso Chalmers – secondo
cui la coscienza è un fenomeno perfettamente
naturale, nel senso che il suo aspetto fenomenico è un
aspetto fondamentale della realtà stessa.
Se questo è vero, allora deve essere possibile indagare
l'aspetto fenomenico della realtà in modi non troppo
diversi da quelli usati per indagare altri aspetti della
realtà che riteniamo fondamentali (e Chalmers cita
come esempi lo spazio, il tempo, la massa,….).
L’argomento della stanza cinese
(John R. Searle, Menti, cervelli e programmi, 1980)

Distinzione IA debole/IA forte
IA debole
“Secondo l’IA debole, il pregio principale del
calcolatore nello studio della mente sta nel fatto che
esso ci fornisce uno strumento potentissimo: ci
permette ad esempio di formulare e verificare le
ipotesi in un modo più preciso e rigoroso.”
IA forte
“Secondo l’IA forte, invece, il calcolatore non è
semplicemente uno strumento per lo studio della
mente ma piuttosto, quando sia programmato
opportunamente, è una vera mente: è cioè possibile
affermare che i calcolatori, una volta corredati dei
programmi giusti, capiscono letteralmente e
posseggono altri stati cognitivi.”
Test di Turing?
LA STANZA CINESE
F1 = scrittura
F1 = ideogrammi
F2 = storia
F2 = ideogrammi
F3 = domande
F3 = ideogrammi
R1 = regole per legare F1 e F2
R2 = regole per scrivere
ideogrammi in risposta a
ideogrammi in F3
[R1 e R2 sono ‘programmi’]
“Dal punto di vista esterno, cioè dal punto di vista di
qualcuno che legga le mie ‘risposte’, le risposte alle
domande in cinese e a quelle in inglese sono
altrettanto buone. Ma nel caso del cinese, a
differenza dell’inglese, io do le risposte manipolando
simboli formali non interpretati.
Per quanto riguarda il cinese, mi comporto né più né
meno che come un calcolatore: eseguo operazioni di
calcolo su elementi specificati per via formale.”
“Ora, l’IA forte sostiene che il calcolatore
programmato capisce le storie e che il programma in
un certo qual senso spiega la capacità di
comprendere dell’uomo. [....]
Ciò che l’esempio lascia intendere è che, finché il
programma è definito in termini di operazioni di
calcolo su elementi definiti per via puramente
formale, questi elementi non hanno di per sé alcun
legame interessante con la comprensione. [....]
“Il fatto è che quali che siano i princìpi puramente
formali introdotti nel calcolatore, essi non saranno
sufficienti per il comprendere, poiché un essere
umano sarà capace di seguire quei princìpi formali
senza per questo capire nulla.”
Searle, Menti, cervelli e programmi