PSICOLOGIA CLINICA E PSICOTERAPIA
16
Collana diretta da
Rosario Di Sauro
A11
404
Alberto Greco
Sistemi e modelli cognitivi
Copyright © MMXI
ARACNE editrice S.r.l.
www.aracneeditrice.it
[email protected]
via Raffaele Garofalo, 133/A–B
00173 Roma
(06) 93781065
ISBN
978–88–548–4381–3
I diritti di traduzione, di memorizzazione elettronica,
di riproduzione e di adattamento anche parziale,
con qualsiasi mezzo, sono riservati per tutti i Paesi.
Non sono assolutamente consentite le fotocopie
senza il permesso scritto dell’Editore.
I edizione: novembre 2011
Indice
9 Prefazione
13 Capitolo 1
Dallo stimolo alla coscienza
13 1.1 La distinzione bottom-up e top-down
14 1.2 Attenzione e coscienza
1.2.1 La coscienza, 14 – 1.2.2 L’attenzione visiva, 16 – 1.2.3 Attenzione, risorse cognitive e
embodiment,18
20 1.3 Il riconoscimento di configurazioni
24 1.4 L’organizzazione percettiva
1.4.1 La sintassi della visione: i disegni geometrici, 20– 1.4.2 Dalla visione meccanica alla visione intelligente, 29
33 Capitolo 2
La rappresentazione delle conoscenze
33 2.1 Le strutture di rappresentazione
35 2.2 Le rappresentazioni formali
38 2.3 Le rappresentazioni strutturate
44 2.4 Rappresentazione e controllo
2.4.1 Organizzazione procedurale e dichiarativa, 44 – 2.4.2 I linguaggi di programmazione, 46
– 2.4.3 Il KRL, 49
52 2.5 Inferenze, fantasticherie e curiosità
2.5.1 La teoria della dipendenza concettuale, 52 – 2.5.2 L’elaborazione spontanea, 64
67 2.6 La rappresentazione dei concetti
72 2.7 Il ragionamento analogico e induttivo
80 2.8 La teoria della mente
83 2.9 Memoria e conoscenza
2.9.1 L’organizzazione delle conoscenze, 83 – 2.9.2 Una memoria semantica distribuita, 88
93 Capitolo 3
Intelligenza e soluzione di problemi
93 3.1 La soluzione di problemi
3.1.1 La ricerca e le sue strategie, 93 – 3.1.2 Algoritmi ed euristiche, 94 – 3.1.3 Che cosa è un
“problema”? , 97 – 3.1.4 La soluzione come ricerca, 99 – 3.1.5 I sistemi di produzione, 103
107 3.2 I piani per risolvere problemi
3.2.1 SHRDLU, 107 – 3.2.2 STRIPS, ABSTRIPS, NOAH, 111 – 3.2.3 Oltre STRIPS, 118
121 3.3 L’apprendimento
3.3.1 Tipi di apprendimento, 121 – 3.3.2 Programmi che imparano “facendo”, 124
134 3.4 Il giudizio e la decisione
139 Capitolo 4
Il linguaggio
139 4.1 Il pattern-matching
143 4.2 SHRDLU
4.2.1 Come funziona SHRDLU, 151
159 4.3 Semantica e intelligenza
161 4.4 Modelli dell’acquisizione del linguaggio
4.4.1 Apprendimento del linguaggio per “ostensione”, 161 – 4.4.2 La conoscenza linguistica,
166
170 4.5 La comprensione di storie
176 4.6 Piani per comunicare
183 Capitolo 5
Sistemi complessi: architetture cognitive
183 5.1 ACT
186 5.2 SOAR
189 5.3 Altre architetture
193 5.4 Sistemi ad agenti
199 Capitolo 6
Affettività, personalità, vita
199 6.1 ALDOUS
206 6.2 La psicopatologia secondo Colby
6.2.1 Il programma “nevrotico”, 206 – 6.2.2 Come funziona il programma “nevrotico”, 210 –
6.2.3 Valutazione del programma “nevrotico”, 214 – 6.2.4 Quando il computer è paranoico,
216 – 6.2.5 Valutazione del programma paranoico, 227
232 6.3 Simulazioni recenti della personalità
6.3.1 Modello di Read, 233
236 6.4 Affettività e conoscenza
245 Bibliografia
257 Indice analitico
Prefazione
Uno dei più tipici modi di procedere della ricerca scientifica è quello di
tentare di spiegare ciò che non è conosciuto facendo ricorso, per analogia, o
in modo metaforico, a ciò che già si conosce. Questa operazione è in buona
sostanza ciò che viene altrimenti definito “uso di modelli”.
Il ricorso a modelli viene fatto in tutte le discipline scientifiche, ma assume un rilievo particolare nel caso delle scienze dell'uomo, che hanno spesso
a che fare con oggetti di studio che non sono concretamente osservabili e che
non possono essere sottoposti a diretta sperimentazione, come “la psiche” o
“la mente”. Per questo nella storia della psicologia quasi tutte le prospettive
o scuole psicologiche, quando non hanno negato la possibilità di studio di tali oggetti misteriosi (come il comportamentismo), hanno proposto qualche
modello. Ad esempio è noto che Freud amava usare molte metafore. Una di
queste era il considerare il funzionamento della dinamica psichica basato su
un'energia simile a quella sviluppata da una macchina a vapore. Un altro
modello freudiano era quello “economico”, che considerava l'uso di una certa quantità di energia per fornire la carica a un'idea come simile all'investimento di una certa somma di denaro per procurarsi un qualche bene. William
James per parlare della coscienza utilizzava la metafora della lente, che ha
una parte nitida e una parte dai contorni sfumati. Kurt Lewin aveva adottato
la metafora dei campi di forze, con riferimento ai fenomeni magnetici studiati dalla fisica.
Il cognitivismo, da parte sua, ha adottato la metafora dell'uomo come elaboratore di informazione, con l'idea che vede i fenomeni psichici basati sulla
manipolazione di rappresentazioni simboliche secondo regole di tipo algoritmico. Questa metafora, detta “metafora computazionale”, ha dato origine
anche a modelli di tipo particolare, come i modelli simulativi, che sono anzi
considerati uno dei “prodotti tipici” dell'approccio cognitivista.
La metodologia della simulazione psicologica era stata presentata per la
prima volta in Italia in un volume di parecchi anni fa (Greco, 1988). In questo campo l’evoluzione è continua, molte discussioni sono veloci, talvolta effimere, e dunque, com’è ovvio, l’invecchiamento di un’opera è molto rapido.
10
Prefazione
Il volume sulla simulazione è invecchiato quasi subito e non è più disponibile da molti anni. Tuttavia, in realtà, non tutto il contenuto di un’opera introduttiva diventa obsoleto allo stesso modo: rimangono alcuni punti fermi, soprattutto per quanto riguarda gli aspetti storici, epistemologici e fondazionali
delle questioni trattate. Partendo da queste considerazioni, e anche per venire
incontro alle richieste di coloro che avevano trovato aspetti ancora attuali in
quest’opera, è nato il presente volume, che ne costituisce un rifacimento e un
aggiornamento.
Nel presente volume prenderemo in esame alcuni modelli “classici”, cioè
sviluppati nell’ambito cognitivista e delle scienze cognitive simboliche, per
confrontarli con alcuni nuovi modelli e simulazioni di impostazione diversa.
In un'altra opera (Greco, 2011) abbiamo presentato il senso dei modelli
computazionali e il ruolo che la metodologia simulativa riveste nell'ambito
della prospettiva cognitivista. Il presente volume è complementare a quel lavoro e ne costituisce un naturale approfondimento. Per questo motivo abbiamo ritenuto utile fornire al lettore numerosi riferimenti a parti di
quell’opera.
Riprendendo nelle linee essenziali alcuni concetti di base, ci proponiamo
qui di presentare una panoramica aggiornata e sistematica dedicata all’analisi
di quale sia l’attuale “stato dell’arte” riguardo alle varie, specifiche tematiche che sono state oggetto delle ricerche e dei modelli sviluppati in ambito
cognitivista. In questo volume metteremo dunque a confronto i modelli influenzati dalla prospettiva cognitivista, computazionale e simbolica, con le
nuove prospettive, modelli e simulazioni di diversa impostazione. Ci porremo anche dal punto di vista delle diverse tematiche che classicamente costituiscono l’oggetto della psicologia (ad es. la rappresentazione delle conoscenze, l’intelligenza, il linguaggio, la personalità) per analizzare fino a che
punto si sia spinta l’influenza cognitivista e in che modo si tenti di superarla
su questi specifici terreni.
Una parte importante sarà dedicata anche a sistemi non recenti, ma che
hanno tentato di riprodurre i processi cognitivi attraverso programmi per
computer che funzionavano in conformità con il presupposto computazionale, che abbiamo visto costituire l’essenza dell’approccio cognitivista, che
considerava il pensiero come un processo di natura computazionale e algoritmica. L’analisi delle caratteristiche di tali programmi a nostro parere riveste tuttora un rilevante interesse, e la nostra scelta è stata dettata non solo dal
fatto che alcuni hanno ancora i propri sostenitori, ma anche dalla loro oggettiva importanza storica o rilevanza teorica.
Dobbiamo chiarire che lo scopo di questa trattazione non è di fare una rassegna enciclopedica ed esaustiva di tutto quanto di significativo è stato pro-
Prefazione
11
dotto nell’ambito delle diverse tematiche qui considerate (un’impresa del
genere sarebbe davvero titanica), ma più modestamente di valutare i nuovi
orientamenti nel contesto di concreti modelli proposti. Dunque i modelli qui
trattati per questo esame sono stati scelti a puro scopo esemplificativo.
Nell’esporre i processi cognitivi si usa spesso seguire l’ordine che va dallo
stimolo alla risposta (cioè dall’input all’output). In questo modo di procedere
è evidente l’influenza del modello cognitivista dell’elaborazione dell’informazione, che è stato definito talvolta “a sandwich”, che assume la sequenza
di stadi percezione-cognizione-azione: si tratta di uno degli aspetti di tale
modello che hanno subìto maggiori critiche. Noi qui non ci sottrarremo a
questo schema, ma naturalmente la sua adozione non significa un’automatica
condivisione della metafora computazionale e dell’assunto dell’elaborazione
“a sandwich”. Semplicemente, è necessario seguire un qualche ordine
nell’esposizione e questo appare comodo. È altrettanto ovvio e quasi superfluo precisare che ogni suddivisione di comodo va presa con cautela, perché
i fenomeni reali sono “fenomeni psichici” e non fenomeni attentivi, percettivi, di apprendimento, e via dicendo. In ciascun fenomeno reale possono essere evidenziati tutti questi aspetti e spesso anche gli stessi modelli che ne
vengono tratti, quando raggiungono una certa complessità e realismo, potrebbero essere trattati in capitoli diversi e la scelta su quale aspetto sia da
considerare prevalente per la trattazione è sovente arbitraria.
1. Dallo stimolo alla coscienza
1.1
La distinzione bottom-up e top-down
La prospettiva adottata più comunemente nell’esaminare in che modo si
svolgano i diversi processi psichici si rifa’ alla metafora spaziale dell’alto e
del basso. In effetti, il fatto che tali processi appaiano organizzati in modo
gerarchico è fuori di dubbio: fin dalla prospettiva resa popolare dal neurologo inglese John Hughlins Jackson (1835-1911), che concepiva il sistema
nervoso come un insieme di unità che vanno dalle più semplici alle più complesse, dalle più automatiche alle più volontarie e così via. Questa idea è ovviamente incoraggiata dalla stessa anatomia del cervello. Le funzioni psichiche, in questa concezione, appaiono disposte in una sequenza in cui quelle
superiori controllano quelle inferiori. Naturalmente non si tratta di un’idea
tanto nuova, perché è implicita in concezioni millenarie, che hanno la loro
espressione in distinzioni come quelle tra ragione, intelligenza o linguaggio
(le funzioni psichiche superiori, proprie dell’uomo) e gli aspetti più legati al
corpo, che ci accomunano di più agli altri animali. Andando avanti in questa
distinzione si può arrivare alla classica dicotomia mente-corpo.
Nell’accezione più comune, la distinzione alto-basso a proposito dei processi psichici non riguarda però aspetti esclusivamente mentali o esclusivamente corporei, ma è intesa nel senso di considerare a “basso livello” i processi che sono più vicini ai semplici processi sensoriali o motori, e di “alto
livello” i processi che sono di tipo più complesso, che chiamano in causa conoscenze, aspettative, bisogni, valori, credenze, e così via. Adottando questa
metafora spaziale, dunque, si afferma comunemente che sono possibili due
prospettive, una che va dal basso verso l’alto (bottom-up) e una che va
dall’alto verso il basso (top-down).
A nostro avviso occorre però porre maggiore attenzione su che cosa si intenda realmente con tale distinzione. In molti casi essa viene usata come se
fosse una distinzione “ontologica”, cioè come se esistessero diversi processi,
alcuni che vanno in direzione bottom-up e altri che vanno nella direzione
14
Capitolo 1
opposta. Noi sosteniamo l’idea che ciascun processo psichico è un evento
unico, frutto del funzionamento complessivo del nostro cervello, del sistema
nervoso e del corpo. I diversi eventi possono essere descritti, adottando una
certa prospettiva, come processi sensomotori o neuronali oppure, da un’altra
prospettiva, come conoscenze, aspettative, ecc. La distinzione perciò non
dovrebbe essere di natura ontologica ma “epistemologica” perché riguarda
da quale parte vogliamo partire nel descrivere lo stesso evento psichico, ad
esempio se vedere come ai dati sensoriali venga dato un significato a livello
cosciente, oppure come una data aspettativa influenzi la stessa attività sensoriale.
Un ulteriore, necessario, chiarimento dovrebbe riguardare se la distinzione
bottom-up e top-down si riferisca a diversi modi di descrivere il fenomeno
psichico oggetto di esame oppure se con essa si intenda riferirsi a diverse
spiegazioni dello stesso. Nel secondo caso potrebbe spuntare di nuovo sotto
diverse spoglie l’idea jacksoniana di processi superiori che controllano quelli
inferiori, un’idea che contrasta con recenti visioni del cervello che vedono la
sua attività più interattiva e “democratica” (Thompson e Swanson, 2010).
1.2
1.2.1
Attenzione e coscienza
La coscienza
Se lo studio moderno dell’attenzione è una conquista della psicologia cognitivista non è un caso. Infatti non si trattava certo di un campo di studio
coltivato in ambito comportamentista, perché la psicologia dell’attenzione
riguarda una varietà di fenomeni che hanno a che fare in un modo o
nell’altro con l’accesso alla coscienza, e quest’ultimo concetto – come sappiamo – non era tra quelli su cui i comportamentisti ritenevano possibile un
accordo intersoggettivo. Si è soliti distinguere diversi aspetti dell’attenzione:
la capacità di selezionare volontariamente alcuni tra gli innumerevoli stimoli
che fluiscono attorno a noi in ogni momento (attenzione selettiva), di rimanere concentrati su qualche stimolo (attenzione sostenuta) oppure essere recettivi a qualunque stimolo in arrivo (vigilanza) fino a poter essere catturati
da certi stimoli senza che noi lo vogliamo (attenzione involontaria), di passare velocemente da un particolare stimolo a un altro come se si elaborassero
contemporaneamente (attenzione divisa o distribuita). È stato mostrato che
queste diverse funzioni sono implementate in aree cerebrali diverse (Fernandez-Duque e Posner, 2001).
Dallo stimolo alla coscienza
15
Creare dei modelli degli stati attentivi può essere dunque facile e difficile
allo stesso tempo, a seconda di che cosa si pensi del concetto di “coscienza”.
Ci sono almeno due accezioni fondamentali di questo concetto, una riferita
al fatto che certi contenuti mentali (parole, concetti, ecc.) siano disponibili
per l’accesso da parte di altri processi, l’altra riferita al fatto di provare
un’esperienza (ad es. un dolore o un’emozione) ed è la cosiddetta coscienza
fenomenica (Block, 1995). A queste si possono aggiungere capacità di introspezione, di controllo, di riferibilità, e così via. Ma la vera differenza ai fini
di ciò che può o non può essere simulabile è tra una capacità di ritrovamento
e/o manipolazione di contenuti e una capacità che sembra supporre “qualcosa di più” e cioè di vivere delle esperienze (ciò che i filosofi chiamano qualia). Questioni del tipo se la coscienza artificiale sia davvero cosciente o si
comporti come se lo fosse (posta ad es. da Holland, 2004) riposano su questa
differenza.
Bisogna dunque chiedersi quale possa essere il senso di una simulazione
dell’attenzione e se questa possa essere diversa da una simulazione della coscienza intesa nella sua accezione più pregnante. Una discussione a più voci
su questo tema si può trovare in un numero monografico della rivista Sistemi
Intelligenti (2008, n.3). In essa sono intervenuti Castelfranchi, Chella, Cordeschi, Parisi, Paternoster, Romano, Trautteur e un ultimo Tagliasco. Per
Castelfranchi l’aspetto più importante della coscienza è la metacognizione,
cioè la capacità di un sistema di rappresentarsi i propri stessi stati;
nell’essere umano si origina attraverso l’interazione sociale con la necessità
di “leggere la mente” degli altri. Una capacità di questo genere potrebbe essere implementata in modo abbastanza banale, come ha mostrato Loehlin
quando ha definito il suo programma ALDOUS “capace di introspezione”
(vedi § 6.1). È interessante il senso che Castelfranchi vede in una ipotetica
simulazione della coscienza, e cioè il vantaggio di poter separare proprio
quei due aspetti che coesistono nel concetto e lo rendono ambiguo
(l’esperienza e la rappresentazione dell’esperienza), un esperimento impossibile in natura. Una posizione che appare opposta è quella di Paternoster,
che non ritiene scindibili la coscienza di accesso e la coscienza fenomenica.
Nel suo breve ma istruttivo intervento, Domenico Parisi (2008) ha tracciato quelle che secondo lui sono le linee che dovrebbe seguire un artefatto (robot) che simuli la coscienza. La prima cosa da fare sarebbe di abbandonare il
termine, visto che è “mal definito, sfuggente, ambiguo”. Invece di parlare
della coscienza, bisognerebbe costruire sistemi in grado di esibire le stesse
capacità e comportamenti che ci fanno dire di una persona che “è cosciente”.
In particolare Parisi individua queste capacità nel saper distinguere il proprio
corpo dall’ambiente, nel saper distinguere tra mondo pubblico e mondo pri-
16
Capitolo 1
vato, nell’usare un linguaggio per parlare a se stessi. Queste capacità di distinzione potrebbero essere dimostrate operazionalmente da un comportamento di “sorpresa” quando aspettative da esse derivanti fossero violate: ad
esempio se la mano di un robot entrasse in contatto con un oggetto fisico
senza che dal sistema propriocettivo arrivasse alcun segnale, oppure se un
robot “vedesse” un oggetto e un altro robot no. L’idea alla base delle proposte di Parisi è la prospettiva sintetica, cioè ritenere che se sappiamo costruire un artefatto che esibisca certe proprietà psicologiche abbiamo ipso
facto capito tali proprietà. Su questa idea rinviamo alle considerazioni che
abbiamo fatto altrove (Greco, 2011, § 3.2 e 3.5).
Un’altra posizione a proposito della coscienza è quella di Hesslow
(2002), secondo il quale questa coinciderebbe con la capacità di
simulazione interna del comportamento (proprio o altrui) e delle
percezioni, ma senza la necessità di postulare rappresentazioni. La
simulazione del comportamento sarebbe infatti l’attivazione delle stesse
aree cerebrali deputate alla sua esecuzione, ma con la soppressione
dell’effettiva esecuzione; la simulazione della percezione sarebbe una
riattivazione delle stesse aree coinvolte nell’effettiva percezione, ma in
assenza dello stimolo (una sorta di immaginazione). Un terzo aspetto
riguarderebbe l’anticipazione di ciò che sarebbe percepito se un certo
comportamento o percezione avvenissero per davvero e non fossero
soltanto simulati. Una coscienza così concepita (che sarebbe comunque di
tipo elaborativo e non fenomenico) coinciderebbe con un’elaborazione
interna in assenza di correlati sensomotori, ma l’ipotesi sembra
clamorosamente dimenticare che noi siamo coscienti anche di ciò che
avviene durante la percezione o l’azione.
1.2.2
L’attenzione visiva
Se si abbandona il campo infido di fenomeni che implicano stati non
chiaramente definibili come le esperienze soggettive, una efficace simulazione dell’attenzione potrebbe essere semplicemente quella che fosse in
grado di selezionare uno stimolo rispetto a un altro. Trattandosi di un processo che con tutta evidenza agisce “a basso livello”, non è facile né efficace costruirne modelli computazionali di tipo simbolico. Le simulazioni
sono dunque state prevalentemente di tipo connessionista e spesso hanno
cercato di esplicitare il più possibile analogie con ciò che avviene a livello
neurale (cfr. Itti e Koch, 2001; per una rassegna, vedi il numero speciale di
Dallo stimolo alla coscienza
17
Neural Networks, 2006, n.19)1. Uno dei primi e più influenti modelli, relativo all’attenzione visiva, è stato quello di Koch e Ullman (1985), che hanno
introdotto il concetto di “mappe di salienza” (saliency maps), cioè rappresentazioni topografiche in due dimensioni di che cosa possa essere considerato
saliente (evidente) in una scena. Una mappa di questo genere aiuta un sistema che deve orientare la propria attenzione perché è sufficiente che questo
scandisca la mappa stessa per trovare le informazioni da osservare in ordine
decrescente di rilevanza. Queste mappe sono preparate dai processi “preattentivi”, che consistono di diverse unità (o gruppi di unità) sensibili ciascuna
ad una caratteristica, come intensità luminosa, colore, orientamento, angoli,
ecc., per questo detti “rilevatori di caratteristiche” (feature detectors). Questi
esplorano in parallelo l’intera scena e si crea una competizione tra i diversi
rilevatori, finché qualcuno vince sugli altri, sulla base della forza o peso delle diverse caratteristiche2: ad esempio, alla fine un certo punto della scena
potrà essere codificato come più saliente perché di un colore diverso rispetto
agli altri, oppure perché si muove in senso diverso rispetto ad altri punti. Un
meccanismo di questo genere incontra però una difficoltà: essendo basato
essenzialmente sui dettagli delle caratteristiche a livello locale, richiede
qualche meccanismo di livello un po’ più elevato che tenga conto di un contesto più ampio.
C’è poi un altro problema: come evitare che l’attenzione rimanga sempre
fissa sul punto che ha vinto la competizione in un certo momento? le zone
meno salienti, in questo modo, non potrebbero essere osservate mai! In effetti ci sono prove psicologiche del fatto che quando il sistema è “occupato”
nell’analisi di un certo stimolo alcuni stimoli immediatamente successivi
possono essere perduti (è il fenomeno del cosiddetto attentional blink), ma
questo stato non dura all’infinito e dunque è necessario che in qualche modo
l’esplorazione venga rifatta continuamente a brevissimi intervalli. Questo
problema però può essere risolto facendo in modo che i neuroni attivi per
l’attuale fissazione a un certo punto vengano inibiti temporaneamente: que1
Com’è noto, l’informazione dalla retina giunge alla corteccia visiva e quindi segue due diverse vie. La prima, detta dorsale, va verso il lobo parietale e la corteccia motoria ed è
deputata alla localizzazione degli stimoli (il “dove”); la seconda, detta ventrale, va verso il
lobo temporale inferiore ed è deputata al riconoscimento degli stessi (il “cosa”). È evidente
che, anche se la via più direttamente coinvolta nei processi selettivi dell’attenzione appare
quella dorsale, quella ventrale potrebbe avere un ruolo nel controllo “dall’alto” del processo, e
quindi è indispensabile tener conto dell’interazione tra entrambe le vie.
2
Questo modello considera il processo solo dal punto di vista bottom-up, quindi non è presente un feedback da parte di processi che controllano dall’alto (top-down) sulla base di aspettative.
18
Capitolo 1
sto è plausibile dal punto di vista psicologico perché ricalca il fenomeno conosciuto in psicologia dell’attenzione come inibizione di ritorno, cioè la tendenza a non ritornare subito su parti dello spazio già esplorate.
Un altro classico compito della psicologia dell’attenzione spaziale è quello
di ricerca visiva (visual search), che consiste nel trovare un particolare stimolo (target) in un campo percettivo in mezzo ad altri che possono avere caratteristiche simili o che confondono. Un modello di Pezzulo et al. (2005)
simula questo compito con un modello che ha compiti come trovare la lettera
dell’alfabeto T rossa in mezzo a tante T verdi e L rosse. Per selezionare il
target, viene usato un meccanismo di anticipazione, in modo da orientare la
fovea verso gli stimoli rilevanti. Sul ruolo dell’anticipazione rinviamo alla
trattazione che ne abbiamo fatto in Greco, 2011, § 4.6.2.
1.2.3
Attenzione, risorse cognitive e embodiment
Come si sa, l’attenzione viene considerata dalle moderne teorie psicologiche come una “risorsa” che scarseggia e lo stesso vale per la memoria di lavoro. In effetti ci sono molti punti in comune tra le teorie relative ai due processi, al punto che potrebbero essere considerati espressione di un unico
meccanismo (per prove neuropsicologiche, v. Silver e Feldman, 2005). Le
simulazioni dei meccanismi attentivi sono dunque generalmente impostate
come modelli che tentano di riprodurre le “limitazioni” cognitive derivanti
dalla scarsità di risorse. Per un approccio puramente cognitivista questo può
significare, tradizionalmente, due cose: una limitazione della quantità di informazione che può essere elaborata nello stesso momento (perché eccessiva
o perché la qualità dei dati in arrivo non è ottimale, come ad es. succede in
condizioni di stimolazione disturbata), oppure una limitazione nelle prestazioni del “processore” (ad es. non è sufficientemente veloce). È opportuno
considerare questi due aspetti contemporaneamente e il più ampio quadro
che ne risulta è quello denominato della “gestione3 delle risorse”. In alcune
architetture cognitive esistono moduli di gestione dell’attenzione che funzionano in maniera abbastanza congruente con le impostazioni computazionali (v. ad es. ACT e COGNET nel cap. 5 e cfr. KRL nel § 2.4.3).
Nei modelli più recenti è presente la consapevolezza del carattere “crossmodale” dell’attenzione e della percezione, cioè del fatto che questi processi
non riguardano soltanto una modalità sensoriale (quella prevalentemente
studiata è stata la visione) ma bisogna render conto di come le afferenze pro3
Qualche volta si usa il brutto inglesismo “allocazione”.
Dallo stimolo alla coscienza
19
venienti dai diversi canali sensoriali competano per l’attenzione e si integrino nella percezione (v. ad es. Spence e Driver, 2004). Questa integrazione
riguarda evidentemente l’uso che si deve fare delle informazioni a cui si presta attenzione, e di qui si intuisce l’importante legame con ciò che si sta facendo.
Per questo i modelli più recenti tentano anche di superare l’approccio cognitivista in cui la gestione delle risorse è intesa esclusivamente come finalizzata a consentire il passaggio di informazioni da un modulo di input a
quello di elaborazione (secondo il modello “a sandwich” cui si è accennato
sopra), ampliando l’orizzonte all’ottica dell’embodiment e creando sistemi in
cui le risorse riguardano concrete azioni. Ciò che conta a questo punto non è
solo quante risorse sono destinate a questo o quel processo, ma quale sia la
natura del processo. Ad esempio Sprague et al. (2007) hanno creato un modello chiamato WALTER, il cui scopo è di “vedere” scene e “agire” di conseguenza: ad esempio dovrebbe essere in grado di muoversi in un ambiente
virtuale. Il modello supera lo schema cognitivista perché non prevede tre
moduli primitivi per percezione-cognizione-azione, ma un solo modulo e
cioè il comportamento sensomotorio, fatto di unità dette “microcomportamenti” che sono complete routine sensomotorie per conseguire specifici risultati (ad es. evitare ostacoli o raccogliere la spazzatura). Il numero di microcomportamenti che possono essere attivi allo stesso tempo tiene conto dei
limiti della memoria di lavoro. Il problema della gestione delle risorse si pone nel momento in cui il comportamento in corso richiede una coordinazione
tra occhi, corpo, gambe e possono nascere dei conflitti tra l’impegno destinato a una parte o all’altra. Il modello è stato validato confrontando le sue prestazioni con quelle fornite in un compito analogo da una persona reale, di cui
venivano controllati i movimenti e la fissazione dello sguardo.
Skewes (2007) ha osservato che WALTER manca di due importanti capacità, che a parere dell’autore sono essenziali per una buona simulazione dei
processi attentivi, quella di anticipazione e quella di correzione dei propri errori. Skewes nota che l’attenzione non serve solo a orientare il sistema nello
spazio e circa gli attuali stati del sistema e le attuali azioni, ma anche nel
tempo e circa gli stati futuri. Abbiamo visto come quello di anticipazione
fosse un concetto-chiave delle teorie che fanno riferimento all’embodiment,
ad esempio quella di Barsalou (cfr. Greco, 2011, § 4.6.2). Il modello di
Sprague et al non è in grado di fare anticipazioni perché usa rappresentazioni
predefinite inserite dai programmatori. Infatti WALTER funziona consultando la rappresentazione di tutti i possibili stati del mondo, di tutti i possibili comportamenti e di tutte le possibili combinazioni delle due cose. Per lo
20
Capitolo 1
stesso motivo il sistema non è in grado di correggere eventuali rappresentazioni sbagliate.
Skewes propone un modello alternativo, che definisce “interattivistacostruttivista”, basato sulla teoria dei sistemi dinamici (v. Greco, 2011, §
5.3.2). Un sistema che abbia le capacità che mancavano a WALTER dovrebbe regolarsi da solo (essere autodiretto). Quando una stimolazione
cambiando il suo stato di attivazione in un certo senso ne rompe
l’equilibrio, il sistema deve regolare la propria azione e il proprio stesso
funzionamento cognitivo. Questo è importante per una simulazione che
funzioni in tempo reale. Ciascun processo nel sistema può presupporne
altri e se questi non si svolgono nel modo previsto (anticipato) è in grado
di rilevare l’errore: una persona che camminando scorge una buca riesce
ad evitarla sulla base della semplice percezione senza bisogno di avere
dirette informazioni dal sistema motorio. Le informazioni a cui prestare
attenzione o le possibili azioni, viste come un sistema dinamico, sono stati in un ipotetico spazio di attivazione. Finché non si è scelto, il sistema è
instabile; la scelta dell’informazione a cui prestare attenzione, dunque,
dipende da uno spostamento di attivazioni (una “traiettoria”) che determina un nuovo stato, magari più equilibrato. Allocare le risorse, in questo
contesto, significa dunque raggiungere un bilanciamento tra i vincoli (ciò
che si può fare) e le richieste (ciò che si deve fare).
1.3
Il riconoscimento di configurazioni
I problemi che si incontrano nello scrivere un programma in grado di
“vedere” non sono molto diversi da quelli che si incontrano per far sì che
un programma “capisca” il linguaggio naturale. Anche la percezione, infatti, come qualunque studente di psicologia ben sa, ha le sue leggi e alcune sono particolarmente precise. Gli elementi che costituiscono un’immagine (sia che vengano considerati al livello minimale come serie di
macchie scure o chiare, sia che in essi vengano già distinte linee, superfici e simili) non possono essere unificati come si vuole perché si abbia un
senso.
Le prime applicazioni dell’informatica al campo della visione risalgono agli sforzi fatti per ottenere il cosiddetto pattern recognition (“riconoscimento di configurazioni”). L’obiettivo era la costruzione di un programma in grado di identificare in una struttura di punti di diversa inten-