PSICOLOGIA CLINICA E PSICOTERAPIA 16 Collana diretta da Rosario Di Sauro A11 404 Alberto Greco Sistemi e modelli cognitivi Copyright © MMXI ARACNE editrice S.r.l. www.aracneeditrice.it [email protected] via Raffaele Garofalo, 133/A–B 00173 Roma (06) 93781065 ISBN 978–88–548–4381–3 I diritti di traduzione, di memorizzazione elettronica, di riproduzione e di adattamento anche parziale, con qualsiasi mezzo, sono riservati per tutti i Paesi. Non sono assolutamente consentite le fotocopie senza il permesso scritto dell’Editore. I edizione: novembre 2011 Indice 9 Prefazione 13 Capitolo 1 Dallo stimolo alla coscienza 13 1.1 La distinzione bottom-up e top-down 14 1.2 Attenzione e coscienza 1.2.1 La coscienza, 14 – 1.2.2 L’attenzione visiva, 16 – 1.2.3 Attenzione, risorse cognitive e embodiment,18 20 1.3 Il riconoscimento di configurazioni 24 1.4 L’organizzazione percettiva 1.4.1 La sintassi della visione: i disegni geometrici, 20– 1.4.2 Dalla visione meccanica alla visione intelligente, 29 33 Capitolo 2 La rappresentazione delle conoscenze 33 2.1 Le strutture di rappresentazione 35 2.2 Le rappresentazioni formali 38 2.3 Le rappresentazioni strutturate 44 2.4 Rappresentazione e controllo 2.4.1 Organizzazione procedurale e dichiarativa, 44 – 2.4.2 I linguaggi di programmazione, 46 – 2.4.3 Il KRL, 49 52 2.5 Inferenze, fantasticherie e curiosità 2.5.1 La teoria della dipendenza concettuale, 52 – 2.5.2 L’elaborazione spontanea, 64 67 2.6 La rappresentazione dei concetti 72 2.7 Il ragionamento analogico e induttivo 80 2.8 La teoria della mente 83 2.9 Memoria e conoscenza 2.9.1 L’organizzazione delle conoscenze, 83 – 2.9.2 Una memoria semantica distribuita, 88 93 Capitolo 3 Intelligenza e soluzione di problemi 93 3.1 La soluzione di problemi 3.1.1 La ricerca e le sue strategie, 93 – 3.1.2 Algoritmi ed euristiche, 94 – 3.1.3 Che cosa è un “problema”? , 97 – 3.1.4 La soluzione come ricerca, 99 – 3.1.5 I sistemi di produzione, 103 107 3.2 I piani per risolvere problemi 3.2.1 SHRDLU, 107 – 3.2.2 STRIPS, ABSTRIPS, NOAH, 111 – 3.2.3 Oltre STRIPS, 118 121 3.3 L’apprendimento 3.3.1 Tipi di apprendimento, 121 – 3.3.2 Programmi che imparano “facendo”, 124 134 3.4 Il giudizio e la decisione 139 Capitolo 4 Il linguaggio 139 4.1 Il pattern-matching 143 4.2 SHRDLU 4.2.1 Come funziona SHRDLU, 151 159 4.3 Semantica e intelligenza 161 4.4 Modelli dell’acquisizione del linguaggio 4.4.1 Apprendimento del linguaggio per “ostensione”, 161 – 4.4.2 La conoscenza linguistica, 166 170 4.5 La comprensione di storie 176 4.6 Piani per comunicare 183 Capitolo 5 Sistemi complessi: architetture cognitive 183 5.1 ACT 186 5.2 SOAR 189 5.3 Altre architetture 193 5.4 Sistemi ad agenti 199 Capitolo 6 Affettività, personalità, vita 199 6.1 ALDOUS 206 6.2 La psicopatologia secondo Colby 6.2.1 Il programma “nevrotico”, 206 – 6.2.2 Come funziona il programma “nevrotico”, 210 – 6.2.3 Valutazione del programma “nevrotico”, 214 – 6.2.4 Quando il computer è paranoico, 216 – 6.2.5 Valutazione del programma paranoico, 227 232 6.3 Simulazioni recenti della personalità 6.3.1 Modello di Read, 233 236 6.4 Affettività e conoscenza 245 Bibliografia 257 Indice analitico Prefazione Uno dei più tipici modi di procedere della ricerca scientifica è quello di tentare di spiegare ciò che non è conosciuto facendo ricorso, per analogia, o in modo metaforico, a ciò che già si conosce. Questa operazione è in buona sostanza ciò che viene altrimenti definito “uso di modelli”. Il ricorso a modelli viene fatto in tutte le discipline scientifiche, ma assume un rilievo particolare nel caso delle scienze dell'uomo, che hanno spesso a che fare con oggetti di studio che non sono concretamente osservabili e che non possono essere sottoposti a diretta sperimentazione, come “la psiche” o “la mente”. Per questo nella storia della psicologia quasi tutte le prospettive o scuole psicologiche, quando non hanno negato la possibilità di studio di tali oggetti misteriosi (come il comportamentismo), hanno proposto qualche modello. Ad esempio è noto che Freud amava usare molte metafore. Una di queste era il considerare il funzionamento della dinamica psichica basato su un'energia simile a quella sviluppata da una macchina a vapore. Un altro modello freudiano era quello “economico”, che considerava l'uso di una certa quantità di energia per fornire la carica a un'idea come simile all'investimento di una certa somma di denaro per procurarsi un qualche bene. William James per parlare della coscienza utilizzava la metafora della lente, che ha una parte nitida e una parte dai contorni sfumati. Kurt Lewin aveva adottato la metafora dei campi di forze, con riferimento ai fenomeni magnetici studiati dalla fisica. Il cognitivismo, da parte sua, ha adottato la metafora dell'uomo come elaboratore di informazione, con l'idea che vede i fenomeni psichici basati sulla manipolazione di rappresentazioni simboliche secondo regole di tipo algoritmico. Questa metafora, detta “metafora computazionale”, ha dato origine anche a modelli di tipo particolare, come i modelli simulativi, che sono anzi considerati uno dei “prodotti tipici” dell'approccio cognitivista. La metodologia della simulazione psicologica era stata presentata per la prima volta in Italia in un volume di parecchi anni fa (Greco, 1988). In questo campo l’evoluzione è continua, molte discussioni sono veloci, talvolta effimere, e dunque, com’è ovvio, l’invecchiamento di un’opera è molto rapido. 10 Prefazione Il volume sulla simulazione è invecchiato quasi subito e non è più disponibile da molti anni. Tuttavia, in realtà, non tutto il contenuto di un’opera introduttiva diventa obsoleto allo stesso modo: rimangono alcuni punti fermi, soprattutto per quanto riguarda gli aspetti storici, epistemologici e fondazionali delle questioni trattate. Partendo da queste considerazioni, e anche per venire incontro alle richieste di coloro che avevano trovato aspetti ancora attuali in quest’opera, è nato il presente volume, che ne costituisce un rifacimento e un aggiornamento. Nel presente volume prenderemo in esame alcuni modelli “classici”, cioè sviluppati nell’ambito cognitivista e delle scienze cognitive simboliche, per confrontarli con alcuni nuovi modelli e simulazioni di impostazione diversa. In un'altra opera (Greco, 2011) abbiamo presentato il senso dei modelli computazionali e il ruolo che la metodologia simulativa riveste nell'ambito della prospettiva cognitivista. Il presente volume è complementare a quel lavoro e ne costituisce un naturale approfondimento. Per questo motivo abbiamo ritenuto utile fornire al lettore numerosi riferimenti a parti di quell’opera. Riprendendo nelle linee essenziali alcuni concetti di base, ci proponiamo qui di presentare una panoramica aggiornata e sistematica dedicata all’analisi di quale sia l’attuale “stato dell’arte” riguardo alle varie, specifiche tematiche che sono state oggetto delle ricerche e dei modelli sviluppati in ambito cognitivista. In questo volume metteremo dunque a confronto i modelli influenzati dalla prospettiva cognitivista, computazionale e simbolica, con le nuove prospettive, modelli e simulazioni di diversa impostazione. Ci porremo anche dal punto di vista delle diverse tematiche che classicamente costituiscono l’oggetto della psicologia (ad es. la rappresentazione delle conoscenze, l’intelligenza, il linguaggio, la personalità) per analizzare fino a che punto si sia spinta l’influenza cognitivista e in che modo si tenti di superarla su questi specifici terreni. Una parte importante sarà dedicata anche a sistemi non recenti, ma che hanno tentato di riprodurre i processi cognitivi attraverso programmi per computer che funzionavano in conformità con il presupposto computazionale, che abbiamo visto costituire l’essenza dell’approccio cognitivista, che considerava il pensiero come un processo di natura computazionale e algoritmica. L’analisi delle caratteristiche di tali programmi a nostro parere riveste tuttora un rilevante interesse, e la nostra scelta è stata dettata non solo dal fatto che alcuni hanno ancora i propri sostenitori, ma anche dalla loro oggettiva importanza storica o rilevanza teorica. Dobbiamo chiarire che lo scopo di questa trattazione non è di fare una rassegna enciclopedica ed esaustiva di tutto quanto di significativo è stato pro- Prefazione 11 dotto nell’ambito delle diverse tematiche qui considerate (un’impresa del genere sarebbe davvero titanica), ma più modestamente di valutare i nuovi orientamenti nel contesto di concreti modelli proposti. Dunque i modelli qui trattati per questo esame sono stati scelti a puro scopo esemplificativo. Nell’esporre i processi cognitivi si usa spesso seguire l’ordine che va dallo stimolo alla risposta (cioè dall’input all’output). In questo modo di procedere è evidente l’influenza del modello cognitivista dell’elaborazione dell’informazione, che è stato definito talvolta “a sandwich”, che assume la sequenza di stadi percezione-cognizione-azione: si tratta di uno degli aspetti di tale modello che hanno subìto maggiori critiche. Noi qui non ci sottrarremo a questo schema, ma naturalmente la sua adozione non significa un’automatica condivisione della metafora computazionale e dell’assunto dell’elaborazione “a sandwich”. Semplicemente, è necessario seguire un qualche ordine nell’esposizione e questo appare comodo. È altrettanto ovvio e quasi superfluo precisare che ogni suddivisione di comodo va presa con cautela, perché i fenomeni reali sono “fenomeni psichici” e non fenomeni attentivi, percettivi, di apprendimento, e via dicendo. In ciascun fenomeno reale possono essere evidenziati tutti questi aspetti e spesso anche gli stessi modelli che ne vengono tratti, quando raggiungono una certa complessità e realismo, potrebbero essere trattati in capitoli diversi e la scelta su quale aspetto sia da considerare prevalente per la trattazione è sovente arbitraria. 1. Dallo stimolo alla coscienza 1.1 La distinzione bottom-up e top-down La prospettiva adottata più comunemente nell’esaminare in che modo si svolgano i diversi processi psichici si rifa’ alla metafora spaziale dell’alto e del basso. In effetti, il fatto che tali processi appaiano organizzati in modo gerarchico è fuori di dubbio: fin dalla prospettiva resa popolare dal neurologo inglese John Hughlins Jackson (1835-1911), che concepiva il sistema nervoso come un insieme di unità che vanno dalle più semplici alle più complesse, dalle più automatiche alle più volontarie e così via. Questa idea è ovviamente incoraggiata dalla stessa anatomia del cervello. Le funzioni psichiche, in questa concezione, appaiono disposte in una sequenza in cui quelle superiori controllano quelle inferiori. Naturalmente non si tratta di un’idea tanto nuova, perché è implicita in concezioni millenarie, che hanno la loro espressione in distinzioni come quelle tra ragione, intelligenza o linguaggio (le funzioni psichiche superiori, proprie dell’uomo) e gli aspetti più legati al corpo, che ci accomunano di più agli altri animali. Andando avanti in questa distinzione si può arrivare alla classica dicotomia mente-corpo. Nell’accezione più comune, la distinzione alto-basso a proposito dei processi psichici non riguarda però aspetti esclusivamente mentali o esclusivamente corporei, ma è intesa nel senso di considerare a “basso livello” i processi che sono più vicini ai semplici processi sensoriali o motori, e di “alto livello” i processi che sono di tipo più complesso, che chiamano in causa conoscenze, aspettative, bisogni, valori, credenze, e così via. Adottando questa metafora spaziale, dunque, si afferma comunemente che sono possibili due prospettive, una che va dal basso verso l’alto (bottom-up) e una che va dall’alto verso il basso (top-down). A nostro avviso occorre però porre maggiore attenzione su che cosa si intenda realmente con tale distinzione. In molti casi essa viene usata come se fosse una distinzione “ontologica”, cioè come se esistessero diversi processi, alcuni che vanno in direzione bottom-up e altri che vanno nella direzione 14 Capitolo 1 opposta. Noi sosteniamo l’idea che ciascun processo psichico è un evento unico, frutto del funzionamento complessivo del nostro cervello, del sistema nervoso e del corpo. I diversi eventi possono essere descritti, adottando una certa prospettiva, come processi sensomotori o neuronali oppure, da un’altra prospettiva, come conoscenze, aspettative, ecc. La distinzione perciò non dovrebbe essere di natura ontologica ma “epistemologica” perché riguarda da quale parte vogliamo partire nel descrivere lo stesso evento psichico, ad esempio se vedere come ai dati sensoriali venga dato un significato a livello cosciente, oppure come una data aspettativa influenzi la stessa attività sensoriale. Un ulteriore, necessario, chiarimento dovrebbe riguardare se la distinzione bottom-up e top-down si riferisca a diversi modi di descrivere il fenomeno psichico oggetto di esame oppure se con essa si intenda riferirsi a diverse spiegazioni dello stesso. Nel secondo caso potrebbe spuntare di nuovo sotto diverse spoglie l’idea jacksoniana di processi superiori che controllano quelli inferiori, un’idea che contrasta con recenti visioni del cervello che vedono la sua attività più interattiva e “democratica” (Thompson e Swanson, 2010). 1.2 1.2.1 Attenzione e coscienza La coscienza Se lo studio moderno dell’attenzione è una conquista della psicologia cognitivista non è un caso. Infatti non si trattava certo di un campo di studio coltivato in ambito comportamentista, perché la psicologia dell’attenzione riguarda una varietà di fenomeni che hanno a che fare in un modo o nell’altro con l’accesso alla coscienza, e quest’ultimo concetto – come sappiamo – non era tra quelli su cui i comportamentisti ritenevano possibile un accordo intersoggettivo. Si è soliti distinguere diversi aspetti dell’attenzione: la capacità di selezionare volontariamente alcuni tra gli innumerevoli stimoli che fluiscono attorno a noi in ogni momento (attenzione selettiva), di rimanere concentrati su qualche stimolo (attenzione sostenuta) oppure essere recettivi a qualunque stimolo in arrivo (vigilanza) fino a poter essere catturati da certi stimoli senza che noi lo vogliamo (attenzione involontaria), di passare velocemente da un particolare stimolo a un altro come se si elaborassero contemporaneamente (attenzione divisa o distribuita). È stato mostrato che queste diverse funzioni sono implementate in aree cerebrali diverse (Fernandez-Duque e Posner, 2001). Dallo stimolo alla coscienza 15 Creare dei modelli degli stati attentivi può essere dunque facile e difficile allo stesso tempo, a seconda di che cosa si pensi del concetto di “coscienza”. Ci sono almeno due accezioni fondamentali di questo concetto, una riferita al fatto che certi contenuti mentali (parole, concetti, ecc.) siano disponibili per l’accesso da parte di altri processi, l’altra riferita al fatto di provare un’esperienza (ad es. un dolore o un’emozione) ed è la cosiddetta coscienza fenomenica (Block, 1995). A queste si possono aggiungere capacità di introspezione, di controllo, di riferibilità, e così via. Ma la vera differenza ai fini di ciò che può o non può essere simulabile è tra una capacità di ritrovamento e/o manipolazione di contenuti e una capacità che sembra supporre “qualcosa di più” e cioè di vivere delle esperienze (ciò che i filosofi chiamano qualia). Questioni del tipo se la coscienza artificiale sia davvero cosciente o si comporti come se lo fosse (posta ad es. da Holland, 2004) riposano su questa differenza. Bisogna dunque chiedersi quale possa essere il senso di una simulazione dell’attenzione e se questa possa essere diversa da una simulazione della coscienza intesa nella sua accezione più pregnante. Una discussione a più voci su questo tema si può trovare in un numero monografico della rivista Sistemi Intelligenti (2008, n.3). In essa sono intervenuti Castelfranchi, Chella, Cordeschi, Parisi, Paternoster, Romano, Trautteur e un ultimo Tagliasco. Per Castelfranchi l’aspetto più importante della coscienza è la metacognizione, cioè la capacità di un sistema di rappresentarsi i propri stessi stati; nell’essere umano si origina attraverso l’interazione sociale con la necessità di “leggere la mente” degli altri. Una capacità di questo genere potrebbe essere implementata in modo abbastanza banale, come ha mostrato Loehlin quando ha definito il suo programma ALDOUS “capace di introspezione” (vedi § 6.1). È interessante il senso che Castelfranchi vede in una ipotetica simulazione della coscienza, e cioè il vantaggio di poter separare proprio quei due aspetti che coesistono nel concetto e lo rendono ambiguo (l’esperienza e la rappresentazione dell’esperienza), un esperimento impossibile in natura. Una posizione che appare opposta è quella di Paternoster, che non ritiene scindibili la coscienza di accesso e la coscienza fenomenica. Nel suo breve ma istruttivo intervento, Domenico Parisi (2008) ha tracciato quelle che secondo lui sono le linee che dovrebbe seguire un artefatto (robot) che simuli la coscienza. La prima cosa da fare sarebbe di abbandonare il termine, visto che è “mal definito, sfuggente, ambiguo”. Invece di parlare della coscienza, bisognerebbe costruire sistemi in grado di esibire le stesse capacità e comportamenti che ci fanno dire di una persona che “è cosciente”. In particolare Parisi individua queste capacità nel saper distinguere il proprio corpo dall’ambiente, nel saper distinguere tra mondo pubblico e mondo pri- 16 Capitolo 1 vato, nell’usare un linguaggio per parlare a se stessi. Queste capacità di distinzione potrebbero essere dimostrate operazionalmente da un comportamento di “sorpresa” quando aspettative da esse derivanti fossero violate: ad esempio se la mano di un robot entrasse in contatto con un oggetto fisico senza che dal sistema propriocettivo arrivasse alcun segnale, oppure se un robot “vedesse” un oggetto e un altro robot no. L’idea alla base delle proposte di Parisi è la prospettiva sintetica, cioè ritenere che se sappiamo costruire un artefatto che esibisca certe proprietà psicologiche abbiamo ipso facto capito tali proprietà. Su questa idea rinviamo alle considerazioni che abbiamo fatto altrove (Greco, 2011, § 3.2 e 3.5). Un’altra posizione a proposito della coscienza è quella di Hesslow (2002), secondo il quale questa coinciderebbe con la capacità di simulazione interna del comportamento (proprio o altrui) e delle percezioni, ma senza la necessità di postulare rappresentazioni. La simulazione del comportamento sarebbe infatti l’attivazione delle stesse aree cerebrali deputate alla sua esecuzione, ma con la soppressione dell’effettiva esecuzione; la simulazione della percezione sarebbe una riattivazione delle stesse aree coinvolte nell’effettiva percezione, ma in assenza dello stimolo (una sorta di immaginazione). Un terzo aspetto riguarderebbe l’anticipazione di ciò che sarebbe percepito se un certo comportamento o percezione avvenissero per davvero e non fossero soltanto simulati. Una coscienza così concepita (che sarebbe comunque di tipo elaborativo e non fenomenico) coinciderebbe con un’elaborazione interna in assenza di correlati sensomotori, ma l’ipotesi sembra clamorosamente dimenticare che noi siamo coscienti anche di ciò che avviene durante la percezione o l’azione. 1.2.2 L’attenzione visiva Se si abbandona il campo infido di fenomeni che implicano stati non chiaramente definibili come le esperienze soggettive, una efficace simulazione dell’attenzione potrebbe essere semplicemente quella che fosse in grado di selezionare uno stimolo rispetto a un altro. Trattandosi di un processo che con tutta evidenza agisce “a basso livello”, non è facile né efficace costruirne modelli computazionali di tipo simbolico. Le simulazioni sono dunque state prevalentemente di tipo connessionista e spesso hanno cercato di esplicitare il più possibile analogie con ciò che avviene a livello neurale (cfr. Itti e Koch, 2001; per una rassegna, vedi il numero speciale di Dallo stimolo alla coscienza 17 Neural Networks, 2006, n.19)1. Uno dei primi e più influenti modelli, relativo all’attenzione visiva, è stato quello di Koch e Ullman (1985), che hanno introdotto il concetto di “mappe di salienza” (saliency maps), cioè rappresentazioni topografiche in due dimensioni di che cosa possa essere considerato saliente (evidente) in una scena. Una mappa di questo genere aiuta un sistema che deve orientare la propria attenzione perché è sufficiente che questo scandisca la mappa stessa per trovare le informazioni da osservare in ordine decrescente di rilevanza. Queste mappe sono preparate dai processi “preattentivi”, che consistono di diverse unità (o gruppi di unità) sensibili ciascuna ad una caratteristica, come intensità luminosa, colore, orientamento, angoli, ecc., per questo detti “rilevatori di caratteristiche” (feature detectors). Questi esplorano in parallelo l’intera scena e si crea una competizione tra i diversi rilevatori, finché qualcuno vince sugli altri, sulla base della forza o peso delle diverse caratteristiche2: ad esempio, alla fine un certo punto della scena potrà essere codificato come più saliente perché di un colore diverso rispetto agli altri, oppure perché si muove in senso diverso rispetto ad altri punti. Un meccanismo di questo genere incontra però una difficoltà: essendo basato essenzialmente sui dettagli delle caratteristiche a livello locale, richiede qualche meccanismo di livello un po’ più elevato che tenga conto di un contesto più ampio. C’è poi un altro problema: come evitare che l’attenzione rimanga sempre fissa sul punto che ha vinto la competizione in un certo momento? le zone meno salienti, in questo modo, non potrebbero essere osservate mai! In effetti ci sono prove psicologiche del fatto che quando il sistema è “occupato” nell’analisi di un certo stimolo alcuni stimoli immediatamente successivi possono essere perduti (è il fenomeno del cosiddetto attentional blink), ma questo stato non dura all’infinito e dunque è necessario che in qualche modo l’esplorazione venga rifatta continuamente a brevissimi intervalli. Questo problema però può essere risolto facendo in modo che i neuroni attivi per l’attuale fissazione a un certo punto vengano inibiti temporaneamente: que1 Com’è noto, l’informazione dalla retina giunge alla corteccia visiva e quindi segue due diverse vie. La prima, detta dorsale, va verso il lobo parietale e la corteccia motoria ed è deputata alla localizzazione degli stimoli (il “dove”); la seconda, detta ventrale, va verso il lobo temporale inferiore ed è deputata al riconoscimento degli stessi (il “cosa”). È evidente che, anche se la via più direttamente coinvolta nei processi selettivi dell’attenzione appare quella dorsale, quella ventrale potrebbe avere un ruolo nel controllo “dall’alto” del processo, e quindi è indispensabile tener conto dell’interazione tra entrambe le vie. 2 Questo modello considera il processo solo dal punto di vista bottom-up, quindi non è presente un feedback da parte di processi che controllano dall’alto (top-down) sulla base di aspettative. 18 Capitolo 1 sto è plausibile dal punto di vista psicologico perché ricalca il fenomeno conosciuto in psicologia dell’attenzione come inibizione di ritorno, cioè la tendenza a non ritornare subito su parti dello spazio già esplorate. Un altro classico compito della psicologia dell’attenzione spaziale è quello di ricerca visiva (visual search), che consiste nel trovare un particolare stimolo (target) in un campo percettivo in mezzo ad altri che possono avere caratteristiche simili o che confondono. Un modello di Pezzulo et al. (2005) simula questo compito con un modello che ha compiti come trovare la lettera dell’alfabeto T rossa in mezzo a tante T verdi e L rosse. Per selezionare il target, viene usato un meccanismo di anticipazione, in modo da orientare la fovea verso gli stimoli rilevanti. Sul ruolo dell’anticipazione rinviamo alla trattazione che ne abbiamo fatto in Greco, 2011, § 4.6.2. 1.2.3 Attenzione, risorse cognitive e embodiment Come si sa, l’attenzione viene considerata dalle moderne teorie psicologiche come una “risorsa” che scarseggia e lo stesso vale per la memoria di lavoro. In effetti ci sono molti punti in comune tra le teorie relative ai due processi, al punto che potrebbero essere considerati espressione di un unico meccanismo (per prove neuropsicologiche, v. Silver e Feldman, 2005). Le simulazioni dei meccanismi attentivi sono dunque generalmente impostate come modelli che tentano di riprodurre le “limitazioni” cognitive derivanti dalla scarsità di risorse. Per un approccio puramente cognitivista questo può significare, tradizionalmente, due cose: una limitazione della quantità di informazione che può essere elaborata nello stesso momento (perché eccessiva o perché la qualità dei dati in arrivo non è ottimale, come ad es. succede in condizioni di stimolazione disturbata), oppure una limitazione nelle prestazioni del “processore” (ad es. non è sufficientemente veloce). È opportuno considerare questi due aspetti contemporaneamente e il più ampio quadro che ne risulta è quello denominato della “gestione3 delle risorse”. In alcune architetture cognitive esistono moduli di gestione dell’attenzione che funzionano in maniera abbastanza congruente con le impostazioni computazionali (v. ad es. ACT e COGNET nel cap. 5 e cfr. KRL nel § 2.4.3). Nei modelli più recenti è presente la consapevolezza del carattere “crossmodale” dell’attenzione e della percezione, cioè del fatto che questi processi non riguardano soltanto una modalità sensoriale (quella prevalentemente studiata è stata la visione) ma bisogna render conto di come le afferenze pro3 Qualche volta si usa il brutto inglesismo “allocazione”. Dallo stimolo alla coscienza 19 venienti dai diversi canali sensoriali competano per l’attenzione e si integrino nella percezione (v. ad es. Spence e Driver, 2004). Questa integrazione riguarda evidentemente l’uso che si deve fare delle informazioni a cui si presta attenzione, e di qui si intuisce l’importante legame con ciò che si sta facendo. Per questo i modelli più recenti tentano anche di superare l’approccio cognitivista in cui la gestione delle risorse è intesa esclusivamente come finalizzata a consentire il passaggio di informazioni da un modulo di input a quello di elaborazione (secondo il modello “a sandwich” cui si è accennato sopra), ampliando l’orizzonte all’ottica dell’embodiment e creando sistemi in cui le risorse riguardano concrete azioni. Ciò che conta a questo punto non è solo quante risorse sono destinate a questo o quel processo, ma quale sia la natura del processo. Ad esempio Sprague et al. (2007) hanno creato un modello chiamato WALTER, il cui scopo è di “vedere” scene e “agire” di conseguenza: ad esempio dovrebbe essere in grado di muoversi in un ambiente virtuale. Il modello supera lo schema cognitivista perché non prevede tre moduli primitivi per percezione-cognizione-azione, ma un solo modulo e cioè il comportamento sensomotorio, fatto di unità dette “microcomportamenti” che sono complete routine sensomotorie per conseguire specifici risultati (ad es. evitare ostacoli o raccogliere la spazzatura). Il numero di microcomportamenti che possono essere attivi allo stesso tempo tiene conto dei limiti della memoria di lavoro. Il problema della gestione delle risorse si pone nel momento in cui il comportamento in corso richiede una coordinazione tra occhi, corpo, gambe e possono nascere dei conflitti tra l’impegno destinato a una parte o all’altra. Il modello è stato validato confrontando le sue prestazioni con quelle fornite in un compito analogo da una persona reale, di cui venivano controllati i movimenti e la fissazione dello sguardo. Skewes (2007) ha osservato che WALTER manca di due importanti capacità, che a parere dell’autore sono essenziali per una buona simulazione dei processi attentivi, quella di anticipazione e quella di correzione dei propri errori. Skewes nota che l’attenzione non serve solo a orientare il sistema nello spazio e circa gli attuali stati del sistema e le attuali azioni, ma anche nel tempo e circa gli stati futuri. Abbiamo visto come quello di anticipazione fosse un concetto-chiave delle teorie che fanno riferimento all’embodiment, ad esempio quella di Barsalou (cfr. Greco, 2011, § 4.6.2). Il modello di Sprague et al non è in grado di fare anticipazioni perché usa rappresentazioni predefinite inserite dai programmatori. Infatti WALTER funziona consultando la rappresentazione di tutti i possibili stati del mondo, di tutti i possibili comportamenti e di tutte le possibili combinazioni delle due cose. Per lo 20 Capitolo 1 stesso motivo il sistema non è in grado di correggere eventuali rappresentazioni sbagliate. Skewes propone un modello alternativo, che definisce “interattivistacostruttivista”, basato sulla teoria dei sistemi dinamici (v. Greco, 2011, § 5.3.2). Un sistema che abbia le capacità che mancavano a WALTER dovrebbe regolarsi da solo (essere autodiretto). Quando una stimolazione cambiando il suo stato di attivazione in un certo senso ne rompe l’equilibrio, il sistema deve regolare la propria azione e il proprio stesso funzionamento cognitivo. Questo è importante per una simulazione che funzioni in tempo reale. Ciascun processo nel sistema può presupporne altri e se questi non si svolgono nel modo previsto (anticipato) è in grado di rilevare l’errore: una persona che camminando scorge una buca riesce ad evitarla sulla base della semplice percezione senza bisogno di avere dirette informazioni dal sistema motorio. Le informazioni a cui prestare attenzione o le possibili azioni, viste come un sistema dinamico, sono stati in un ipotetico spazio di attivazione. Finché non si è scelto, il sistema è instabile; la scelta dell’informazione a cui prestare attenzione, dunque, dipende da uno spostamento di attivazioni (una “traiettoria”) che determina un nuovo stato, magari più equilibrato. Allocare le risorse, in questo contesto, significa dunque raggiungere un bilanciamento tra i vincoli (ciò che si può fare) e le richieste (ciò che si deve fare). 1.3 Il riconoscimento di configurazioni I problemi che si incontrano nello scrivere un programma in grado di “vedere” non sono molto diversi da quelli che si incontrano per far sì che un programma “capisca” il linguaggio naturale. Anche la percezione, infatti, come qualunque studente di psicologia ben sa, ha le sue leggi e alcune sono particolarmente precise. Gli elementi che costituiscono un’immagine (sia che vengano considerati al livello minimale come serie di macchie scure o chiare, sia che in essi vengano già distinte linee, superfici e simili) non possono essere unificati come si vuole perché si abbia un senso. Le prime applicazioni dell’informatica al campo della visione risalgono agli sforzi fatti per ottenere il cosiddetto pattern recognition (“riconoscimento di configurazioni”). L’obiettivo era la costruzione di un programma in grado di identificare in una struttura di punti di diversa inten-