1
Psicologia Cognitiva
tratto dai libri consigliati dal Prof Pessa e la Prof.ssa Penna
Il Comportamentismo
Il “Comportamentismo” nasce nel 1913 negli Stati Uniti grazie all’opera di J.B. Watson; termini che
sembrerebbero naturali in una scienza come la Psicologia, quali “mente”, “coscienza”, pensiero”, sono stati
banditi dal linguaggio psicologico da parte dei comportamentismi, i quali hanno sostenuto che occorre
utilizzare esclusivamente termini riferiti a fatti di osservazione. La Psicologia si riduce, in questo
modo,unicamente allo studio del comportamento osservabile e le sue ipotesi consistono nel descrivere le
possibili associazioni tra stimoli e risposte. Ne consegue che il ruolo mediatore dell’organismo e le
cosiddette variabili che ne descrivono lo stato “interno” non possono essere assolutamente presi in
considerazione, dato che riguardano entità non direttamente osservabili. Per quanto concerne il problema
della conoscenza la posizione comportamentista si può riassumere dicendo che, secondo questa corrente,
non si può in alcun modo parlarne, dal momento che la conoscenza non è un dato osservabile. In realtà tutto
quello che si può fare è parlare egli effetti prodotti dalla conoscenza. L’insufficienza del paradigma stimolorisposta viene ben presto evidenziata, sia sul piano della Psicologia, che su quello della Filosofia della
Scienza, già fin dagli anni Trenta. Nell’ambito della prima ricercatori come Tolman e Hull mettono in luce
che il comportamentismo, anche a livello animale, può essere descritto solo ricorrendo a concetti che
implicano qualche tipo di rappresentazione interna della conoscenza dell’organismo (le mappe cognitive
introdotte da Tolman). Tolman ammette la possibilità che il comportamento sia guidato da finalità e
predisposizioni, senza le quali non sarebbe possibili neanche la descrizione dei fenomeni più semplici, quali
nel caso dei ratti la ricerca del cibo o le reazioni di evitamento.
Esistono numerose teorie associazionistiche dell’apprendimento proposte dai Behavioristi, che si
differenziano tra loro per diversi aspetti: livello di analisi, natura delle associazione.
Per quanto riguarda il livello di analisi si distingue tra teorie:

Macroscopiche: prendono in considerazione situazioni-stimolo e situazioni di risposta in modo
globale;

Microscopiche: suppongono che ogni situazione osservata sia a sua volta composta da elementi
microscopici, di per se non facilmente osservabili, che costituiscono, però, i veri oggetti di cui si
deve occupare la teoria.
Per quanto riguarda la natura delle associazioni, bisogna distinguere:

Associazioni dirette: ogni stimolo è associato a una o più risposte;

Associazioni indirette: ogni stimolo è associato a uno o più costrutti intermedi, che a loro volta
sono associati alle risposte.
La teoria di Thorndike
Questa teoria è anche nota con il nome di connessionismo, si tratta di una teoria macroscopica, di tipo
diretto e basata sul rinforzo; Thorndike parla di una forza della connessione tra un dato stimolo e una data
risposta, intesa come probabilità che, al presentarsi di questo stimolo, segua quella risposta. Secondo lui
questa forza aumenta in presenza di un rinforzo provocato dall’effetto positivo della risposta emessa e
diminuisce nel caso di un rinforzo negativo (legge dell’effetto).
La teoria di Guthrie
2
È una teoria microscopica, di tipo diretto e basata sulla contiguità temporale; secondo Guthrie esistono solo
due possibili casi di associazione tra un microstimolo e una microrisposta: o l’associazione è presente o è
assente (legge del tutto o nulla).
La teoria di Tolman
Si tratta di una teoria macroscopica, di tipo indiretto basata sull’aspettativa; quest’ultima è intesa come
associazione tra segni presenti nell’ambiente e significati che essi assumono per l’organismo.
L’associazione segni-significati viene a dipendere dall’esperienza fatta dal soggetto; naturalmente
l’introduzione del concetto di aspettativa (mappa cognitiva, si riferisce alla struttura dell’associazioni segnisignificati relativi all’organizzazione spaziale di un particolare ambiente).
La teoria di Estes della campionatura dello stimolo (SST)
La SST costituisce una formulazione matematica della teoria i Guthrie, ottenuta utilizzando i metodi
del calcolo delle Probabilità, ma a differenza della teoria di Guthrie, la SST è in grado di prevedere
la forma generale della curva di apprendimento.
In particolare W. Estes ha cercato di costruire un modello che cercasse di spiegare come mai in
certe circostanze l’apprendimento avviene bruscamente, con modalità del tipo “tutto o nulla”,,
mentre in altre richiede un gran numero di ripetizioni o di esperienze precedenti.
Nell’ambito della Filosofia della Scienza ci si rende conto ben presto che la pretesa di utilizzare
termini del linguaggio teorico corrispondenti a fatti osservazione è una pura illusione. Infatti non è
possibile aver una corrispondenza biunivoca tra termini teorici e dati di osservazione.
Così il “Neo-comportamentismo” è costretto a introdurre dei costrutti ipotetici per spiegare
l’esistenza di variabili intervenenti che modulano l’associazione tra stimoli e risposte. Così facendo
il comportamentismo mette in evidenza i motivi stessi che ne hanno prodotto la crisi, sfociata negli
anni ’60 con il Cognitivismo.
In conclusione il comportamentismo non riesce a descrivere o a costruire modelli coerenti dei
principali processi in cui interviene la conoscenza. Va inoltre ricordato che uno schema di
associazioni stimolo-risposta non è in grado di spiegare sequenze comportamentali, sia pure di
minima complessità.
La Teoria dell’Informazione e Cibernetica
La Teoria dell’Informazione nasce nel 1949 fondata da Shannon e Weaver, in seguito alla nascita della
Cibernetica del 1944 ad opera di Norbert Wiener. La comparsa di queste nuove discipline è concomitante
allo sviluppo del calcolatore elettronico digitale, inventato e realizzato nel 1944 da J. Von Neumann.
Per quanto riguarda la Cibernetica, essa si presenta inizialmente come una teoria generale dei processi di
retroazione, o di feedback, ovvero di quei processi in cui lo stato di uscita del sistema viene riportato in
ingresso al sistema stesso per controllarne la performance. Un esempio è quello di un sistema guida
automatico di un missile, che agisce sui motori in base alla differenza tra la direzione effettiva di volo e
quella voluta. La Cibernetica, secondo Wiener, ha dunque una duplice valenza: lo studio dei suoi concetti
fondamentali, da un lato, permette di comprendere il comportamento degli esseri viventi e dall’altro può
essere alla base della progettazione di nuovi dispositivi artificiali “intelligenti”.
Per quanto riguarda la Teoria dell’Informazione essa prende in esame la situazione standard in cui si verifica
un processo di comunicazione, dove intervengono un emettitore di segnali, un canale di comunicazione e un
ricevitore.
3
Il processo di emissione è un processo fisico, in cui viene liberata dell’energia, così come sono processi fisici
la trasmissione del segnale lungo il canale, in cui si ha il passaggio dell’energia e la sua ricezione, in cui
l’energia viene assorbita. Eppure secondo la Teoria dell’Informazione questa descrizione fisica non è
sufficiente per descrivere ciò che effettivamente accade in un processo di comunicazione. È necessario
introdurre un qualcosa, che si può denominare L’”aspettativa” del ricevitore relativamente ai possibili segnali
che gli possono arrivare. Questa aspettativa viene rappresentata in modo formalizzato tramite uno schema
di probabilità, tipico di ogni ricevitore, che gli consente di assegnare ad ognuno dei possibili messaggi una
probabilità a priori che esso si presenti all’ingresso.
Ad es. nel caso in cui i messaggi siano di due tipi, come la cifra 0 o la cifra 1, entrambi con uguali
probabilità a priori, date dal 50%, l’informazione ricevuta quando si presenta effettivamente uno dei
due messaggi vale esattamente 1. Nel linguaggio della Teoria dell’informazione si dice che in
questo caso è stato ricevuto 1 bit di informazione.
Come si vede in questo modo si viene ad introdurre, oltre ad una quantità di natura non fisica, come
l’informazione anche un elemento soggettivo, quale il sistema di probabilità a priori del particolare ricevitore.
Senza questo elemento soggettivo non si potrebbe addirittura parlare di informazione.
Questa perdita di oggettività viene arginata ipotizzando che un gran numero di ricevitori possieda schemi di
probabilità a priori identici almeno per certe classi di messaggi, si tende così ad identificare queste
probabilità con la frequenza relativa con cui messaggi stessi compaiono. Due sono però i pericoli:
1. l’identificazione della frequenza con la probabilità è matematicamente corretta solo se si verificano
2.
infiniti casi (circostanza impossibile);
trascurare il significato,nella teoria di Shannon, il significato non viene preso in considerazione, in
quanto l’interesse è incentrato su come minimizzare gli effetti di distorsione del segnale provocati dal
rumore durante il processo di trasmissione;
Il fatto di eliminare il significato dalla descrizione dei processi di comunicazione toglie alla Teoria
dell’Informazione molto della capacità di descrivere processi effettivi in cui interviene la conoscenza,
riducendola ad uno schema teorico utile, tutt’al più, per trattare processi di trasmissione di dati lungo una
linea telefonica. Così Facendo, la teoria dell’informazione ha introdotto l’idea che sistemi naturali e sistemi
artificiali possono essere studiati in modo unitario, utilizzando lo stesso linguaggio e per questo motivo ha
dato un forte impulso allo sviluppo di programmi per il computer volti a simulare comportamenti umani o
animali.
Psicologia Cognitiva e intelligenza artificiale: il ceno-comportamentismo:
Il termine ceno-comportamentismo è stato coniato nel 1968 da Berlyne per indicare quella fase del
comportamentismo nella quale gli psicologi hanno rivolto la loro attenzione al ruolo dei processi interni
dell’individuo, nell’intento apparente di chiarire il ruolo del sistema nervoso centrale in rapporto al
comportamentismo.
La Teoria di Hebb (“Assembramenti cellulari”)
Hebb ha proposto una teoria detta degli “Assembramenti cellulari”, fondata su ipotesi di carattere
neofisiologico, rivolta a spiegare i processi i mediazione, cioè quei processi nei quali l’individuo non risponde
immediatamente allo stimolo, ma si comporta come se avesse a disposizione timoli e risposte “interni”,
derivanti da strutture esistenti nel suo sistema nervoso.Processi di questo genere si hanno nei fenomeni
attentivi e percettivi.
Secondo Hebb nel sistema nervoso esisterebbero gruppi di neuroni interconnessi, i cosiddetti
assembramenti cellulari” nei quali si verifica l’eccitazione simultanea di tutti i neuroni appartenenti ad un dato
4
gruppo in seguito all’eccitazione anche di uno solo dei suoi membri. Quando l’eccitazione di un neurone è
seguita dall’eccitazione di un secondo neurone ad esso interconnesso, Hebb postula che l’efficacia sinaptica
del collegamento trai due neuroni aumenti (Legge di Hebb).
Secondo la teoria di Hebb non vi è distinzione concettuale tra memorizzazione e percezione. Quando arriva
una stimolazione esterna essa attiva un particolare assembramento cellulare, che fornisce con il suo stato di
attivazione, la rappresentazione interna dello stimolo stesso ed è disponibile per ulteriori elaborazioni. Il fatto
che questi assembramenti possono eccitarsi reciprocamente anche in assenza di stimolazioni esterne
consente ad Hebb di spiegare i vari processi di utilizzo e trasformazione della conoscenza, nonché il
pensiero e le emozioni. In particolare la conoscenza viene identificata direttamente con la struttura delle
connessioni sinaptiche tra i neuroni. Mentre l’acquisizione della conoscenza deriva dalla interazione tra le
stimolazioni interne e la struttura interna delle connessioni. La cessione e l’utilizzo della conoscenza si
verificano quando la struttura delle connessioni determina i pattern effettivi di attivazione dei vari
assembramenti cellulari, in grado di dare origine a risposte sia esterne che interne.
L’intelligenza artificiale:
Questa disciplina ha origine dai tentativi di simulazione del comportamento umano tramite programmi per il
computer. L’intelligenza Artificiale è definita come la scienza che si occupa della progettazione di macchine
in grado di esibire comportamenti intelligenti.
1.
Il test di Turing :
il test di turino è stato elaborato da A.M. Turing per valutare le capacità di pensiero intelligente di un
dispositivo artificiale, come un calcolatore. Secondo Turing si può considerare una macchina intelligente
quando un essere umano, che osservi le risposte delle macchina stessa di fronte a domande che lui pone
senza conoscere la natura della fonte di queste risposte, non è più in grado di decidere correttamente se le
risposte medesime sono fornite da un uomo o da una macchina. Si tratta di una impostazione di carattere
comportamentista.
1.
Due diverse impostazioni: intelligenza artificiale “dura” e intelligenza artificiale “soft”
La prima sostiene che la capacità di pensiero intelligente sia definibile interamente in termini algoritmici,
ovvero di procedimenti di calcolo, e che quindi possa essere implementata, in linea di principio su una
macchina con procedure molto diverse da quelle usate dagli esseri umani.
La seconda sostiene che il pensiero intelligente è una capacità tipica degli esseri umani, in particolare ciò
che conta non è ottenere comportamenti intelligenti con qualunque mezzo, ma cercare di riprodurre per
quanto possibile, le caratteristiche effettive dei processi di pensiero umano compresi errori e mancato
raggiungimento degli obbiettivi nella speranza di migliorare le prestazioni dei calcolatori esistenti.
Il prodotto più interessante dell’intelligenza artificiale è costituito dai c.d. “Sistemi Aperti” in grado di emettere
conclusioni, valutazioni e diagnosi a partire da una base di conoscenza immessa precedentemente. Essi si
comportano come un esperto umano nel particola dominio cui si riferisce la conoscenza che essi hanno
inserito.
1.
L’unità T.O.T.E.
Si tentò da parte di Miller, Galanter e Pribram di fondare direttamente la Psicologia con i concetti della
Cibernetica: la c.d. unità T.O.T.E. (test-operate-test-exit) anziché una associazione stimolo-risposta, è una
rappresentazione generale di un anello feedback nel quale, il risultato di un’azione effettuata da un soggetto
viene confrontato, con gli obbiettivi che esso intende raggiungere e l’eventuale discrepanza tra i sue
registrata nel confronto viene utilizzata come segnale di ingresso per determinare la nuova azione da
eseguire per ridurre la discrepanza stessa.
Il “Cognitivismo”
Negli anni ’60 tutte queste teoria hanno delineato la nascita di una nuova corrente della Psicologia, che si
contrappone al comportamentismo: il Cognitivismo:
5
Le principali caratteristiche sono:
a)
La psicologia deve focalizzare la sua attenzione sulle peculiarità dei processi di mediazione che
l’organismo introduce tra stimolo e risposta;
b)
La conoscenza, ovvero l’informazione, può essere misurata in bit ed i processi di acquisizione,
richiamo e utilizzo della conoscenza sono da considerarsi strutturalmente equivalenti ai metodi del
computer.
c)
La conoscenza è rappresentata solo esclusivamente sotto forma di sequenze di simboli ed i
processi di elaborazione cognitiva altro non sono se non programmi di calcolo, basati su opportuni
algoritmi, che consentono di elaborare simboli, proprio come avviene nei programmi per computer.
Psicologia cognitiva e Intelligenza artificiale debole tendono a coincidere in un’unica disciplina, fatto che ha
notevoli risvolti sia sul piano concettuale che su quello applicativo.
Ma una vera elaborazione dell’informazione presuppone un ricevitore in grado di cogliere il significato dei
messaggi che riceve e questo è proprio quello che un computer,da solo, non è in grado di fare. L’analogia
uomo-computer appare dunque rischiosa e fuorviante.
L’approccio Connessionista
Fin dagli anni ’70, si è messo in luce che esistono altre forme di rappresentazione della conoscenza,
differenti da quella simbolica. Vi è da considerare che l’utilizzo di processi di elaborazione simbolica può
anche presentare svantaggi. Infatti essi, generalmente richiedono una assoluta precisione nei dati da
elaborare e nelle operazioni da eseguire. Modelli di elaborazione della conoscenza basati su processi di
calcolo agenti su strutture simboliche darebbero inevitabilmente luogo alla previsione di errori catastrofici o
di tempi di elaborazione eccessivamente lunghi rispetto a quelli realmente osservati.
Il Connessionismo non si discosta di molto dal Cognitivismo tradizionale, da cui differisce unicamente per la
forma di rappresentazione adottata per descrivere gli stati mentali: pattern di attività di reti neurali anziché
sequenze simboliche.
Da qui la necessità di una nuova impostazione nell’ambito della Psicologia dei processi Cognitivi, il
“connessionismo”:
L’impostazione connessionista descrive l’azione mediatrice dell’organismo come equivalente a quella
esercitata da una opportuna rete i unità in grado di attivarsi, tra loro interconnesse tramite collegamenti che
consentono lo scambio reciproco di segnali. Queste reti sono chiamate
“Reti Neurali” (la cui nascita ufficiale risale al 1943 ad opera di W.J.McCulloch e W.Pitts)
Si tratta i un punto di vista che privilegia un’impostazione procedurale della conoscenza e dei processi in cui
essa è implementata.
Il grosso vantaggio delle reti neurali è quello di costituire dei sistemi la cui evoluzione è in certa misura
indipendente dagli errori o dalle incompletezze dei pattern di ingresso. In secondo luogo, esse eliminano il
problema della localizzazione dell’informazione dato che essa è contenuta nella struttura stessa delle
interconnessioni tra le unità di una rete.
Il connessionismo identifica la conoscenza con la strutture delle interconnessioni di una rete e la misura
tramite i valori numerici attribuiti alla forza di ciascuna di esse. L’acquisizione della conoscenza va
identificata con i processi di modifica di queste forze, chiamati anche processi di apprendimento. L’utilizzo
della conoscenza coincide con i processi che danno origine a pattern di uscita in seguito alla presentazione
di pattern di ingresso, e questo coincide con l’esecuzione effettiva di procedure.
6
Le reti neurali si sono dimostrate di notevole utilità nel fornire modelli di processi di riconoscimento e
categorizzazione di stimoli, nonché di fornire modelli di memorie associative, cioè memorie il cui contenuto
può essere richiamato in base alla somiglianza con un opportuno pattern si richiamo.
Il Perceptrone (Reti Neurali)
Il perceptrone è stato progettato Rosenblatt nel 1958. Esso è costituito da due strati di unità, uno di
ingresso e l’altro di uscita, collegati da opportune connessioni che vanno solo nella direzione dall’ingresso
verso l’uscita. Nella fase di addestramento vengono presentati alla rete opportuni pattern che attivano
dapprima le unità di ingresso e questa attività attivazione si propaga poi, attraverso le connessioni, alle unità
di uscita, in modo che ogni pattern provoca una particolare risposta da parte della rete. Quest’ultima viene
confrontata con la risposta corretta che la rete avrebbe dovuto fornire in seguito alla presentazione di quel
pattern e la differenza tra le due innesca un processo di modifica dei pesi delle connessioni. Viene poi
presentato in ingresso un nuovo pattern e la procedura si ripete, L’apprendimento ha termine quando, su
ognuno dei pattern di addestramento, la differenza tra uscita effettiva e uscita desiderata scende al di sotto
di un valore prefissato dallo sperimentatore.
Questa rete non è in grado di apprendere tutti i tipi di classificazione.
Il Perceptrone Multistrato
Molto più potenti sono le reti multistrato, in cui viene inserito, tra ingresso e uscita, almeno uno strato di unità
intermedie, le cosiddette unità nascoste.
Nel 1985 Rumelhart, Hinton e William, hanno trovato un algoritmo di modifica dei pesi per queste reti che
consente di risolvere ogni problema di classificazione. Esso è noto come algoritmo “Error Back-Propagation”
e oggi ne esistono numerose varianti, costruite allo scopo di rendere più efficiente e rapido il processo di
apprendimento.
L’ingresso della conoscenza: la percezione
Con questo termine si indica una serie di processi che intervengono sui pattern di stimolazione e
producono come risultato qualche forma di cambiamento della stato “interno” del sistema
percepente. La percezione non è una copia della realtà ma una sua ricostruzione; la percezione è un
atto di ricostruzione operato dal soggetto.
Ci sono diverse teorie a proposito, che si possono suddividere a seconda di due diverse
caratteristiche:
1)
2)
Il ruolo che esse attribuiscono alle caratteristiche dello stimolo fornito da un ambiente
esterno;
La scomponibilità dei processi percettivi in stadi separati;
Riguardo alla prima caratteristica dello stimolo, distingueremo tra:
Teorie basate sullo stimolo (che ipotizzano che il risultato del processo percettivo dipenda
unicamente dalle caratteristiche dello stimolo esterno;
Teorie basate sui fattori interni o costruttiviste, introdotte da Rock, che assegnano ai fattori
interni il ruolo fondamentale nel determinare il risultato della costruzione percettiva;
Riguardo la seconda caratteristica a stadi, distingueremo tra:
Teorie a stadi, nelle quali l’elaborazione percettiva è suddivisa in più stadi, ognuno successivo
all’altro;
7
Teorie olistiche, in cui la percezione, per così dire, avviene in un unico atto.
Teorie a Stadi
Teorie basate sullo stimolo
Teoria di Marr e Poggio
Teorie basate sui fattori esterni
Teoria di Rock
Pandemonium
Teoria dell’informazione strutturale
Teoria di Gibson
Modelli connessionistici
Teoria della Gestalt
Teorie olistiche
Teoria del confronto di Sagoma
I registri sensoriali
Il ruolo di e registri sensoriali è stato evidenziato per prima volto da G. Sperling (con l’esperimento della
matrice) nel 1960. In questo contesto il registro sensoriale viene chiamato memoria iconica, nel caso di
percezione visive, e memoria ecoica quando ci si occupa di percezione acustica.
Le caratteristiche dei registri sensoriali sono:
a)
Breve ritenzione dell’informazione;
b)
Natura preattentiva e automatica;
c)
Specificità nei confronti del tipo di analizzatore sensoriale.
Nel 1980 Coltheart ha ipotizzato che la memoria iconica sia formata da due componenti principali:
La persistenza visiva: riguarda ciò che effettivamente continua ad essere visto anche dopo che lo stimolo
è scomparso;
La persistenza informazionale: richiede un più alto livello di elaborazione e, pur non riguardando qualcosa
che effettivamente viene visto, conserva l’informazione relativa alla posizione spaziale ed alla struttura
degli elementi del pattern di stimolazione.
Successivamente altri ricercatori, in particolare Irwin e Yeomans nel 1986, hanno introdotto una ulteriore
suddivisione della persistenza informazionale in due componenti:
Una rappresentazione analogica visiva: contiene le informazioni di tipo spaziale relative agli elementi dello
stimolo;
Un codice di identità non visivo: codifica la categoria cui appartengono gli elementi stessi.
Infatti la persistenza visiva diminuisce all’aumentare della durata dello stimolo che della sua
intensità; al contrario, la durata della rappresentazione analogica visiva non sembra influenzata
dalla durata e dall’intensità dello stimolo.
La visione tridimensionale
8
Il problema di come avviene la visione tridimensionale è fondamentale per la comprensione della
vera natura dei processi percettivi. Da un punto di vista strettamente fisico la percezione della
tridimensionalità non può derivare altro che da una costruzione effettuata dal soggetto, dal momento
che le immagini formate sulla retina, in seguito alle stimolazioni luminose ricevute, sono tutte
bidimensionali.
Teoria di Marr e Poggio (teoria basta su principi di carattere locale)
Una delle teorie più interessanti a proposito è quella formulata da Marr e Poggio verso la fine degli
anni ’70, che ammette l’esistenza di due rappresentazioni primitive del contenuto dell’immagine
retinica, una per ciascun occhio, derivanti da un’analisi preliminare nella quale vengono individuati
i contorni dei pattern e i posti in cui hanno termine linee e spigoli.
Su queste due rappresentazioni, che Marr e Poggio chiamano primal sketchs agisce un opportuno
modulo, che si occupa delle possibili reciproche corrispondenze, in modo da ottenere, informazioni
adatte a fornire indici di profondità
Questo modulo chiamato da Marr e Poggio sketchs 2½-dimensionale opera in modo da soddisfare a
due vincoli ben precisi, consistenti nel richiedere che ogni elemento di ciascuno dei due primal
sketchs corrisponda ad un singolo elemento del pattern tridimensionale che si intende costruire e
che i contorni non possano presentare forte discontinuità nel senso della profondità.
La Psicologia della Gestalt
Per quanto riguarda le teorie basate su principi di carattere globale, la Psicologia della Gestalt ha
suggerito un certo numero di principi di carattere generale potenzialmente in grado di spiegare la
fenomenologia relativa alla percezione tridimensionale. Essi come fa notare Koffka si riducono tutti
a postulare che noi percepiamo un particolare tipo di rappresentazione dei pattern di stimolazione in
quanto essa è la più semplice tra le interpretazioni possibili.
Tale affermazione nota come Principio di semplicità o principio del minimo acquista un reale
potere esplicativo e predittivo solo se si precisa adeguatamente che cosa si intende per “semplicità”
di una interpretazione. Nel 1953 Hochberg e McAlister hanno tentato di definire la semplicità in
termine di numero di segmenti e di angoli differenti richiesti da una particolare interpretazione.
Così supponendo di avere un pattern come questo raffigurato, la sua interpretazione in termini
tridimensionali verrebbe preferita a quella bidimensionale in quanto più semplice in termini di
numero totale di segmenti e di angoli differenti tra loro.
Le teorie basate su principi di minimo globale, hanno incontrato gravi difficoltà nello spiegare gli
effetti che si verificano nella percezione delle cosiddette “Figure Impossibili”, ovvero quelle figure
la cui interpretazione tridimensionale è in contrasto con le leggi di fisica e della geometria.
9
Per questo motivo ricercatori come Simon, nel 1967 e Attneave nel 1982 hanno proposto di
utilizzare il principio di minimo locale che consentono di interpretare ogni particolare regione del
pattern di stimolazione nel modo più semplice in relazione alle interpretazioni date dalle regioni che
con essa confinano.
Riconoscimento di configurazioni e di oggetti
Le teorie relative al riconoscimento hanno una grande importanza non solo nella Psicologia, ma
anche nell’ambito dell’Intelligenza Artificiale, dove costituiscono la base per la progettazione di
dispositivi di riconoscimento automatico, utilizzabili in un gran numero di situazioni.
Si possono classificare in due tipi di teorie:
a)
Teorie a Stadi: nelle quali il processo di riconoscimento è visto come una sequenza di fasi
successive di analisi e sintesi del materiale di stimolazione;
b)
Teorie di campo: che vedono il processo di riconoscimento come costituito da una singola
fase, nella quale l’oggetto e l’ambiente in cui appare immerso vengono considerati come
un’unica entità globale (Teoria della Gestalt);
Il Pandemonium (Selfridge e Neisser)
Esso può essere rappresentato tramite una rete multistrato come una struttura gerarchica e
connessioni tra vari strati unicamente di tipo feedforward cioè dirette dall’ingresso verso l’uscita.
Ogni strato contiene un certo numero di unità, convenzionalmente chiamati demoni, ciascuna delle
quali è deputata alla rilevazione di particolari caratteristiche degli ingressi che essa riceve.
Stimolo esterno  demoni dello stimolo  demoni dei tratti  demoni cognitivi  demoni della decisione USCITA ovvero
DECISIONE
>
Demoni dello stimolo: sono semplicemente rilevatori di stimolazione che si limitano a
trattenere per breve tempo un registrazione del segnale eventualmente ricevuto dall’esterno;
>
Demoni dei tratti: sono specializzati ognuno nella rilevazione della presenza di una
particolare caratteristica nel pattern di stimolazione trasmesso dai demoni dello stimolo. La
rilevazione da parte di un demone di una caratteristica provoca l’attivazione del demone stesso,
che nel linguaggio di Naisser “grida” la rilevazione della caratteristica;
>
Demoni cognitivi: sono progettati in modo che ognuno di essi è deputato a rilevare la presenza
di una particolare configurazione di caratteristiche è quando è presente la “grida”;
>
Demone decisionale: ascolta le grida dei demoni cognitivi e in base alla loro intensità decide
come catalogare il pattern di stimolazione presente in ingresso;
L’esempio che Neisser e Selfridge preferiscono per illustrare il funzionamento del Pandemonium è
quello del riconoscimento delle lettere dell’alfabeto.
10
Sul piano neurofisiologico, le ricerche di Hubel e Wiesel (1952, 1968), hanno mostrato che esiste
un gran numero di cellule celebrale (neuroni) ognuna delle quali risponde a caratteristiche differenti
dello stimolo. Esistono in particolare:
>
Cellule semplici: in grado di rilevare contorni su scala locale, altre configurazioni di cellule
semplici sono in grado di rilevare fessure o linee;
>
Cellule complesse: in grado di riconoscere linee di un dato orientamento ed una data
larghezza indipendentemente dalla posizione che esse occupano nel campo visivo;
>
Cellule ipercomplesse: che rispondono solo a configurazioni di tipo particolare, caratterizzate
dalla presenza contemporanea di più caratteristiche;
Tale organizzazione sembra far supporre che esistano nella corteccia cerebrale altre cellule
paragonabili direttamente ai demoni cognitivi. Disgraziatamente, questa ipotesi si è rivelata
infondata: gli studi sperimentali hanno mostrato che non ci sono cellule disposte gerarchicamente a
livello superiore rispetto a quelle ipercomplesse.
La teoria del confronto di sagoma
Tra le teorie a stadi la più semplice formulata in proposito è quella del confronto di sagoma
(template matching). Esso si ispira alle idee dei Gestaltisti e presuppone che nel cervello esistano
delle sagome precostituite (corrispondenti, per esempio, all’attivazione di particolari gruppi di
neuroni), con le quale viene confrontato il pattern di ingresso. Se questo confronto da esito positivo,
allora il pattern di ingresso viene riconosciuto come identico alla sagoma e, di conseguenza,
collocato in una certa classe.
La teoria del confronto di sagoma venne presto abbandonato, in quanto non realistica: il numero di
sagome corrispondenti alle differenti prestazioni, orientazioni, vedute anche di un singolo oggetto è
talmente grande che nessuna memoria potrebbe contenere tutte le sagome necessarie per
riconoscere le immagini che si incontrano continuamente nella vita quotidiana. Inoltre, i tempi di
riconoscimento con questo metodo, sarebbero talmente lunghi che nessun essere vivente sarebbe in
grado di utilizzarlo per interagire efficacemente con l’ambiente circostante.
La teoria del riconoscimento basato sulle componenti: (Biederman)
Secondo Biederman il riconoscimento degli oggetti e delle scene visive è basato su schemi
percettivi costituiti da combinazioni di un numero relativamente piccolo di costituenti elementari,
chiamati geoni (Biederman ne identifica 36). Ogni geone è costituito da una forma tridimensionale,
che generalizza i coni ed è caratterizzata dal fatto che i suoi spigoli siano diritti oppure curvi, dal
fatto che si espanda o resti costante, dal fatto che sia simmetrica oppure no, dal fatto che possiede
un asse curvo oppure diritto e così via.
I geoni costituiscono una specie di “vocabolario” fondamentale per scomporre e ricostruire qualsiasi
pattern visivo.
Secondo Biederman, quindi, il processo di riconoscimento degli oggetti è basato su una sequenza di
stadi di elaborazione, che può essere sintetizzata così:
11
1.
estrazione dei contorni degli oggetti osservati;
2.
identificazione delle principali caratteristiche strutturali di questi contorni;
3.
attivazione degli schemi basati sui geoni e individuazione delle loro relazioni reciproche;
4.
attivazione dei modelli degli oggetti osservati;
5.
identificazione degli oggetti medesimi.
La teoria di Biederman postula essenzialmente processi di elaborazione del tipo bottom-up.
La teoria di Gibson della percezione
Al contrario delle precedenti teoria a stadi, Gibson è un sostenitore della teoria diretta della
percezione. Nella Teoria della Percezione di Gibson, l’osservatore e l’ambiente esterno vengono
visti come costituenti un unico sistema e la percezione non è un affare privato del soggetto ma un
aspetto di un processo di interazione che coinvolge sia l’organismo che il mondo circostante.
Il punto chiave dell’impostazione di Gibson sta nel negare che la percezione sia un processo
mentale e nel vederla come un prodotto dell’interazione organismo-ambiente, anzi una attività che
deriva dalla cooperazione di entrambe queste entità, ma che non è riconducibile né ad un processo
puramente fisico né a un processo puramente mentale; è, come dice Gibson, un’attività
“psicosomatica” di un essere vivente immerso nell’ambiente.
A questo proposito Gibson distingue tra la percezione della persistenza, che consiste nel fatto di
percepire che un dato oggetto continua ad esistere, ad essere presente nell’ambiente esterno, e la
persistenza del percetto, che è dato dalla circostanza per cui si continua a percepire un oggetto
anche dopo che è cessato l’arrivo di energia luminosa proveniente da esso.
Il legame tra percezione e movimento, tra percezione e azione è enfatizzato da Gibson tramite il
concetto di “affordance”. Questo termine indica ciò che gli oggetti presenti offrono ai fini di
un’azione, ovvero l’utilità funzionale di un oggetto per un essere vivente dotato di certe capacità di
agire.
L’affordance di un oggetto è il significato stesso dell’oggetto per un particolare osservatore
appartenente ad una particolare specie vivente.
Gran parte delle ricerche di Gibson è stata dedicata all’applicazione di questi concetti al problema
della percezione dell’aspetto tridimensionale di oggetti e scene. A questo scopo, Gibson fu il primo
ad introdurre il concetto di “tessitura” di una superficie e ha identificato nel gradiente di tessitura,
cioè nella variazione spaziale degli elementi che compongono una tessitura e delle loro distanze
reciproche, il fattore principale responsabile della nostra percezione della tridimensionalità.
Secondo Gibson, tutta l’informazione di cui abbiamo bisogno per percepire l’aspetto
tridimensionale del mondo è già contenuto nell’immagine retinica. Il sistema percettivo, dunque,
analizza una scena visiva unicamente in termini di superficie e di oggetti, anziché in termini di unità
elementari, come pixel, contorni, geoni….etc.
12
A proposito della percezione delle tessiture è da ricordare la teoria dei textons di Julesz secondo la
quale la discriminazione tra tessiture differenti è basata su misure effettuate sull’insieme dei
textons. In particolare egli ha proposto il modello di elaborazione basato sulla densità, secondo il
quale i meccanismi preattentivi conterebbero il numero dei textons di un certo tipo in opportune
aree campione delle varie tessiture e ricaverebbero così il valore della densità di textons. Ma
secondo una critica di Taylor e Badcock che hanno osservato molte situazioni sperimentali i
soggetti non appaiono tanto misurare le differenze di densità dei textons, ma rilevano
semplicemente la presenza o l’assenza di textons di un certo tipo.
La Psicologia della Gestalt
Il lavoro degli psicologi della Gestalt ha condotto a importanti risultati nell’ambito
dell’individuazione delle leggi che presiedono alla percezione delle forme dei pattern visivi e che
costituiscono vincoli imprescindibili per qualunque teoria del campo percettivo.
Tra le più importanti, proposte da Wertheimer si riportano:
1)
La legge della vicinanza: maggiore è la vicinanza tra i singoli elementi che compaiono in
un campo percettivo, tanto più vengono percepiti come configurazione globale  forma;
2)
Legge della Somiglianza: maggiore è la somiglianza tra gli elementi, tanto più vengono
percepiti come un’unica forma;
3)
Legge della continuità della direzione: due elementi di cui il secondo costituisce la
normale continuazione del primo lungo una data direzione vengono percepiti come un’unica
forma;
4)
Legge della chiusura: contorni non completamente chiusi tendo ad essere visti come
chiusi;
5)
6)
Legge della Pregnanza: questa legge coincide con il “principio del minimo”;
Legge dell’Esperienza Passata: elementi che nella nostra esperienza passata sono stati
abitualmente associati tra loro tendono ad essere percepiti come un’unica forma;
Secondo i Gestaltisti questi principi agiscono spesso in competizione reciproca e la percezione
risultante deriva dagli effetti di questa competizione.
Dopo la nascita della Cibernetica e della Teoria dell’informazione, si è assistito ad una serie di
tentativi per caratterizzare i concetti Gestaltisti in modo più conforme alle procedure delle
cosiddette Scienze Esatte.
È così che nasce La teoria dell’informazione strutturale di Leeuwenberg, essa è stata applicata ai
problemi della distinzione figura-sfondo, dello studio dei margini quasi-percettivi e della percezione
di pattern complessi. Inoltre in questa teoria l’informazione strutturale viene definita essenzialmente
tramite il numero di segmenti e di angoli presenti nell’oggetto percepito.
Un aspetto importante è che gli elementi costitutivi di un pattern vengono rappresentati tramite un
opportuno codice simbolico, che descrive il percorso idealmente compiuto da un osservatore per
ricostruire i contorni del pattern in questione.
13
La teoria dell’informazione strutturata da Leeuwenberg, può essere considerata la versione moderna
della psicologia della Gestalt. Essa, per altro, incontra grossi problemi nella spiegazione di
fenomeni che avvengono nella percezione delle “figure ambigue” e delle cosiddette “figure
impossibili” di M.Escher, che presentano proprietà contraddittorie tra loro sul piano
dell’interpretazione fisica.
Lo studio dei Processi Attentivi
In questo ambito, i modelli proposti sono sempre stati strettamente legati a particolari paradigmi
sperimentali, che si distinguono in:
a.
Paradigma dell’attenzione selettiva, si riferisce a situazioni in cui si misura la capacità del
soggetto di elaborare alcuni tipi di informazioni, mentre simultaneamente ne deve ignorare
altre;
b.
Paradigma dell’attenzione divisa, si riferisce genericamente a situazioni in cui il soggetto
deve elaborare contemporaneamente diversi tipi di informazioni, come nei così detti dualtask ,in cui egli deve eseguire due diversi compiti simultaneamente.
Gli esperimenti possono essere a loro volta suddivisi in varie categorie:
>
Esperimenti di selezione: richiedono al soggetto di individuare un opportuno stimolobersaglio (target) all’interno di un certo pattern di stimolazione.
>
Esperimenti di filtraggio: si basano sulla presentazione continua di un insieme di stimoli, tra i
quali, a ogni istante il soggetto deve selezionare quello rilevante, in base ad opportuni criteri
stabiliti dallo sperimentatore. L’esempio più celebre è l’ascolto dicotico , in cui alle due
orecchie del soggetto arrivano contemporaneamente due messaggi diversi e il suo compito è
quello di prestare attenzione solo a uno dei due messaggi, ignorando l’altro. (ciò può essere
attuato attraverso la tecnica dello shadowing che consiste nel chiedere al soggetto di ripetere a
voce alta il messaggio cui deve prestare attenzione man mano che esso arriva).
La storia degli esperimenti condotti sull’attenzione è dominata da varie metafore, che sono:
>
Filtro;
>
Fascio di luce;
>
Serbatoio.
L’attenzione come filtro:
L’attenzione non è altro che un filtro che serve a selezionare i segnali provenienti dall’ambiente
esterno, in modo da evitare, da un lato, un sovraccarico di elaborazione da parte del sistema
cognitivo, e dall’altro, far pervenire alla memoria soltanto le informazioni più rilevati.
La teoria del filtro proposta da D.E. Broadbent utilizzando metodi di ascolto dicotico, postula che
entrambi i messaggi pervengano ai registri sensoriali e che quindi vengono ritrasmessi in direzione
della memoria a breve termine. Questa trasmissione, però, è ostacolata dal fatto che esiste un unico
canale di comunicazione con questo tipo di memoria b.t. , canale che, ha una limitata capacità di
14
trasmissione. Lungo questo canale, quindi si trova un filtro che lascia passare solo le informazioni
che hanno certe caratteristiche.
Prove sperimentali contro questa teoria sono state apportate dagli esperimenti condotti da Moray in
cui si mostra come i soggetti siano in grado di accorgersi se, nel messaggio cui NON devono
prestare attenzione, compare il loro stesso nome di battesimo.
Quindi una nuova teoria fu proposta dalla Treisman nel 1960, chiamata teoria del filtro attenuato
che postula l’esistenza di più canali di trasmissione dell’informazione dai registri sensoriali alla
memoria a breve termine. Inoltre ogni canale (ad es. percettivo, lessicale, semantico etc…) è
associato a una opportuna enfasi che , momentaneamente il soggetto attribuisce ad esso. Questa
enfasi è la causa di una certa attivazione trasportata dal segnale che percorre quel canale. Al termine
dei vari canali vi è una soglia comune. La superano,giungendo alla memoria a breve termine,
soltanto i segnali provenienti dai canali con una attivazione sufficientemente elevata. Quindi i
segnali non sono affatto filtrati, come nella teoria del filtro, ma riescono tutti ad entrare nel sistema.
L’effetto delle varie enfasi è solo quello di attenuarne alcuni a favore di altri.
Il problema di questa teoria è che non esiste un meccanismo preciso che spieghi come e perché
l’enfasi attribuita ai singoli canali possa variare nel tempo.
Secondo invece un’altra visione proposta da Deutsch e Deutsch e quella di Norman nel 1968, il
filtro non avrebbe affatto il compito di selezionare l’informazione che deve essere trasmessa al
sistema cognitivo, ma servirebbe solo a selezionare, dopo che le informazioni sono tutte giunte alla
memoria a breve termine, quali di queste informazioni debbono andare alla memoria a lungo
termine.
L’impossibilità di scegliere una teoria univoca sul filtro ha fatto si che questa metafora fosse
abbandonata dagli psicologi (1960-1970)
L’attenzione come serbatoio
La metafora del serbatoio va fatta risalire a Kahneman e consiste sostanzialmente nel vedere
l’attenzione come una sorta di serbatoio contenente un opportuno numero di risorse, le cosiddette
risorse attentivi. Siccome le dimensioni del serbatoio, e quindi le risorse attentivi sono limitate,
questa circostanza può creare dei problemi quando il soggetto deve eseguire più compiti
contemporaneamente. A questo proposito si può notare che esistono alcuni tipi di compiti, quelli
svolti automaticamente che richiedono molto meno risorse attentive di quelli svolti sotto un diretto
controllo cosciente da parte del soggetto.
L’Effetto Stroop, è un esempio dell’esistenza di questa distinzione tra compiti automatici e compiti
controllati; Esso consiste nel presentare al soggetto delle parole, ciascuna delle quali rappresenta il
nome di un particolare colore. Il compito del soggetto è quello di riferire il nome del colore
dell’inchiostro usato usato per scrivere la ciascuna parola;
L’effetto consiste nel fatto che i soggetti fanno molta più fatica a riferire il nome del colore quando
quest’ultimo è differente dal nome del colore rappresentato dalla parola.
La Teoria delle risorse multiple proposta da Wickens fin dal 1984, sostiene che i compiti da
eseguire richiedano l’impiego di risorse mentali, che si distinguono tra loro a seconda delle
caratteristiche:
15
>
Tipo di canale sensoriale richiesto (visivo o uditivo);
>
Tipo di elaborazione richiesta (tipo di risposta motoria o verbale);
>
Livello di elaborazione (centrale o periferico).
L’assunto fondamentale di questa teoria è che l’interferenza tra due compiti è minima quando essi
richiedono risorse mentali completamente differenti tra loro.
L’anali si della teoria/metafora del serbatoio è stata abbandonata per il suo carattere troppo
generico.
L’attenzione come fascio di luce
L’origine della metafora del fascio di luce si possono fare risalire allo studio di Yarbus nel 1967 sui
movimenti oculari effettuati durante la percezione di una scena visiva complessa.
In questo studio si evidenziava come tali movimenti consistessero in sequenze complicate di
fissazioni, in cui l’occhio era pressoché fermo, e di saccadi, in cui l’occhio si muoveva velocemente
passando da una zona di fissazione a una nuova zona di fissazione.
Come fa il sistema visivo a decidere quali zone della scena fissare?
La risposta consiste nell’ipotizzare che il funzionamento del sistema visivo richieda l’intervento di
due processi di elaborazione distinti e successivi: uno pre-attentivo, che scandaglia in parallelo
l’intero campo visivo, al fine di evidenziare le zone che presentano un qualche interesse, seguito da
uno attentivo, di natura seriale, che decide in base all’output del processo precedente quali zone del
campo visivo prendere in considerazione.
Eriksen e Yeh nel 1985 hanno ipotizzato la metafora del fascio di luce: l’attenzione sarebbe come
un fascio di luce in grado di scandagliare solo ciò che è presente nella zona illuminata dal fascio,
ma la decisione di dove puntare il fascio è presa a livelli più elevati e non dipende dalla natura degli
stimoli illuminati.
L’interrogativo rimasto aperto di questa metafora è se l’output dei processi pre-attentivi dipenda
unicamente dalla natura degli stimoli stessi (processi preattentivi controllati con modalità bottomup, che consiste nello scegliere o meno di ricevere tali stimoli) o se dipenda da controlli del tipo
top-down (che consiste nel ricevere appunto gli stimoli).
Il paradigma della ricerca visiva
In generale, nei compiti della ricerca visiva il soggetto dei trovare uno o più stimoli bersaglio
(target) all’interno di un certo pattern di stimolazione. Esistono numerose varianti di questo
paradigma generale: in alcune il soggetto deve necessariamente fissare un particolare punto nello
schermo, mentre in altre può compiere movimenti oculari per trovare target. Per quanto riguarda
questi ultimi, in certi tipi di esperimenti vi è un solo target da cercare, mentre in altri vi sono più
target, a volte corrispondenti a caratteristiche differenti da un target all’altro. Nel primo caso, i
compiti di ricerca visiva ricadono nei paradigmi di attenzione selettiva, mentre nel secondo caso si
possono considerare come appartenenti ai paradigmi di attenzione divisa.
16
Conviene illustrare brevemente i due casi particolari del paradigma della ricerca visiva più
frequentemente adoperati dai ricercatori: Il paradigma dei tempi di reazione e il paradigma
dell’accuratezza:
>
Il paradigma dei tempi di reazione:
In questo paradigma ogni pattern i stimolazione può contenere al massimo un solo target. Il compito
del soggetto è quello di decidere se il target è presente o non è presente nel pattern di stimolazione
che gli viene presentato. La variabile dipendente è costituita dal tempo di reazione del soggetto. La
variabile indipendente è invece costituita dalla dimensione del pattern di stimolazione, ovvero dal
numero complessivo di item differenti in esso contenuti.
>
Il paradigma dell’accuratezza:
In questo paradigma ogni pattern di stimolazione può contenere anche molti target. A differenza del
paradigma precedente, però, il tempo di presentazione del pattern è prefissato ed è generalmente
abbastanza breve, in modo da essere più corto di quello richiesto per compiere movimenti oculari.
Al termine della presentazione dello stimolo viene fatto seguire uno stimolo di mascheramento che
funge da indicatore per il soggetto che il processo di ricerca dei target è terminato e che egli deve
indicare quanti ne conteneva il pattern appena presentato. Il tempo intercorrente tra la scansione del
pattern di stimolazione e l’inizio della presentazione dello stimolo di mascheramento chiamato SOA
costituisce in questo paradigma la variabile indipendente. Mentre la variabile dipendente è
costituita invece dalla correttezza della risposta del soggetto, spesso misurata, su più prove e più
soggetti dalla percentuale di risposte corrette.
Negli anni ’70 e ’80 questi risultati sono stati interpretati come indicanti l’esistenza di due tipi di
ricerca attentiva:
>
Seriale: significa che i rilevatori devono scandagliare gli item per individuare il target con un
maggiore dispendio di tempo.
>
Parallela: significa che l’elaborazione avviene individuando tutti gli item
contemporaneamente.
Una ricerca attentiva di tipo parallelo si verificherebbe tutti i casi in cui i target sono definiti da
un’unica caratteristica elementare (come quando ad esempio, occorre ricercare un target rosso in
una popolazione di distrattori verdi.), mentre in tutti gli altri casi (come quando, ad esempio, il
target è definito dalle congiunzioni di più caratteristiche) si verificherebbe una ricerca attentiva di
tipo seriale. [Treisman in Feature Integration Theory].
La Memoria, l’immagazzinamento ed il richiamo della conoscenza
Lo studio dei processi di memorizzazione e di richiamo delle informazioni ha costituito uno de
principali filoni di ricerca della Psicologia Cognitiva. Per studiare questi processi bisogna
distinguere tra due filoni, quelli di natura:
>
Episodica: in cui il materiale di stimolazione dipende fortemente dal contesto
sperimentale;
17
>
Semantica: in cui tale materiale è parzialmente indipendente dal contesto.
Vi è inoltre una ulteriore distinzione per ciò che riguarda la natura della risposta che il soggetto
deve fornire:
>
Risposte di richiamo: il soggetto deve riferire esplicitamente uno o più elementi di un
pattern di stimolazione presentato in precedenza;
>
Risposte di confronto: il soggetto deve solo fornire un giudizio relativo al confronto tra
i pattern presentatogli in quel momento e un pattern presentato in precedenza.
·
Decadimento esponenziale: La prestazione nei compiti di richiamo diminuisce all’aumentare
del tempo di latenza (cioè l’intervallo di tempo intercorrente tra la presentazione dello stimolo e
la risposta del soggetto) secondo una legge di tipo esponenziale.
·
Saturazione: la prestazione nei compiti di richiamo non raggiunge mai il 100 per cento,
anche quando il tempo di latenza è nullo, se il numero di item da ricordare è superiore a un certo
valore critico, che si può stimare intorno a 7±2, quando il compito di richiamo è di tipo seriale,
cioè richiede di riferire gli item appresi esattamente nello stesso ordine in cui sono stati
presentati al soggetto.
·
Effetto di recenza: la presentazione nei compiti di richiamo dipende dall’ordine in cui gli
item da memorizzare sono stati presentati al soggetto: gli item meglio ricordati sono gli ultimi,
oppure talvolta i primi. Normalmente gli item presentati in posizione intermedia vengono
ricordati peggio degli altri.
·
Interferenza: più precisamente si parla di interferenza retroattiva, quando l’apprendimento di
nuovi item produce un peggioramento delle prestazioni sugli item appresi in precedenza; in altri
casi l’interferenza è proattiva, cioè la prestazione sul nuovo materiale è peggiore di quella
relativa al vecchio.
·
Principio di specificità della codifica: nei compiti di tipo episodico in cui il richiamo è
basato sulla presentazione di un particolare indizio, si vede che la prestazione migliora se gli
indizi usati sono identici a quelli a quelli che erano presenti al momento della memorizzazione.
·
Memoria Semantica: I tempi di reazione dei soggetti in compiti di valutazione di verità o
falsità di una frase contenente una connessione tra due concetti sono parzialmente indipendenti
dalle relazioni di natura logica esistenti tra i concetti stessi, nonché dal fatto che la frase in
questione sia effettivamente vera o falsa.
Il modello di Atkinson – Shiffrin:
Esso presuppone l’esistenza di tre sottoinsiemi di memoria:
18
Il registro sensoriale è caratterizzato da una durata limitatissima, e da una capacità illimitata. Invece
la memoria a breve termine è caratterizzata da una capacità limitata e da un accesso immediato.
Infine, la memoria a lungo termine ha una capacità e una durata entrambe illimitata, anche se
l’accesso alle informazioni che essa contiene può essere talvolta difficile o addirittura impossibile.
Il modello di Tulving:
Si tratta di un modelli della memoria a lungo termine, che postula una suddivisione in tre differenti
sottoinsiemi:
a.
La memoria episodica: che elabora il contenuto delle nostre esperienze passate;
b.
La memoria semantica: che contiene i concetti e le relazioni tra i concetti;
c.
La memoria procedurale: che contiene schemi o sequenze ordinate di azioni dirette ad
uno scopo.
Questi sottoinsiemi hanno relazioni reciproche e generalmente cooperano in modo tale che la
memoria funziona come un sistema integrato.
Il modello è di tipo gerarchico, poiché in esso la memoria procedurale è considerata il primo e il più
basilare tra tutti i sottoinsiemi di memoria. La memoria semantica si svilupperebbe poi come una
parte specializzata della memoria procedurale, mentre, a sua volta, la memoria episodica andrebbe
vista come derivante da una ulteriore specializzazione della memoria semantica.
La Strutturazione della Conoscenza (come la conoscenza viene codificata nella memoria)
La teoria del doppio codice:
La questione della forma sotto la quale la conoscenza è effettivamente codificata in memoria è stata,
però, trascurata.
Il modello più celebre formulato in proposito è la cosiddetta Teoria del doppio codice, proposta da
Paivio fin dal 1971. In essa si postula l’esistenza di due distinte forme di codifica della conoscenza:
verbale e non-verbale. Nella prima le informazioni sono descritte tramite parole, mentre nella
seconda sono rappresentate sotto forma di immagini mentali. Paivio ipotizza che le parole che fanno
riferimento a oggetti, luoghi, persone concrete tendano più facilmente ad essere codificate anche
sotto forma di immagini mentali. Ciò invece non avverrebbe per le parole che si riferiscono a
concetti astratti. Così le parole concrete potrebbero essere codificate in entrambe le forme, verbale e
non verbale, mentre le parole astratte tenderebbero ad essere codificate solo sotto la forma verbale.
19
Il numero di differenti tipi di codifica, secondo Paivio, sarebbe collegato alla facilità di richiamo
della memoria. In questo modo le parole concrete verrebbero ricordate meglio di quelle astratte.
Anderson (1993), invece di parlare di codifica verbale e non verbale, parla di ordinamenti lineari e
di immagini. I primi sono forme di rappresentazione che dispongono gli elementi di informazione
secondo un ordine sequenziale, eventualmente derivante dall’ordine temporale con cui le
informazioni stesse sono state presentate al soggetto, mentre le seconde rappresentano le
informazioni sotto l’aspetto della disposizione spaziale. La codifica verbale sarebbe riconducibile
ad un ordinamento lineare, in quanto le parole vengono memorizzate in successione.
Nel 1986 Paivio ha esteso la sua teoria, proponendo che la codifica verbale e quella non verbale
siano elaborate da due distinti sottoinsieme di rappresentazione, reciprocamente interconnessi. Il
sistema di codifica verbale sarebbe composto di una unità di base, che egli chiama “logogeni”
ognuna delle quali contiene l’informazione che è associata all’uso di una singola parola. Queste
unità vengono attivate sequenzialmente, il che spiega la preferenza per gli ordinamenti lineari.
Invece le unità di base del sistema di codifica non-verbale sarebbero gli “imageni”, corrispondenti
a singoli oggetti, parti di oggetti o raggruppamenti naturali di oggetti. Esse si attiverebbero con
modalità parallela, con la possibilità di analisi simultanea delle parti da cui queste unità possono
essere a loro volta composte.
Anderson ha proposto l’esistenza, oltre le due precedenti, di un terzo tipo di codifica: quella
preposizionale astratta. Essa rappresenta quello che costituisce il significato di una proposizione
concreta, composta da una ben precisa sequenza di parole.
Le Immagini Mentali:
Le immagini mentali sono rappresentazioni interne della strutturazione spaziale degli eventi che
fanno parte della nostra esperienza fenomenica. Riguardo alla natura delle immagini mentali, gli
studiosi si suddividono in due categorie:
>
Gli Immaginisti: (M. Kosslyn)i quali sostengono che esse sono immagazzinate sotto
forma di figure geometriche, non necessariamente connesse a informazioni di tipo
simbolico, le immagini mentali sono codificate inte4rnamente sotto forma di immagini
vere e proprie. Anche se gli immaginasti non sono assertori di un perfetto isomorfismo
tra immagini mentali e oggetti reali (in quanto presuppongono l’esistenza di
deformazioni delle immagini rispetto alla realtà), tuttavia sono convinti dell’esistenza di
una parziale corrispondenza tra proprietà delle immagini e proprietà degli oggetti; Va
comunque osservato che una prova a favore della validità del punto di vista degli
Immaginisti è costituita dal fatto che la capacità di ricordare le informazioni visive è
molto maggiore di quella relativa alle informazioni verbali.
>
I Proposizionalisti: (Z. W. Pyltshyn)che considerano le immagini connesse a
rappresentazioni descrittive, di tipo simbolico, consistenti essenzialmente in
20
proposizioni, ovvero in asserzioni relative alle relazioni spaziali tra le componenti delle
singole immagini.
Gli esperimenti condotti dagli Immaginisti, iniziati da R. Shepard, per trovare sostegno alla loro
posizione si possono suddividere nelle seguenti categorie:
1.
Effetti di distanza: l’eventuale esistenza di isomorfismi tra la struttura spaziale del
pattern di stimolazione (espressa tramite le relazioni di distanza tra gli elementi che lo
compongono) e struttura spaziale del pattern di stimolazione. Gli esperimenti condotti da
Kosslyn hanno portato al risultato che evidenziava che i tempi di reazione dei soggetti
erano direttamente proporzionali alle distanze fisiche esistenti nella cartina sottoposta ai
soggetti tra le coppie di elementi nominati in successione.
2.
Effetti di grandezza: cioè se il tempo necessario a rilevare la presenza, in un immagine
mentale, di una data caratteristica, aumenta o no al diminuire delle dimensioni della
caratteristica stessa, come avverrebbe nel caso in cui si dovesse ispezionare un oggetto
reale. Gli esperimenti condotti da Kosslyn dimostrano che il tempo necessario a rilevare
una data caratteristica in una immagine mentale, aumenti al diminuire delle dimensioni
della caratteristica stessa, proprio come avverrebbe se dovessimo esplorare visivamente
un’immagine reale, in cui la presenza di un dettaglio piccolo è più difficile da rilevare di
quella di una caratteristica su grande scala.
3.
Effetti di trasformazione mentale: cioè l’eventuale capacità dei soggetti di sottoporre
le immagini mentali a trasformazioni geometriche, quali rotazioni e traslazioni, identiche
a quelle cui possono essere sottoposti i corrispondenti oggetti reali; in particolare sono
state studiate le rotazioni mentali. In particolare si è cercato di mostrare che le immagini
mentali possono essere ruotate, nel piano e nello spazio, o ribaltate in modo speculare in
modi del tutto analoghi a quelli che riguardano i pattern fisici di stimolazione (Shepard,
Cooper). Secondo quest’ultimi autori, il tempo di reazione dei soggetti è direttamente
proporzionale all’angolo di cui era necessario ruotare il primo pattern per sovrapporlo al
pattern di base (in modo da poterlo confrontare).
Le Mappe Cognitive:
Le mappe cognitive costituiscono un altro dei modi con cui viene rappresentata internamente la
conoscenza. Esse si riferiscono specificamente all’organizzazione delle informazioni necessarie per
pianificare gli spostamenti che si intendono compiere in un ambiente strutturato in modo complesso
e accessibile solo su piccola scala alla percezione visiva immediata. Un ambiente del genere può
essere costituito, ad es., dall’interno di un edificio, da un parco, da una città, da una regione. Le
mappe cognitive sono state introdotte per prime da Tolman nel 1932, per spiegare l’improvviso
aumento della performance nel compito di trovare il punto meta in un labirinto da parte di ratti
precedentemente non rinforzati, una volta che avevano ricevuto un primo rinforzo.
Ad occuparsi sistematicamente dopo Tolman di mappe cognitive fu Lynch, che nel 1960 si è
interessato al modo con cui le persone si formano uno schema di orientamento per muoversi
all’interno di una città. Lynch ha enunciato così 5 elementi base per le mappe cognitive di
orientamento in una città: le vie, i bordi, i distretti, i punti nodali, i punti di riferimento.
L’apprendimento dei Concetti
21
La più importante delle rappresentazione interne della conoscenza è quella basata sui concetti. In
questo contesto il termine concetto verrà utilizzato come sinonimo di “categoria”, ovvero modo per
raggruppare insieme più oggetti o eventi.
L’utilizzo dei concetti è fondamentale per l’attività cognitiva in quanto, da un lato, consente di
considerare come equivalenti entità diverse e, dall’altro, elimina la necessità di manipolare le entità
concrete, limitando i processi cognitivi alla elaborazione di entità più astratte quali sono, per
l’appunto, i concetti.
Per quanto riguarda le teorie sui concetti possiamo distinguer tra:
§
Teorie Olistiche: che considerano ogni concetto alla stregua di un tutto non ulteriormente
analizzabile, che deriva in parte da una base innata (Fodor).
§
Teorie basate sulle caratteristiche o tratti: impiegate dagli psicologi per lo studio dei
processi che riguardano la struttura concettuale, si distinguono in tre classi:
a.
Teorie classiche: che postulano che ogni concetto sia definito da un insieme finito di
caratteristiche, ciascuna delle quali è necessario che sia posseduta dagli esemplari del
concetto stesso. È questo il modo con cui sono definiti i concetti in Matematica e nella
Logica formale. Si tratta di una rappresentazione assai vantaggiosa sul piano
sperimentale, in quanto consente di studiare i processi di acquisizione e di utilizzo dei
concetti in modi facilmente manipolabili dallo sperimentatore. Uno dei problemi più
importanti affrontati dalle teorie classiche è quello dell’individuazione delle regole che
vengono più spesso usate nel selezionare le proprietà che definiscono i concetti. A
questo proposito sono state condotte ricerche prevalentemente sull’impiego di alcuni tipi
particolari di regole: affermativa, congiuntiva, disgiuntiva, condizionale e
bicondizionale. Una serie di importanti esperimenti condotti da Hunt e Neisser, ha
mostrato che , nei compiti di apprendimento, queste regole vengono apprese con
difficoltà crescente, nel senso che i concetti più facili sono quelli basati sulla regola
affermativa; poi seguono, in ordine, quella congiuntiva, quella disgiuntiva, quella
condizionale, e quella bicondizionale. Inoltre vari esperimenti di Bourne nel 1970,
hanno mostrato come la difficoltà di apprendimento di queste regole decresca con la
pratica, cioè con l’aumento del numero di volte in cui la regola viene utilizzata dallo
stesso soggetto.
I risultati ottenuti in queste ricerche hanno senso solo nell’ambito di una teoria classica
dei concetti, che riesce a descrivere unicamente esperimenti di laboratorio in cui si
manipolano concetti semplici come quelli mostrati. Ben diversamente vanno le cose se ci
riferiamo ad altri tipi di concetti, come quelli che utilizziamo normalmente e di cui si
occupano le ricerche di memoria semantica
b.
Teorie basate sui tratti differenziali: Smith, Shoben e Rips, hanno proposto una teoria
nella quale le proprietà che definiscono un concetto vengono ripartite in due insiemi:
quello delle proprietà che definiscono la categoria in quanto tale e quello della proprietà
che sono possedute dagli esemplari della categoria la maggior parte delle volte, ma non
sono definitorie di per se nei riguardi della categoria.
Questa teoria va incontro alla grossa difficoltà dell’individuazione delle caratteristiche
definitorie che in molti casi sembra essere del tutto assente.
22
c.
Teorie basate sui Prototipi (Rosch): esse postulano che ogni concetto venga
rappresentato direttamente tramite un particolare esemplare, considerato come il
“prototipo” del concetto stesso, e che l’appartenenza degli altri esemplari al concetto
venga giudicata in base alla maggiore o minore somiglianza col prototipo. Un aspetto
critico della teoria del prototipo è quello relativo al modo con cui il prototipo di un
concetto viene identificato. Secondo la Rosch esso è quell’esemplare che massimizza la
correlazione tra i vari attributi posseduti dai diversi appartenenti alla categoria. La sua
identificazione è dunque nuovamente basata sull’esame di opportune proprietà.
La Teoria del Contesto di Medin e Smith, secondo la quale la formazione di un concetto
procede attraverso un confronto tra i nuovi esemplari che vengono a far parte
dell’esperienza del soggetto e quelli precedentemente immagazzinati in memoria, sulla
base dell’esperienza precedente.
In questo modo la prototipicità non deriverebbe dal confronto di proprietà, ma
semplicemente dalle esperienze avute dal soggetto. Nella loro teoria Medin e Smith
postulano che l’esemplare venga memorizzato sotto duplice forma: in quanto tale e in
quanto caratterizzato da alcune proprietà generali, che gli rimangono associate tutte le
volte che viene utilizzato per dei confronti.
La soluzione dei Problemi
A questo proposito bisogna prendere in considerazione i modi in cui la conoscenza viene impiegata
per risolvere dei problemi.
Le teorie si suddividono in due categorie:
I.
Le teorie cognitive: le prime attribuiscono un ruolo fondamentale, nel processo
di soluzione di un problema, alle strutture cognitive del soggetto, ovvero al modo con cui
egli si rappresenta il problema;
II.
Le teorie stimolo-risposte: focalizzano la loro attenzione esclusivamente sui
comportamenti che conducono alla soluzione e sul modo con cui essi sono influenzati dagli
stimoli ricevuti.
La teoria cognitiva per eccellenza è costituita dalla Psicologia della Gestalt e i concetti che essa ha
formulato derivano inizialmente dalle osservazioni effettuate, dal gestaltista W. Kohler sul
comportamento delle scimmie antropoidi.
Il concetto fondamentale introdotto da Kohler è quello di “Insight” che indica un processo di rapido
conseguimento della soluzione, consistente nella percezione delle corrette relazioni tra gli elementi
del problema. Secondo Kohler un problema è un “Gestalt”, cioè una forma, ne più ne meno che
come le Forme che osserviamo nel campo visivo. Esso consiste in un certo numero di elementi,
connessi tra di loro da certe relazioni. Il problema consiste nel fatto che questa struttura inizialmente
non costituisce una Forma “buona”, ma una Forma “disturbante”, in cui certe relazioni sono
incongruenti. Questa rapida ristrutturazione, che spesso consiste in un vero e proprio processo
23
percettivo (una nuova visione della situazione) è l’insight e la nuova forma è la soluzione del
problema.
Il punto di vista di Kohler, rappresentava all’epoca una grossa novità, in quanto si opponeva
decisamente a quanto sostenevano le teorie stimolo-risposta, che vedevano il processo di soluzione
di un problema come basato su una successione di prove ed errori, in cui il ruolo fondamentale era
giocato dall’esperienza passata.
Alla Formazione graduale delle corrette associazioni tra situazione stimolo e comportamenti di
soluzione, in seguito ai successivi rinforzi ottenuti (come inizialmente sostenuto da Thorndike),
Kohler opponeva le sue osservazioni di scimmie che, dopo aver condotto per lungo tempo
esperienze con gli elementi della situazione problemica senza ottenere alcun progresso verso la
soluzione, improvvisamente “comprendevano” la corretta relazione tra questi elementi e, di colpo,
risolvevano il problema senza alcun sforzo.
Nell’ambito delle teorie cognitive, l’opera di Wertheimer riprende il concetto di “ristrutturazione”
della situazione problemica, introducendo la distinzione tra:
a.
pensiero produttivo: nel quale tale ristrutturazione ha luogo, è un pensiero che ci porta ad
acquisire nuove conoscenze, pur non essendoci nuovi elementi di conoscenza nella
situazione problemica (ad esempio sotto forma di Insight);
b.
pensiero riproduttivo: si manifesta come la riproduzione o la replica pura e semplice di
un’azione o di una procedura di soluzione a un problema precedentemente appresa o
emessa.
Wertheimer ebbe il merito di applicare la teoria, che originariamente Kohler aveva proposto solo
per le scimmie antropoidi, a tutti i processi di pensiero umani, non solo a quelli connessi alla
soluzione dei problemi ma anche a quelli che entrano in gioco nella creazione di nuove teorie
scientifiche.
Uno dei grossi problemi lasciati insoluti dalle teorie cognitive è quello del motivo per cui i processi
di ristrutturazione molte volte non si verificano, nonostante la presupposta tendenza spontanea
verso una “buona Forma”.
Una possibile soluzione è stata proposta da K. Dunker che si è reso conto che il concetto di Insight
così come formulato da Kohler e Wertheimer, era assolutamente inadatto a descrivere i processi di
soluzione di problemi complessi. Secondo Dunker tali problemi vanno visti come una sequenza di
fasi, ciascuna delle quali rappresenta un passo in avanti nei confronti della soluzione.
Quali sono gli ostacoli che si oppongono alla ristrutturazione? Essi sono di 3 tipi:
1.
la fissità funzionale: essa è la tendenza ad attribuire a un elemento sempre una particolare
funzione, quella connessa al suo uso più frequente (es. il martello e la corda utilizzati come
pendolo da Maier);
24
2.
Le abitudini: danno origine alla tendenza ad applicare a un problema nuovo un metodo
che si è già rivelato utile nella soluzione di un problema apparentemente simile;
3.
la complessità dei problemi: in questi casi la soluzione si ottiene attraverso una serie di
fasi, ciascuna delle quali ha carattere di soluzione per quella che la precede e carattere di
soluzione per quella che la segue; volendo, all’interno di una singola fase si può anche
parlare di insight, ma si tratta di insights parziali;
Le soluzioni che favoriscono il superamento di questi ostacoli:
1.
2.
3.
·
la capacità di generare soluzioni alternative;
un uso opportuno di regole euristiche, cioè di appropriate strategie di ricerca della
soluzione;
la capacità di recuperare informazioni dalla memoria.
Teoria comportamentista della soluzione dei problemi di Hull
Hull ha introdotto la distinzione tra due meccanismi di associazione stimolo-risposta:
I meccanismi divergenti: essi sono caratterizzati dal fatto che uno stesso stimolo è connesso, con
forze diverse, a più risposte.
I meccanismi convergenti: più stimoli sono connessi, con forze diverse, alla stessa risposta.
Combinando questi due elementi si ottengono gerarchie di sequenze stimolo-risposta.
Nella terminologia di Hull, una singola associazione tra un particolare stimolo e una particolare
risposta viene denominata abitudine. Di conseguenza, con l’espressione famiglia di abitudini indica
una sequenza comportamentale complessa, costituita da più associazioni stimolo-risposta.
·
Soluzione dei problemi nell’Intelligenza Artificiale
La situazione del problema viene descritta ricorrendo ai cosiddetti “stati problemici”, che
descrivono ad ogni momento del processo di soluzione, gli elementi noti del problema e le loro
relazioni.La formulazione iniziale del problema corrisponde ad uno stato problemico iniziale,
mentre la sua soluzione allo stato problemico desiderato, ovvero allo stato-meta (goal).
Uno dei compiti dell’intelligenza artificiale è quello di costruire programmi per il computer in grado
di evidenziare cammini ottimali fra stato iniziale e stato meta, usufruendo di opportune
informazioni, codificate sia sotto forma di dati che, soprattutto, sotto forma di regole per
l’elaborazione della conoscenza.
Tra le realizzazioni più interessanti in questo ambito va citato il “General Problem Solver (GPS)” di
Newell, Shaw, e Simon, un programma costruito con l’ambizione di fornire uno strumento in grado
di risolvere qualunque tipo di problema, indipendentemente dal suo contesto.
25
La teoria di Kieras – Polson (l’analisi cognitiva delle interfacce)
·
L’interfaccia: si può definire l’interfaccia come il dominio dell’interazione uomo programma.
La teoria di Kieras e Polson, si propone esclusivamente un metodo di valutazione di interfacce già
progettate e non come uno strumento di progettazione di nuove interfacce. Inoltre formula
predizioni di tipo quantitativo relativamente a due parametri d’uso:
1.
il tempo di apprendimento dell’uso corretto dell’interfaccia esaminata: gli autori
suppongono che esso sia direttamente proporzionale al numero di nuove regole che occorre
apprendere per eseguire correttamente il compito per cui l’interfaccia è stata progettata.
2.
La produttività: considerata equivalente al tempo medio impiegato dall’utente, una volta
che l’apprendimento sia avvenuto, per conseguire, tramite l’interfaccia, gli scopi per cui
quest’ultima è stata progettata.
Nella teoria di Kieras Polson, le previsioni quantitative vengono ottenute mediante simulazioni sul
computer del processo di esecuzione di un compito tramite l’interfaccia che si intende valutare.
Per quanto riguarda il contenuto della conoscenza posseduta dall’utente, Kieras e Polson
suppongono che essa possa essere suddivisa in tre distinte categorie:
1.
quella relativa a quali compiti possono essere svolti impiegando il sistema studiato
(situazione del compito)
2.
come attuare le procedure man mano richieste per svolgere particolari compiti (come si
fa), quindi come realizzare un obiettivo;
3.
ciò che l’utente è riuscito a comprendere sul modo in cui il sistema risponde agli stimoli
in ingresso (come funziona), quindi, come funziona un dato sistema.
L’utilizzo delle conoscenze su come realizzare un obiettivo sono state particolarmente studiate dal
cosiddetto modello GOMS, costruito da Card, Moran e Newell, nel 1983. Goms è un acrostico, e le
sue iniziali costituiscono le componenti di queste conoscenze: G sta per “goals” obiettivi, O sta per
“operations” rappresentazioni di azioni fisiche o cognitive, M sta per “methods” sequenze di
operazioni per conseguire un sotto-obiettivo, S sta per “Selection rules” regole.
Nella teoria di Kieras Polson, la struttura degli scopi, delle operazioni, dei metodi e delle regole di
selezione viene rappresentata facendo uso di un sistema di produzioni.
Più precisamente indichiamo un sistema di produzioni con un complesso di tre entità:
26
1.
un insieme di regole: ogni regola è costituita da una coppia condizione azione del tipo: SE
(condizione) ALLORA (azione).
2.
una memoria di lavoro: contiene informazioni riguardanti gli scopi immediati da
conseguire, le attività in corso e le condizioni dell’ambiente esterno.
3.
un interprete: opera secondo cicli di attività, ciascuno delle quali è suddiviso in due
modalità:
·
riconoscimento: l’interprete verifica la corrispondenza tra il contenuto della
memoria di lavoro e le condizioni che compaiono nelle singole regole e, in base
all’esito di questo confronto, decide qual regola debba essere attivata.
·
azione: la regola attivata provoca l’esecuzione dell’azione, che essa prevede.