1.INTRODUZIONE STORICA ALLA PSICOLOGIA DEI PROCESSI
COGNITIVI
1. ORIGINI E SVILUPPO DELLA PSICOLOGIA SCIENTIFICA
Per affrontare il tema della nascita della Psicologia Scientifica bisogna partire
dal problema della definizione
della disciplina. Nella cultura occidentale le problematiche psicologiche hanno
attraversato tutta la riflessione
filosofica (a partire dai filosofi greci) e in parte quella scientifica. Il pensiero
filosofico ha affrontato i problemi
connessi alla “mente” partendo da due approcci distinti (problema ancora oggi in
parte irrisolto):
A. l’innatismo: esistono aspetti della mente umana che prescindono
dall’esperienza e sono patrimonio innato
dell’uomo. La punta estrema di questa concezione e’ il dualismo cartesiano (res
cogitans e res extensa). La
mente e’ intesa come una qualità innata e specifica dell’uomo e l’esperienza serve
solo a renderlo
consapevole di una conoscenza già presente nella mente a livello implicito
(dottrina delle idee innate).
B. l’empirismo: la mente umana può essere compresa solo attraverso le relazioni
che si instaurano con
l’ambiente e quindi con l’esperienza.
Un ruolo fondamentale per la nascita della Psicologia Scientifica ha avuto anche
la ricerca scientifica. In particolare il metodo scientifico formulato da Galileo e la
teoria dell’evoluzione di Darwin. Attraverso la ricerca scientifica si e’ esplicitato
il problema della forte influenza, nella cultura occidentale, della tradizione
cristiana che, ponendo l’uomo in una dimensione distinta dagli altri esseri
viventi, nega ogni possibilità di studiarlo come parte della natura. Solo con
l’avvento dell’età moderna (XVII sec.), si accantona la visione metafisica dell’uomo,
permettendo che diventi oggetto di studio per le scienze naturali. Si pongono così
le basi culturali per lo sviluppo della Psicologia Scientifica così come la
intendiamo oggi: disciplina scientifica che supera la dicotomia tra una visione
metafisica
dell’uomo
e
una
visione
che
lo
riduce
ad
un
meccanismo
neurofisiologico, e approda a una visione integrata mente-corpo per spiegare i
processi mentali.
1
Convenzionalmente la data e il luogo di nascita della psicologia come scienza
autonoma coincidono con la creazione del primo laboratorio di psicologia
sperimentale a Lipsia nel 1879, da parte di Wilhelm Wundt. Wundt ha sancito
l’autonomia teorica del sapere psicologico e ha definito un metodo di indagine
rigoroso: il metodo sperimentale di laboratorio – l’oggetto di studio deve essere
l’esperienza mentale cosciente attraverso l’analisi dei suoi contenuti elementari
(elementismo) che, nelle loro associazioni complesse, formano i contenuti di
pensiero (associazionismo).
In seguito si sviluppano altri laboratori e nascono istituti di psicologia in tutta
europa e nel nordamerica. Nel corso del ‘900, si delineano anche orientamenti
differenti:
lo
fenomenologia,
strutturalismo,
la
psicoanalisi,
il
la
funzionalismo,
psicologia
il
comportamentismo,
cognitiva,
il
cognitivismo,
la
la
psicobiologia.
2. L’ORIENTAMENTO COMPORTAMENTISTA
Il comportamentismo può essere diviso in due periodi principali:
A. il comportamentismo classico (1913-1930) – il suo esponente principale è
Watson, psicologo
nordamericano che nel 1913 pubblica l’articolo Psychologist as the Behaviorist
Views it.
I fondamenti teorici generali di questa scuola psicologica sono:

necessità di abbandonare il terreno filosofico: la psicologia è una disciplina
scientifica, il cui obiettivo è la previsione e il controllo del comportamento e
procede attraverso il metodo sperimentale (ipotetico-deduttivo) senza fare
distinzione tra l’uomo e l’animale.

rifiuto di qualsiasi riferimento ai processi mentali che determinano il
comportamento: i comportamentisti usano la metafora della mente come “black
box”- non essendo possibile indagare direttamente i processi mentali che
determinano il comportamento, la mente può essere concepita solo come una
scatola nera, che riceve stimoli dall’esterno e produce risposte comportamentali.
L’oggetto di studio dello psicologo e’ la relazione tra gli stimoli ambientali e le
risposte (modello stimolo-risposta), in quanto la spiegazione scientifica deve
limitarsi ai fenomeni che è possibile spiegare sulla base dei dati e della
verifica sperimentale. La psicologia diviene così la scienza che studia il
comportamento. I comportamenti umani hanno diversi livelli di complessità,
ma secondo i comportamentisti un comportamento complesso altro non è che la
somma o la combinazione di comportamenti più semplici.

Sviluppo
dell’uomo
spiegato
interamente
sulla
base
delle
modificazioni
prodotte dall’interazione con l’ambiente: la mente non e’ considerata dotata di
2
fattori ereditari innati, ma una tabula rasa , lo sviluppo cognitivo e’ il
risultato della modulazione che l’esperienza produce nei comportamenti. Il
comportamento viene letto come apprendimento, cioè come una catena di
associazioni stimolo-risposta, che valgono sia per gli apprendimenti semplici
che per quelli complessi (es. linguaggio).

Possibilità di spiegare il comportamento umano attraverso la sperimentazione
sugli animali: se i comportamenti complessi sono la somma di comportamenti
semplici è possibile indagare alcune forme di apprendimento studiando gli
animali.
È evidente la matrice fortemente riduzionista di questo modello: la mente viene
vista come una struttura passiva che riceve segnali dall’esterno e produce risposte
comportamentali in funzione dell’adattamento dell’organismo all’ambiente.
Il principale ambito di studio del comportamentismo è l’apprendimento (principio
del condizionamento).
B. il neocomportamentismo – si sviluppa a partire dagli studi di Skinner e
Tolman che introducono un’evoluzione del modello S-R, restituendo importanza
alla dimensione dell’organismo (modello S-O-R).
Il comportamentismo
ha
fornito contributi
rilevanti
anche
alla
psicologia
applicata in ambito pedagogico e sociale. Particolarmente rilevanti sono le
ricerche di
modelli,
che
Bandura (1969) sull’apprendimento mediante l’osservazione di
dimostrano
la
possibilità
di
acquisire
comportamenti
sociali
complessi sulla base di schemi imitativi e di rinforzi. Nell’affermare la possibilità
di
apprendimento
attraverso
l’osservazione
di
modelli
sociali, Bandura
fa
riferimento al concetto di imitazione, che a sua volta rimanda a processi cognitivi
quali la percezione, l’attenzione, la memoria, il pensiero: introducendo nella
variabile organismo anche i processi cognitivi.., pone le basi del passaggio dal
comportamentismo al cognitivismo.
3.L’ORIENTAMENTO FENOMENOLOGICO
Prendendo le distanze dalla psicologia elementista di Wundt nasce la Scuola di
Berlino, i cui principali esponenti sono Max Wertheimer (1880-1943), Wolfgang
Koehler (1887-1967) e Kurt Kofka (1886-1941) che si occupano prevalentemente
dello studio della percezione. Dal punto di vista teorico i principali riferimenti
sono Franz Brentano (1838-1917) e William James (1842-1910). Secondo questi
studiosi il fondamento della conoscenza psicologica deve essere l’analisi dei
processi psichici assunti nella loro immediatezza qualitativa e fenomenologia.
L’unitarietà dell’esperienza fenomenica (il modo in cui il mondo degli oggetti
percepiti si presenta alla coscienza) non può essere spiegata però come pura somma
3
di elementi, ma facendo riferimento alla relazione tra i singoli elementi e al
modo in cui interagiscono coi dati dell’esperienza. Nasce la psicologia della
Gestalt (forma) che parte dagli studi di Wertheimer sul movimento stroboscopio e
in particolare sul fenomeno del moto apparente. L’assunto di partenza è che la
realtà percettiva non equivale a quella fisica (es. melodia e accompagnamento). La
realtà fenomenica è considerata una configurazione globale (forma), dotata di
proprietà specifiche (qualità formali) a prescindere dalle caratteristiche dei
singoli costituenti. La psicologia, il cui oggetto di studio è la realtà fenomenica,
deve dunque analizzare i principi che regolano l’organizzazione secondo la quale
gli elementi formano un “tutto”, dando luogo ai percetti: l’oggetto della psicologia
è la relazione che intercorre tra i singoli elementi all’interno del campo percettivo
(parallelismo col campo magnetico). L’organizzazione del campo percettivo e’
regolata
da
precisi
principi:
vicinanza,
somiglianza,
chiusura,
buona
continuazione, buona forma, pregnanza, destino comune, esperienza passata. Le
percezioni, non derivano quindi da aggregazioni arbitrarie di singoli elementi,
ma sono frutto di un’organizzazione regolata da vincoli precisi, che determinano
proprietà globali del percetto non riconducibili alla somma degli elementi
costitutivi. Per i gestaltisti, tra le leggi che regolano i processi percettivi e quelle
dei
processi
neurofisiologici
esistono
dei
principi comuni. Comprendere
le
caratteristiche strutturali e funzionali dei processi percettivi consentirebbe quindi
di comprendere, dal punto di vista dinamico e funzionale, i processi cerebrali. I
gestaltisti hanno dato un importante contributo anche allo studio del pensiero e
dell’intelligenza: nella soluzione dei problemi si deve partire dall’analisi delle
relazioni intercorrenti tra gli elementi disponibili all’interno del campo costituito
dal problema.
La teoria della Gestalt possiede tuttora aspetti di grande rilievo: a. ha individuato
alcuni principi percettivi strutturali; b. ha posto l’attenzione sulla relazione tra
processi cerebrali e processi mentali.
4. LO STUDIO DEI PROCESSI COGNITIVI
Lo sviluppo della ricerca sui processi cognitivi si deve a due fattori: a. l’emergere
dei
limiti
memoria,
del
comportamentismo
percezione,
ecc.,
non
nell’affrontare
indagabili
temi
tramite
il
come
ragionamento,
solo
comportamento
manifesto; b. nuove acquisizioni in altri ambiti disciplinari, in particolare le
neuroscienze, l’informatica e la linguistica.
Lo
studio
scientifico
dell’attività
mentale
deve
comunque
partire
da
comportamenti espliciti per proporre costrutti ipotetici sui meccanismi mentali
che li hanno generati.
4
Lo sviluppo del cognitivismo si articola in due periodi: la prima fase va dalla
fine degli anni ’50 alla metà degli anni ’80 e la seconda è costituita dalla ricerca
sperimentale e dalla riflessione teorica contemporanee.
Non esiste una “data di nascita” del cognitivismo, ma una concomitanza di eventi
importanti per la definizione di questo nuovo orientamento. Uno di questi è il
congresso al Massachusetts Institute of Technology di Boston (1956), in cui il
confluire di conoscenze provenienti da ambiti disciplinari differenti pone le basi
per una ridefinizione del sapere psicologico – in particolare sono
cruciali i
lavori di G. Miller, sulla memoria a breve termine, A. Neswell e H. A. Simon, col
modello General Problem Solving, N. Chomsky, con la nuova teoria sullo sviluppo
del linguaggio. Solo nel 1967 si ha però una sintesi organica delle ricerche sui
processi cognitivi: Cognitive Psychology di Ulrich Neisser. In quest’opera il termine
cognitivo indica tutti quei processi che comportano elaborazioni, riduzioni,
immagazzinamenti, recuperi ed altri impieghi dell’imput sensoriale, anche
quando
hanno
luogo
in
assenza
di
una
stimolazione
appropriata
(vedi
immaginazione o allucinazioni).
4.1. Primo cognitivismo o teoria dell’elaborazione dell’informazione
Il
cognitivismo
dall’ambiente
punta
vengano
alla
comprensione
selezionati,
di
elaborati
come
e
i
segnali
restituiti
in
provenienti
termini
di
comportamento. Le informazioni vengono elaborate e integrate con quelle già
acquisite attraverso meccanismi di retroazione (feedback) che consentono il
monitoraggio continuo e flessibile del proprio comportamento in base alle
richieste dell’ambiente. Il cognitivista indaga gli stadi dell’elaborazione nei
processi di riconoscimento percettivo, memoria, uso del linguaggio, ragionamento,
ecc., (HIP=Human Information Processing), procedendo attraverso l’uso di modelli,
semplificazioni,
quasi
sempre
traducibili
graficamente,
delle
ipotesi
di
funzionamento dei singoli processi. In questi modelli il flusso d’informazione
viene descritto come un processo lineare, in cui i passaggi avvengono in modo
seriale (stretta analogia tra il funzionamento della mente e quello del computer).
In Piani e strutture del comportamento (Miller, Galanter e Pribram–1960) il
comportamento è descritto come il prodotto dell’elaborazione di un determinato
pattern di informazioni utili alla soluzione di un problema: TOTE (Test: verifica
degli elementi disponibili nell’ambiente e valutazione della loro congruenza
rispetto allo scopo – Operate: se sono adatti passare al compimento dell’azione –
Test: altrimenti ritestare la situazione - Exit: concludere l’azione). In questo modo
si può costruire un modello per ogni specifico processo cognitivo.
5
4.2. Neocognitivismo.
È lo stesso Neisser, nel ’76, in Cognition and Reality a proporre una revisione
dell’HIP (limitato nel fornire una spiegazione completa dei comportamenti
umani)
partendo
dalle
ricerche
di
Gibson
sulla
percezione.
Gibson
da
un’interpretazione diversa del termine informazione: non più la risultante
dell’elaborazione che il sistema cognitivo opera sui dati provenienti dall’esterno,
ma qualcosa che e’ già presente nell’ambiente e che non ha bisogno di alcuna
interpretazione
per
essere
colta
(teoria
della
percezione
visiva
diretta).
L’attenzione si sposta dai processi all’interazione tra l’individuo e l’ambiente
(approccio ecologico) e il comportamento umano viene considerato nei suoi aspetti
più globali, tenendo conto dell’interazione fra variabili cognitive e non (fattori
emozionali, motivazione, caratteristiche dell’ambiente, feedback). L’approccio
ecologico afferma il carattere adattivo della mente in un organismo in continua
interazione con l’ambiente e mette in evidenza i limiti della metafora della
mente come calcolatore.
Un’altra critica, mossa al primo cognitivismo, e’ quella di essere una forma più
sofisticata di comportamentismo: un sistema che accetta informazioni in entrata e
produce una risposta comportamentale; non è abbastanza considerato l’effetto di
retroazione dell’ambiente, che obbliga a modulare la risposta.
Su queste basi, nel 1979, nasce la scienza cognitiva che si fonda sui contributi di
tutte le discipline che si occupano della mente umana: psicologia, intelligenza
artificiale, antropologia, filosofia, linguistica, neuroscienza (esagono cognitivo). In
ambito psicologico la metodologia privilegiata è quella della simulazione al
computer dei processi mentali.
4.3. Gli orientamenti attuali
Negli ultimi anni si e’ affermata un’ ottica più generale e unificatrice per lo
studio dei processi mentali e si e’ avviato un acceso dibattito su questioni
epistemologiche: la definizione di mente, il suo sviluppo e la sua natura, il
rapporto mente-cervello, il problema della coscienza.
In studi recenti, la mente viene intesa come qualità del cervello che emerge
quando l’organismo raggiunge livelli particolarmente complessi. Questa prospettiva
deriva da una teoria neodarwiniana del cervello: lo sviluppo del sistema nervoso
centrale e’ inteso, sia da un punto di vista ontogenetico che filogenetico, come un
processo di selezione di
gruppi di neuroni, strettamente legato alla necessità del
cervello di modificarsi in base alle richieste ambientali. La comprensione dei
processi
mentali
non
può,
dunque,
prescindere
dalla
conoscenza
del
funzionamento del sistema nervoso, a partire dalla sua evoluzione. La dimensione
6
evolutiva e dinamica delle strutture nervose fa cadere definitivamente l’analogia
cervello-computer. Le principali caratteristiche del sistema nervoso sono infatti la
sua estrema variabilità e flessibilità.
Nel tentativo di capire come lo sviluppo delle nostre competenze cognitive, sono
stati elaborati due modelli:
1.
ad architettura verticale: gli stimoli sensoriali vengono elaborati da moduli,
strutture con elevata competenza e funzioni altamente specifiche, che lavorano in
autonomia, senza scambio di informazioni. Le informazioni vengono integrate in
un sistema centrale con caratteristiche diverse dai moduli.
2.
ad architettura orizzontale: un unico meccanismo generale di apprendimento
opera a prescindere dal tipo di informazione. A favore di questa concezione vi
sono molti dati sperimentali che evidenziano la grande plasticità del cervello,
che rende possibile un continuo
rimodellamento di reti e di circuiti neuronali
nuovi (es. recupero nei pazienti con lesioni neuropsicologiche).
La sempre maggiore conoscenza dei fondamenti biologici dei processi mentali
ripropone
in
modo
più
complesso
le
due
questioni
cardine
del
dibattito
scientifico-psicologico: la relazione fra mente e cervello e l’emergere della
coscienza. Il problema cruciale resta definire il rapporto tra processi mentali e
realtà.
2.FARE RICERCA IN PSICOLOGIA:I METODI
La psicologia e’ la scienza che studia il comportamento, le azioni osservabili
compiute da un individuo e i processi mentali che se ne possono inferire. In
quanto scienza, è empirica, obiettiva (si basa su osservazioni oggettive), dispone di
meccanismi di autoregolazione (nuovi dati possono mettere in discussione i
precedenti) ed e’ guidata dal principio della parsimonia (privilegia la spiegazione
più semplice). La ricerca psicologica è fondata su regole precise che permettono la
generalizzazione dei risultati: lo psicologo cerca di risalire a una legge generale e
di stabilire in quali condizioni sia valida. La ricerca sperimentale parte sempre
da un’ipotesi, che può essere confermativa o esplorativa (a sec. che si preveda o
meno la direzione che prenderà la ricerca). Un’ipotesi può scaturire da studi
precedenti o da un’intuizione (es. effetto Zeigarnik: tendenza a ricordare meglio i
compiti non portati a termine – la psicologa Bluma Zeigarnik ebbe un’intuizione
osservando un cameriere con una memoria prodigiosa, che le spiegò che per
ricordare a memoria tutte le ordinazioni le rimuoveva non appena le avesse
eseguite, tenendo a mente solo quelle ancora da eseguire). L’ipotesi va poi
verificata attraverso una serie di studi di laboratorio, seguendo le regole del
7
metodo sperimentale. Esistono anche altri metodi d’indagine: l’osservazione, il
metodo dell’inchiesta e quello dei test. La scelta del metodo dipende dal fenomeno
che si analizza e dalla natura del campione d’indagine.
1. CONCETTO DI VARIABILE
La variabile è un aspetto del comportamento o la caratteristica di una persona o
di un evento che ha la prerogativa di essere misurabile, in base ai valori che
quella variabile può assumere (es. la v. “sesso” ha solo due valori: maschio e
femmina).
Le variabili si distinguono in base al tipo di misurabilità: le v. quantitative
variano in grandezza (es. tempi di reazione), le v. qualitative variano in genere
(es. la professione), le v. continue possono assumere qualsiasi valore in un insieme
continuo (es. intensità di uno stimolo acustico), le v. discrete o discontinue non
prevedono valori intermedi (es. il colore dei capelli).
Per quanto riguarda il ruolo delle variabili all’interno di un piano di ricerca,
bisogna distinguere tra v. indipendente (quella che lo sperimentatore controlla e
manipola direttamente) e v. dipendente (la misura del comportamento che e’
oggetto di studio).
Le variabili rimandano spesso a costrutti astratti (intelligenza, ansia, aggressività,
ecc.)
che
non
sono
direttamente
osservabili
ma
che
vengono
inferiti
dal
comportamento. La teoria di riferimento del ricercatore e le strategie che userà per
misurare i costrutti determineranno le modalità di operazionalizzazione delle
variabili (es. in uno studio sull’ansia da esame: se il ricercatore vuole dimostrare
che sostenere un esame provoca un aumento dell’ansia, l’operazione consiste nel
misurare il costrutto; se intende dimostrare che l’ansia influisce negativamente
sul risultato dell’esame, l’operazione consiste nel produrre il costrutto). La v.
indipendente può essere manipolata dal ricercatore. Ad es. se si studia il
comportamento a seguito dell’assunzione di un farmaco, si può dosare il farmaco
o decidere di somministrarlo solo ad alcuni soggetti. Vi sono però anche v.
indipendenti che non si possono manipolare, ma solo controllare (sesso, età, status
socio-economico, ecc.). In sintesi, la v. indipendente è un fattore di cui si vogliono
calcolare gli effetti.
2. LA MISURAZIONE
Le variabili si misurano in maniera diversa a seconda delle loro caratteristiche.
Le misurazioni possono essere più o meno accurate (se misuro l’ansia da esame e
divido gli studenti in due categorie, ad es. ansiosi e non ansiosi, ottengo
accorpamenti abbastanza grossolani, se invece li classifico in base al punteggio di
8
un test ottengo una quantità maggiore di informazioni; nel primo caso mi limito
a classificare, nel secondo effettuo una reale misurazione).
2.1. Le scale di misurazione
La quantità di informazioni che si può ottenere da una variabile dipende dal
tipo di scala di misurazione a cui appartiene. Stevens ha proposto di utilizzare 4
livelli di misurazione (scale):
1. scala nominale – classifica eventi e oggetti in categorie (es. settentrionalimeridionali). Alle categorie si
possono anche assegnare valori numerici, ma il
valore è nominale, non numerale.
2. scala ordinale – dispone gli oggetti e gli eventi in base alla loro grandezza, si
stila una graduatoria (es. una classifica del grado di simpatia dei colleghi). Gli
intervalli tra valori non sono regolari
3. scala a intervalli – gli intervalli tra i valori sono regolari, si stabilisce
convenzionalmente un punto zero da cui partire (es. la misuraz. del quoziente
intellettivo). Poiché lo zero non è assoluto non si può affermare però che un QI
140 sia il doppio di un QI 70.
4. scala a rapporti – e’ caratterizzata da un punto zero reale e da differenze
significative tra i valori numerici (es. il peso, la lunghezza, il tempo). Le
informazioni che si possono raccogliere con questa misurazione sono estremamente
dettagliate inoltre si può affermare che un individuo che ha un tempo di
reazione di 500 ms (millisecondi) impiega effettivamente il doppio del tempo di
un individuo che risponde in 250 ms.
3. OSSERVAZIONE E METODI OSSERVATIVI
La metodologia di ricerca si distingue in metodi sperimentali e metodi descrittivi.
Tra gli uni e gli altri cambia il controllo che il ricercatore esercita sulle variabili
e sui soggetti. L’ esperimento di laboratorio offre il grado più elevato di controllo,
ma non è sempre utilizzabile: a volte è fondamentale che i soggetti vengano
studiati in una situazione naturale (es. gli stili di conversazione dei giovani in
discoteca). L’osservazione è obiettiva nella misura in cui viene condotta secondo
procedure sistematiche, ripetibili e comunicabili. In quanto metodo di ricerca
implica la selezione di un fenomeno e la raccolta di informazioni più accurata
possibile.
Esistono
diversi
tipi
di
osservazione:
sul
campo,
ma
anche
in
laboratorio (si può scegliere di osservare un fenomeno in un ambiente artificiale);
può riguardare un’ampia gamma di fenomeni o aspetti specifici di un fenomeno.
La
caratteristica
fondamentale
è
la
rinuncia
al
controllo
delle
variabili
indipendenti attraverso la manipolazione sperimentale. L’osservazione può essere
naturalistica o partecipante a seconda che l’osservatore sia o meno presente nel
9
contesto osservativo. Nel primo caso è essenziale che l’osservatore non sia visibile
agli oggetti della sua osservazione (es. scimpanzé nel loro habitat naturale).
Numerosi esempi di osservazione naturalistica ci vengono dalla psicologia sociale
(vd. studi sul comportamento delle persone per strada) in cui è fondamentale la
non intrusività dell’osservatore e addirittura la sua capacità di “mimetizzarsi”
tra coloro che vuole osservare. Il metodo osservativo non si esaurisce comunque
nell’osservazione
raccolta
e
di
informale:
registrazione
il
ricercatore
dei
dati.
impiega
tecniche
Un’osservazione
sistematiche
accurata
richiede
di
la
definizione dell’oggetto di osservazione, ma anche l’individuazione di categorie di
comportamento che diventeranno focali nell’osservazione. Queste categorie devono
essere
il
più
possibile
specifiche
ed
esaustive
e
rispettare
il
principio
dell’esclusività (non devono sovrapporsi). Per es. per analizzare il comportamento
di un bimbo problematico a scuola, Thomas, Nielsen, Kypers e Becker hanno
utilizzato 9 categorie di comportamento (atteggiamenti scomposti, aggressività,
parlare, ecc.). L’aggressività è stata a sua volta definita come: colpire, spingere,
spintonare, pizzicare, schiaffeggiare, battere,ecc.
Il ricercatore deve poi stabilire il luogo, il numero, la durata delle sedute e la
frequenza con cui rilevare i comportamenti.
L’obiettività deve essere garantita dalla presenza di più osservatori indipendenti,
dall’uso
di
scale
di
valutazione
o
di
schede
di
osservazione
predefinite,
dall’utilizzo di strumenti tecnologici di rilevazione.
Il metodo osservativo presenta diversi limiti. Vasta ha analizzato le principali
fonti di errore, indicandone i correttivi: 1. la reattività dei soggetti (la tendenza a
comportarsi in maniera innaturale sapendo di essere osservati) si può risolvere
usando
metodi
di
osservazione
non
invasivi
(es.
telecamere
nascoste);
2.
l’osservatore e’ influenzato dal suo stile cognitivo, dalle sue caratteristiche
personali e dalle sue aspettative (che possono portarlo a dare maggiore rilievo agli
elementi che le confermano). Per risolvere questo problema colui che osserva non
deve essere al corrente delle ipotesi di ricerca (osservazione cieca). Inoltre e’ sempre
preferibile utilizzare più osservatori indipendenti e ritenere attendibili solo le
osservazioni per le quali vi sia un alto grado di concordanza (indice di
agreement).
4. L’ESPERIMENTO DI LABORATORIO
10
Il livello più accurato di osservazione è l’osservazione controllata, principio
cardine
del
metodo
scientifico.
La
migliore
applicazione
dell’osservazione
controllata si ottiene con l’esperimento di laboratorio in cui vi è la diretta
manipolazione della v. indipendente da parte del ricercatore (il ricercatore deve
dimostrare che la v. indipendente A è l’unica causa della v. dipendente B). In un
esperimento di laboratorio ciascun valore delle v. indipendenti si definisce
condizione sperimentale. Un es. di questo tipo di relazione tra le variabili è
l’esperimento di Schachter sulla relazione tra ansia e affiliazione. L’ipotesi di
partenza
era
che
gli
stati
d’ansia
favorissero
l’incremento
delle
tendenze
affiliative. Schachter indusse la variabile indipendente “ansia” nei soggetti
preannunciando la somministrazione di scosse elettriche e usò due condizioni
sperimentali, “alta ansia” e “bassa ansia”, dando ai due gruppi sottoposti
all’esperimento informazioni più o meno allarmanti. Poi informò i soggetti che
avrebbero potuto attendere l’inizio dell’esperimento in sale d’attesa separate o in
una sala comune e chiese loro di esprimere le loro preferenze su una scala a 5
punti, misurando in questo modo la tendenza affiliativa (v. dipendente).
Un altro esempio: un ricercatore vuole dimostrare che una determinata sostanza
chimica facilita l’apprendimento nei topi. Potrebbe individuare due condizioni
sperimentali come “basso dosaggio” e “alto dosaggio”. Più frequentemente però si
preferisce utilizzare un gruppo di controllo, somministrando il trattamento solo a
un gruppo (trattamento si/trattamento no). Perché l’esperimento riesca i due
gruppi devono avere le stesse caratteristiche, è necessario quindi fare molta
attenzione alla scelta dei soggetti.
4.1.
Il campione
Nella descrizione di una ricerca una sezione è sempre dedicata al campione sul
quale si è svolto lo studio: un insieme di elementi di un certo tipo selezionati da
un insieme più ampio, da una popolazione o universo (es. piloti d’aereo, studenti,
casalinghe, ecc.). L’esperimento di laboratorio richiede che vi sia un’assegnazione
casuale dei soggetti alle diverse condizioni sperimentali, per limitare gli errori (es.
nell’esperimento sull’apprendimento dei topi, se gli animali fossero prelevati da
due diversi recinti e assegnati rispettivamente alla prima e alla seconda
condizione sperimentale, il risultato potrebbe essere influenzato dalle diverse
condizioni di vita degli animali nei due recinti). Quindi per estrarre un
campione da una popolazione si selezionano casualmente alcuni suoi elementi.
4.2.
L’errore sperimentale
11
Si ha un errore sperimentale quando il mutamento della variabile dipendente è
causato da una qualsiasi altra variabile, diversa dalla v. indipendente (l’effetto si
ottiene, ma vi è confusione sulla causa). L’errore minaccia la validità interna
dell’esperimento, la certezza della relazione funzionale (di causa ed effetto) tra la
v. indipendente e la v. dipendente (es.: esperimento per valutare se le abilità di
calcolo di due gruppi di bambini di terza elementare possono essere incrementate
con un apposito training, in cui la variabile “giorno della settimana” si confonde
con la variabile indipendente – p. 47).
Esistono due strategie di controllo dell’errore: 1. il controllo – consiste nel tenere
costante la variabile parassita (es. sottoporre i due gruppi ai test di abilità nello
stesso giorno della settimana e orario); 2. la randomizzazione - assegnare
casualmente i soggetti alle diverse condizioni sperimentali, in questo modo
qualsiasi altra variabile verrà distribuita.
Tornando al controllo, bisogna considerare il controllo dell’errore dovuto alle
condizioni sperimentali. Se, per esempio, si deve testare l’efficacia di un
antidepressivo col metodo trattamento si/trattamento no, per evitare che il gruppo
sottoposto al trattamento sia soggetto all’autosuggestione bisogna dare a uno dei due
gruppi, a loro insaputa, un placebo. In questo modo l’autosuggestione interviene su
tutti e due i gruppi e abbiamo annullato il peso di questa variabile. Si tratta di
rendere ciechi i soggetti, non far sapere loro a quale condizione sperimentale sono
stati assegnati. Vi è però un'altra fonte di errore. Se il medico che assegna i
farmaci sa a chi somministra il farmaco e a chi il placebo, potrebbe avere un
atteggiamento diverso nei confronti degli uni e degli altri pazienti, suggestionando
a sua volta i pazienti. Ricorriamo allora al doppio cieco: nemmeno il medico deve
sapere se sta somministrando il farmaco vero o il placebo.
Con questi accorgimenti si annullano le fonti di errore nel caso in cui si lavori
con gruppi di soggetti indipendenti. Le cose si complicano se dobbiamo sottoporre
gli stessi soggetti a due compiti diversi: l’ordine di presentazione delle prove
potrebbe inquinare l’esperimento (es. pubblicità in cui si testano due prodotti).
Per evitare questo inconveniente si ricorre al bilanciamento del campione, si
varia cioè la successione dei compiti. Così si evitano, tra l’altro, le modificazioni
dell’attenzione dovute all’affaticamento.
Neutralizzando le variabili parassite, si assicura la validità interna di un
esperimento. Va considerata però anche la sua validità esterna, la possibilità cioè
di generalizzare i dati di una ricerca, di estendere i risultati ottenuti a contesti
più ampi (es. se si accerta che in un campione di studenti universitari esiste una
relazione causale tra ansia e affiliazione, ripetendo l’esperimento con altri gruppi
di soggetti – operai, casalinghe, ecc. – si deve riscontrare la stessa associazione
12
causale tra le variabili indipendenti e le variabili dipendenti considerate).
Accanto alla validità esterna, vanno segnalate la validità di costrutto, coerenza
tra il modello teorico di riferimento e l’interpretazione che il ricercatore da delle
relazioni causali osservate, e la validità statistica, che serve a stimare se e quanta
parte della relazione tra le due variabili sia causale o casuale (solitamente si
considera verificata un’ipotesi quando la probabilità di errore è inferiore al 5%).
4.3.
I quasi-esperimenti
Certe volte non è possibile manipolare la variabile indipendente o controllare
l’assegnazione casuale dei soggetti alle condizioni sperimentali. In questi casi si
parla di quasi-esperimenti: essi si richiamano al metodo sperimentale senza
soddisfarne tutte le esigenze di controllo. Per estensione rientrano in questa
categoria tutti gli esperimenti in cui non sia possibile controllare tutti gli aspetti
dell’esperimento stesso. Se, per esempio, si deve verificare l’efficacia di un certo
metodo di apprendimento sul ricordo della storia, si dovrà per forza utilizzare la
classe in cui è stato applicato e non si potrà scegliere un campione a caso. Negli
esperimenti sul campo spesso non si possono assegnare casualmente i soggetti alle
condizioni sperimentali e si svolgono dei quasi-esperimenti. Queste limitazioni
ricadono in genere sull’estendibilità dei risultati.
5. IL METODO DELL’INCHIESTA
Nell’ambito della ricerca non sperimentale occupa un posto a sé il metodo
dell’inchiesta. Questo metodo include varie tecniche di raccolta dei dati, in
particolare le interviste e i questionari. Rispetto all’osservazione o al metodo
sperimentale, l’inchiesta appare un percorso d’indagine meno tortuoso, anch’esso
però presenta vantaggi e svantaggi. Il ricercatore può raccogliere una grande
quantità di informazioni su campioni anche molto estesi in tempi relativamente
brevi. Tuttavia dovrà affrontare problematiche come il fattore di desiderabilità
sociale (tendenza dei soggetti a dichiarare ciò che è socialmente accettabile invece
del loro reale pensiero). Il ricercatore esperto è in grado di neutralizzare questa
insidia ricorrendo a una serie di accorgimenti a partire dalla costruzione degli
strumenti che utilizzerà.
5.1.
L’intervista
Le interviste possono essere classificate come strutturate (o standardizzate), semistrutturate e non strutturate. Nel primo caso, l’’intervistatore deve porre le
domande così come sono formulate nel modulo e rispettarne la successione. Nel
secondo, l’intervistatore è tenuto a fare un certo numero di domande specifiche,
13
ma può anche porne delle altre se questo è funzionale ad una migliore
comprensione delle dichiarazioni dell’intervistato. Nell’intervista non strutturata
il ricercatore dispone di uno schema guida, ma può introdurre tutte le variazioni
che ritiene opportune.
L’intervista strutturata consente di ottenere risultati più omogenei e comparabili,
anche a distanza di tempo. Al polo opposto si colloca l’intervista non strutturata
che rappresenta però un utile strumento nelle mani di un ricercatore esperto, le
risposte del soggetto possono infatti costituire degli spunti per indirizzare la
ricerca in una direzione più interessante o per approfondire determinati aspetti.
Una
particolare
modalità
di
intervista
è
il
metodo
clinico.
Si
tratta
di
un’interazione verbale “a catena” tra lo sperimentatore e il soggetto: il primo
inizia ponendo una domanda e ciò che chiederà successivamente dipenderà dalla
risposta del soggetto (metodo ampiamente utilizzato da Piaget coi bambini). Questa
procedura
mira
non
comprendere il come,
tanto
a
registrare
la
prestazione
del
soggetto,
ma a
quali sono i processi mentali che lo inducono a scegliere
un percorso solutorio e non un altro.
La scelta di un tipo di intervista rispetto ad un altro dipende da diversi fattori:
gli obiettivi che il ricercatore si pone, la complessità del fenomeno analizzato, il
gusto personale del ricercatore.
In ogni caso, è di fondamentale importanza valutare e minimizzare gli effetti che
la situazione o l’intervistatore possono esercitare sul soggetto. La “desiderabilità
sociale” non è l’unico fattore che può compromettere l’autenticità dei risultati di
un’intervista. Un altro problema può essere la relazione che si stabilisce tra
l’intervistato e l’intervistatore: il primo tenderà a cogliere ogni segnale di
approvazione o disapprovazione dell’intervistatore e a porre a sua volta domande.
L’intervistatore dovrà quindi evitare di essere eccessivamente espressivo, ma non
dovrà nemmeno tenere un atteggiamento troppo riservato, che potrebbe demotivare
l’intervistato. È bene inoltre che l’intervistatore tenga celato il suo punto di vista
personale. Pur nel rispetto di queste norme di base, l’intervistatore deve apparire
abbastanza spigliato.
Un altro aspetto importante è la modalità di registrazione dei dati: in alcuni casi
si trascrivono semplicemente i dati salienti delle risposte; in altri si può
utilizzare un registratore o una telecamera. L’uso di questi dispositivi non sempre
è ben accetto da parte degli intervistati. Laddove sia possibile farvi ricorso, questi
strumenti
si
rivelano
preziosi
perché
permettono
di
cogliere
intonazioni,
sfumature e enfasi (ma anche espressioni e posture nel caso della telecamera), e di
stimare pause e incertezze dei soggetti.
14
5.2.
Il questionario
Il questionario è un elenco di domande scritte che possono essere divise in due
grandi categorie: domande aperte (non hanno risposte prefissate) e domande
chiuse (si deve scegliere tra un certo numero di domande prefissate). Spesso i
questionari contengono entrambi i tipi di domanda.
La selezione delle domande da inserire in questionario deve rispettare una serie
di requisiti:
1. evitare le domande doppie - ogni domanda deve contenere un solo quesito
(chiedere di rispondere con un “si” o con un “no” alla domanda “Lei
ritiene che i suoi professori siano competenti e disponibili?” sarebbe un
errore, i quesiti andrebbero distribuiti su due domande).
2. non inserire domande che possano influenzare il soggetto ed evitare i
termini che non tutti conoscono.
3. per quanto riguarda le domande chiuse, le varie alternative devono essere
diverse
l’una
dall’altra
e
coprire
tutte
le
possibilità
(es.
studente-
lavoratore).
Per la formulazione delle domande chiuse si possono usare, oltre alle scale
nominali, le scale ordinali. Spesso infatti i questionari contengono affermazioni
rispetto alle quali il soggetto deve esprimere la sua posizione. A seconda che il
ricercatore voglia sondare abitudini, atteggiamenti o opinioni userà modalità di
risposta riguardanti, ad esempio, la frequenza (“spesso”, “qualche volta”, “quasi
mai”) oppure l’accordo/disaccordo.
Uno dei metodi più usati per la misurazione degli atteggiamenti è la scala Likert,
che consente di misurare non solo la direzione di un’opinione e di un
atteggiamento (es. favorevole o contrario), ma anche la sua intensità (usando una
scala a 5 o a 7 punti che preveda le posizioni intermedie tra i due poli
“favorevole”/”contrario” e tenga conto anche delle posizioni neutrali: -3 -2 -1
0 +1 +2 +3).
Affinché un questionario sia ben fatto, non solo le domande che lo compongono
devono essere formulate in maniera univoca
e precisa, ma devono essere ben
esplicitate le istruzioni per la sua compilazione.
6. IL METODO DEI TEST
Il test psicologico è uno strumento di misura che comprende prove di diversa
natura che consentono di ottenere una misura o almeno delle indicazioni su una
o più caratteristiche del soggetto. A. Anastasi lo definisce una “misurazione
obiettiva e standardizzata di un campione di comportamento”. Un test risponde al
requisito
dell’obiettività
se
la
sua
somministrazione,
la
determinazione
15
e
l’interpretazione dei punteggi prescindono dal giudizio soggettivo di chi lo
somministra. La standardizzazione si riferisce all’uniformità delle prove, delle
condizioni
di
somministrazione
e
delle
procedure
di
determinazione
del
punteggio. I test devono inoltre essere sensibili, ossia possedere la capacità di
differenziare i soggetti in base a quello che stanno misurando (così come un
termometro deve essere in grado di distinguere i soggetti che hanno la febbre da
quelli che hanno una temperatura nella norma). Un test deve essere fedele (se
ripetuto nelle stesse condizioni e con gli stessi soggetti deve dare risultati molto
simili. Un ultimo requisito di un test deve essere la validità. La validità può
essere di diversi tipi: a. la validità di contenuto, garantita da una corretta
campionatura del contenuto (es. un professore che voglia testare la preparazione
degli alunni alla fine del corso deve dare lo stesso spazio a tutti gli argomenti
trattati); b. la validità in rapporto al criterio o validità predittiva: per valutare la
capacità di un test di predire il comportamento di un individuo in determinate
situazioni, si assume come termine di paragone un criterio, una misura diretta e
indipendente di ciò che si vuole testare (es. in un test sul rendimento scolastico si
possono adottare come criterio le votazioni che gli studenti riporteranno alla fine
dell’anno), maggiore sarà la corrispondenza tra il risultato del test
e il criterio,
più elevata risulterà la capacità predittiva del test; c. la validità concorrente: in
questo caso si mettono in relazione i risultati del test con quelli riportati dai
soggetti in altre prove che misurino lo stesso attributo (es. test sulla cecità per i
colori confrontato coi risultati di esami oculistici).
Per quanto riguarda i tipi di test, bisogna innanzitutto distinguere tra i test
individuali e quelli collettivi. Esistono poi test che servono a misurare abilità
specifiche: test di profitto scolastico, di personalità, ecc.
Oltre che per le finalità i test si differenziano per il formato, molti sono del tipo
“carta e matita”, ma ci sono anche quelli che richiedono l’impiego e/o la
manipolazione di materiali particolari (disegni, fotografie, cubi colorati, ecc.) o
l’uso di apparecchiature specifiche.
Uno stesso test può comportare prove di vario genere e l’impiego di differenti
materiali. Analogamente uno stesso attributo può essere valutato ricorrendo a
tecniche differenti.
3.LA PERCEZIONE
16
Quale fiducia dare agli organi di senso e alla percezione, che si fonda sui dati da
essi rilevati?
Si tratta di un problema presente dal '600 (dalla nascita della scienza moderna
con Galileo). Sappiamo che i dati sensoriali non sono sempre veridici, ci sono
infedeltà percettive, distorsioni, mancate corrispondenze. Questa constatazione può
condurre ad una svalutazione dell'attività percettiva a causa di una falsa
impostazione del problema: ritenere cioè che lo scopo della percezione sia la
registrazione accurata di ciò che è presente nel mondo. Il problema si risolve a
favore della fiducia nella percezione se la si considera come un complesso
meccanismo, preposto alla raccolta ed elaborazione, in tempi molto brevi, di una
grande quantità di informazioni utili e/o necessarie al sistema cognitivo e a
quello motorio per raggiungere i loro obiettivi, prima di tutto quello della
sopravvivenza.
La percezione è costituita da un insieme concatenato di processi di raccolta,
elaborazione, trasformazione e organizzazione delle informazioni disponibili
nell’ambiente. L’interazione
col mondo
è
possibile
solo
attraverso l’attività
percettiva e questa può aver luogo solo se vi è la presenza contemporanea di 3
condizioni:
1. un pezzo di mondo che emetta e/o rifletta qualche tipo di energia: stimolo
distale
2. un tipo di energia che sia in grado di modificare gli organi sensoriali di un
essere vivente: stimolo
prossimale (stimolazione dei recettori sensoriali periferici)
3.un sistema di elaborazione che sia in grado di decodificare e interpretare le
modificazioni che l’energia ha
prodotto
negli
organi
di
registrazione
sensoriale:
percetto
(frutto
dell’elaborazione finale);
L’insieme dei percetti costituisce il nostro mondo fenomenico, che si distingue da
quello fisico (es. nel modo fisico il sole sta fermo e la terra si muove, nel mondo
fenomenico è il sole che sorge e tramonta).
3. ENERGIA E SENSAZIONE: LA PSICOFISICA
Il mediatore fra gli stati del mondo esterno e la nostra conoscenza di esso è
l’energia a cui il sistema percettivo è sensibile. Uno dei primi argomenti affrontati
dalla psicologia sperimentale fu lo studio delle relazioni che si instaurano tra
l’intensità dell’energia che colpisce gli organi di senso e l’intensità dell’esperienza
sensoriale del percipiente. Theodor Fechner definì “psicofisica” la disciplina che
studia il rapporto fra il mondo degli stimoli fisici e quello delle esperienze
17
psicologiche da essi prodotte. Prima di Fechner, era stato Weber a rendersi conto
che il modificarsi della quantità di energia che colpisce gli organi di senso non
produce una modificazione equivalente della sensazione e che quest’ultima non
dipende
solo
dal
modificarsi
dell’intensità
dello
stimolo,
ma
dal
livello
complessivo di energia che colpisce l’organo di senso in un dato momento (es.
lampadina da 10w in una stanza molto scura). La relazione tra intensità dello
stimolo e intensità della relazione non è lineare.
Per misurare le sensazioni, la psicofisica utilizza due criteri di misura: la soglia
assoluta - quantità minima di energia necessaria per produrre una sensazione - e
la soglia differenziale o differenza appena percepibile - variazione che deve
subire l’intensità di uno stimolo perché un soggetto ne colga il cambiamento.
Visto che la valutazione delle soglie è soggetta a oscillazioni e interferenze, in
entrambi i casi si è stabilito che la misura sia data dal valore che viene
riconosciuto mediamente 50 volte su 100.
La differenza appena percepibile è una costante, che ha un valore specifico per
ogni modalità sensoriale (Costante di Weber), e che misura l'intensità di uno
stimolo dicendoci di quanto esso deve variare per essere percepito come diverso da
un altro (ad esempio per la pesantezza è 0.02).
La Costante di Weber non ci dice nulla però sulla variazione della sensazione.
Fechner scoprì che tra l'intensità dello stimolo e quella della sensazione vi è una
relazione per cui dall'una si può ricavare l'altra. Questa relazione è espressa
dalla formula: S = C log I (S= sensazione; C= costante relativa alla modalità
sensoriale considerata; log, logaritmo;
I= misura fisica dell’intensità dello
stimolo).
Stevens ha poi dimostrato che è possibile far valutare direttamente l’intensità
delle sensazioni alle persone chiedendo loro di associare una sensazione con un
numero.
Il
metodo
della
Magnitudo
Estimation
consiste
nell’assegnare
convenzionalmente un valore numerico ad uno stimolo e, aumentando lo stimolo,
chiedere al soggetto di valutare la nuova intensità in rapporto alla prima.
4. INFORMAZIONE E ATTIVITA’ PERCETTIVA
Gli studi di psicofisica indagano i rapporti tra il mediatore energetico che riflette
lo stato del mondo osservato e gli organi di senso attivati da quel mediatore.
L’atto percettivo è il primo livello di interazione fra individuo e ambiente e ci
rende consapevoli non solo delle caratteristiche strutturali delle cose (forma,
dimensione, volume, posizione, ecc.), ma anche di aspetti del loro modo di essere
rispetto a noi (pericolosità, aggressività, disponibilità, attrazione, ripugnanza,
ecc.).
18
Nel caso della visione, il mediatore è la luce. Ad oggi sul problema di come la
luce riesca a dar conto di aspetti della realtà così numerosi e diversi sono state
avanzate solo delle risposte limitate e parziali.
Sappiamo che il mediatore energetico, attraverso le sue modulazioni ordinate e
mai casuali, veicola informazione (ogni aumento di conoscenza con relativa
diminuzione
dell’incertezza).
L’attività
percettiva
raccoglie,
da
una
stessa
porzione di realtà, informazioni diverse, spesso indipendenti tra loro, al servizio
di due processi fondamentali della nostra vita: l’attività cognitiva e l’attività
motoria.
4.1. Quale informazione: dieci casi
Il nostro sistema percettivo procede in modo veloce e automatico, il più delle volte
senza che ne diventiamo consapevoli, alla selezione dell’informazione. Questo
modo di procedere rende impossibile stabilire a priori che cosa sia informativo e
in che misura lo sia. È quindi necessario predisporre delle condizioni osservative
controllate per capire quali elementi informativi il sistema percettivo estragga di
volta in volta. Stabilendo per convenzione che un cerchietto bianco su una
superficie nera sia il primo livello dell’attività percettiva da cui si intende
partire, si apportano modifiche progressive per verificare in che modo il nostro
vissuto percettivo muti dopo ogni intervento:
1. presenza di un punto: su una superficie di colore uniforme si inserisce un
pallino di colore diverso. Il rendimento percettivo è un pallino chiaro su una
superficie scura;
2. aggregazione di base: aggiungendo a caso un altro pallino, i due cerchietti
tendono a non essere visti come entità del tutto separate, ma come una coppia;
3. movimento apparente: se invece dei due pallini ci sono due punti luminosi,
uno acceso e l’altro spento, spegnendo il primo e accendendo il secondo in un
brevissimo intervallo di tempo, il rendimento percettivo sarà il movimento del
primo pallino, non lo spegnersi del primo e l’accendersi successivo dell’altro
(informazione percettiva di movimento);
4. distanza percepita in funzione della grandezza: modificando il diametro di
uno dei 2 cerchi, si percepiranno 2 cerchi di misura diversa o 2 cerchi posti a
distanze diverse (informazione di distanza);
5. posizione non ordinata di punti e 1° livello di organizzazione: se su piano
nero si dispongono 4 pallini in ordine sparso, vedremo 4 pallini disposti
casualmente. Se però i pallini vengono allineati a 2 a 2 ed equidistanti sia
verticalmente che orizzontalmente, si vedranno i 4 punti collegati tra loro in
una forma (informazione di forma);
19
6. vincolo della vicinanza ordinata: aggiungendo alla figura precedente altri
dodici pallini, allineati in 4 righe e 4 colonne, la forma quadrata appare più
strutturata e unitaria (informazione di forma);
7. vicinanza, coesione e segregazione: se raddoppio la distanza tra le colonne
della figura precedente e dimezzo quella fra le righe, si percepiranno 4
colonne indipendenti in luogo del quadrato (la vicinanza degli elementi
veicola
un’informazione
di
appartenenza
di
un
elemento
ad
una
configurazione unitaria);
8. dalla superficie fronto-parallela alla profondità spaziale: partendo dalla
figura del punto 6 e riducendo in stadi progressivi la lunghezza di ogni riga di
un valore costante, la distanza tra le righe in modo progressivo dal basso verso
l’alto e nello stesso modo la misura dei pallini, otterrò la percezione di una
superficie di pallini bianchi sempre più inclinata in profondità (il “gradiente
di
tessitura”
informa
sull’inclinazione
di
una
superficie
nella
terza
dimensione);
9. eguaglianza fisica ed eguaglianza fenomenica: in una griglia costituita
dall’alternanza di fasce orizzontali bianche e nere dello stesso spessore
dispongo 4 serie di cerchietti della stessa tonalità di grigio, disposti a sinistra
sulle fasce nere e a destra su quelle bianche. Pur essendo dello stesso colore, i
cerchietti di sinistra appaiono di un grigio meno intenso (l’informazione in
base alla quale viene percepito un colore dipende dalla scena);
10. percezione della quantità in funzione dello spazio occupato: se dispongo 16
segmenti, fra loro paralleli ed equidistanti, in colonna su una superficie
accanto ad altri sedici segmenti uguali, ma disposti lungo una linea inclinata
di 45°, quelli inclinati appariranno più numerosi di quelli incolonnati
(l’informazione sul numero degli elementi di una collettività dipende dalla
loro distribuzione nello spazio).
Nella maggior parte dei casi descritti il rendimento percettivo fa riferimento a
delle caratteristiche della figura che non emergono dalla sua descrizione fisicogeometrica e perciò si deve ritenere che sia frutto del lavoro di elaborazione e
organizzazione dell’attività percettiva. In ognuno degli esempi riportati si è
instaurato
qualche
tipo
di
legame
tra
gli
elementi
della
configurazione:
l’informazione non risiede negli elementi di una scena, ma nelle relazioni che si
istituiscono fra gli elementi e fra le loro caratteristiche.
4.2. Altre informazioni, altre relazioni
Chiusura: se in uno spazio rettangolare traccio 4 segmenti indipendenti questi
non provocheranno un mutamento della percezione di quello spazio. Se unisco i
20
quattro segmenti formando un quadrilatero, lo spazio verrà percepito in modo
diverso: da una parte dei segmenti la superficie appartiene al rettangolo
includente, dall’altra al poligono incluso che appare sopra al rettangolo. Il
“chiudersi” del contorno del quadrilatero ha prodotto una separazione e una
duplicazione dello spazio da esso racchiuso che copre quello del rettangolo
sottostante. Il quadrilatero si separa dal rettangolo sfondo e il margine appartiene
sempre
e solo alla figura, non delimita un foro nel rettangolo. Affinché il
contorno del poligono definisca un buco nel rettangolo bisogna far riferimento a
un alto fenomeno percettivo: il completamento amodale. Se aggiungo alle due
figure due trapezi (fig. 13 p. 77) uno all’esterno del rettangolo ed uno all’interno
del quadrilatero, allineati in posizione tale da dare l’impressione di “continuare
sotto”, in base al principio della “buona continuazione”, il rendimento percettivo
sarà una figura che si unisce sotto alla superficie rettangolare originaria che a
questo punto risulterà bucata.
Un altro esempio di completamento amodale, associato alla buona continuazione,
è costituito dalle linee di un intreccio (fig. 16 p. 81)
La
buona
continuazione
o
“continuità
direzionale
è
uno
dei
fattori
di
organizzazione figurale individuati nell’ambito della psicologia della Gestalt da
Max Wertheimer, che da lui prendono il nome di “fattori di Wertheimer (altri
sono la vicinanza e la chiusura).
5. INDETERMINAZIONE GEOMETRICA E DETERMINATEZZA VISIVA
La figura 17a veicola, da un punto di vista geometrico, una figura ambigua:
potrebbe essere costituita da una losanga posta su un rettangolo oppure da due
poligoni concavi accostati. Per il sistema percettivo vi è invece solo la prima
possibilità. Si tratta di un caso di indeterminazione geometrica, ma non
percettiva.
Il rendimento geometrico di una qualsiasi porzione di realtà osservata potrebbe
essere, dal punto di vista geometrico, il risultato di molteplici aggregazioni diverse
degli elementi presenti. Il più delle volte però il nostro vissuto è unico. Parliamo
invece di figure ambigue quando il sistema percettivo non riesce a decidere quale
delle due o più soluzioni possibili accettare in modo definitivo (gli esempi di
figure ambigue sono molti: forme bianche su sfondo nero – fig. 19; il cubo di
Necker – fig. 20; coppa e profili – fig. 21; ballerini e ballerine – fig. 22;
ambiguità di figure non significative – fig. 23; moglie e suocera – fig. 24; papero
e coniglio – fig. 25). Le figure ambigue costituiscono una dimostrazione che
l’attività percettiva è un processo attivo, in cui l’elaborazione delle informazioni
continua anche dopo il raggiungimento di un primo rendimento accettabile. A
21
fronte di una stessa condizione stimolatoria, si generano sul versante percettivo
due o più rendimenti fra loro alternativi e sempre ben strutturati. È lecito pensare
che il modo di presentarsi dei dati osservati attivi più di un’elaborazione
percettiva.
6. LA FIGURA IN RAPPORTO CON L’AMBIENTE CIRCOSTANTE
Ogni oggetto nell’ambiente naturale è di solito inserito in un contesto di
riferimento che ne definisce posizione, orientamento e dimensioni. La fig. 26 è un
chiaro esempio di come l’attività percettiva tenga conto innanzitutto delle
relazioni intercorrenti fra ogni oggetto presente in una scena e la scena nel suo
insieme.
7. FATTORI FORMALI E TESTO SCRITTO
Nei testi scritti le lettere si susseguono da sinistra a destra raggruppandosi e
separandosi per formare le parole, ma anche per facilitare e accelerare la lettura.
Qualsiasi affaticamento percettivo sottrae risorse al processo di comprensione. È
per questo che i caratteri devono essere chiari, simili tra loro, ben allineati ed
opportunamente distanziati. La scrittura rispetta le proprietà formali che sono
alla base dell’organizzazione visiva, primi fra tutti i fattori di vicinanza,
somiglianza e continuità di direzione (un es. del ruolo dei fattori formali nella
lettura di un testo è dato nella figura 27).
8. NASCONDERE, MOSTRARSI
I processi di unificazione-separazione su cui si basa l’organizzazione del nostro
mondo visivo, che rendono individuabili gli oggetti separandoli dallo sfondo,
possono anche funzionare al contrario, rendendo impossibile o difficoltoso il loro
riconoscimento. Ne abbiamo svariati esempi nel mondo animale, dove la vita di
un animale nel proprio ambiente può dipendere, a seconda delle circostanze, dal
suo essere chiaramente visibile (accoppiamento) o completamente invisibile
(ricerca del cibo). Entrambi gli obiettivi si ottengono grazie al funzionamento
degli stessi processi percettivi, innanzitutto in base alla relazione della figura con
lo sfondo.
In ambito psicologico i primi esperimenti sul mascheramento vennero fatti da
Gottschaldt e successivamente da Kanizsa e da Vicario (fig. 29, 30 e 31). Tali
esperimenti mettono in evidenza che affinché si produca un mascheramento è
necessario che alcune delle caratteristiche figurali salienti entrino a far parte di
un’altra figura diversamente organizzata.
22
Il mimetismo animale obbedisce agli stessi principi che rendono possibile il
mascheramento
di
figure
astratte:
i
fattori
di
organizzazione
figurale
e
l’articolazione figura-sfondo.
9. PERCEPIRE LA PROFONDITA’ E LA TRIDIMENSIONALITA’
Noi vediamo il distribuirsi di persone e cose nello spazio a distanze diverse
(ampio repertorio di metafore spaziali) e siamo certi di riuscire a valutare
distanze, posizioni, direzioni e orientamenti. L’ambiente naturale ci appare
abbastanza stabile e ben strutturato. Tuttavia il funzionamento della percezione
della
profondità
spaziale
ha
sempre
posto
notevoli
problemi,
a
partire
dall’individuazione delle informazioni utilizzate.
Il primo scoglio è quello della registrazione degli stimoli. I recettori retinici sono i
bastoncelli
e
i
coni.
I
primi
funzionano
bene
anche
a
bassi
livelli
di
illuminazione, ma sono poco sensibili ai colori. I secondi funzionano bene solo in
condizioni di buona illuminazione e sono sensibili ai mutamenti cromatici.
Questi fotorecettori vengono attivati nello stesso modo dalla luce riflessa da oggetti
vicini o lontani. Si pone quindi il problema di come venga recuperata, nel
rendimento percettivo, la profondità spaziale. Le soluzioni emerse si rifanno a
due distinti ambiti teorici, quello definito “percezione indiretta” e quello
definito “percezione diretta”.
9.1. Percezione diretta e percezione indiretta
Berkeley, primo sostenitore della percezione indiretta, riteneva che la percezione
della
profondità
spaziale
dipendesse
dall’integrazione
dei
dati
visivi
bidimensionali con le conoscenze acquisite attraverso altre modalità quali il tatto
e il movimento.
Herman von Helmholtz definì inferenza inconscia quel processo che, sulla base
dell’esperienza passata e delle conoscenze acquisite, supplisce i dati incompleti
raccolti dagli organi di senso.
I fautori della percezione diretta si rifanno all’orientamento ecologico di Gibson
secondo il quale l’occhio raccoglie tutta l’informazione necessaria per raggiungere
una percezione esauriente dell’ambiente. Questa concezione si basa sull’idea che
la
luce
deve
essere
considerata un
veicolo strutturato
e
ben
ordinato di
informazione. La luce riflessa dagli oggetti e dalle superfici converge negli occhi
dell’osservatore in un fascio di raggi che formano angoli la cui ampiezza varia in
funzione della distanza e della posizione delle superfici da cui provengono.
L’insieme di questi angoli è definito assetto ottico (una fotografia in prospettiva è
un esempio del fatto che anche su un piano bidimensionale possono essere
23
presenti
informazioni
di
profondità
spaziale).
Quando
all’assetto
ottico
si
accompagna il movimento si parla di flusso ottico (gli angoli ce si formano tra i
raggi riflessi dalla scena e convergono nell’occhio di chi guarda si modificano in
continuazione in maniera ordinata e coerente e quindi informativa).
Un altro approccio allo studio della percezione visiva diretta è il modello
computazionale di David Marr. Egli riteneva che la visione fosse un processo
attivato attraverso diversi stadi di processamento dell’informazione luminosa.
Fondamentale in questa sequenza è l’identificazione dell’oggetto osservato che
inizia col riconoscimento dei suoi margini. I margini però, nel processo visivo,
cambiano e si spostano continuamente, a causa del mutare dell’illuminazione e
della posizione di chi sta guardando. Per determinare la forma reale di un oggetto
il sistema visivo deve essere in grado di ignorare i margini creati dalle ombre o
dalle variazioni di illuminazione e considerare solo i margini “veri”. Per far ciò
deve analizzare in tempo reale i cambiamenti attraverso processi computazionali
complessi. Il metodo di Marr si basa quindi su un modello di analisi matematica
delle variazioni di luce e ombra all’interno della scena visiva.
L’estrazione delle caratteristiche “margini” da un oggetto avviene anche servendosi
di proprietà visive dell’oggetto racchiuse dentro ai margini (zone chiare o scure,
tessitura della superficie, convessità, ecc.)
9.2. Gli indici della profondità
Gli indici della profondità sono tutti i dati che contribuiscono a determinare il
rendimento percettivo di profondità spaziale nella terza dimensione. Questi dati
possono dipendere dal funzionamento degli organi visivi, dalla struttura della
scena o dell’oggetto osservato, dalle condizioni di osservazione.
Gli indici di profondità che dipendono dagli organi visivi sono: accomodazione,
convergenza e disparità binoculare. L’accomodazione è il processo attraverso cui
viene modificata la curvatura del cristallino per consentire la messa a fuoco di
oggetti che si trovano a distanze diverse dall’osservatore. Durante questo processo
avviene anche la convergenza, ossia la rotazione degli occhi nella loro orbita, in
modo da puntare entrambi sull’oggetto osservato. Gli sforzi muscolari per regolare
la curvatura del cristallino e la convergenza costituiscono l’informazione sulla
distanza dell’oggetto osservato.
La disparità binoculare da luogo, a livello cerebrale, alla fusione in un’unica
immagine (stereopsi) delle due immagini, leggermente diverse, registrate da
ciascun occhio producendo una dislocazione in profondità.
24
9.3. Gli indici pittorici della profondità
Le informazioni sulla profondità spaziale si trovano anche nella struttura
dell’oggetto osservato. Si tratta degli indici pittorici di profondità (usati dagli
artisti per produrre effetti di tridimensionalità e profondità):
1. interposizione, anche detta sovrapposizione o occlusione, si ottiene frapponendo
un oggetto tra
l’osservatore e un altro oggetto più lontano, di cui
nasconde una parte del contorno;
2. altezza nel campo visivo: ciò che si trova nella parte superiore del campo visivo
sembra più lontano;
3. orientamento delle ombre (oltre alle ombre proprie di un oggetto vi sono anche
le ombre portate, le ombre di un oggetto che la luce proietta su un altro oggetto);
4. prospettiva lineare e prospettiva aerea: si tratta, più che di un singolo indice,
di un sistema organico di accorgimenti e di regole geometriche che utilizza le
informazioni determinanti per la rappresentazione della profondità spaziale
(fig. 35: le linee parallele in profondità convergono verso un unico punto, l
grandezza relativa di archi e colonne decresce progressivamente, il gradiente di
tessitura del pavimento s’infittisce verso il fondo, così come si riduce la
distanza tra le colonne, gli archi più lontani sono disegnati con tratto leggero e
non ben definito);
5. grandezza relativa: gli oggetti più piccoli vengono considerati più lontani;
6. gradiente di tessitura: la microstruttura di ogni superficie riflette la luce in
modo diverso (sistematicamente e progressivamente più densa quanto più
lontana da chi guarda) a seconda del suo orientamento in profondità (fig. 36)
10. LE COSTANZE PERCETTIVE
Meccanismi di costanza sono stati chiamati quei processi che contribuiscono a
mantenere fenomenicamente immutate le caratteristiche degli oggetti (dimensioni,
forma, colore) nonostante le continue variazioni delle loro registrazioni ottiche. Ci
sono solo delle ipotesi sul loro funzionamento, ma è sempre più diffusa l’idea che
siano meccanismi iscritti nel nostro patrimonio genetico e non appresi.
Costanza di grandezza: quando ci avviciniamo o ci allontaniamo dalle cose le
dimensioni delle loro percezioni retiniche variano (fig. 37), noi però percepiamo
immutata la dimensione degli oggetti. Questo grazie ad un processo per effetto del
quale le variazioni registrate di grandezza sono viste come variazioni di distanza,
mentre la grandezza percepita rimane la stessa.
Per studiare quali siano le informazioni utilizzate dai meccanismi di costanza,
Holway e Boring condussero un esperimento: l’osservatore era posto all’intersezione
di due lunghi corridoi; un disco modificabile era posto a circa tre metri
25
dall’osservatore in uno dei due corridoi, mentre nell’altro corridoio venivano
disposti dei dischi standard a distanze comprese fra i 3 e i 36 metri; i dischi
standard a maggior distanza erano più grandi, in modo da proiettare sempre la
stessa immagine retinica; il compito del soggetto era di aggiustare le dimensioni
del disco di confronto fino a farlo diventare delle stesse dimensioni di quello
standard.
Le valutazioni erano state fatte in diverse condizioni ambientali (disponibilità di
informazioni ambientali più o meno ampia) e i risultati misero in evidenza che
una drastica perdita di informazione ambientale riduce l’efficacia dei processi di
costanza e obbliga l’osservatore a dare maggior credito alla grandezza retinica.
Il risultato dell’esperimento mette quindi in evidenza la stretta relazione tra i
processi di costanza e la disponibilità di informazione ambientale.
Gli oggetti non verrebbero quindi visti come indipendenti gli uni dagli altri: il
sistema percettivo tiene conto,più che dei dati assoluti, delle relazioni che si
determinano fra le parti di una scena (fig. 38).
Costanza di forma: riguarda quei processi in cui i mutamenti di forma non
vengono visti come tali, ma come cambiamenti di orientamento dell’oggetto.
I processi di costanza sono collegati tra loro e funzionano nello stesso modo, resta
da indagare dove risieda l’informazione utilizzata dal sistema percettivo. Un
modo per ricavarla è l’analisi dell’indeterminazione ottica: la stessa proiezione
retinica può essere prodotta da un numero praticamente infinito di forme diverse
sottese allo stesso angolo visivo (fig. 39). Quasi sempre però il rendimento percettivo
è uno solo: viene vista la forma più semplice e lineare.
11. PERCEPIRE PER AGIRE E CONOSCERE
Gli occhi si muovono continuamente anche indipendentemente dal nostro volere.
Ciò che avviene sulla nostra retina è un susseguirsi di modificazioni instabili.
Nonostante ciò gli oggetti e gli ambienti ci appaiono stabili.
Oltre ai movimenti del nostro corpo, la retina registra anche il movimento degli
oggetti. Bisogna allora determinare quali i processi ci consentono di discriminare
le trasformazioni che avvengono sulla retina per effetto degli spostamenti
dell’osservatore e quelli dovuti alla dinamica degli oggetti. L’ipotesi è che esista un
centro che controlla la corrispondenza fra le variazioni della stimolazione
retinica che ci si deve aspettare in seguito ai movimenti del nostro corpo e quella
che effettivamente si sta verificando. Nel caso in cui vi sia corrispondenza, il
centro di controllo annulla le informazioni di movimento e la scena appare
statica.
26
Recentemente ci si è resi conto che lo scopo dell’attività percettiva non è solo
quello di raccogliere informazioni cognitivamente utili. La percezione deve
assolvere a due funzioni diverse e complementari: raccogliere ed elaborare
informazioni necessarie sia al sistema cognitivo che al sistema motorio.
L’idea di una differente elaborazione dell’informazione visiva in funzione dello
scopo è stata confermata da alcune ricerche neuropsicologiche che hanno scoperto
l’esistenza
di
due
sistemi
funzionalmente
distinti
per
la
trasformazione
dell’informazione spaziale.
12-13. VEDERE IL MOVIMENTO: IL MOVIMENTO APPARENTE E IL MOVIMENTO
INDOTTO
La capacità di percepire il movimento è fondamentale per la sopravvivenza ed è
una delle competenze più precoci sia nei bambini che nei cuccioli di molte specie
animali. Resta tuttavia da spiegare che cosa vediamo del movimento. Sappiamo
che per la percezione gioca un ruolo fondamentale la relazione tra l’oggetto
osservato e l’ambiente. Quest’idea dovrebbe valere in modo particolare per il
movimento, dal momento che non esiste il movimento in sé, ma sempre in
relazione a qualcosa che rimane fermo.
Movimento apparente o stroboscopio: una serie di accadimenti vengono visti come
movimento quando l’accensione e l’estinzione di due punti luminosi avviene in
un ambito di precisi rapporti di spazio, di tempo e di energia. Gli esperimenti di
Ternus (fig. 40 e 41) mettono in luce come l’attività percettiva tenda a conservare
il più possibile la
stabilità
di un
ambiente in
cui
avvengono continue
trasformazioni e spostamenti.
Il movimento indotto si verifica quando il movimento di un elemento della scena
osservata viene attribuito ad un altro elemento (fig. 42). Ciò accade, secondo
Duncker, perché l’attività percettiva opera una separazione dei sistemi. Il
movimento percepito dipenderà dalla relazione che ogni oggetto intrattiene con
quella parte di scena che assume il ruolo di schema di riferimento. Lo schema di
riferimento è sempre la regione più grande e includente e automaticamente viene
assunto come maggiormente stabile (es. il sorgere e tramontare del sole).
14. LA LUCE, IL COLORE: POCHI ACCENNI
Alcuni aspetti della percezione di luce e colore (colore acromatico):
1.
la luce: una piccola porzione del vasto spettro delle onde elettromagnetiche è
visibile e noi la chiamiamo
luce. Per la fisica l’energia elettromagnetica
costituisce un fenomeno unitario che va considerato nel suo insieme, il fatto che
27
una sua parte giochi un ruolo così importante per gli esseri viventi, non la rende
diversa. La luce è quindi ritenuta un problema prettamente psicologico;
2.
che cos’è il colore: allo stesso modo della luce il colore è un problema
psicologico. Solo un numero limitato di esseri viventi è sensibile al colore. Il
colore esiste perché fra i fotorecettori ce ne sono alcuni che si attivano in maniera
differenziata per alcune lunghezze d’onda dello spettro visibile.
3.
le parole della luce: l’essere umano in alcuni casi vede come diverse superfici
che riflettono quantità uguali di energia e viceversa, e in altri casi vede uguali
superfici che riflettono quantità uguali di energia (es. cartoncini grigi). Bisogna
allora determinare che cosa misura l’essere umano all’atto di percepire il colore.
Le dimensioni fisiche della luce sono la luminanza (quantità di colore che
colpisce una superficie) e la riflettanza (proprietà di una superficie di riflettere
una maggiore o minore quantità di luce). Le dimensioni fenomeniche della luce
sono la chiarezza o luminanza apparente (impressione che l’osservatore ha
dell’intensità e dei mutamenti nella luce che colpisce gli oggetti) e la bianchezza
o riflettanza apparente (l’impressione che l’osservatore ha del diverso colore degli
oggetti a parità di illuminazione).
4.
costanza di colore: vediamo mantenersi costante la bianchezza di un oggetto
anche quando essa cambia per effetto di una diversa illuminazione;
5.
contrasto di bianchezza: l’informazione su cui si basa il rendimento
percettivo della bianchezza di una data superficie è ricavata dal rapporto della
bianchezza di quella superficie con la bianchezza di quelle che la circondano
(Wallach – fig. 44).
4. ATTENZIONE E COSCIENZA
1. CHE COS’E’ L’ATTENZIONE
Definire l’attenzione è difficile perché si tratta di un insieme di fenomeni
psicologici molto diversi tra loro.
Un esempio: siamo per strada con un amico e notiamo un’amica comune tra i
passanti, chiediamo al nostro amico di prestare attenzione alla parte sinistra
della strada vicino al negozio di abbigliamento. Il nostro amico selezionerà
l’informazione rilevante e non si metterà a guardare i messaggi promozionali
sulle vetrine. Avrà inoltre delle aspettative sulle fattezze della persona che sta
cercando e indirizzerà la sua ricerca verso quelle caratteristiche. Improvvisamente
però si sente il rumore di una frenata. Il nostro amico sarà senz’altro distratto da
questo nuovo evento.
28
Questo esempio presenta vari aspetti che la psicologia dell’attenzione cerca di
spiegare:

per individuare una persona tra la folla bisogna selezionare le informazioni
più rilevanti per questa ricerca: attenzione selettiva. Selezionare vuol dire
ignorare alcuni stimoli a favore di altri.

Il nostro amico è stato distratto dal rumore della frenata: la nostra attenzione
può essere attratta, in modo automatico, verso eventi improvvisi.

Per trovare una persona tra la folla dobbiamo mantenere l’attenzione su
questa ricerca per un tempo sufficiente. Rimanere concentrati su quello che
stiamo facendo è difficili e abbiamo l’impressione che sia necessario uno
sforzo di volontà per farlo. Questo fenomeno è indicato come attenzione
sostenuta.

Il nostro amico, mentre cercava la persona, continuava a camminare e a
conversare con noi: attenzione divisa. Non sempre però siamo in grado di
svolgere più compiti alla volta. Sembra che l’attenzione necessaria per svolgere
un’attività dipenda dalla nostra capacità, che può migliorare con la pratica
(es: chi inizia a guidare l’automobile ha bisogno di tutta la sua attenzione,
successivamente riuscirà a svolgere anche altre attività).

L’attenzione nel controllo delle azioni è un altro tipo di attenzione e dipende
dagli scopi che perseguiamo e dalle priorità che attribuiamo alle nostre
azioni.
Le nostre esperienze quotidiane evidenziano quindi diversi fenomeni attentivi
consapevoli. La ricerca ha però dimostrato l’esistenza anche di fenomeni attentivi
inconsapevoli.
La
varietà
dei
fenomeni
attentivi
ha
indotto
gli
studiosi
ad
analizzarli
separatamente. In base alle sue molteplici funzioni sono state distinte diverse
tipologie di attenzione: attenzione selettiva, processi di controllo, attenzione
sostenuta e vigilanza.
2. CAPIRE L’ATTENZIONE: STRUMENTI E METODI
La psicologia dell’attenzione studia il comportamento e, in alcuni casi, le
reazioni fisiologiche, di soggetti istruiti a svolgere dei compiti in laboratorio nel
tentativo di descrivere che cosa succede nella mente dell’uomo fra la presentazione
di uno stimolo e la sua risposta. La maggior parte dei ricercatori usa la
metodologia dei tempi di reazione (TR): maggiore è il tempo che intercorre tra lo
stimolo e la risposta, maggiore sarà l’elaborazione richiesta. L’introspezione
fornisce dati riguardanti i processi consapevoli degli stati mentali, mentre i tempi
di reazione consentono di esaminare sia l’elaborazione mentale consapevole che
29
quella inconsapevole. Per trarre informazioni utili dalla metodologia dei TR
bisogna usare materiale e compiti sperimentali molto semplici, che richiedono la
selezione della risposta da un insieme limitato di possibilità (altrimenti non
saremo in grado di sapere a quali operazioni mentali si riferisce il tempo
misurato).
3. L’ATTENZIONE SELETTIVA
L’attenzione selettiva è la capacità di selezionare una o più fonti della
stimolazione interna o esterna, alla presenza di informazioni in competizione tra
loro: la capacità di concentrarsi su un oggetto e di elaborare in modo privilegiato
le informazioni rilevanti per gli scopi che perseguiamo (la percezione consapevole
è sempre selettiva). L’attenzione selettiva può riguardare diversi fenomeni: si può
prestare attenzione all’informazione in una data modalità sensoriale (visiva,
acustica, olfattiva, gustativa, propiocettiva), all’informazione presente in una certa
zona
(attenzione
visiva
spaziale),
ad
caratteristiche, come il colore o la forma,
un
particolare
oggetto,
a
specifiche
a elementi che appartengono a una
determinata classe o categoria (es. persone o edifici), a particolari movimenti del
corpo (attenzione motoria).
Non solo l’attenzione si caratterizza diversamente a seconda della sua funzione,
ma
anche
all’interno
dell’attenzione
selettiva
sono
state
individuate
caratteristiche funzionali specifiche.
3.1. Le funzioni dell’attenzione selettiva
Bisogna distinguere tra due approcci:
1.
i processi di selezione sono la conseguenza di limiti del sistema cognitivo
umano
e
hanno
la
funzione
di
proteggerlo
da
un
sovraccarico
di
informazioni;
2.
l’attenzione selettiva ha la funzione di rendere possibili comportamenti
coerenti, flessibili e sensibili ai cambiamenti.
Il fatto che il sistema cognitivo umano sia a capacità limitata è un assunto
largamente condiviso (probabilmente per l’apparente evidenza del concetto o la
credenza che non ci possano essere spiegazioni alternative). In realtà, le ricerche
cognitive non sono riuscite produrre risultati chiari sull’esistenza di questo limite.
Alcuni risultati empirici dimostrano, infatti, che siamo in grado di mantenere
informazioni
indipendenti
provenienti
da
messaggi
molto
complessi
e
che
cambiano di continuo senza per questo ottenere interferenza: la nostra capacità di
codifica , almeno in alcune circostanze, non sembrerebbe limitata.
30
È stato ipotizzato che l’attenzione selettiva è attenzione per l’azione. La necessità
di
eseguire azioni coerenti comporta che siamo in grado di distinguere quelle
opportune. Un meccanismo fondamentale per il controllo dell’azione è, quindi, la
selezione di parte dell’informazione disponibile e la sua separazione dalle altre
presenti (es. rappresentazione di una stanza: per arredarla/aula dove svolgere una
lezione). Selezioniamo l’informazione in base alle azioni che abbiamo intenzione
di compiere. La selezione tra fonti in competizione è essenziale per la coerenza
necessaria alla preparazione o pianificazione di tali azioni.
3.2. Selezione precoce o tardiva
Molta ricerca sull’attenzione selettiva si è concentrata sullo studio dei fattori che
determinano l’efficienza della selezione e su quanto estensivamente sono elaborati
gli stimoli ignorati. Negli anni ’50 e 60’ sono state proposte due importanti teorie:
la teoria della selezione precoce e quella della selezione tardiva. Entrambe queste
teorie si basano sull’ipotesi che la capacità selettiva dipenda da un meccanismo,
filtro, che permette il passaggio solo di una parte dell’informazione.
I primi studi sperimentali sono stati fatti sull’attenzione acustica, utilizzando il
paradigma dell’ascolto dicotico: al soggetto vengono presentati simultaneamente
due messaggi ed egli deve prestare attenzione solo ai messaggi presentati a un
orecchio e ignorare gli altri. Attraverso questi esperimenti è stato dimostrato che
possiamo selezionare l’informazione sulla base di determinate caratteristiche
fisiche (es. timbro della voce) e che è quasi impossibile ricordare il contenuto dei
messaggi ignorati, mentre è semplice riportare alcune semplici caratteristiche
vocali (es. voce maschile o femminile).
Broadbent ne ha dedotto che gli stimoli a cui non prestiamo attenzione non sono
pienamente elaborati e che esiste un filtro selettivo che opera in base alle
caratteristiche fisiche degli stimoli. La selezione avverrebbe quindi prima della
codifica semantica: selezione precoce. Questo modello sostiene che l’informazione
non rilevante non è ulteriormente elaborata e quando prestiamo attenzione a più
stimoli non siamo in grado di identificarli simultaneamente. La selezione della
risposta sarebbe un processo che avviene per difetto: solo uno stimolo evoca
un’azione.
Ricerche successive hanno dimostrato che spesso i soggetti riconoscono il loro
nome, anche se presentato all’orecchio a cui non prestano attenzione. Deutsch e
Deutsch hanno allora proposto la teoria della selezione tardiva: tutti i messaggi
sono elaborati fino alla codifica semantica. Secondo questa teoria il filtro selettivo
opera solo nel momento in cui si deve scegliere una risposta (meccanismi
dell’attenzione selettiva basati sui processi di selezione della risposta).
31
Nel 1974 Eriksen e Eriksen hanno introdotto un paradigma sperimentale per
studiare l’attenzione selettiva visiva. Il soggetto deve rispondere a due insiemi di
lettere premendo due tasti diversi. Ad esempio per le lettere H e K si deve premere
un tasto e per la S un altro. Il compito è rispondere, più velocemente possibile,
alla lettera presentata al centro di una stringa di 5. E’ risultato che la lettera H è
riconosciuta
più
difficilmente
nella
stringa
SSHSS,
che
richiede
risposte
incompatibili, che nella stringa KKHKK, in cui le risposte sono compatibili.
L’origine di questo effetto di interferenza sembra la competizione tra le risposte: se
i distrattori, cioè gli stimoli a cui non si deve prestare attenzione, non fossero stati
analizzati almeno fino all’attivazione della risposta, non vi sarebbe interferenza.
L’identità degli stimoli ignorati è quindi disponibile al sistema d’elaborazione.
Eriksen e Eriksen sostengono che due o più stimoli possano essere elaborati
contemporaneamente ed iniziare ad evocare una risposta e che un meccanismo
decisionale determini poi la risposta. I due ricercatori hanno anche dimostrato
che l’attenzione visiva non è in grado di escludere l’elaborazione dei distrattori se
questi sono presentati vicino al bersaglio.
L’idea di base della teoria della selezione tardiva è che il riconoscimento di
oggetti familiari procede senza selezione e senza limiti di capacità. Si assume ce il
processo consapevole di selezione inizi solo dopo che quest’analisi è stata
completata.
In
realtà,
gli
stimoli
a
cui
non
si
presta
attenzione
sono
riferiti
solo
occasionalmente e non da tutti.
In base a questo dato, Treisman sostiene che il filtro non sia del tipo tutto-oniente, come sostenuto da Broadbent e propone la teoria del filtro attenuato: il
filtro riduce solamente la forza delle informazioni a cui non si presta attenzione.
Le informazioni rispondenti alle aspettative, o personalmente rilevanti, hanno
maggiore attivazione e quindi raggiungono più facilmente la soglia della
consapevolezza. Tuttavia, quando l’informazione rappresenta un concetto associato
ad altri appena attivati, oppure è particolarmente interessante, anche una
parziale attivazione può essere sufficiente per il riconoscimento.
Le teorie della selezione precoce o tardiva assumono che la codifica di attributi
fisici sia precedente a quella dell’identità categoriale o di altri attributi
semantici. La ricerca più recente ha dimostrato che queste assunzioni non sono
giustificate e che la codifica spaziale e semantica si fonda su sistemi paralleli
funzionalmente distinti.
3.3. I meccanismi dell’attenzione selettiva
Oggi molti studiosi propendono per la selezione tardiva.
32
Come
riusciamo
ad
avere
una
selezione
efficiente?
L’attenzione
selettiva
probabilmente opera sia sull’informazione rilevante che su quella non rilevante
attraverso l’attivazione di due meccanismi:
a.
un meccanismo di attivazione che opera sia sull’informazione rilevante che
su quella non rilevante, attraverso il quale si arriva fino alla codifica semantica
degli stimoli;
b.
un meccanismo di inibizione attiva della risposta per l’informazione non
rilevante.
Le ricerche fin qui condotte hanno reso possibile differenziare le caratteristiche
dei processi di attivazione e inibizione. L’inibizione è un meccanismo attivo,
decade rapidamente ed è influenzato dal soggetto e dalle richieste del compito.
L’attivazione è un meccanismo più stabile e meno influenzabile dal soggetto e
dalle richieste del compito. L’attivazione si verifica quando si inizia ad avere
accesso
alla
rappresentazione
mestica.
L’inibizione
comincia
quando
si
selezionano i fattori a cui prestare attenzione.
Alla base dell’elaborazione dell’informazione vi è un’importante distinzione
funzionale: gli stimoli a cui si presta attenzione sono elaborati per essere
utilizzati; gli stimoli a cui non si presta attenzione sono elaborati in modo
automatico, spesso non sono consapevoli, né utilizzabili per la risposta o per il
ricordo. Questa differente elaborazione dell’informazione è funzionale ad un
adeguato adattamento ambientale: la prima da coerenza ai nostri comportamenti
e la seconda svolge una funzione di monitoraggio dell’ambiente, permettendoci di
rilevare informazioni potenzialmente interessanti, anche se non ricercate.
3.4. L’attenzione selettiva e la rappresentazione multipla delle informazioni
Alcuni dati sostengono la codifica indipendente dell’identità dello stimolo (cosa è)
e della sua posizione (dove è). Ad esempio gli studi fatti da Shallice e Warrington
hanno dimostrato che pazienti con tumore al lobo parietale sinistro erano in
grado di leggere, ma non di riconoscere la posizione delle singole lettere
all’interno delle parole. Sembra quindi che la codifica dell’identità sia separata
dalla codifica degli attributi fisici dello stimolo. Per spiegare come gli attributi
che appartengono a uno stesso oggetto siano combinati, Treisman ha proposto la
teoria dell’integrazione delle caratteristiche.
3.5. La teoria dell’integrazione delle caratteristiche
In base a questa teoria, gli oggetti visivi richiedono due successivi stadi di
elaborazione: preattivo (permette la rilevazione delle diverse caratteristiche degli
oggetti) e attentivo (combina queste caratteristiche, determinando le percezioni).
33
Questa
teoria
assume
che
le
caratteristiche
semplici
(colore,
grandezza,
orientamento e posizione) sono codificate automaticamente, in parallelo e senza
bisogno di attenzione focale. Tuttavia, se abbiamo bisogno di sapere se c’è un
oggetto
con
un
originariamente
particolare
codificate
in
orientamento
modo
e
separato,
colore,
devono
queste
caratteristiche,
essere
congiunte.
La
congiunzione può avvenire in due modi:
a. sulla base delle conoscenze immagazzinate;
b. questa teoria assume che lo spazio sia rappresentato tramite una mappa delle
posizioni e che gli oggetti siano rappresentati come punti nello spazio: l’attenzione
focalizzata su una particolare posizione permette il recupero delle caratteristiche
attive in quella posizione e crea una rappresentazione momentanea dell’oggetto
(object file), utilizzata per riconoscere l’oggetto e confrontarlo con le conoscenze
immagazzinate.
A sostegno di questa teoria vi sono numerosi esperimenti, in particolare sui
compiti di ricerca visiva. Ad esempio, se un soggetto deve individuare la presenza
di uno stimolo-bersaglio fra stimoli distrattori, quando il bersaglio è definito da
caratteristiche semplici (colore: lettera rossa tra lettere blu) queste attirano
automaticamente l’attenzione, senza bisogno di una ricerca seriale dello stimolobersaglio tra gli stimoli-distrattori, quindi il loro numero non avrà effetto sul
tempo di ricerca; se però gli stimoli-bersaglio sono definiti dalla congiunzione di
più caratteristiche (es. lettera T blu presentata con altre T rosse e L blu) è
necessaria una ricerca seriale e i tempi di elaborazione aumentano in funzione
del
numero
degli
stimoli-distrattori,
suggerendo
che
l’integrazione
delle
caratteristiche in oggetti sia un processo dipendente dall’attenzione.
3.6.
L’attenzione
visiva
spaziale:
selezione
dell’informazione
presente
in
determinate posizioni
L’attenzione visiva spaziale, ossia l’abilità di selezionare particolari porzioni
dell’ambiente esterno, è stata una delle componenti dell’attenzione selettiva
maggiormente studiate. È stato dimostrato che gli indici spaziali sono tra i più
efficaci nel guidare l’elaborazione. L’attenzione può essere orientata nel campo
visivo sia in modo esplicito (movimenti della testa e degli occhi) che in modo
implicito (essa non si rivolge necessariamente nella direzione verso cui spostiamo
lo sguardo).
L’attenzione visiva spaziale ha le seguenti caratteristiche:

l’attenzione può essere diffusa - quando le risorse attentive sono distribuite su
tutto il campo visivo - o focale - quando si concentra su una limitata porzione
dello spazio;
34

se l’attenzione è focale aumenta notevolmente la velocità di risposta per le
informazioni presenti in quella porzione di spazio;

l’ampiezza del fuoco attentivo è variabile a seconda delle richieste del
compito;

aumentando
l’area
del
fuoco
attentivo
diminuisce
l’efficienza
di
elaborazione;

l’orientamento dell’attenzione può essere automatico o volontario.
L’orientamento automatico non può essere interrotto, non dipende dalle nostre
aspettative e non è soggetto a interferenza da parte di un secondo compito. Questo
tipo di orientamento svolge una funzione essenziale per un efficace adattamento
ambientale (ci permette di rilevare eventi ambientali potenzialmente interessanti,
anche se non previsti o ricercati). L’orientamento volontario ci permette di
scegliere, fra i numerosi eventi ambientali disponibili, quelli che ci interessano.
La attenzione focalizzata è più efficace e trae benefici nella velocità di
elaborazione. Inoltre è stato evidenziato che ha necessità di una soglia inferiore
della stimolazione sensoriale (anche uno stimolo poco saliente ha maggiore
probabilità di essere rilevato) e dà risposte più veloci, cioè tempi di reazione -TRinferiori all’attenzione diffusa.
3.7. L’attenzione è orientata verso lo spazio o verso gli oggetti?
Alcuni studiosi sostengono che l’attenzione può essere rivolta verso specifici punti
dello spazio ambientale indipendentemente dal fatto che siano o meno occupate
da oggetti (space based view) e altri che può essere diretta solo verso oggetti e non
verso regioni del campo visivo (object based view). Un tipico esempio a
sostegno
della seconda ipotesi è l’effetto Stroop: il compito è di denominare il colore
dell’inchiostro con cui è scritto il nome di un certo colore, gli stimoli possono
essere incongruenti (parola verde stampata in rosso) o neutri (stringa di X
stampata in rosso); i tempi di reazione agli stimoli incongruenti sono maggiori di
quelli agli stimoli neutri. Questo dimostra che quando l’informazione rilevante e
quella non rilevante appartengono ad uno stesso oggetto diviene particolarmente
difficile filtrare l’informazione non rilevante. È quindi possibile sostenere che
l’attenzione probabilmente si dirige verso l’oggetto percepito.
Anche l’esperimento di Duncan costituisce un prova di questa ipotesi: gli stimoli
sono costituiti da de oggetti visivi, un rettangolo cui è sovrapposta una line
diagonale. I soggetti sono capaci di produrre simultaneamente giudizi che
riguardano lo stesso oggetto, mentre c’e’ una perdita di accuratezza quando si
devono emettere giudizi che riguardano i due oggetti. Questo risultato conferma
35
che l’attenzione seleziona l’informazione relativa ad un oggetto per volta, anche se
i due oggetti occupano la stessa posizione nello spazio visivo.
Studi recenti hanno dimostrato che i meccanismi attentivi basati sullo spazio o
sull’oggetto possono coesistere: sono scelti in base al compito che deve essere eseguito
(il meccanismo basato sullo spazio si attiva per le operazioni più semplici, come
trovare dov’è o se c’è un segnale, e quello basato sull’oggetto per quelle più
complesse, come riconoscere la forma).
4. I PROCESSI DI CONTROLLO VOLONTARI:LE FUNZIONI ESECUTIVE
Le nostre azioni sono orientate al raggiungimento di scopi. Spesso perseguiamo più
obiettivi contemporaneamente e la maggior parte delle nostre azioni si basa
sull’elaborazione di diverse componenti. È quindi necessario un sistema di
controllo che ci permetta di decidere quando
e come realizzare i nostri scopi e
che coordini le componenti di elaborazione. Le funzioni esecutive consistono nel
controllo volontario del comportamento cognitivo e motorio. Per esempio: la
quantità di attenzione è fornita in base alle richieste di elaborazione; la
sequenza di esecuzione di due o più compiti deve essere coordinata; il passaggio
da un compito all’altro deve poter essere controllato. Altre situazioni che
necessitano un controllo esecutivo sono quelle che richiedono a correzione di
errori, la produzione di sequenze di azione poco apprese o nuove, il superamento
di risposte abituali, la formazione di un’intenzione.
Esiste
una distinzione
fondamentale
fra
un
sistema
che controlla
e
una
moltitudine di processi che possono essere controllati. Questi ultimi non possono
iniziare in modo autonomo, ma sono attivati da stimoli esterni o dai processi di
controllo.
I
processi
di
controllo
volontario,
invece,
non
dipendono
dalla
stimolazione esterna.
4.1. Paradigmi di studio dei processi di controllo
Paradigma del doppio compito. Secondo la teoria del filtro di Broadbent (1958)
esiste un solo canale di elaborazione e quindi la combinazione di più compiti si
ottiene passando rapidamente da un compito all’altro.
In realtà alcune ricerche hanno dimostrato che due compiti complessi possono
essere
affrontati
contemporaneamente
senza
perdita
di
efficienza
cognitiva
(esperimento coi pianisti), ma attualmente non si può essere assolutamente certi di
tali risultati.
36
Sia Broadbent che Welford hanno suggerito l’esistenza di un sistema centrale che
limita la prestazione in condizioni di doppio compito (teorie strutturali). Welford
ha condotto degli esperimenti che dimostrano che quando due stimoli sono
presentati in rapida successione e il soggetto deve fornire una risposta veloce ad
entrambi, i tempi di reazione al secondo stimolo dipendono dal tempo che
intercorre tra la presentazione del primo e del secondo stimolo. Quando il secondo
stimolo è presentato dopo un intervallo molto breve, il tempo di reazione
aumenta. Welford ha chiamato questo ritardo nella risposta al secondo stimolo
periodo psicologico refrattario. Questo fenomeno dimostra l’esistenza di un limite
nell’elaborazione dell’informazione: l’elaborazione del primo stimolo deve essere
completata prima di poter iniziare la selezione della risposta successiva. Si tratta
di limiti centrali nella capacità di elaborazione umana. Si definiscono “centrali”
perché non dipendono dall’elaborazione sensoriale degli stimoli, ma sono a
livello dello stadio decisionale della risposta (la seconda risposta per essere
selezionata deve aspettare che la prima sia selezionata).
Altri
autori
sostengono
che
la
capacità
di
svolgere
due
o
più
compiti
contemporaneamente dipende dalla quantità di risorse disponibili (teorie delle
risorse). Alcuni ritengono che il sistema cognitivo umano disponga di un unico
sistema di risorse, altri che differenti tipi di risorse sono dedicate all’elaborazione
di diversi generi di informazioni. In questo caso non ci sarebbe un limite generale
nella capacità di elaborare più di un compito, ma limiti specifici che dipendono
dal tipo di compiti coinvolti (e quindi dalle risorse utilizzate).
La fondamentale differenza fra teorie strutturali e teorie delle risorse è che le
prime ritengono che l’attenzione possa essere rivolta verso un unico compito per
volta, mentre le seconde che l’attenzione possa essere divisa fra diversi compiti e
quindi che l’uomo sia in grado di distribuire, in modo flessibile, le risorse di
elaborazione che ha a disposizione. Secondo quest’orientamento le risorse saranno
distribuite in base agli scopi e alle priorità del momento. Questa capacità è una
funzione
esecutiva
molto
importante
perché
permette
una
gestione
del
comportamento particolarmente flessibile.
Paradigma del cambio di compito. Nella vita quotidiana spesso dobbiamo passare
velocemente da un insieme di operazioni cognitive ad un altro. Un semplice
approccio sperimentale per comprendere quest’abilità è il paradigma del cambio
di compito di Monsell (2003). Ai partecipanti viene chiesto di eseguire due
compiti. Stimoli diversi richiedono risposte diverse e si deve passare ogni quattro
stimoli da un compito all’altro. Il cambio di compito è quindi prevedibile in
anticipo dal soggetto. In genere i tempi di reazione al primo stimolo della serie di
4 sono più lenti di quelli agli stimoli successivi. Questo rallentamento rappresenta
37
il costo cognitivo per passare da un compito all’altro. La grandezza di questo costo
tende a diminuire con l’aumentare dell’intervallo tra la risposta del soggetto e la
presentazione dello stimolo successivo. Secondo Rogers e Monsell il costo totale del
cambio di compito è dato dalla somma di un costo di origine endogena (interna
all’organismo) e di un costo di origine esogena (determinato dal presentarsi dello
stimolo). Il costo totale è dovuto al recupero delle conoscenze necessarie per lo
svolgimento
del
nuovo
compito.
I
processi
di
cambio
compito
implicano
un’interazione tra le componenti di controllo endogeno ed esogeno che permette la
realizzazione di comportamenti flessibili e adatti al contesto ambientale.
4.2. Meccanismi e processi per il controllo volontario
Norman e Shallice sostengono l’esistenza di due modalità di controllo: una
automatica e l’altra volontaria.
I processi di controllo automatico sono attivati in situazioni abituali, quando il
comportamento
consiste
in
sequenza
di
azione
ben
apprese,
e
consentono
l’esecuzione di più azioni contemporaneamente.
I processi di controllo volontario sono attivati in situazioni nuove o che
richiedono
azioni
intenzionali.
Sono
temporanei,
facilmente
modificabili,
richiedono attenzione volontaria, elaborazione sequenziale e sono limitati dalla
nostra capacità attentava. I processi di controllo volontario hanno la funzione di
assicurare il massimo di flessibilità al nostro comportamento, che altrimenti si
limiterebbe ad attività stereotipate, e permettono di interrompere e correggere
sequenze d’azione già attivate.
Errori di attenzione (es. buttare via una cosa che serve e tenere quella che si
voleva buttare) si possono manifestare nella quotidianità di tutti noi. Questi
errori
possono
essere
prodotti
dall’inefficienza
dei
processi
di
controllo
e
monitoraggio del nostro comportamento.
Spesso commettiamo errori di cattura: siamo concentrati su una certa sequenza
d’azione o di pensiero e, inconsapevolmente, eseguiamo un’azione abituale ma
non appropriata (es. vogliamo telefonare a un collega e stiamo pensando a cosa
dirgli, e poi scopriamo di aver fatto il numero di telefono di casa). Questo può
accadere perché i gesti inizialmente compiuti hanno dato inizio a una sequenza
abituale di azioni. I processi di controllo volontario possono quindi subire
l’interferenza dei processi di controllo automatico.
Norman e Shallice (1986) ritengono che il controllo sulla realizzazione di
sequenze di azione e sull’integrazione delle componenti richieste per l’espressione
di un comportamento complesso è mediato da
schemi, o rappresentazioni
mnestiche, gerarchicamente organizzati. In molte situazioni funzioniamo come se
38
utilizzassimo un pilota automatico, mediante schemi prestabiliti. In certi casi è
però necessario trovare delle risposte nuove e originali e quindi sarebbe deleterio
usare schemi di azioni abituali. In queste situazioni la selezione degli schemi
deve essere modulata da un sistema di controllo: Sistema Attentivo Supervisore
(SAS). Questo sistema può aumentare il livello di attivazione di un determinato
schema, permettendogli di superare il livello di attivazione degli altri nella
competizione per il controllo dell’azione.
5. L’ATTENZIONE SOSTENUTA E LA VIGILANZA
È facile focalizzare l’attenzione per breve tempo su eventi salienti e prevedibili,
mentre è più difficile prestare attenzione, per lunghi periodi, ad eventi poco
frequenti e imprevedibili. L’attenzione sostenuta e la vigilanza riguardano
l’abilità di raggiungere e sostenere uno stato di allerta. La prima è la capacità di
mantenere l’attenzione su eventi critici per un considerevole periodo; la seconda è
la capacità di monitorare nel tempo eventi con bassa frequenza di accadimento.
1.1.
Paradigmi di studio dell’attenzione sostenuta e della vigilanza
L’attenzione sostenuta è esaminata con compiti che richiedono risposte veloci per
almeno 20 minuti, o che richiedono alti livelli di vigilanza, ma poche risposte.
In generale abbiamo difficoltà a mantenere la nostra attenzione soprattutto in
compiti complessi e poco salienti, così come in compiti troppo semplici, poco
interessanti e monotoni.
Un tipico compito di vigilanza richiede di monitorare una serie di stimoli per
individuare l’elemento critico. I soggetti sono esaminati per periodi prolungati e lo
stimolo da rilevare appare raramente e in modo non prevedibile. La capacità di
rilevare gli stimoli peggiora entro i primi 15 minuti, se i segnali sono salienti e
ben visibili. Quando i segnali sono degradati, vi è un decremento della vigilanza
anche entro i primi 5 minuti.
Inoltre, i compiti che richiedono elaborazione di stimoli visivi e tattili producono
in genere decrementi maggiori nella vigilanza rispetto agli stimoli acustici.
1.2.
Meccanismi e processi dell’attenzione sostenuta e della vigilanza
Questi processi sono influenzati da diversi fattori:

Livello di arousal (attivazione fisiologica): diminuisce in condizioni di
stimolazione sensoriale debole ed è facilitato dalle aspettative e dalle
situazioni che lo mantengono sollecitato (riposo, persone, rumore, feedback…)

Sensibilità del soggetto (capacità di rilevazione dello stimolo)

Criteri decisionali utilizzati per la risposta (probabilità stimata di
39
comparsa dello stimolo): in molti casi il decremento della vigilanza nella
percentuale di rilevazione non riguarda una diminuzione dell’efficienza
percettiva, ma riflette il passaggio ad un criterio di risposta più conservativo
(più tempo passa tra uno stimolo-bersaglio e l’altro e più si tende a diventare
conservativi.
I fattori psicofisici che determinano la vigilanza di distinguono in due
livelli. I fattori di primo livello riguardano le proprietà fisiche dello stimolo
(velocità, durata, ecc.). I fattori di secondo livello riguardano caratteristiche
del segnale che possono essere inferite dal soggetto, sulla base della sua
esperienza col compito (la probabilità del segnale, la sua regolarità, ecc.).
6. ATTENZIONE E COSCIENZA
Gli stimoli a cui non prestiamo attenzione possono influenzare le nostre risposte
successive, quindi siamo in grado di elaborare informazioni anche se non
dirigiamo la nostra attenzione su di esse.
In effetti, gran parte dei processi cognitivi avviene senza che ne abbiamo
consapevolezza.
La psicologia di inizio ‘900 attribuiva un ruolo cruciale ai processi mentali
consapevoli e l’introspezione era considerata un metodo di indagine scientifica.
Successivamente
il
scientificamente
la
comportamentismo
coscienza
e
sostenne
bandì
l’impossibilità
l’introspezione
a
di
studiare
favore
dello
sperimentalismo. Per molti anni i contenuti della coscienza non sono stati più
ritenuti un plausibile oggetto d’indagine.
Con la rivoluzione cognitivista negli anni ’50, si torna a considerare la
cognizione umana come espressione di processi consapevoli e inconsapevoli, che
possono essere indagati col metodo sperimentale. Tuttavia, fino agli anni ’80, la
coscienza era considerato uno stato della nostra mente senza nessun ruolo causale
nello svolgersi dell’attività mentale. Solo la recente scoperta di numerose sindromi
neuropsicologiche ha reso evidente la necessità di fare della coscienza un costrutto
teorico.
6.1.
Paradigmi di studio dei processi consapevoli e inconsapevoli
I primi studi rilevanti in questo senso sono quelli sulla percezione subliminale,
che dimostrano che uno stimolo è in grado di influenzare il comportamento
anche se è stato presentato velocemente o a un livello d’intensità troppo basso
perché il soggetto lo identifichi consapevolmente. Fra i paradigmi di ricerca
utilizzati vi è la tecnica del mascheramento visivo. Ne è un esempio il paradigma
40
del priming semantico in compiti di decisione lessicale in cui si deve decidere, il
più velocemente possibile, se una stringa di lettere è o non è una parola. La
stringa-bersaglio è preceduta da un prime, una parola associata per significato
all’eventuale parola dello stimolo-bersaglio. Un prime facilita la decisione
lessicale per le parole con significato associato (pane-burro). Nei paradigmi di
priming semantico mascherato, il prime non è percepito in maniera consapevole,
ciononostante continua ad agevolare la decisione lessicale, quando la parola
appartiene alla stessa area semantica.
Questo dimostra che l’elaborazione non consapevole di uno stimolo, presentato per
un tempo insufficiente per la sua percezione cosciente, influenza la prestazione
successiva che fa seguito all’elaborazione consapevole, fatta sotto il controllo
dell’attenzione.
6.2.
Problemi metodologici
I criteri utilizzati per determinare la consapevolezza del soggetto sono controversi.
È meglio determinare l’assenza di consapevolezza sulla base di compiti a scelta
forzata, che richiedono di indicare la presenza o l’assenza di stimolo. Gli
esperimenti di Marcel (1980) sono particolarmente convincenti perché dimostrano
l’effetto di parole mascherate, anche se il soggetto non è in grado di rilevarle.
6.3.
Meccanismi e funzioni dei processi consapevoli e inconsapevoli
Alcuni dati supportano l’idea che i processi consapevoli siano qualitativamente
differenti da quelli inconsapevoli. Marcel ipotizzò che l’influenza del contesto
sulla percezione degli oggetti e degli eventi sia limitata solo alle informazioni
percepite consapevolmente. Per verificare la sua teoria utilizzò una versione
modificata del compito di decisione lessicale con priming semantico, utilizzando
delle parole prime ambigue (ossia con più di un significato). L’esperimento ha
dimostrato che, in condizioni di non consapevolezza dello stimolo prime, l’effetto
di priming si verifica ugualmente, ma vengono attivati entrambi i significati
della parola ambigua. In questo caso il processo inconsapevole è automatico,
quindi veloce, ma non selettivo, a differenza del processo consapevole che è più
lento ma è strategico e quindi selettivo.
Una questione tuttora aperta è quella delle funzioni della consapevolezza. Se
parte dell’elaborazione umana è consapevole si potrebbe assumere che essa abbia
una qualche implicazione nell’adattamento dell’uomo all’ambiente. secondo
alcuni autori, invece, sebbene siamo consapevoli dei risultati dei processi, non
abbiamo accesso consapevole alle operazioni. Quindi la coscienza non ha alcun
41
ruolo
causale
nell’elaborazione
cognitiva.
Ciò
che
invece
gioca
un
ruolo
importante è l’attenzione focale.
Spesso si confonde l’attenzione con la consapevolezza, ma l’attenzione non è
sempre necessaria perché il prodotto di un’elaborazione abbia accesso alla
coscienza. L’attenzione costituisce una via privilegiata alla coscienza, ma non è la
sola. Ci sono casi in cui ci può essere consapevolezza indipendentemente
dall’attenzione (compiti di ascolto dicotico, abilità ben apprese). Sembra che la
consapevolezza giochi invece un ruolo causale nel mediare l’inibizione: i processi
inibitori necessitano che gli stimoli siano presenti nella coscienza (per poter essere
selezionati e inibiti).
5. APPRENDIMENTO
Il concetto di apprendimento si riferisce al cambiamento del comportamento di un
soggetto
di
fronte
a
una
situazione
stimolante,
che
viene
sperimentata
ripetutamente. Quindi l’esperienza è la condizione necessaria affinché si verifichi
un apprendimento.
Bisogna distinguere però i comportamenti nuovi manifestati da un soggetto che
sono il prodotto di un apprendimento dalle modificazioni del comportamento
dovute ad aspetti maturativi o a stati alterati temporanei (ad es. fatica, alcool,
droghe ecc).
L’apprendimento non si riferisce solo ad acquisizioni di nuove conoscenze e
capacità, ma anche
ad atteggiamenti, valori e abitudini, esso riguarda perciò
tutta la sfera della personalità e non solo l’ambito delle conoscenze e delle
capacità esecutive.
L’apprendimento è stato studiato sia dal comportamentismo, che più recentemente
dal cognitivismo.
Il
comportamentismo
aveva
alla
base
una
concezione
associazionista:
l’apprendimento avviene perché si fanno associazioni nuove tra stimoli e
comportamenti
di
risposta.
Vi
è
una
concezione
di
tipo
sommatorio
dell’apprendimento.
Secondo la concezione associazionista (e quindi del comportamentismo):

Il
soggetto
è
essenzialmente
passivo:
si
limita
a
registrare
gli
stimoli
ambientali;

Ciò che viene appreso è una copia dello stimolo presentato

L’apprendimento viene misurato confrontando il comportamento dopo la
situazione di apprendimento con quello precedente.
42

L’apprendimento viene valutato secondo i criteri della quantità e accuratezza
della performance (uniche misure scientificamente accertabili).
Da una concezione associazionista si passa a una concezione cognitivista, nella
quale
l’apprendimento
viene
studiato
come
un
processo
di
elaborazione
intelligente degli stimoli presenti nell’ambiente, un processo della memoria.
Secondo questa concezione:

L’apprendimento è un processo attivo: il soggetto interviene sull’ambiente
utilizzando diverse funzioni cognitive per elaborare gli stimoli nuovi;

L’apprendimento è un processo costruttivo: essendo il frutto di un complesso
processo di elaborazione, implica la modificazione di strutture cognitive che non
necessariamente si esprimono in comportamenti espliciti;

L’apprendimento è un processo interattivo
1. IL CONDIZIONAMENTO CLASSICO
Si parla di apprendimento tramite condizionamento quando i comportamenti o le
risposte vengono appresi in associazione alla comparsa di specifici stimoli. Nel
caso del condizionamento classico
ci si riferisce esclusivamente a risposte
fisiologiche di tipo riflesso (es. la salivazione), cioè a comportamenti automatici.
L’apprendimento consiste nell’emettere queste risposte automatiche a seguito di
stimoli “condizionati” (SC), stimoli che per loro natura non sarebbero idonei a
scatenarle.
La formulazione teorica del condizionamento classico si deve a Ivan Pavlov.
Conducendo degli studi sui processi digestivi dei cani, Pavlov si rese conto che i
cani che erano stati sottoposti a numerosi esperimenti, che comportavano la
presentazione di cibo, iniziavano a salivare prima di ricevere il cibo. I segnali
che accompagnavano l’offerta del cibo erano in grado di suscitare la risposta
riflessa (salivazione) riferita al cibo.
Pavlov studiò questo fenomeno in numerosi esperimenti. Un tipico esempio è il
seguente:
viene fatto suonare un campanello immediatamente prima che il cibo venga
messo nella bocca dell’animale; questa procedura viene ripetuta più volte fino a
che l’animale non inizia a salivare dopo il suono, anche in assenza del cibo.
Lo stimolo neutro (campanello) viene definito stimolo condizionato (SC), mentre lo
stimolo
che
naturalmente
evoca
il
riflesso
(cibo)
viene
definito
incondizionato (SI). La risposta originaria (data dal cibo) è la
stimolo
risposta
incondizionata (RI), mentre la risposta appresa è una risposta condizionata (RC).
43
Pavlov riuscì a dimostrare che uno stimolo inizialmente neutro, presentato per
molte volte in stretta contiguità temporale con uno stimolo che per sua natura
evoca una risposta riflessa (automatica) è in grado di evocare una risposta riflessa
simile.
La procedura di apprendimento richiede ripetute prove ed è efficace solo se lo SC
viene presentato immediatamente prima dello SI.
Dopo un certo numero di prove nelle quali lo SC non sia seguito dallo SI, la
risposta acquisita si estingue gradualmente. Gli effetti del condizionamento
permangono però a qualche livello (se i cani, dopo l’estinzione della risposta
acquisita, vengono sottoposti di nuovo alla procedura di condizionamento,
riapprendono più rapidamente).
Le variabili del condizionamento classico:
1. l’intensità e/o salienza degli SI e degli SC
2. l’intervallo di tempo che intercorre tra SC e SI (che deve essere molto breve)
3. la frequenza degli accoppiamenti degli stimoli: se anche lo SI non è
frequente, ma è sempre preceduto dallo SC, l’apprendimento sarà più
rapido.
Con il condizionamento classico possono essere indotte anche risposte che si
producono a seguito di SI spiacevoli o dolorosi. In questo caso gli stimoli
incondizionati sono chiamati avversativi e sono caratterizzati da risposte riflesse
differenti da specie a specie. La procedura del condizionamento è identica
a
quella attuata con gli SI desiderabili, talvolta però è sufficiente un singolo
accoppiamento SC-SI per produrre il condizionamento. In particolare negli esseri
umani questo fenomeno si presenta legato alle risposte emozionali (risposte
emotive condizionate).
Dopo che uno SC è in grado di dare una risposta simile a quella dello SI senza
che questo compaia, è possibile che un altro stimolo neutro, accoppiato allo SC,
diventi capace di evocare la medesima risposta (stimolo di second’ordine e di
terz’ordine). Un condizionamento di questo tipo viene definito condizionamento
di ordine superiore.
Generalizzazione e discriminazione
Per generalizzazione si intende quel fenomeno di estensione delle risposte
condizionate a tutti gli stimoli molto simili a quello condizionato (se un piccione
è condizionato a rispondere con una beccata a un suono a 100 Hz, risponderà in
modo analogo anche ad un suono a 99 Hz o a 101 Hz). Il processo di
44
generalizzazione è automatico, la tendenza a generalizzare è spontanea e presente
in tutte le specie.
Se invece si vuole che l’apprendimento condizionato si riferisca ad uno specifico
stimolo e non a stimoli simili, occorre inibire la generalizzazione sottoponendo il
soggetto
a
un’ulteriore
procedura
di
addestramento
che
viene
definita
condizionamento discriminativo.
Le procedure del condizionamento classico e di quello discriminativi hanno dato
contributi molto importanti allo studio della psicologia animale, consentendo tra
l’altro di analizzare le capacità sensoriali e percettive delle singole specie.
Il condizionamento classico nell’uomo
Gli esempi di condizionamento classico nell’uomo riguardano soprattutto le
risposte emotive.
Esperimento di Watson e Rayner sul piccolo Albert (bambino di un anno):
il
bambino amava giocare coi ratti bianchi del laboratorio e, in due occasioni,
mentre giocava con uno di questi animali, gli sperimentatori provocarono un forte
rumore (SI). La reazione di paura del bambino fu associata al ratto (SC) che aveva
in mano e fu generalizzata ad altri piccoli animali bianchi. In questo modo si
era ottenuta una risposta emotiva condizionata (fobia per i ratti bianchi).
Poiché
le
emozioni
si
esprimono
sempre
anche
attraverso
modificazioni
automatiche di tipo fisiologico, è sempre possibile condizionarle secondo il
paradigma pavloviano.
Nell’uomo si riscontrano gli stessi effetti gi generalizzazione e discriminazione
descritti per gli animali, ma la generalizzazione del condizionamento sembra
facilitata dalle sue capacità cognitive.
2. IL CONDIZIONAMENTO OPERANTE
Secondo
il
condizionamento
classico
il
soggetto
è
passivamente
reattivo
all’ambiente. Tuttavia abitualmente noi dobbiamo apprendere dei comportamenti
nuovi che attivamente producano cambiamenti nelle nostre azioni, in funzione
del raggiungimento di uno scopo (il cane impara a grattare la porta per uscire). Le
modificazioni del comportamento che aumentano le capacità o le conoscenze in
funzione di un’interazione attiva e funzionale con l’ambiente vengono definite
risposte strumentali (Skinner le chiamerà risposte operanti). Il primo ad occuparsi
di questo tipo di apprendimenti fu Thorndike che individuò l’apprendimento per
prove ed errori e fece molti studi sulle modalità con cui i gatti riuscivano ad
apprendere ad uscire da una gabbia, definita gabbia-problema. Gatti deprivati
del cibo da molte ore venivano inseriti uno per volta nella gabbia-problema,
45
fuori dalla quale era collocato del cibo. Il gatto faceva immediatamente molti
tentativi di uscire, facendo diversi movimenti, fino a che, in modo casuale,
urtava contro la leva che faceva sollevare lo sportello di uscita. Il gatto veniva
introdotto varie volte nella gabbia, nelle stesse condizioni, e ad ogni nuova prova
compiva sempre meno movimenti inutili, fino a che riusciva a compiere il solo
movimento utile.
In
questo
tipo
di
apprendimento
non
vi
era
un
intervento
intelligente
dell’animale (tentativi a caso).
La relazione tra tentativi casuali e azione efficace fu chiamata “legge dell’effetto”:
le azioni che producono effetti soddisfacenti hanno più probabilità di essere
ripetute quando si presenti la medesima situazione, mentre quelle che producono
effetti spiacevoli o inefficaci hanno progressivamente meno probabilità di essere
ripetute.
Thorndike introduceva il concetto di motivazione: il successo che si ottiene
attraverso un comportamento agisce come premio e rinforzo per l’azione compiuta,
che avrà così più probabilità di essere ripetuta, rafforzando l’apprendimento. Al
contrario, l’insuccesso funziona come punizione e porta il soggetto a provare
comportamenti differenti. Thorndike verificò inoltre che la punizione è assai
meno efficace nel diminuire la probabilità che un comportamento si verifichi di
quanto lo sia il premio nell’aumentare la probabilità: il premio ha maggior
potere della punizione.
Un corollario della legge dell’effetto è la legge dell’esercizio: un apprendimento per
prove ed errori sarà anche funzione della quantità di ripetizioni (l’esercizio è
alla base di questo apprendimento).
Anche questi apprendimenti sono suscettibili di generalizzazione (che Thorndike
chiama
irradiazione
dell’effetto)
e
possono
essere
condizionati
alla
discriminazione.
Skinner e l’apprendimento per condizionamento operante
Skinner definì risposte operanti i comportamenti che producevano un effetto
sull’ambiente e condizionamento operante il processo di apprendimento in base al
quale gli effetti di una risposta operante (ricompensa o punizione) determinano la
probabilità che quella risposta sia ripetuta.
Skinner ideò un dispositivo sperimentale detto Skinner box: una gabbia che
all’interno aveva una leva o una barra su cui l’animale poteva agire in modo da
produrre un preciso effetto (ricevere cibo o acqua). Il pavimento era elettrificabile
in caso si volessero fornire stimoli avversativi. Le risposte degli animali venivano
registrate su una striscia di carta scorrevole collegata alla gabbia. All’inizio di
46
ogni sessione sperimentale gli animali erano deprivati del cibo o dell’acqua, a
seconda dello stimolo di rinforzo che si intendeva usare. La prova consisteva nel
creare
le
condizioni
all’interno
della
gabbia
affinché
l’animale
premesse
accidentalmente la leva. A seguito di questa azione si produceva un preciso effetto:
ricevere cibo o acqua. L’animale che, ad esempio, era deprivato di cibo tendeva a
ripetere l’azione che gliene procurava.
Nel condizionamento operante un apprendimento viene acquisito solo se il nuovo
comportamento viene seguito da un rinforzo. Si ha quindi una modificazione del
paradigma S-R in (S)-R-R (Risposta-Rinforzo). S è tra parentesi perché nella
maggior parte dei casi si tratta di un comportamento spontaneo messo in atto dal
soggetto che viene rinforzato, senza che ci sia uno stimolo precedente.
Quindi, se una risposta operante cessa di essere rinforzata, la sua frequenza
diminuisce gradualmente.
I
rinforzi
non
sono
più
necessari
quando
i
comportamenti
diventano
automatizzati o diventano abitudini e, affinché si estinguano, bisogna procedere
ad un nuovo condizionamento di comportamenti incompatibili.
I rinforzi
I rinforzi sono quegli stimoli o effetti che seguono una risposta e che determinano
la probabilità che si ripeta.
Tipi di rinforzo:

Rinforzi primari e secondari (in base ai bisogni su cui agiscono)

Rinforzi Positivi e Negativi (in base alla valenza che hanno per il soggetto): il
rinforzo negativo è ciò che aumenta la possibilità di far cessare uno stimolo
negativo (imparare a evitare o interrompere qualcosa di spiacevole), non vanno
confusi con le punizioni.

Rinforzi Continui o Parziali ( in base alla frequenza di somministrazione-
sempre o a intermittenza): Skinner dimostrò che lo schema a rapporto variabile è
in assoluto il più efficace.
Funzione dei rinforzi:

I rinforzi positivi (ricompense) sono necessari per apprendere

I rinforzi negativi sono necessari per apprendere a evitare una situazione
spiacevole per il soggetto tramite evitamento/fuga o interruzione stimolo doloroso.

La punizione è utile per inibire un comportamento indesiderato, ma non lo
estingue. Skinner riteneva che un metodo assai più efficace della punizione per
inibire un comportamento indesiderato fosse quello di rinforzare positivamente
un comportamento con esso incompatibile (comportamento alternativo). È sempre
necessario valutare se il soggetto conosca o no un comportamento alternativo a
47
quello indesiderato. Infatti se una punizione viene ripetuta molte volte, senza che
il soggetto abbia un’alternativa, l’inibizione si generalizza.
Variabili nel condizionamento operante:

La forza o la salienza dei rinforzi o delle punizioni;

L’intervallo di tempo

La frequenza delle conseguenze.
Il modellamento
Nel
condizionamento
operante
il
rinforzo
viene
dato
solo
dopo
che
il
comportamento è stato emesso, ma non è sempre possibile che i soggetti siano in
grado
di
emettere
spontaneamente
quel
comportamento
(es.
comportamenti
complessi o il caso in cui i soggetti siano animali o bambini piccoli). In questi
casi si procede per approssimazioni successive: rinforzando ogni comportamento
che si approssima alla risposta desiderata (modellamento). Quando il soggetto da
la risposta desiderata, questa diventa l’unica premiata.
Condizionamento operante nell’uomo
Molti dei comportamenti umani, consapevoli o inconsapevoli, sono prodotti e
modulati da condizionamenti operanti. La maggior parte degli esseri umani viene
condizionata con rinforzi secondari. Il principio di Premack estende il valore del
rinforzo anche alle attività: un’attività piacevole può agire da rinforzo per
un’attività spiacevole (andare a una festa dopo aver finito i compiti).
Anche
le
applicazioni
cliniche
del
condizionamento
operante
sono
molto
importanti. Nella terapia del comportamento si lavora abitualmente sul processo
di rinforzo per portare i pazienti a modificare i comportamenti indesiderati.
3. IL COMPORTAMENTISMO INTENZIONALE DI TOLMAN
Fin qui il comportamento viene rigidamente interpretato come risposta osservabile
a stimoli di varia natura.
Alcuni psicologi comportamentisti sostenevano, invece, l’esistenza di costrutti
mentali
ipotetici
in
grado
di
spiegare
e
prevedere
più
adeguatamente
il
comportamento (teoria S-O-R). Tolman propose la teoria del comportamentismo
intenzionale.
La teoria di Tolman si fonda su alcuni assunti di base:

L’apprendimento si manifesta solo se c’è uno scopo per compiere l’azione
appresa, il che presuppone un’intenzione da parte del soggetto;
48

Esistono
mediazione
delle
tra
variabili
la
interferenti
situazione
o
stimolante
intervenienti,
e
la
risposta
responsabili
dei
della
soggetti
(es.
caratteristiche dei soggetti, natura dei bisogni, ecc.), che non sono indagabili
direttamente, ma vanno tenute in conto come costrutti ipotetici
Tolman riuscì a dimostrare come i soggetti nel mettere in atto un comportamento,
utilizzano i dati presenti nell’ambiente e la sua organizzazione spaziale,
costruendosi nel corso dell’esperienza una rappresentazione mentale dell’ambiente
(mappa cognitiva).
Dimostrò inoltre ce i soggetti scelgono di eseguire quelle azioni che permettono loro
di raggiungere lo scopo nel modo più breve e facile (principio del minimo sforzo).
Labirinto di Tolman: alcuni ratti furono messi in un labirinto al termine del
quale era collocato del cibo. Tre percorsi alternativi permettevano di raggiungere
la meta. I ratti furono addestrati a percorrere questo labirinto e si osservò che,
quando tutte e tre le vie erano aperte i ratti sceglievano la più breve. Se veniva
bloccato il percorso più breve, i ratti tornavano indietro e sceglievano il secondo il
lunghezza. Quando il primo percorso era bloccato nel tratto finale, comune al
primo e al secondo percorso, gli animali tornavano indietro e imboccavano il
terzo. Evidentemente avevano in mente l’organizzazione spaziale del labirinto ed
erano in grado di valutare che se il blocco era in quel punto la scelta del secondo
percorso non li avrebe comunque portati alla meta (comportamento intelligente).
Un altro fenomeno importante scoperto da Tolman fu quello dell’apprendimento
latente: gli animali imparano l’organizzazione spaziale del loro ambiente
attraverso l’esplorazione, anche senza rinforzi; tuttavia questi sono necessari
affinché l’apprendimento venga manifestato.
Labirinto a T di Tolman: l’esperimento consisteva nel mettere tre gruppi di ratti
in un labirinto molto complesso, con differenti modalità di rinforzo. Il primo
gruppo veniva introdotto nel labirinto una volta al giorno e, all’uscita non
riceveva alcuna ricompensa. I ratti, col passare dei giorni diminuivano di poco i
loro errori e vagavano per il labirinto. Il secondo gruppo veniva introdotto
quotidianamente nel labirinto e all’uscita riceveva del cibo. Nel corso dei giorni,
gli animali riducevano gli errori, uscendo dal labirinto sempre più in fretta. Il
terzo gruppo fu trattato come il primo per 10 giorni, ma all’undicesimo giorno fu
ricompensato con del cibo. I ratti di questo gruppo si comportarono per 11 giorni
come quelli che non avevano ricevuto ricompensa e, alla dodicesima prova si
comportarono come quelli del secondo gruppo.
49
Nel caso dell’ultimo gruppo, il rinforzo non era necessario per apprendere, ma per
manifestare un apprendimento.
4. L’APPRENDIMENTO NELLA TEORIA DELLA GESTALT
Gli psicologi della Gestalt erano interessati soprattutto alle leggi generali che
governano
la
percezione
umana
e
i
processi
di
soluzione
dei
problemi.
L’apprendimento era considerato un fenomeno secondario, derivato dai primi due.
I gestaltisti attaccarono Thorndike, sostenendo che la casualità della soluzione del
problema da parte degli animali da lui studiati era dovuta alla condizione
sperimentale che non consentiva all’animale di esprimere un comportamento
intelligente.
Gli esperimenti di Koehler sugli scimpanzé erano tesi a dimostrare come questi
animali realizzassero degli apprendimenti per intuizione (insight), utilizzando
procedure intelligenti di analisi dell’ambiente per raggiungere lo scopo.
Apprendimento per insight: Koehler mise alcune banane fuori dalla gabbia ad
una distanza superiore alla lunghezza del braccio dell’animale. All’interno della
gabbia mise un bastone. Lo scimpanzé faceva un primo tentativo di raggiungere la
banana col braccio e, non riuscendoci, ispezionava l’ambiente fino a che non
individuava il bastone, con il quale faceva un secondo tentativo, raggiungendo la
meta.
I compiti sperimentali venivano via via complicati, ma gli scimpanzé riuscivano
sempre
a risolvere il problema. Koehler ne dedusse che i tentativi erano
intelligenti
nella
misura
in
cui
l’animale,
messo
in
una
condizione
problematica, esaminava le condizioni dell’ambiente, quindi selezionava gli
elementi pertinenti all’ipotesi di soluzione organizzandoli in una nuova totalità
dotata di significato.
Una volta trovata la soluzione gli animali, quando venivano posti in una
condizione analoga, ripetevano con successo l’azione utile (ripetizione del
comportamento definita apprendimento per insight).
L’assunto dei gestaltisti è che l’apprendimento è guidato e determinato dalle leggi
della percezione.
5. APPRENDIMENTO SOCIALE O OSSERVATIVO
Questo
autore
è
fondamentale
perché
fa
da
ponte
tra
la
concezione
comportamentista e quella cognitivista.
50
Bandura fa infatti riferimento all’apprendimento tramite rinforzo, ma è il primo
autore che introduce i processi cognitivi come condizione per apprendere
attraverso l’imitazione di un modello sociale.
La teoria dell’apprendimento sociale sostiene che gran parte del comportamento
umano si ottiene in modo indiretto, osservando le risposte fornite da un altro
soggetto e cercando di imitarlo (studi sui bambini piccoli).
Fattori che determinano l’efficacia dell’apprendimento imitativo:

Attenzione

Processi di rappresentazione in memoria di ciò che è stato osservato

Capacità di riproduzione motoria

Rinforzo
(Bandura
come
Tolman riteneva
che
il rinforzo
fosse
legato
all’esecuzione della risposta più che all’apprendimento): i comportamenti del
modello rinforzati positivamente vengono meglio appresi.
Anche il valore attribuito al modello può essere un elemento importante di
rinforzo.
5. L’APPRENDIMENTO NELLA PROSPETTIVA COGNITIVISTA
L’approccio
cognitivista
prende
distanza
dai
modelli
associazionisti
del
comportamentismo spostando la centralità dal concetto di associazione a quello di
rappresentazione, come in parte anticipato da Tolman con il concetto di mappe
cognitive. L’innovazione principale del cognitivismo è quella di esaltare il ruolo
attivo del soggetto nella elaborazione della realtà circostante, dando maggior
rilievo ai processi interni di elaborazione e rappresentazione.
E’
bene
notare,
tuttavia,
che
con
l’affermarsi
del
cognitivismo
lo
studio
dell’apprendimento subisce una radicale trasformazione rispetto alla tradizione
precedente.
APPRENDIMENTO
COME
PROCESSO.
Se
nella
prospettiva
comportamentista
l’apprendimento viene studiato attraverso il comportamento manifesto e trattato
come un fenomeno ‘unitario’, nella nuova prospettiva cognitivista si osserva una
frammentazione dell’ambito di indagine e l’apprendimento viene ridefinito in
relazione alle diverse componenti cognitive coinvolte. In particolare, si verifica
una forte associazione tra lo studio dell’apprendimento e quello della memoria,
in quanto, per poter imparare, è innanzitutto necessario saper codificare,
immagazzinare, integrare e ricordare un’informazione. Diventa particolarmente
importante in questo contesto il concetto di schema (cfr
CAP.
6), inteso come
struttura di conoscenza che guida il processo di elaborazione e viene a sua volta
aggiornato in base alle nuove informazioni in entrata, in un processo costruttivo e
dinamico. La modalità attraverso la quale le conoscenze già possedute da una
51
persona
(schemi, concetti,
teorie
ecc.)
influenzano
l’acquisizione
di
nuove
conoscenze viene definita “top-down” (dall’alto al basso), viceversa, la modalità
in cui invece è la realtà percepita che attiva processi cognitivi di apprendimento
o revisione di schemi precedenti è definita “bottom-up” (dal basso verso l’alto).
L’APPRENDIMENTO COINVOLGE MOLTI PROCESSI COGNITIVI Imparare a leggere,
per esempio, implica l’integrazione di abilità linguistiche, mnestiche e percettive;
saper guidare un’automobile significa avere buone abilità di integrazione visuomotoria, e capacità attentive; l’apprendimento in ambito scolastico richiede sia
competenze specifiche, come il calcolo e la lettura, sia competenze generali, come
quelle di applicare strategie, fare inferenze e mettere in atto processi di astrazione.
Un altro aspetto che è bene ricordare è che il primo approccio allo studio
dell’apprendimento in ambito cognitivista, che aveva come oggetto lo studio
dell’elaborazione umana dell’informazione (paradigma dello Human Information
Processing), è stato fortemente influenzato dalla metafora mente-computer.
MODELLI HIP. Questo ha portato tra gli anni ’70 e ’80 allo sviluppo di modelli di
apprendimento, articolati in una serie di passaggi (regole di produzione) rigidi,
con strutture gerarchice simili a quelle di un programma implementabile in un
computer. Un importante punto di svolta nello studio dell’apprendimento e dei
processi cognitivi più in generale è costituito dall’introduzione della teoria
modulare
di
J.A.Fodor
(1983,
2001).
MODELLI
MODULARI.
è
importante
richiamare l’importanza per la spiegazione del funzionamento della mente, della
distinzione di base proposta da Fodor, tra abilità specifiche, definite ‘modulari’, e
abilità generali legate ai processi di pensiero superiori. Vengono postulati dei
moduli che ricevono informazioni dai sistemi sensoriali. Le elaborano ad un
primo livello, e sono descritti come innati, altamente specializzati ed efficienti,
poco
flessibili
ma
molto
veloci
nell’elaborazione
delle
informazioni
ed
“informazionalmente incapsulati” (non hanno cioè accesso ai contenuti e alle
informazioni provenienti da altri moduli). Viene postulato inoltre un processore
centrale, più lento nei processi di elaborazione ma più flessibile, che riceve dati
dai moduli ed ha la funzione di integrare e interpretare le informazioni
specifiche. Più recentemente, il modello modulare ha dato origine a critiche e
revisioni, in parte da parte dello stesso Fodor (2001). Mike Anderson (1992), nel
modello della Minima Architettura Cognitiva, introduce il concetto più flessibile
di ‘processori specifici’ (ad esempio, per la comprensione dello spazio) che
mantengono la specificità funzionale dei moduli, ma non sono completamente
isolati rispetto al funzionamento cognitivo generale. Le facoltà orizzontali,
deputate all’integrazione delle informazioni che derivano dai processori specifici,
sarebbero invece determinate da un Meccanismo di Processamento di Base (BPM)
52
che si esprime primariamente in termini di velocità di elaborazione e può
variare da individuo a individuo dando origine a differenze individuali in
termini di abilità intellettive. Una lentezza di funzionamento del BMP potrebbe
quindi, in alcuni casi, ostacolare lo sviluppo dei processi specifici, che da esso in
parte dipendono. La distinzione tra abilità specifiche e generali, ha influito
fortemente sugli studi nell’ambito dell’apprendimento, sia in ambito teorico che
clinico. La dislessia, ad esempio, è oggi definita come un Disturbo Specifico
dell’Apprendimento, e si sostiene che il deficit alla base sia di tipo modulare,
primariamente fonologico, ma con possibili alterazioni anche nell’elaborazione
visiva (Vellutino, Fletcher, Snowling, Scanlon, 2004). I dislessici hanno una
difficoltà specifica nel riconoscimento ed elaborazione delle lettere in forma
scritta, i grafemi, ma non presentano alcun tipo di deficit nelle funzioni
cognitive generali. Questa distinzione ha importanti implicazioni sia in ambito
terapeutico,
sia in termini di comprensione del disagio per il soggetto e i
familiari. Avere difficoltà a scuola per via di un deficit specifico sul quale si può
intervenire, è una situazione più gestibile rispetto a quella in cui si attribuisce al
soggetto mancanza di volontà o scarsa intelligenza, come avveniva un tempo
quando non si era in possesso di tali conoscenze. In sintesi possiamo concludere
che l’approccio cognitivista ha completamente modificato l’oggetto di studio
nell’ambito della psicologia dell’apprendimento.
6. MEMORIA
La memoria è costituita da un insieme di componenti e di processi responsabili
sia dell’elaborazione dell’informazione che del suo immagazzinamento e del suo
recupero.
La memoria non può essere pensata come un archivio: gli eventi originali vengono
continuamente rielaborati e riorganizzati.
LA MEMORIA
I PROCESSI DELLA MEMORIA
1. ELABORAZIONE (processing)
2. IMMAGAZZINAMENTO (encoding)
3. RECUPERO (RICORDO/retrieval/remembering)
4. OBLIO (forgetting)
53
1- ELABORAZIONE
In queste operazioni sono coinvolte anche l'attenzione, la percezione, il
ragionamento.
-A- QUALITA' DELL'ELABORAZIONE
Intenzionale
Incidentale
Implicita
-B- OPERAZIONI
a) Ripasso:
- Reiterazione (rehearsal) o Ripasso di mantenimento (nella Memoria di
lavoro).
- Ripasso elaborativo, utilizza delle strategie di comprensione e
integrazione con altre conoscenze.
b) Profondità di elaborazione
Elaborare significa dare un significato all'informazione e connetterla
con le conoscenze preesistenti.
La profondità dipende da quanto l'elaborazione si sposta dalle
caratteristiche percettive
(elaborazione superficiale), alle caratteristiche concettuali (elaborazione
profonda).
La scelta del grado di profondità dell'elaborazione dipende dagli scopi
delle attività che si devono svolgere (es. correzione di bozze,
riconoscimento di una rima, comprensione di un testo ecc.).
c) Organizzazione
Imposta dal soggetto
Imposta dal materiale
-ALCUNI TIPI DI ORGANIZZAZIONE (STRATEGIE)
54
La categorizzazione: un processo guidato dai concetti che la persona
possiede.
Es. lista di parole (treno, canarino, pera, nave, banana, cane…), le parole
si ricordano meglio se si accorpano in base alla categoria (mezzi di
trasporto, frutta, animali…)
L’organizzazione tematica: processo che utilizza le conoscenze che la
persona possiede, per creare dei legami tra i singoli elementi da
ricordare, anche costruendo brevi storie.
Esempio sulla lista precedente: A Messina il treno è stato caricato sulla
nave, la signora che era nel mio scompartimento aveva una gabbia con
un canarino che mangiava un pezzetto di pera, mentre al cane cercava
di dare un boccone della sua banana.
Le Mnemotecniche: strategie che seguono regole precise, che vanno seguite
in modo sistematico, la loro utilità consiste nel dare una organizzazione
a materiale non organizzato.
Alcune si basano sull’uso delle immagini come ad esempio il metodo dei
loci, la formazione di immagini bizzarre interattive, ecc.
Altre invece si basano sul linguaggio, come gli acronimi:
Es. FIAT (Fabbrica Italiana Automobili Torino)
gli acrostici
Es. FREUD (Fare Ridere E’ Un Dono),
le rime
Es. 30 giorni ha novembre con april giugno e settembre, di 28 ce n’è uno,
tutti gli altri ne han 31
C- EFFETTO DEL CONTESTO (ambientale, cognitivo, emozionale)
Il contesto viene elaborato insieme all’informazione (principio di
specificità di codifica)
Nel termine contesto rientrano:
a) L’ambiente fisico
b) Gli elementi associati allo stimolo che vengono percepiti insieme a
questo
c) Lo stato emozionale
d) Le conoscenze attivate, i pensieri, le considerazioni fatte durante la
percezione dello stimolo (contesto cognitivo)
55
2- IMMAGAZZINAMENTO (storage)
LA RAPPRESENTAZIONE DELLE CONOSCENZE
Modelli a rete
I concetti sono organizzati in una struttura gerarchica a rete, che rispetta
l'organizzazione logica di inclusione delle categorie. (Collins e Quillian
1969).
La distanza tra concetti può non rispettare l'ordine logico-gerarchico, ma
piuttosto rispettare criteri psicologici che non sempre coincidono con
quelli logici.(Rips, Shoben e Smith 1973).
Le distanze associative sono diverse anche tra esemplari di una stessa
categoria in base al criterio della tipicità (Rosh 1975,1978)
Modello di rete semantica
Le tracce mnestiche sono organizzate in un reticolo, di cui rappresentano
i nodi, le associazioni tra i nodi rappresentano i legami. La distanza
associativa tra nodi riflette la facilità con cui l'attivazione si propaga da
un'informazione all'altra.
Principio di propagazione dell'attivazione
Modelli che ipotizzano SCHEMI
Gli schemi
a) comprendono un nucleo fisso (valore di default) e componenti
variabili
b) possono essere inseriti gli uni negli altri gerarchicamente
c) rappresentano la conoscenza a qualsiasi livello di astrazione
d) sistemi di accettazione delle informazioni
56
e) guidano la percezione e il riconoscimento
3-RECUPERO DELL’INFORMAZIONE (RICORDO – RETRIEVAL)
RICORDO LIBERO
RICORDO GUIDATO
RICONOSCIMENTO
4- OBLIO
Cause:
a) interferenza (proattiva o retroattiva)
b) ripasso insufficiente
c) disturbi organici (amnesie)
il trascorrere del tempo influenza a seconda di come è stato vissuto il
tempo (pieno o vuoto) e a seconda della quantità di ripassi o
ripensamenti che sono stati fatti dell’informazione.
ARCHITETTURA DELLA MEMORIA
MODELLO RECENTE (1994- TULVING E SCHACTER)
MEMORIA A BREVE TERMINE
MBT
MEMORIA DI LAVORO (WORKING
MEMORY- WM):
1-Ciclo fonologico (materiale
verbale)
57
4 componenti:
2-Taccuino visuo-spaziale
3 sottosistemi che trattengono
(immagini visive e spaziali)
l’informazione e 1 processore
3- Buffer episodico (azione di
(insieme di processi cognitivi
integrazione)
esecutivi e di controllo)
-4-Esecutivo Centrale, si tratta di
, un insieme di processi esecutivi
(programmazione, controllo
attenzione, recupero informazioni
da MBT e MLT a seconda delle
necessità dei compiti da eseguire,
esecuzione compiti, controllo
automatismi, ecc
MEMORIA A LUNGO TERMINE
1- SISTEMA PROCEDURALE
MLT
4 sistemi
2- SISTEMA DI
RAPPRESENTAZIONE
PERCETTIVA- PRS
3-SISTEMA SEMANTICO
4- SISTEMA EPISODICO.
Studiare bene la Memoria di Lavoro e le sue componenti .
Per i contenuti dei sistemi di memoria e le loro definizioni vedi il testo.
In particolare vedere la memoria a lungo termine di eventi che può essere
semantica se l’evento è definito nel tempo e nello spazio (Kennedy è stato
ucciso a Dallas nel 1963) ma può essere episodica quando l’evento è stato
direttamente vissuto dal soggetto (ho visto ieri un documentario
sull’uccisione di Kennedy a Dallas).
58
59