I PROCESSI COGNITIVI Cenni storici LO STRUTTURALISMO

I PROCESSI COGNITIVI
Cenni storici
LO STRUTTURALISMO
Nasce con Wundt, fisiologo che costruì il primo laboratorio di psicologia sperimentale a Lipsia. Wundt si era circondato
da abili ricercatori che studiavano la fisiologia degli organi di senso e l’organizzazione del sistema nervoso. Wundt e i
ricercatori pensavano che le percezioni complesse, attraverso le quali abbiamo una rappresentazione del mondo, altro
non fossero che l’elaborazione delle sensazioni elementari date da un’esperienza diretta o immediata. Per capire
queste percezioni complesse si utilizzava un metodo chiamato introspezione, che consiste nel cogliere e riportare i
processi mentale che hanno luogo durante la presentazione di uno stimolo esterno. Era però necessario un periodo di
addestramento che permettesse di riportare le sensazioni elementari conseguenti ad una esperienza immediata e non
le percezioni complesse frutto dell’esperienza passata come il significato o le funzioni degli oggetti (p.e. penna
stilografica nera). Il metodo dell'introspezione doveva portare a scomporre i processi psichici fino a raggiungere la loro
parte più piccola e non ulteriormente scomponibile → <<atomi psichici>> o <<unità psichiche>>. Strutturalismo ed
introspezione non erano destinati a durare a lungo perché si basavano sul resoconto verbale. Un metodo che si basa su
resoconto verbale ha dei limiti i quali:
• non si possono studiare le menti di bambini, malati mentali e animali;
• altre ricerche dimostravano l'importanza dell'attività inconscia (quindi non descrivibile a parole) nei comportamenti
umani;
•l'esperienza della sensazione elementare che una stimolazione sensoriale suscita è del tutto personale.
Per tutti questi motivi lo strutturalismo dovette lasciare il posto ad una nuova corrente di pensiero: il funzionalismo.
IL FUNZIONALISMO
il funzionalismo si sviluppa in America ad opera di William James e John Dewey che, sulla scia della teoria
evoluzionistica di Darwin, sostenevano che il comportamento umano deve essere considerato come un processo di
adattamento dell'organismo all'ambiente. I processi mentali verrebbero messi in atto per aiutare l'organismo a
sopravvivere → <<a cosa servono i processi mentali?>>. I funzionalisti dilatano la gamma di processi mentali studiati
dagli strutturalisti, occupandosi anche della motivazione, del pensiero e dell'apprendimento. Questo stretto legame
che si crea tra comportamento e condizioni ambientali porta la psicologia a studiare il comportamento. In questo clima
nasce dunque il comportamentismo.
IL COMPORTAMENTISMO
John Watson → psicologia come scienza sperimentale → oggetti di studio osservabili in maniera soggettiva. Secondo il
comportamentismo i comportamenti possono essere definiti come l’insieme delle risposte muscolari e ghiandolari di
un individuo. I comportamentisti vedono la mente umana come una scatola nera dentro la quale non possiamo vedere
ciò che succede (→ psicologia della black box). Quindi si può studiare solo ciò che si vede, ovvero il comportamento.
Per i comportamentisti la psicologia deve occuparsi soltanto delle leggi che determinano il comportamento, cioè quali
stimoli provocano le risposte osservabili (→ psicologia dello stimolo-risposta).
Alla fine degli anni ’60 il comportamentismo lascia il posto al cognitivismo. Limitare l'oggetto di studio al
comportamento osservabile e misurabile si dimostrò con il tempo un approccio sterile e fece nascere all'interno degli
stessi psicologi comportamentisti un nuovo movimento che si autodefinì neocomportamentismo. Con esso si inizia ad
ammettere la presenza e l'azione di qualcosa tra lo stimolo e la risposta, che tra la psicologia <S-R>, c’è la psicologia <SO-R>, dove “O” corrisponde a una qualche attività non osservabile messa in atta dall'organismo.
LA PSICOLOGIA DELLA GESTALT
Contemporaneamente in Europa si sviluppava la psicologia della Gestalt (dal tedesco → <<forma organizzata>>). La sua
data di nascita viene convenzionalmente collocata al 1912, quando Wertheimer pubblica il suo esperimento sul
movimento stroboscopico (movimento fenomico apparente indotto da stimoli statici presentati in sequenza). Gli
psicologi che facevano parte di questa scuola davano più importanza alla totalità del fenomeno, piuttosto che alle
singole parti che lo compongono (p.e. un cerchio lo si percepisce come tale sia quando è disegnato con una linea
continua, sia quando è disegnato a spazi intervallati).
Secondo la Gestalt il tutto precede le parti e le parti a loro volta assumono un valore diverso a seconda del <<tutto>>
che vanno a formare (p.e. l'acca formata dalle piccole “s”). Il metodo impiegato dalla psicologia della Gelstalt è quello
fenomenologico: consiste in un'osservazione di tipo bottom-up dei fenomeni, e assume che ciò che percepiamo sia
soltanto ciò che appare durante l'osservazione. I gestaltisti non riconoscono alcuna importanza all’esperienza passata.
IL COGNITIVISMO
Con l'avvento del cognitivismo l'oggetto di studio della psicologia si sposta dal comportamento osservabile ai processi
1
cognitivi divenuti ormai una presenza innegabile per l'elaborazione delle informazioni e per la presa di decisione
finalizzata alla risposta.
I cognitivisti metteranno poi a punto un metodo per misurare la durata (e quindi la complessità) dei processi cognitivi
messi in atto tra il momento della presentazione dello stimolo e il momento dell'emissione, da parte dell'organismo,
della risposta motoria. Ne deriva che: se il tempo di emissione della risposta è breve i processi cognitivi saranno pochi
e semplici; se il tempo di emissione della risposta è lungo i processi cognitivi saranno tanti e complessi. L'affermazione
del cognitivismo è stata anche favorita dalla <<domanda>> militare legata alla seconda guerra mondiale. L'interazione
tra i soldati e le interfacce belliche con le quali dovevano operare, misero in primo piano il problema della human
factors (→ tutti quei punti di forza e quei punti di debolezza che caratterizzano la prestazione umana durante
l'esecuzione) vale a dire la qualità della prestazione non solo in dipendenza di fattori come la paura, la stanchezza, il
caldo, il freddo e la necessità di agire nel minor tempo possibile, ma anche sul tipo di caratteristiche che l'interfaccia
doveva avere.
Metodi di ricerca in psicologia
IL METODO SPERIMENTALE
Il metodo sperimentale (la più diretta emanazione del metodo scientifico) è il metodo che maggiormente garantisce di
comprendere i fenomeni naturali legandoli alle cause che li hanno determinati. Nella sua forma più generale il metodo
sperimentale può essere scomposto in quattro fasi:
• individuazione e descrizione del problema;
• formulazione di un'ipotesi;
• esecuzione dell’esperimento;
• raccolta dei dati ed elaborazione dei risultati.
Nella fase di individuazione e descrizione lo sperimentatore individua il problema di interesse e ne descrive gli aspetti
generali. In pratica questa fase si riferisce all'interrogativo che lo sperimentatore si pone in relazione a un dato
fenomeno (p.e. problema → carenza di sonno causa riduzione della capacità della MBT). Nella seconda fase lo
sperimentazione ipotizza una possibile relazione di causa-effetto tra due variabili. Le variabili sono grandezze o
fenomeni che vengono misurate o manipolate nel corso dell'esperimento. La variabile manipolata (cioè variata in
maniera sistematica) dallo sperimentatore viene definita variabile indipendente mentre la variabili misurata viene
definita variabile dipendente perché appunto dipende dalla manipolazione della variabile indipendente (p.e. ipotesi →
diminuendo le ore di sonno si ha un proporzionale decadimento della capacità della memoria a breve termine). Nella
fase di esecuzione il problema generale e l'ipotesi formulata vengono tradotti in una condizione capace di metterne
alla prova la validità. In pratica si tratta di manipolare la variabile indipendente per osservare e misurare gli effetti che
questa manipolazione causa sulla variabile dipendente (p.e. manipolazione → modificare le ore di sonno di un gruppo
di soggetti privati di 4 ore di sonno e un gruppo privato di 7 ore e verificarne gli effetti su un test di MBT). Nell'ultima
fase l'esperimento deve fornire una misura della variazione della variabile dipendente a seguito della manipolazione
della variabile indipendente e tale variazione deve poter essere raccolta e analizzata (p.e. conferma o falsificazione → il
livello di memoria a breve termine varia a seconda che la privazione di sonno sia di 4 oppure di 7 ore?) e prevede
l'elaborazione dei risultati. Questo particolare passaggio del metodo sperimentale è detto di <<conferma>> o
<<falsificazione>> dell'ipotesi (p.e. sindrome di Edipo, vedi esempio pag. 30).
In generale un esperimento può essere definito come il procedimento attraverso il quale lo scienziato varia in maniera
sistematica uno o più variabili indipendenti e misura i cambiamenti che queste variazioni causano sulla variabile
dipendente.
STUDI DI CORRELAZIONE
Il metodo sperimentale non può essere applicato sempre. Questo perché non sempre abbiamo una variabile
indipendente da manipolare. In questi casi si studia quindi come le due variabili variano insieme. Questi tipi di
esperimenti vengono chiamati esperimenti naturali e vengono eseguiti ogniqualvolta si indagano campi applicativi
dove non è possibile impostare gli esperimenti <<classici>> (p.e. esiste un rapporto di correlazione tra la variabile
<<aver subito un incidente aereo>> e la variabile <<paura di volare>>).
Un rapporto di correlazione (e non di causa-effetto) si verifica quando al variare di una (non a seguito della
manipolazione dello sperimentatore) si osserva anche il variare dell'altra. Il parametro che viene misurato negli studi
di correlazione viene definito coefficiente di correlazione. Il coefficiente di correlazione oltre a misurare l'intensità
della correlazione, cioè la forza di coesione tra due variabili, indica la direzione della correlazione tra le due variabili
espressa in valori che possono oscillare da +1 (correlazione positiva massima tra due variabili) a -1 (correlazione
negativa massima).
Avremo una variabile di correlazione positiva se all’aumentare di una aumenta anche l’altra (p.e. statura e peso
corporeo). Avremo una variabile di correlazione negativa se all’aumentare di una l’altra diminuisce ( es. valore di
un’auto e il numero di chilometri percorsi). Nei casi in cui due variabili siano assolutamente non correlate tra loro, il
coefficiente di correlazione è vicino o uguale allo 0 (p.e. intelligenza e statura di una persona).
2
LA SIGNIFICATIVITÀ E L'INFERENZA STATISTICA
Ogni volta che si studia un certo fenomeno, si formula un'ipotesi di ricerca cioè si fa una specifica inferenza sui risultati
che emergeranno dalla ricerca. Se la ricerca viene condotta applicando il metodo sperimentale, allora l'inferenza o
ipotesi di ricerca sarà che la variazione della variabile dipendente è stata causata dalla manipolazione della variabile
indipendente. Se invece lo studio è di tipo correlazionale allora l'ipotesi formulata sarà che le due variabili oggetto
della ricerca sono in qualche modo correlate tra loro. Ma i risultati dell'esperimento possono essere dovuti al caso e
non alla manipolazione della variabile indipendente. I metodi di inferenza statistica hanno proprio la funzione di
misurare questo possibile errore e calcolano la probabilità che avremmo di ottenere gli stessi risultati attesi dalla
nostra ipotesi anche qualora l'ipotesi di ricerca fosse errata.
Convenzionalmente, in campo psicologico i risultati di una ricerca sono definiti statisticamente significativi quando la
probabilità di sbagliare è inferiore o uguale al 5% (→ significatività statistica). L'assunto generale rimane immutato se
la ricerca di cui ci stiamo occupando misura il coefficiente di correlazione tra due variabili.
I parametri generali sui quali si basano i test di significatività statistica sono fondamentalmente tre:
• l'ampiezza dell’effetto ottenuto (tanto maggiore è la differenza tra i valori della variabile dipendente ottenuti nel
gruppo sperimentale e quello di controllo, tanto più alta sarà la probabilità che i dati risultino statisticamente
significativi);
• il numero dei soggetti che sono stati studiati (più elevato è il campione studiato maggiore sarà la probabilità che una
data differenza risulti statisticamente significativa);
• la distribuzione dei risultati, cioè il livello di variabilità dei dati all'interno di ogni singolo gruppo sperimentale.
I METODI OSSERVATIVI-DESCRITTIVI
Gli studi descrittivi sono quelli in cui non viene ricercata una qualche relazione tra variabili, ma si cerca soltanto di
descrivere un certo fenomeno o un dato comportamento. I metodi osservativi-descrittivi vengono di solito utilizzati
quando i requisiti del metodo sperimentale non possono essere soddisfatti (p.e. il numero di volte che le persone
sedute in una sala d'aspetto di una stazione ferroviaria guardano un cartellone pubblicitario posto sulla parete non
potrà essere osservato in laboratorio, ma soltanto nella stazione ferroviaria stessa).
A fronte di un minor controllo delle variabili avremo però il vantaggio di un comportamento spontaneo eseguito in un
ambiente naturale e in un contesto non inquinato da alcun tipo di intrusione.
In realtà la differenza non consiste nel fatto che lo studio venga svolto in laboratorio o sul campo, ma piuttosto sulla
presenza o meno della variabile indipendente e dipendente in rapporto causale, sulla formulazione di un'ipotesi
falsificabile e sul controllo delle altre variabili in gioco.
IL METODO DELL'INCHIESTA
Il metodo dell'inchiesta viene impiegato per raccogliere vari tipi di informazioni al fine di descrivere un certo
fenomeno, effettuare una certa diagnosi o determinare gli atteggiamenti verso un concetto o un prodotto. Questo
metodo consiste nel chiedere a qualcuno la sua opinione su una determinata cosa, come si comporta in una
determinata situazione, come giudica quel dato profumo, ecc... Occorre però tenere presente il fenomeno
dell'<<accettabilità>> e <<desiderabilità sociale>>, il quale dimostra che le risposte segnate su un questionario
tendono a essere in armonia con i principi e le regole presenti nella società.
L'INTERVISTA
L'intervista consiste nella raccolta di informazioni o dati ottenuti da intervistati tramite un intervistatore.
L'intervistatore può porre una domanda faccia a faccia o telefonicamente. Una generale suddivisione della tipologia di
intervista è tra: strutturata (l'intervista segue uno schema rigido nel porre le domande sia per il contenuto che per la
successione), semistrutturata (l'intervistatore può seguire una traccia generale, ma può decidere di approfondire un
particolare aspetto del tema oggetto dell'intervista) e aperta (l'intervistatore segue soltanto uno schema generale ma
si ritiene libero di variare le domande).
IL QUESTIONARIO
Il questionario ha la caratteristica di essere in forma scritta e quindi chi deve rispondere si trova davanti a domande
per rispondere alle quali non si è sottoposti a una particolare pressione temporale e non si è costretti a interagire con
un interlocutore. Il tipo di domanda più frequente nei questionari è rappresentato dalle domande chiuse (chiarezza
delle risposte e facilità e velocità della decodifica). Gli errori che possono essere commessi nella preparazione di un
questionario sono molti. In primo luogo la lunghezza, l'ambiguità e strutturare le domande in maniera non neutrale.
Sensazione e Percezione
LA SENZAZIONE
Il processo attraverso il quale i diversi tipi di energia fisica vengono tradotti in segnali nervosi è la trasduzione.
3
Attraverso la trasduzione il cambiamento ambientale registrato dall'organo di senso e tradotto in un segnale
bioelettrico viene trasmesso al cervello. È a questo punto che possiamo provare una sensazione del cambiamento
ambientale cui abbiamo assistito. La relazione tra lo stimolo fisico esterno e la sensazione che questo provoca viene
definita relazione psicofisica. Nella loro funzione di registrazione e traduzione degli stimoli esterni i nostri organi di
senso sono però vincolati da alcuni limiti:
✤ il nostro sistema sensoriale è in grado di rilevare solo l’energia a cui è sensibile. Noi siamo continuamente circondati
da stimoli che però non percepiamo perché in nostri organi di senso non li rilevano (ultrasuoni, onde
elettromagnetiche..);
✤ il secondo limite riguarda l’intensità dello stimolo, per poter essere registrato dagli organi di senso lo stimolo deve
essere sufficientemente intenso. Si parla di soglia assoluta, ossia dell’intensità minima che uno stimolo deve avere per
essere colto nel 50% dei casi;
✤ il terzo limite riguarda la capacità di ogni singolo organo di senso di cogliere una variazione di intensità di uno
stimolo. Con soglia differenziale si definisce la differenza di intensità minima che due stimoli devono avere per essere
avvertita nel 50% dei casi.
LEGGE WEBER E LEGGE DI FECHNER
La legge Weber evidenziò che <<la soglia differenziale>> (→JND, just not difference) di ogni stimolo è una frazione
costante dell'intensità dello stimolo iniziale (K=AR/R, K è una costante, AR è la soglia differenziale e R è l'intensità dello
stimolo).
In pratica la legge di Weber dimostra che più grande è uno stimolo (o più luminoso, più forte, più intenso, ecc...)
maggiore sarà la differenza necessaria rispetto a un altro stimolo affinché possa essere rilevata.
Legando il concetto di stimolo a quello di sensazione, alcuni anni più tardi Fechner cercò di verificare di quanto varia la
sensazione (componente psicologica) al variare dell'intensità dello stimolo (componente fisica). Elaborando la legge di
Weber, Fechner poté stabilire che la sensazione è direttamente proporzionale al logaritmo dell'intensità dello stimolo
(S= c log R+C, S è la sensazione, c è la costante di Weber, R è l'intensità dello stimolo e C è una costante di
integrazione). Ciò sta a significare che mentre l'intensità dello stimolo aumenta in maniera geometrica, la sensazione
corrispondente aumenta in progressione aritmetica.
LA PERCEZIONE
La percezione può essere definita come l’elaborazione delle informazioni sensoriali elementari convogliate dagli organi
di senso. Il concetto di elaborazione sta a indicare che la sensazione raccolta dagli organi sensoriali viene codificata,
organizzata, riconosciuta e interpretata. I processi sottostanti le fasi di elaborazione permettono quindi di far emergere
gli oggetti <<strutturati>>.
In un primo stadio hanno luogo i processi visivi primari che svolgono il compito di individuare e descrivere le
caratteristiche fisiche dello stimolo visivo lasciandone però indeterminati il significato, l'uso e la funzione. È proprio
l'analisi delle caratteristiche fisiche che permette di far emergere l'oggetto strutturato.
Dello stadio secondario se ne è occupata principalmente la psicologia cognitiva ed è appunto attraverso i processi
cognitivi che lo stimolo strutturato, attraverso il confronto con le conoscenze depositate in memoria, viene
riconosciuto.
ELABORAZIONE BOTTOM-UP E TOP-DOWN
Le modalità di confronto su cui si basano le principali teorie sulla percezione sono definite bottom-up (elaborazione
dal basso verso l'alto), con cui si intende una modalità di elaborazione <<guidata dai dati>>, cioè un'elaborazione che
parte dalle singole parti dello stimolo, e top-down (dall'alto verso il basso), ossia un'elaborazione <<guidata dai
concetti>>, cioè basata sulle rappresentazioni contenute in memoria.
LE PRINCIPALI TEORIE SULLA PERCEZIONE
La teoria più decisamente a favore del processamento bottom-up è la teoria della percezione diretta (o <<teoria
ecologica>> della percezione) di Gibson. Secondo Gibson ogni stimolo possiede informazioni sensoriali
sufficientemente specifiche da renderne possibile il riconoscimento senza l'intervento dei processi cognitivi superiori
(p.e. la memoria per accedere all'esperienza passata). L'ordine interno, costituito dalla distribuzione spaziale e
temporale dello stimolo, permette una sua diretta <<disponibilità>> al suo riconoscimento.
Gibson ha definito questa disponibilità dello stimolo affordance. L'affordance sarebbe ciò che permette all'osservatore
di estrarre le caratteristiche che definiscono l'uso e le finalità dell'oggetto percepito (p.e. l'interruttore della luce
suggerisce l'azione di premere, la tazza suggerisce di essere di essere afferrata dal manico, ecc...). L'affordance
suggerita dall'oggetto all'osservatore si basa però non soltanto sui fattori fisici posseduti dall'oggetto, ma anche sullo
stato psicologico e fisiologico dell'osservatore (p.e. in uno stato di rabbia un posacenere può assumere l'affordance di
un oggetto pesante da afferrare e lanciare).
4
Una teoria della percezione a favore invece del processamento di tipo top-down è la teoria costruttivista di Bruner e
Rock, secondo la quale, dato che noi non vediamo delle semplici configurazioni ma vediamo oggetti complessi, perché
questo sia possibile è necessaria un'attiva ricerca della migliore interpretazione possibile delle caratteristiche
disponibili. Secondo Gregory tale interpretazione, definita <<controllo delle ipotesi>>, non può avvenire se non
secondo un approccio top-down grazie al quale <<costruiamo>> le nostre percezioni attraverso i nostri processi
cognitivi (p.e. esperimento Pomerantz e Lockhead).
Un'altra teoria della percezione è quella dell'analisi tramite sintesi formulata da Neisser, secondo cui la percezione
sarebbe il risultato di una sequenza di stadi che avrebbe al primo posto la selezione preliminare dello stimolo visivo
tramite un processo preattentivo e automatico in grado di fornire una prima rappresentazione dello stimolo visivo
secondo un processamento di tipo bottom-up. Al secondo livello interverrebbe uno spostamento volontario
dell'attenzione sullo stimolo, basata sulle aspettative e sull'esperienza passata, per poi metterla a confronto con la
rappresentazione preliminare effettuata nello stadio precedente, questo stadio sarebbe guidato da un procedimento di
tipo top-down. Ciò che ha luogo nel terzo e ultimo stadio dipende dal risultato del confronto avvenuto nello stadio
precedente: se il confronto è positivo, allora la rappresentazione mentale dello stimolo ottenuta nel precedente stadio
viene considerata il risultato finale della percezione, se il confronto è negativo, il sistema dovrà ipotizzare nuove
rappresentazioni percettive.
Anche la teoria della percezione di Marr prevede un livello di elaborazione di tipo bottom-up e un livello più avanzato
che si baserebbe invece su processamenti top-down. Per uno stimolo tridimensionale sarebbero necessari tre distinti
stadi per arrivare a una percezione completa:
1. Schema grezzo primario (2D): Semplice abbozzo della scena percettiva. Rilevazione di dati sensoriali.
2. Schema a due dimensioni e mezza: Gli oggetti iniziano ad emergere dalla scena percettiva base degli indizi di
profondità centrati sulla prospettiva dell’osservatore.
Modello tridimensionale: Vero e proprio modello 3D dove possiamo vedere la relazione spaziale tra gli oggetti,
indipendentemente dalla prospettiva dell’osservatore (si sviluppa grazie all’esperienza passata).
COME AVVIENE IL RICONOSCIMENTI DEGLI OGGETTI?
• Teoria della comparazione tra sagome: nella nostra memoria sarebbero archiviate un numero enorme di sagome,
quando ci troviamo di fronte a un oggetto, avrebbe luogo un'analisi di tutte le sagome simili contenute in memoria.
Una volta ritrovata la sagoma uguale alla sagoma esterna avverrebbe il riconoscimento dello stimolo (p.e. codice a
barre sui prodotti del supermercato).
• Teoria dei prototipi: prevede che il confronto avvenga tra lo stimolo esterno ed un prototipo interno che contiene le
caratteristiche più tipiche di un certo insieme di oggetti. Un prototipo è una rappresentazione astratta della
configurazione, è sufficiente che condivida con la configurazione esterna alcune caratteristiche simili.
• Teoria delle caratteristiche (o tratti): il confronto avviene tra alcune caratteristiche possedute dallo stimolo esterno e
alcune caratteristiche possedute in memoria. Gli stimoli visibili vengono riconosciuti comparando le caratteristiche
immagazzinate in memoria. Sulla base del risultato del confronto vengono riconosciuti gli stimoli che contengono il
maggior numero di caratteristiche contenute anche in memoria.
REALTÀ FISICA E REALTÀ PERCETTIVA
Una teoria ingenua della psicologia sosteneva che ciò che noi percepiamo non sarebbe altro che una fotocopia dello
stimolo, cioè della realtà fisica del mondo esterno → realismo ingenuo, ossia, gli stimoli visivi verrebbero percepiti così
come essi sono, generando una completa coincidenza tra <<realtà fisica>> esterna e <<realtà fenomenica>> interna.
Ma non sempre si forma un legame tra queste due realtà, questo perché può succedere che un oggetto ci sia a livello
fisico ma non percettivo, cioè l'oggetto c'è ma noi non lo vediamo. Tale discrepanza viene definita l'assenza
dell’oggetto fenomenico.
Il caso contrario avviene quando uno stimolo c’è a livello percettivo ma non fisico. Tale condizione è l’assenza
dell’oggetto fisico.
Discrepanza fra oggetto fenomenico e oggetto fisico (illusioni ottica → triangolo Kanizsa).
LE LEGGI DELL’ARTICOLAZIONE FIGURA-SFONDO
L'organizzazione di tipo gerarchico del nostro sistema percettivo consente di <<segmentare>> il flusso di informazioni
che provengono dall'ambiente esterno in modo da isolare le singole configurazioni che costituiscono i vari oggetti.
La più generale delle segmentazioni del campo percettivo è quella figura-sfondo. L'articolazione figura-sfondo è un
processo che viene sempre eseguito dalla percezione dato che si può affermare che non può esistere figura senza uno
sfondo.
I PRINCIPI DI ORGANIZZAZIONE PERCETTIVA
5
Il campo percettivo non è né omogeneo (o indifferenziato) né caotico, ma è organizzato secondo unità percettive in
funzione dei cosiddetti principi di organizzazione percettiva della Gestalt.
Come è noto, la psicologia della Gestalt sostiene che la percezione si fondi su principi innati e nega l’importanza o il
ruolo dell’esperienza passata. La capacità di raggruppare stimoli isolati in sottoinsiemi e organizzarli come figura è,
secondo gli psicologi della Gestalt, una tendenza naturale, innata e quindi condivisa da tutti gli osservatori. I principali
principi di organizzazione percettiva proposti dai gestaltisti sono:
• vicinanza: se all'interno di un certo numero di stimoli ve ne sono alcuni vicini tra loro, questi verranno segregati a
formare una figura unica ed organizzata;
• somiglianza: quando in uno stimolo sono racchiusi stimoli simili tra loro, la percezione tenderà ad unificarli formando
un’unica figura;
• chiusura: quando gli elementi tendono a formare una figura chiusa vengono percepiti come un’unità organizzata a sé
stante;
• buona direzione: viene data maggiore importanza e vengono percepite come continue linee le cui traiettorie sono
simili rispetto a linee le cui traiettorie sono opposte.
Attenzione
L'attenzione può essere definita come quel processo che opera una selezione tra tutte le informazioni che in un dato
istante colpiscono i nostri sensi (informazione esterne) e/o i nostri ricordi (informazione interne) consentendo soltanto
ad alcune di accedere ai successivi stadi di elaborazione.
ELABORAZIONE PREATTENTIVA
Molti esperimenti hanno dimostrato che le caratteristiche elementari di uno stimolo, come il colore, la forma o il
movimento, vengono rilevate senza l'intervento dell'attenzione. In questi casi possiamo definire il processamento dello
stimolo come preattentivo. Dato che questo tipo di rilevazione non richiede l'impiego di risorse attentive, ne consegue
che il processamento avviene in maniera molto rapida e non risente del numero di distrattori presenti, cioè del
numero di stimoli simili presenti nel nostro campo percettivo.
Se però ci venisse chiesto di individuare p.e. uno stimolo giallo di forma triangolare, allora il colore e la forma
dovrebbero essere combinati tra loro attraverso un processo di integrazione delle due caratteristiche e questo
richiederebbe l'intervento dell'attenzione focalizzata che funziona analizzando ogni singolo stimolo presente nel
campo percettivo fino a combinare le due caratteristiche che lo definiscono. Il tempo necessario a questo tipo di
processamento attivo-seriale risentirebbe del numero di distrattori presenti e quindi il tempo aumenterebbe con
l'aumentare del numero di stimoli di colore e forma diversi presenti nel campo percettivo.
Gli errori che hanno luogo nella fase di abbinamento delle diverse caratteristiche dello stimolo sono stati definiti
congiunzioni illusorie.
L'elaborazione preattentiva delle singole caratteristiche di una configurazione viene anche definita pop-up. Con pop-up
si intende quel fenomeno in base alla quale le caratteristiche di una configurazione emergono spontaneamente e si
impongono al nostro sistema visivo.
PROCESSI AUTOMATICI E CONTROLLATI
Shneider e Shiffrin ipotizzarono l'esistenza di processi che avvengono sotto il controllo conscio e di processi che invece
non necessitano di alcun controllo.
Questi ultimi, definiti processi automatici, avvengono al di fuori della consapevolezza e non richiedono l'impiego di
risorse attentive. I primi sono invece definiti processi controllati, richiedono l'impiego di risorse attentive, vengono
messi in atto uno dopo l'altro secondo una modalità seriale e, a causa del costante controllo attentivo a cui sono
sottoposti, hanno un tempo di esecuzione più lento.
Attraverso l'esercizio e la pratica alcuni compiti (p.e. guida dell'auto) possono divenire automatizzati. Il processo viene
definito di <<automatizzazione>> o di <<proceduralizzazione>> e può essere messo in atto senza l'intervento
dell'attenzione che può essere impiegata in altri compiti; se però le condizioni ambientali cambiano e il compito
improvvisamente si complica, allora l'attività deve essere riportata sotto il controllo dell'attenzione. Da un punto di
vista generale si può concludere che:
 i processi automatizzati richiedono una quantità minima di risorse attentive, avvengono in base a
un'elaborazione in parallelo delle varie operazioni, hanno un tempo di esecuzione rapido;
 i processi controllati consumano invece molte risorse attentive, necessitano di un'elaborazione seriale delle
operazioni, vengono eseguiti più lentamente.
ERRORI ATTENTIVI
6
Nella più generale classificazione dell'errore umano proposta da Reason figurano due diversi tipi di errore, i mistakes e
gli slips, che possono essere ricondotti ai processi controllati e a quelli automatizzati. In particolare i mistakes sono gli
errori che si commettono nello scegliere un obiettivo o nell'identificare i mezzi per raggiungerlo e che avvengono
nell'ambito dei processi controllati; gli slips sono invece gli errori che si commettono nel mettere in atto quello che si
intende fare per raggiungere quel dato obiettivo e che quasi sempre avvengono all'interno di processi automatici (il
modo più efficace per evitare di compiere errori di tipo slip è quello di prevedere funzioni obbliganti, forcing functions,
cioè vincoli fisici che ci impediscano di compiere questo tipo di errori).
ATTENZIONE SELETTIVA
Quando ci troviamo di fronte a un numero elevato di stimoli, possiamo concentrare la nostra attenzione su una
specifica zona dello spazio dove si trova l'oggetto a cui siamo interessati. Questa capacità di concentrare l'attenzione in
maniera selettiva ci permette di elaborare in modo efficiente e dettagliato uno stimolo presente nel nostro campo
percettivo. Una possibile spiegazione dell'esistenza dell'attenzione selettiva risiede nella limitatezza delle risorse di cui
il nostro sistema di elaborazione dispone. L'uomo è un elaboratore di informazione a capacità limitata e di
conseguenza l'attenzione selettiva può essere vista come uno strumento per limitare la quantità di informazione che
deve essere elaborata, proteggendo il sistema di elaborazione stesso da sovraccarichi e interferenze (→ principio del
cognitivismo).
Il destino delle informazione irrilevanti dipende in buona misura dal momento in cui avviene la selezione cioè lo stadio
in cui la selezione ha luogo. Per alcuni autori la selezione avverrebbe nei primi stadi (<<selezione precoce>>) che
concernerebbe il processamento preattentivo (senza l'impiego dell'attenzione selettiva il sistema di elaborazione è in
grado di cogliere soltanto elementari caratteristiche fisiche dello stimolo), mentre per gli altri avrebbe luogo a un
livello più centrale (<<selezione tardiva>>).
EFFETTO STROOP
Con effetto Stroop si intende un noto fenomeno descritto per la prima volta da Ridley Stroop più di ottant'anni fa.
Nella sua forma più generale l'effetto viene studiato attraverso la presentazione della parola scritta in diversi colori e si
richiede al soggetto sottoposto di riportare il colore in cui è scritto la parola. Quando il significato della parola esprime
un colore, il confronto tra le due dimensioni dello stimolo può dar luogo a una configurazione <<congruente>> (p.e.
Rosso), oppure <<incongruente>> (p.e. Verde). Il risultato non è ovvio.
Se la selezione messa in atto dall'attenzione selettiva fosse precoce, il sistema attentivo sarebbe in grado di
concentrare le risorse sulla dimensione rilevante ed escludere invece la dimensione irrilevante dell'elaborazione. Ma se
così fosse, allora non emergerebbero delle differenze tra le risorse agli stimoli congruenti e quelle a stimoli
incongruenti.
Nell'elaborazione delle caratteristiche rilevanti, il soggetto focalizza la propria attenzione su quelle particolari
caratteristiche ed è consapevole di prendere in considerazione e analizzare quelle e non altre parti dello stimolo. Nel
caso delle caratteristiche irrilevanti, il soggetto, pur elaborandole, non è consapevole del processo che ha avuto luogo
(le caratteristiche irrilevanti sono state ugualmente elaborate ma non hanno raggiunto il livello di coscienza).
In conclusione, l'effetto Stroop emerge perché i soggetti non riescono a non leggere la parola, non riescono cioè a
limitare il loro compito al processamento della sola caratteristica rilevante (p.e. NON LEGGERE QUESTO MESSAGGIO).
ATTENZIONE SELETTIVA E CECITÀ AL CAMBIAMENTO
Un fenomeno molto legato al tema dell'attenzione selettiva è la cecità al cambiamento o change blindness. La cecità al
cambiamento consiste nell'impossibilità di cogliere in maniera consapevole alcune macroscopiche variazioni di una
scena nel caso in cui la variazione abbia luogo contemporaneamente ad altri elementi visivi di disturbo (p.e. due
immagini in rapida successione separate da un breve intervallo di vuoto-buio, nella seconda immagine c'è un
particolare diverso dalla prima, gli osservatori non sono in grado di rilevare la differenza).
L'effetto della cecità al cambiamento dimostra in maniera piuttosto convincente l'importanza capitale dell'attenzione,
in particolare dell'attenzione focalizzata sulle singole parti della scena per verificarne l'eventuale cambiamento.
Apprendimento
Nella sua accezione più generale possiamo definire apprendimento tutte quelle modificazioni che un organismo mette
in atto nel corso dell’esistenza per meglio adattarsi all'ambiente esterno. Possiamo dire che ci troviamo in presenza di
apprendimento quando osserviamo un comportamento adattivo successivo a quello messo in atto in concomitanza
della prima esperienza. Da un punto di vista storico l’apprendimento è stato studiato dai comportamentisti.
IL CONDIZIONAMENTO CLASSICO
Ivan Pavlov ha svolto una lunga serie di ricerche sulla fisiologia della digestione dimostrando, tra l'altro, come la
presentazione del cibo aumentasse l'attività delle ghiandole salivari. Nel corso delle ricerche emerse un aspetto che
7
portò Pavlov a intuire la relazione che può instaurarsi tra diversi stimoli ambientali e a dimostrare come questa
relazione possa mutare in presenza di determinate condizioni. Pavlov notò che in alcuni casi la salivazione dei cani
sottoposti all'esperimento (misurata tramite una cannula fissata in bocca e collegata a una provetta graduata)
aumentava anche quando non veniva presentato il cibo, ma quando il cane vedeva stimoli (persone, oggetti) che di
solito si accompagnavano al cibo.
Pavlov intuì che nell'animale si era stabilito un riflesso condizionato tra uno stimolo e una risposta appresa e dopo
lunghe e meticolose osservazioni schematizzò la scoperta in tre distinte fasi:
• in un primo momento il cane si trova in presenza di uno stimolo incondizionato-SI (il cibo) che da solo è in grado di
provocare una risposta incondizionata-RI (la salivazione);
• se a questo punto lo stimolo incondizionato-SI viene presentato insieme a uno stimolo neutro-SN (volto del
collaboratore di Pavlov o il camice che indossa) si forma nell'animale un riflesso condizionato che permette, dopo un
certo numero di abbinamenti tra SI e SN, di trasformare lo stimolo neutro-SN in stimolo condizionato-SC;
• quando si ottiene questa trasformazione, alla presenza isolata dell'SC si ha la risposta condizionata-RC (la
salivazione), simile alla risposta incondizionata-RI emessa in precedenza.
Pavlov definì l'insieme di queste sue osservazioni come <<condizionamento classico>> e mise a punto il famoso
esperimento della campanella.
Quindi il condizionamento classico può essere definito come un processo di apprendimento nel quale uno stimolo
inizialmente neutro, dopo ripetuti abbinamenti con un secondo stimolo in grado di produrre naturalmente la risposta,
viene associato a questo, diventando uno stimolo condizionato.
FASI E CARATTERISTICHE DEL CONDIZIONAMENTO CLASSICO
In relazione alle caratteristiche temporali, il condizionamento classico può essere scomposto in due fasi principali e
un'eventuale fase aggiuntiva:

fase di acquisizione, è quella durante la quale lo stimolo incondizionato viene regolarmente
preceduto dallo stimolo neutro (p.e. tutte le volte che il cibo viene preceduto dalla campanella);

fase di estinzione, lo stimolo condizionato ritorna ad essere neutro perdendo la capacità di generare
la risposta condizionata;

fase di riacquisizione, eventuale fase aggiuntiva, si ottiene ristabilendo l'abbinamento tra lo stimolo
condizionato (divenuto neutro) e lo stimolo incondizionato, il tempo per ristabilire il condizionamento è molto
inferiore alla fase di acquisizione.
I risultati ottimali si ottengono quando lo stimolo neutro precede di un brevissimo intervallo di tempo (1-2 secondi) lo
stimolo incondizionato. Questo tipo di relazione temporale tra SN e SI viene definita condizionamento ritardato o
condizionamento in avanti. Di minor efficacia è il condizionamento simultaneo. La velocità di apprendimento diviene
ancora più lenta quando la relazione temporale si inverte ed è SI a precedere di pochi secondi SN, abbinamento
definito condizionamento retrogrado.
GENERALIZZAZIONE E DISCRIMINAZIONE
Una volta instaurato un riflesso tra uno stimolo e una risposta, l'organismo tenderà a mettere in atto lo stesso
comportamento anche in risposta a stimoli simili allo stimolo condizionato.
Naturalmente questa caratteristica del condizionamento classico rappresenta un serio problema per gli effetti del
condizionamento e i ricercatori sono corsi ai ripari mettendo a punto la tecnica dell'addestramento alla
discriminazione
La tecnica consiste nel mettere in atto la fase dell'estinzione limitatamente agli stimoli che sono stati generalizzati. Il
risultato di questa condizione sarà l'estinzione del condizionamento a quegli stimoli, mentre lo stimolo condizionato-SC
continuerà ad essere seguito dallo stimolo incondizionato-SI in modo da consolidare il comportamento. Nel suo
complesso questo procedimento viene definito addestramento alla discriminazione.
Il condizionamento può estendersi anche a stimoli completamente diversi dallo stimolo condizionato a patto che
questi vengano ripetutamente presentati insieme ad esso (p.e. campanella → salivazione; accensione della luce →
campanella → salivazione). Questo nuovo tipo di condizionamento viene definito condizionamento di ordine
superiore.
STIMOLI AVVERSATIVI
Prendendo come esempio uno stimolo fastidioso come un potente soffio d'aria diretto verso la nostra faccia. Uno
stimolo incondizionato-SI avversativo di questo tipo ci provocherà una risposta incondizionata-RI di difesa come
abbassare le palpebre per ripararci gli occhi. Se il soffio di una campanella precede il soffio d'aria in futuro la sola
campanella ci farà abbassare le palpebre per ripararci gli occhi. Ci sono tre aspetti nel caso degli stimoli avversativi che
vanno sottolineati che li differenziano dagli stimoli positivi:
8
• per stabilire un condizionamento tra uno stimolo neutro-SN e uno stimolo incondizionato-SI avversativo può essere
sufficiente un singolo accoppiamento;
• il condizionamento con uno stimolo incondizionato-SI avversativo è molto più resistente all’estinzione (es. cibo
avariato cinese);
• l'importanza che gli stimoli avversativi ricoprono nell’apprendimento umano e in particolare per il condizionamento
di ordine superiore (p.e. aggressione → ladro → vestito da giardiniere → notte → soli → parco).
Come si vede, se lo stimolo incondizionato è negativo, il condizionamento può stabilirsi dopo una sola prova, perdura
nel tempo ed è in grado di generare un condizionamento di ordine superiore (p.e. Watson: bambino → ratto =
rumore/stimolo avversativo → ratto = paura).
IL CONDIZIONAMENTO OPERANTE E LA LEGGE DELL’EFFETTO
Un diverso tipo di condizionamento riguarda quelle azioni e quei comportamenti che mirano a produrre dei
cambiamenti sull'ambiente. Con il termine condizionamento operante si intende quel processo di apprendimento in
cui le conseguenze di una risposta influenzano le probabilità che quella risposta venga nuovamente prodotta in futuro.
Il condizionamento operante studiato e descritto da Skinner affonda le sue radici nella legge dell'effetto di Thorndike,
che nella sua formulazione più generale afferma che un'azione o un comportamento che provoca un effetto positivo
ha più probabilità di ripetersi in futuro, al contrario di un comportamento che abbia come conseguenza un effetto
negativo. Thorndike raggiunse queste conclusioni studiando il comportamento dei gatti all'interno di una <<gabbia
problema>> da lui ideata. L'animale affamato veniva posto in una gabbia con del cibo all'esterno. All'interno della
gabbia vi erano leve, cordicelle, piattaforme con cui il gatto poteva interagire e di cui solo uno dei meccanismi
permetteva di aprire la porta e raggiungere il cibo. Il comportamento dei gatti che, una volta immessi nella gabbia era
apparentemente casuale e privo di precise finalità, può essere definito comportamento <<per prove ed errori>>.
Quando il gatto premeva casualmente la leva giusta ottenendo come effetto l'apertura della porta e la possibilità di
raggiungere il cibo, si creava un legame tra l'azione e l'effetto positivo. Quando il gatto veniva inserito una seconda
volta nella gabbia l'esperienza precedente faceva diminuire significativamente il numero dei comportamenti <<per
prove ed errori>>.
Rispetto agli studi di Thorndike, il condizionamento operante di Skinner presentava alcuni vantaggi.
Nell'apparecchiatura ideata da Skinner era inserita una leva azionando la quale si otteneva un preciso effetto (p.e. la
somministrazione di una piccola quantità di cibo). Questo tipo di legame tra l'azione e il corrispondente effetto ha il
vantaggio che l'animale anche dopo aver effettuato l'azione e aver beneficiato del suo effetto si trova ancora
all'interno della condizione sperimentale e può continuare a ripetere il comportamento che ha appena ottenuto un
risultato positivo. Una seconda innovazione di Skinner fu l'introduzione del concetto di rinforzo, ovvero quel
cambiamento ambientale (positivo per l'organismo) che segue l’esecuzione di un <<comportamento operante>>.
Secondo Skinner la conseguenza positiva di una azione serve da rinforzo per l’organismo e rende più probabile che
quell’organismo ripeta in futuro quell’azione (p.e. gabbia di Skinner. Il ratto riceve un boccone/rinforzo positivo ogni
qual volta tocca la leva giusta).
TIPI E PROGRAMMI DI RINFORZO
Si definisce rinforzo positivo (“+”) qualsiasi effetto positivo che segue immediatamente (fino a 5 secondi) un
comportamento messo in atto da un organismo. Un aspetto particolarmente interessante del condizionamento
operante è la possibilità di aumentare la probabilità di un certo comportamento anche attraverso un rinforzo negativo
(“-”) che invece è rappresentato dalla cessazione di uno stimolo avversativo, doloroso e/o fastidioso, in seguito ad una
azione corretta (p.e. il ratto nella gabbia di Skinner. L'animale viene sottoposto a una scarica elettrica che cesserà
quando sarà toccata la giusta leva). Il rinforzo negativo non va confuso con la punizione che è una conseguenza
negativa a un comportamento per cui diminuisce la probabilità che quel comportamento venga ripetuto.
Per programma di rinforzo si intende la diversa successione tra azione e rinforzo somministrato. Come nel
condizionamento classico, anche in quello operante si può arrivare all’estinzione del comportamento appreso. Questo
avviene grazie alla cessazione del rinforzo.
Viene definito rinforzo costante quando il rinforzo si presenta ogni volta che si manifesta il comportamento e rinforzo
intermittente quando il rinforzo viene presentato soltanto saltuariamente.
I principali tipi di rinforzo intermittente sono quattro:
• rapporto fisso, il rinforzo viene presentato dopo n volte del comportamento da condizionare;
• rapporto variabile, il comportamento deve essere messo in atto un certo numero medio (varia attorno a una media)
di volte prima che venga dato il rinforzo (p.e. roulette);
• intervallo fisso, dopo la risposta rinforzata deve trascorrere un intervallo di tempo fisso;
• intervallo variabile, ogni rinforzo è separato dal successivo da un tempo variabile.
IL MODELLAMENTO
9
Per modellamento si intende quel programma di condizionamento attraverso il quale non si attende che un dato
comportamento insorga spontaneamente, ma si modella il comportamento fino a raggiungere ciò che si vuole
ottenere rinforzando ogni comportamento che si avvicina a quello desiderato (es. addestramento degli animali da
circo).
APPRENDIMENTO E COGNITIVISMO
Mentre i comportamentisti pensano che attraverso diversi tipi di condizionamento si raggiunge un comportamento
automatico, ovvero stimolo-risposta, i cognitivisti pensano che tra la psicologia S-R abbia inizio un processo mentale
responsabile del comportamento messo in atto.
Tolman fu il primo comportamentista ad accettare il concetto di rappresentazione mentale e mise a punto esperimenti
sull'apprendimento di percorsi di labirinti da parte di ratti dimostrando che anche gruppi di ratti che non venivano
<<rinforzati>> per ogni scelta corretta imparavano allo stesso modo del gruppo di ratti che ottenevano regolari rinforzi.
Anche la semplice esplorazione del labirinto permette di apprendere. Tolman concluse che in quella condizione
l'animale si forma una rappresentazione mentale del labirinto definita mappa cognitiva. Il ratto immesso nel labirinto
inizia a esplorarne i vari percorsi e mediante questa attività di esplorazione apprende il percorso corretto. Tolman
definì questo tipo di apprendimento apprendimento latente.
IL VALORE PREDITTIVO DELLO STIMOLO E L'INSIGHT
Secondo Rescorla, il condizionamento classico non può essere considerato un processo meccanico in cui un organismo
forma un'associazione tra due stimoli che si sono presentati insieme. Al contrario un organismo sottoposto a un
condizionamento è un attivo cercatore di informazioni, e per la ricerca si serve dei concetti che già possiede per dare
forma a una rappresentazione del mondo che lo circonda. Un'altra critica mossa all'approccio comportamentista si
riferisce alle condizioni sperimentali troppo rigide all'interno delle quali l'animale non aveva modo di dimostrare
comportamenti creativi e intelligenti.
Con insight si intende un modo di procedere non casuale o per prove ed errori, ma piuttosto una capacità di
ristrutturare in maniera diversa e creativa gli elementi presenti nell'ambiente in modo da risolvere un problema
altrimenti non risolvibile. Anche nel caso dell'insight si deve ipotizzare una rappresentazione interna dell'ambiente
circostante e non un semplice legame tra stimolo e risposta.
APPRENDIMENTO ESPLICITO E IMPLICITO
È possibile distinguere tra due forme di apprendimento e cioè una forma di apprendimento esplicito e una forma di
apprendimento implicito. La prima forma è tipicamente caratterizzata da processi attivi di apprendimento poiché gli
individui attivano delle strategie per lo più consapevoli e volontarie. In questo caso vengono messi in atto dei processi
attivi volti all'individuazione e all'estrazione della struttura di una qualche informazione presentata. L'apprendimento
implicito, invece, è caratterizzato da processi passivi per cui gli individui, quando sono esposti a un'informazione,
acquistano conoscenza da quell'informazione semplicemente in virtù dell'esposizione.
APPRENDIMENTO E STRATEGIE METACOGNITIVE
L'apprendimento di informazioni e la loro organizzazione nelle conoscenze già possedute sono favoriti anche dai
processi metacognitivi o metacognizione.
Con il termine <<metacognizione>> ci si riferisce a processi di pensiero di ordine superiore che svolgono la funzione di
controllo degli altri processi cognitivi coinvolti nell'apprendimento (p.e. pianificare come affrontare un compito in cui è
richiesto apprendimento, il controllo della comprensione e la valutazione dell'approssimazione al completamento di un
compito). La conoscenza di tali processi è intimamente connessa con la conoscenza generale di come gli individui
apprendono ed elaborano l'informazione, ma anche la conoscenza che gli individui hanno dei propri processi di
apprendimento.
Un altro aspetto cruciale nell'utilizzo dei processi metacognitivi è la valutazione della conoscenza relativa alle variabili
di compito inclusa la conoscenza della natura del compito e del tipo di elaborazione che quest'ultimo richiede
all'individuo (p.e. un individuo può essere consapevole di avere bisogno di più tempo per l'apprendimento di alcune
funzioni matematiche rispetto ad una poesia).
La stessa conoscenza può svolgere una funzione metacognitiva ed essere utilizzata strategicamente per programmare
le attività di apprendimento o per raggiungere un certo risultato in un compito.
APPRENDIMENTO SOCIALE
Il più noto tra gli apprendimenti sociali è l'imprinting, una particolare forma di apprendimento studiato
originariamente dagli etologi. L'aspetto più importante dell'imprinting risiede nel fatto che si stabilisce in un intervallo
temporale ben preciso dopo la nascita trascorso il quale questo specifico comportamento non ha più luogo. Il più noto
studioso dell'imprinting è Lorenz, che con i suoi esperimenti ha dimostrato che sostituendo la madre con un qualsiasi
altro oggetto semovente l'imprinting si stabilisce a favore dell'oggetto alternativo. Il tipo di <<legame sociale>> che sta
10
alla base dell'imprinting si basa su meccanismi genetici che prescindono dal semplice legame associativo tra lo stimolo
e la risposta appresa.
Un altro tipo di apprendimento sociale è rappresentato dall'apprendimento osservativo. In generale si può affermare
che due sono i meccanismi sottostanti all'apprendimento osservativo: l'emulazione e l'imitazione. Siamo in presenza di
emulazione quando l'individuo riproduce in maniera stereotipata e meccanica il comportamento di un <<modello>>
senza comprendere lo scopo o l'efficacia di quel comportamento. Si può invece parlare di imitazione quando la
riproduzione del comportamento dell'altro è consapevole ed è finalizzata al raggiungimento dello stesso scopo
perseguito dal <<modello>>. Per condividere uno scopo occorre però comprenderlo e quindi l'imitazione può essere
definita come la capacità di riprodurre ciò che altri intendono fare.
APPRENDIMENTO E TECNOLOGIE COMPLESSE
Come avviene l'apprendimento del funzionamento della rete internet? Si possono ipotizzare due distinti tipi di
apprendimento: uno strumentale, in buona parte procedurale (relativo alla capacità di usare il web), che permette di
apprendere la tecnologia vera e propria, e un apprendimento di tipo dichiarativo relativo alle nozioni apprese tramite
il web (apprendimento di nozioni online).
Non basta comprendere come la tecnologia funziona (conoscenza dichiarativa), ma bisogna anche imparare a usarla
(conoscenza procedurale).
Il web si differenzia da tutti gli altri strumenti multimediali per il fatto che richiede-permette all'utente il controllo sul
materiale presentato. L'utente infatti può individuale, selezionare ed evidenziare le informazioni che vuole apprendere
tra centinaia di altre informazioni potenzialmente raggiungibili.
L'apprendimento per prove ed errori è molto usato nei primi tentativi di operare nel web.
Una volta che si è appresa a modalità di navigazione, però, l'altissimo numero di informazioni disponibili e la
multisensorialità delle modalità di presentazione impone delle scelte che non possono essere attuate per prove ed
errori o per semplice associazione.
Perché vi sia apprendimento occorre che l'acquisizione delle conoscenze tramite web sia sottoposta a un processo
attivo necessario per la selezione, l'elaborazione e l'analisi delle informazioni da apprendere.
Sistemi e processi di memoria
MECCANISMI <<PURI>> DELLA MEMORIA
La memoria può essere definita come la capacità di mantenere le informazioni acquisite dal sistema per più o meno
tempo in modo da poterle avere a disposizione e utilizzare per lo svolgimento dei compiti che si porranno all’individuo.
Lo studioso tedesco Hermann Ebbinghaus sviluppò una serie di tecniche controllate e sottopose se stesso a prove
ripetute in condizioni sperimentali altamente controllate utilizzando materiali neutri per evitare l'influenza della
conoscenza precedentemente acquisita sull'esito delle prove. Tale materiale era costituito da trigrammi senza senso
come ZIK, PAZ, TUV, ecc...
in altri esperimenti Ebbinghaus misurò l'effetto della pratica sull'apprendimento. Con questi esperimenti furono
ottenuti due risultati importanti. Il primo costituisce una conferma dell'ipotesi del tempo totale di apprendimento,
cioè è stato osservato che la quantità di materiale appreso aumenta linearmente con il tempo impiegato
nell'apprendimento. Il secondo risultato riguarda il fatto che la pratica distribuita produce un risultato migliore della
pratica massiva.
Nelle prove di rievocazione libera Ebbinghaus descrisse un altro fenomeno, denominato curva di apprendimento
seriale che si riferisce alla tendenza a ricordare più frequentemente e accuratamente gli item posti all'inizio della lista
(effetto primarietà) rispetto a quelli collocati nella parte centrale (effetto reticenza).
LA COMPLESSITÀ DELLA MEMORIA
Bartlett riteneva che la memoria fosse un processo attivo sia quando le informazioni vengono acquisite, sia quando
devono essere recuperato. Per studiare la memoria utilizzò una particolare tecnica denominata metodo delle
riproduzioni in serie sia in forma grafica sia in forma linguistica (p.e. a un soggetto veniva fatto leggere un testo, per lo
più storie popolari, e di riprodurre quanto si ricordava; lo stesso ad un altro soggetto). Gli studi condotti con questa
procedura e questi materiali permisero a Bartlett di proporre e di descrivere la funzione della nozione di schema,
intesa come struttura che organizza le conoscenze acquisite e guida il nostro comportamento, una sorta di modello che
può essere opportunamente adattato a diverse circostanze. Gli schemi possono influenzare i processi di memoria
favorendo la selezione e l'organizzazione delle informazioni in entrata in una struttura sensata e in tal modo rendendo
più accurata anche la rievocazione.
La memoria, data la sua complessità, può essere valutata in molti modi, principalmente in base alla modalità con cui
viene chiesto ai soggetti di recuperare l'informazione. Ciò può essere effettuato almeno in tre modi e cioè mediante
rievocazione libera che si riferisce a tutte le situazioni in cui il soggetto tenta di ricordare, mediante una ricerca in
memoria, l'informazione richiesta, rievocazione suggerita che si riferisce a una situazione in cui il soggetto tenta di
11
ricordare l'informazione richiesta in presenza di un qualche suggerimento e riconoscimento che costituisce una
modalità di ricordo in cui un soggetto deve dire se un determinato stimolo corrisponde oppure no a uno
precedentemente memorizzato.
L’OBLIO E LE CAUSE DELL’OBLIO
L’oblio può essere definito come l’impossibilità o l’incapacità di recuperare una qualche informazione dalla memoria.
Diverse sono le cause dell'oblio. La prima è il tempo che intercorre tra il momento dell'acquisizione di un'informazione
e il momento in cui tale informazione deve essere recuperata. Il passare del tempo potrebbe essere responsabile del
decadimento della traccia mnestica ovvero di una progressiva erosione dell'informazione che è stata memorizzata.
Un’ipotesi più probabile sulle cause dell’oblio è quella dell’interferenza, proposta da McGeoch e McDonald.
L’interferenza si riferisce all'ipotesi secondo cui le dimenticanze si verificano poiché se due informazioni entrano in
contatto tra loro nella memoria possono rendere meno accurato il ricordo di una delle due (tanto più sono simili tanto
più è forte l'effetto). Si possono osservare due modalità di interferenza: interferenza retroattiva, che fa riferimento
all'effetto interferente del materiale appreso successivamente sul materiale che è stato appreso precedentemente e
che deve essere rievocato; interferenza proattiva, che fa riferimento all'effetto interferente del materiale appreso in
precedenza sul materiale appreso successivamente e che deve essere rievocato.
DAL MAGAZZINO SENSORIALE ALLA MEMORIA A BREVE TERMINE
Molte teorie della memoria fanno riferimento alla metafora del <<sistema di magazzini>> per sottolineare il fatto che
l'informazione, entrando nel sistema cognitivo, passa da un magazzino all'altro per poter essere mantenuta in un
qualche modo come informazione permanente.
Il primo magazzino è deputato alla registrazione dell'informazione sensoriale. Il magazzino si differenzia a seconda
della modalità sensoriale.
Sperling condusse una serie di ricerche volte a esplorare il registro sensoriale nella modalità visiva, che fu denominato
memoria iconica. Sulla base dei suoi esperimenti, Sperling concluse che a) esiste un magazzino in cui l'informazione
visiva persiste per un certo tempo, b) tale magazzino o memoria iconica è molto capiente e c) con il passare del tempo
l'informazione iconica diventa sempre meno leggibile.
Dai registri sensoriali le informazioni vengono trasmesse a un magazzino denominata memoria a breve termine (MBT).
La MBT è un magazzino a capacità limitata e di breve durata.
Miller dimostrò che la MBT poteva mantenere circa 7 item. Baddeley ipotizzò che tale limite può essere superato se si
ricorre alla tecnica del chunking, ovverosia riunendo i singoli item in unità o gruppi di ordine superiore e osservò che il
numero di errori nella ripetizione in sequenza diminuiva in funzione al grado di approssimazione all'inglese delle
stringhe. Ciò dimostra che la capacità dell'MBT dipende dalla natura dell'informazione che deve essere ricordata.
La durata dell'informazione nella MBT e la probabilità che quest'ultima sia trasferita nella memoria permanente
dipende anche dalla possibilità che l'individuo possa reiterare l'informazione (ripeterla a livello subvocalivo). È stato
dimostrato che distraendo i soggetti e impedendo loro di reiterare l'informazione, la rievocazione del materiale
appreso risulta compromessa.
La MBT ha un ruolo centrale nello svolgimento di una molteplicità di compiti differenti, in generale di tutti i compiti
cognitivi coinvolti nel ragionamento, nella soluzione dei problemi, nella comprensione e nell'apprendimento.
La rappresentazione del sistema ideato da Baddeley è denominato memoria di lavoro e consta di due componenti
fondamentali e cioè di un loop articolatorio preposto al mantenimento dell'informazione uditiva e quella basata sul
linguaggio e un taccuino visuospaziale preposto al mantenimento stimoli sotto forma di immagine. Inoltre il sistema
prevede anche un esecutivo centrale, ovvero di un meccanismo che, oltre al controllo dell'intero processo di
elaborazione delle informazioni, regola l'attività dei due magazzini di memoria ed è coinvolto nello svolgimento di una
molteplicità di compiti cognitivi di ordine superiore (p.e. pianificazione di attività, risolvere problemi, prendere
decisioni, ecc...).
STRUTTURA E PROCESSI DELLA MEMORIA A LUNGO TERMINE
La memoria a lungo termine (MLT) è un magazzino in cui le informazioni assunte vengono mantenute in una maniera
permanente. Le informazioni immagazzinate nella memoria a lungo termine possono essere di differente natura.
La memoria fattuale riguarda la descrizione di eventi e oggetti ovvero le conoscenze su <<che cosa sono>> quegli
eventi e quegli oggetti (p.e. un tifone è..., il computer è..., la rosa è..., ecc...); la memoria procedurale riguarda le
procedure alla base sia di ciò che gli individui fanno con oggetti sia di che cosa fare per svolgere certi compiti, fa
riferimento a <<il modo con cui si fanno>>; la memoria semantica si riferisce all'immagazzinamento e al recupero di
conoscenze riguardante le parole e i concetti, le loro proprietà e le relazioni reciproche (fenomeno parola sulla punta
della lingua si verifica quando non ci viene in mente un’informazione ma sappiamo di conoscerla. Noi sappiamo che
l’informazione esiste ma il recupero è momentaneamente bloccato); infine la memoria episodica riguarda
l'immagazzinamento e il recupero di eventi ed episodi temporalmente e spazialmente databili e localizzabili ed esperiti
personalmente.
12
MEMORIA AUTOBIOGRAFICA ED ERRODI DI MEMORIA
Tulvin ha teorizzato una particolare forma di memoria episodica denominata memoria autobiografica, ovvero una
forma particolare di mantenimento di informazioni relative a fatti personali e che consentono di riconoscere familiari,
amici e conoscenti. La memoria autobiografica mantiene anche le informazioni relative a quello che un individuo ha
appreso a scuola.
La memoria autobiografica può anche andare perduta in maniera selettiva, nel senso che possono essere dimenticati
eventi che sono stati esperiti dall’individuo nei primi anni di vita. In questo caso si parla di amnesia infantile. Questo
fenomeno si manifesta per lo più con una perdita di ricordi relativi alle esperienze fatte dagli individui nei primi 5 anni
di vita.
Le memorie autobiografiche possono essere inaccurate in alcuni particolare, ma accurate per quanto riguarda le
conoscenze di base relative agli eventi ricordati e spesso si rivelano delle interpretazioni piuttosto che delle vere e
proprie registrazioni di eventi.
Un fenomeno particolare che si inserisce nella descrizione della memoria autobiografica è il cosiddetto flash di
memoria: ovvero un ricordo ricco e articolato, quasi fotografico, collegato ad eventi sorprendenti (es. torri gemelle).
Luogo, attività, chi ha comunicato, stato d’animo, cosa ho fatto subito dopo rimangono impressi nella memoria.
L'introduzione di informazione fuorvianti prima di un compito di rievocazione può essere responsabile delle cosiddette
false memorie (Kassin e Kiechel): ovvero informazioni che possono contaminare la memoria anche in maniera del
tutto involontaria (es. degli studenti accusati di aver danneggiato un computer).
MEMORIA PROSPETTICA
La memoria retrospettiva si riferisce ai processi riguardanti informazioni relative alle esperienze passate dell'individuo.
La memoria che implica di ricordare ciò che dobbiamo fare, ovvero la realizzazione di intenzioni future riguarda la
memoria prospettica.
Einstein e McDaniel hanno esaminato le differenze tra due tipi di compiti in cui è coinvolta la memoria prospettica. Un
primo tipo sono i compiti basati sul tempo; il secondo tipo di compiti sono quelli basati sugli eventi.
I problemi con la memoria prospettica possono essere di due tipi. Gli individui possono manifestare un deficit quando
si verifica l'incapacità totale a richiamare un'azione che si era stabilito di fare in un preciso momento oppure possono
manifestare errori nell'esecuzione di un'azione. In questo secondo caso l'errore tipico, denominato absent-minded si
manifesta quando è già scattata l'azione o si sta eseguendo l'azione.
AMNESIE
Danno cerebrale, infezione virale, ictus, possono essere cause di un deficit della memoria che nella forma più grave si
presenterà come una sindrome amnesica. Le forme di amnesie conseguenti ad un trauma cranico possono essere di
diverso tipo. Si parla di amnesia postraumatica quando il paziente manifesta difficoltà nel ricordare quanto egli fa in
questo periodo di relativa confusione (disorientamento spazio-temporale, incapacità di ricordare il luogo fisico in cui si
trova, difficoltà a collocare gli eventi su una corretta dimensione temporale, confabulazione); si parla invece di
amnesia retrograda quando il paziente manifesta difficoltà a rievocare eventi che si sono succeduti nel periodo
immediatamente precedente all'evento traumatico (il paziente non riesce a ricordare gli eventi successi prima del
trauma); si parla, infine, di amnesia anterograda quando il paziente manifesta difficoltà a ricordare i fatti relativi al
periodo immediatamente successivo all'evento traumatico e ai nuovi apprendimenti esperiti (difficoltà di memorizzare
fatti correnti e nuovi apprendimenti).
COME MIGLIORERE L'EFFICIENZA DELLA MEMORIA
Gli individui possono aumentare l'efficienza della memoria o ridurre gli effetti dei limiti mnestici facendo ricorso ad
aiuti esterni, ovvero utilizzando strumenti che sono esterni al sistema cognitivo (p.e. post-it, agenda, ecc...) e alle
mnemotecniche.
Tra i cosiddetti aiuti mnestici interni (mnemotecniche), quegli aiuti che si basano sul funzionamento dei processi
cognitivi, Bells ha individuato due grandi categorie: le mnemotecniche per facilitare l'organizzazione delle informazioni
e le mnemotecniche per facilitare la codifica delle informazioni. Fanno parte della prima categoria il metodo dei loci
(individuazione di un percorso familiare e assegnazione ai vari punti o luoghi del percorso l'elemento da ricordare) e la
tecnica delle parole piolo (individuare e apprendere una lista di parole in grado di evocare immagini e associare ad
esse gli elementi da ricordare).
Alle mnemotecniche per facilitare la codifica si riconducono tutte quelle procedure che consentono di generare
rappresentazioni facilmente memorizzabili (p.e. la battaglia di Saratoga → Sara, toga → immagini mentali).
Rappresentazione delle conoscenze
13
Qualsiasi rappresentazione può essere concepita come un simbolo o un segno che <<rappresenta>> un oggetto, un
evento, o un comportamento quando non sono presenti all'osservatore.
Gli stessi oggetti possono trovare una qualche forma di rappresentazione a livello mentale, ovvero come
rappresentazioni analogiche, tipologia di rappresentazioni che consente di riprodurre e mantenere nella mente le
relazioni strutturali e le caratteristiche distintive di ciò che viene rappresentato, proprio come se si trattasse di una
riproduzione fisica. Le rappresentazioni proposizionali, invece, riguardano forme mentali di oggetti esterni
rappresentati in forme simboliche mediante segni arbitrari e descrizioni (linguaggio). Le rappresentazioni
proposizionali sono rappresentazioni astratte degli oggetti ed eventi che rappresentano e perciò non catturano né
contengono le caratteristiche fisiche di ciò che rappresentano.
RAPPRESENTAZIONE DEI SIGNIFICATI
Nella nostra mente sono rappresentati i significati ovvero la conoscenza semantica. Una possibile forma di
rappresentazione dei significati organizzata in modo strutturale è quella proposta da Collins e Quillian. Essi
ipotizzarono che i significati fossero rappresentati in una struttura gerarchica in cui i nodi concettuali fossero inclusi a
diversi livelli e che il recupero dell'informazione semantica corrispondesse alla ricerca all'interno della rete gerarchica
(p.e. il concetto di <<canarino>> è incluso in un concetto più ampio di <<uccello>>, e quest'ultimo è a sua volta incluso
nel più ampio concetto di <<animale>>).
Per dimostrare la validità psicologiche di tale rappresentazione Collins e Quillian hanno ideato un esperimento in cui
veniva chiesto ai partecipanti se fossero vere o false alcuni frasi semplici in cui erano contenute:
 relazioni di appartenenza = Il canarino è un animale
 presenza di una caratteristica = Il canarino ha le piume
Il tempo richiesto per decidere se la frase fosse vera o falsa sarebbe stato in funzione della <<distanza>> tra il nodo al
quale bisogna accedere e il nodo che contiene l'informazione relativa alla risposta da dare. Se consideriamo le seguenti
domande appartenenti a tre differenti livelli di implicazione:
 Un canarino è un canarino? = livello 0
 Un canarino è un uccello?= livello 1
 Un canarino è un animale?= livello 2
i tempi di reazione per emettere la risposta dovranno essere crescenti a partire dalla risposta più veloce per la
domanda con livello 0 alla risposta più lenta di livello 2. Questo perché la prima domanda contiene una distanza
semantica nulla. La distanza semantica aumenta man mano che la distanza tra i nodi aumenta. Tale fenomeno si può
spiegare con il fatto che il sistema cognitivo per poter emettere la risposta deve prima accedere al nodo concettuale e
poi controllare l’esistenza della caratteristica in esame in quel nodo.
Un'altra modalità di rappresentazione dei significati è quella di Rumelhart e McClelland basata sulle rappresentazioni
distribuite che rappresentano le idee come aggregati di attivazioni distribuita attraverso una certa quantità di nodi e
connessioni. Ciascun nodo può contribuire alla rappresentazione di diversi concetti contemporaneamente. I vari nodi
presentano una molteplicità di connessioni alcune delle quali trasferiscono attivazione attraverso i nodi connessi ai
primi, mentre altre connessioni riducono o inibiscono l'attivazione dei nodi connessi. Questi aggregati operano come
potrebbero operare i neuroni del cervello e costituiscono una simulazione dell'attività neuronale.
RAPPRESENTAZIONE DELLE CONOSCENZE PROCEDURALI
Gli individui dispongono di conoscenze specializzate riguardanti il modo con cui svolgono molte attività. Queste
informazioni rappresentate in forma proposizionale si riferiscono alla conoscenza procedurale. Noi non solo sappiamo
che cosa è una bicicletta e come è fatta, ma sappiamo anche come si usa. Le conoscenze procedurali si riferiscono
tipicamente a come si fanno le cose e a come si utilizzano gli oggetti. Tali conoscenze sono articolate in produzioni
ovvero in strutture preposizionali del tipo se... allora, strutture che mettono in relazione concetti o eventi con un dato
comportamento.
Le conoscenze procedurali sono rappresentate in una forma che consente di eseguire le azioni o i comportamenti in
maniera autonoma. L’idea sviluppata è quella dello script, uno schema che descrive in termini generali come si fa
qualcosa. Lo script corrisponde ad una rappresentazione mentale di una procedura abituale e stereotipata. Lo script è
un canovaccio molte informazioni non sono esplicitate nella rappresentazione schematica, ma devono essere inferite.
IMMAGINI MENTALI
Una delle questioni principali che si pongono gli psicologi è la capacità di riconoscimento degli oggetti e degli eventi.
Le rappresentazioni degli oggetti in entrata non sempre corrispondono alle rappresentazioni degli oggetti posseduta
dagli individui. Per esempio noi possiamo ruotare mentalmente l'immagine di uno stimolo e riconoscerlo ugualmente.
Le immagini mentali sono una fondamentale forma di rappresentazione immagazzinata separatamente rispetto alle
rappresentazioni proposizionali. Le immagini sono generate in un formato analogo alle nostre percezioni e perciò
hanno estensioni e risoluzioni limitate. La teoria di Kosslyn si basa su dati empirici che dimostrano che, quando la
14
gente manipola le rappresentazioni mentali, si comporta in modo tale da replicare l'interazione che generalmente ha
con il mondo reale.
TEORIA DELLA DOPPIA CODIFICA
Paivio ha proposto una teoria della doppia codifica, postulando l'esistenza di due sistemi simbolici indipendenti ma
interconnessi, specializzati per codificare, organizzare, trasformare, immagazzinare e recuperare l'informazione.
I due sistemi di codificano usano due differenti rappresentazione. Il primo tipo di rappresentazione, dette imagens,
costituisce la modalità elettiva di elaborazione delle informazioni non verbali e viene attivata nell'esplorazione di scene
o di generazione immagini mentali (operano in sincrona o parallelo).
Il secondo tipo di rappresentazione, dette logogens, costituisce la modalità privilegiata per l'elaborazione delle
informazioni di tipo linguistico (operano in maniera sequenziale).
La teoria di Paivio prevede che nel sistema vi siano della connessioni referenziali che ci consentono di visualizzare gli
oggetti nominati e di nominare gli oggetti che vediamo.
La teoria della doppia codifica è stata confermata da studi sulla memoria che mostrano come la rievocazione libera di
parole concrete sia migliore di quella di parole astratte.
Gli stimoli possono avere un differente valore di <<immaginbilità>> ovvero la diversa capacità di evocare
un'immagine.
RAPPRESENTAZIONE DEI SIGNIFICATI IN TERMINI DI CONCETTI E CATEGORIE
I concetti costituiscono la conoscenza che permette agli individui di trattare differenti entità come appartenenti alla
medesima categoria e ci consentono di decidere quali comportamenti assumere alla presenza di diverse entità. La
conoscenza contenuta nei concetti ha degli effetti sull'attività percettiva e sulla rappresentazione mentale del mondo
che ci circonda. La variabilità degli stimoli che costituiscono l’ambiente può dare origine ad un certo numero di
categorie. Gli elementi che fanno parte di una categoria difficilmente vengono distinti gli uni dagli altri, questi stessi
elementi si distinguono però da quelli di categorie diverse. Questo utilizzo delle categorie risponde ad un principio di
<<economia cognitiva>> poiché da una parte ci permettono di massimizzare le informazioni in esse contenute e
dall’altra di differenziare ogni categoria dalle altre. Vi sono categorie che sono facili da definire e altre che sono meno
facili se non addirittura difficili da definire. Questo anche se in base al principio di <<struttura del mondo percepito>>
vi sono nel mondo delle combinazioni di caratteristiche che ricorrono più frequentemente di altre.
Gli studi condotti da Rosch hanno permesso di descrivere l’organizzazione dei concetti in base a due dimensioni
principali. La prima, denominata dimensione verticale, si riferisce al grado di inclusione di una categoria (p.e. la
categoria dei veicoli ha un’estensione maggiore delle categorie “automobili” e “ treni” poiché la prima include le
seconde). La seconda è la dimensione orizzontale (sovraordinato, di base e sottordinato), la possibilità di differenziare
le categorie allo stesso livello di inclusione, “automobile sportiva” e “berlina” hanno lo stesso livello di generalità
poiché sono incluse nella categoria “ automobili”.
Rosch ha poi proposto la teoria del prototipo ovvero di quella entità che dovrebbe contenere il maggior numero
possibile di caratteristiche salienti del concetto e che perciò svolge il ruolo di esemplare più rappresentativo della
categoria.
LE CATEGORIE <<AD HOC>>
Oltre a categorie comuni gli individui utilizzano normalmente insiemi di elementi altamente specializzati e
apparentemente inusuali. Elementi di questi insiemi possono riguardare luoghi e situazioni, i più disparati oggetti e
comportamenti. Barsalou ha coniato il termine di categorie <<ad hoc>> per sottolineare l'occasionalità con cui certe
categorie sono costruite e utilizzate (es. cose utilizzate per fare viaggi). Se si deve organizzare il trasloco di arredamenti
in una nuova abitazione può essere costruita una categoria ad hoc per riassumere “tute le cose che possono essere
buttate”, categoria che sarà eliminata alla fine del trasloco. L'aspetto interessante dal punto di vista teorico è che, a
differenza delle altre categorie, queste possono contenere membri che non hanno in comune alcuna caratteristica e
possono non essere mai state concepite in precedenza.
Linguaggio e comunicazione
IL LINGUAGGIO: ABILITÀ APPRESA O INNATA?
Il linguaggio è una funzione che pervade la nostra attività mentale e molte delle attività cognitive come il pensiero, la
soluzione di problemi, la formulazioni di giudizi. La psicolinguistica, disciplina che si occupa della descrizione dei
processi cognitivi coinvolti nell’uso del linguaggio, fonda la sua teoria sulle basi mosse dal lavoro di Chomsky. Chomsky
si oppone alla tesi del comportamentismo che tratta il linguaggio come un qualsiasi comportamento soggetto alle leggi
dell’apprendimento e del condizionamento mediante rinforzi e sostiene che il linguaggio è un sistema generativo in cui
si possono individuare elementi comuni a tutti i linguaggi e strutture che possono riflettere meccanismi e principi
cognitivi organizzativi innati.
15
Il principale argomento composto da Chomsky a favore della tesi innatista è che il linguaggio viene appreso troppo
rapidamente dai bambini perché si possa sostenere che costoro inizino l'apprendimento dal nulla. Chomsky propose
l’esistenza di un meccanismo innato in grado di favorire l’acquisizione del linguaggio. Tale meccanismo denominato
LAD (Language Acquisition Device) è un dispositivo che contiene i principi della grammatica universale, vale a dire i
principi generali di tutte le lingue naturali che consentono ai bambini di scoprire le strutture linguistiche corrette
proprie della lingua della comunità linguistica di appartenenza.
La capacità degli individui di poter usare il linguaggio e le regole che lo governano è riconducibile alla competenza
linguistica posseduta. L'esecuzione linguistica, ovvero la capacità effettiva di usare il linguaggio, dipende non solo dalla
competenza, ma anche da molti altri fattori cognitivi, situazionali, socioculturali.
GRAMMATICA GENERATIVITA-TRASFORMATIVA
La teoria chomskiana si sviluppa attorno a quattro nozioni principali: la struttura superficiale, la struttura profonda, le
regole di struttura sintagmatica e le regole trasformazionali. La prima fa riferimento alla sequenza di suoni che può
essere segmentata in parole; la seconda contiene le informazioni necessarie alla trasmissione del significato, la terza
consente di trasformare un costituente frasale in altri costituenti, la quarta sono quelle regole che consentono di
trasformare una struttura in un’altra struttura.
Chomsky ha sviluppato una grammatica trasformazionale il cui vengono descritte le leggi che governano il modo in cui
un dato messaggio linguistico può essere trasformato in un altro. Grazie all'insieme delle regole di struttura
sintagmatica e delle regole trasformazionali gli individui possono generare un enorme numero di frasi differenti e una
quantità notevole di varietà di ciascuna frase senza assumere la necessità di meccanismi imitativi o di rinforzo, ma
soltanto come risultato di meccanismi innati.
IDENTIFICAZIONE DELLE PAROLE
La facilità di identificazione delle parole è influenzata dalla frequenza con cui le parole sono utilizzate in una
determinata lingua, ma anche dalla loro pronunciabilità.
Un altro fattore importante per l’identificazione delle parole è il contesto in cui una parole è presentata. L’effetto del
contesto rende conto di un fenomeno noto come effetto di superiorità della parola. Secondo Reicher il
riconoscimento di una stringa di lettere non dovrebbe richiedere un tempo superiore a quello richiesto per riconoscere
una lettera. Esperimento dove i soggetti dovevano riconoscere la lettera D nelle parole “WORD” e in una non parole
come “ ORWD”.
Risultato: i soggetti sono più veloci a riconoscere la lettera critica quando fa parte di una parola rispetto sia al caso in
cui faccia parte di una non parola sia quando la lettera viene presentata isolata. Dunque il contesto è importante.
Le parole possono essere identificate grazie alla possibilità che le informazioni necessarie per il riconoscimento siano
allocate in un sistema che costituisce una sorta di “vocabolario mentale”. Morton ha elaborato un modello di
riconoscimento delle parole basato su un costrutto denominato logogen il cui funzionamento è simile a quello di un
sistema che rileva e integra informazioni fino a quando la quantità di informazioni è necessaria per dare una risposta.
Secondo Morton i logogens operano come dei rilevatori di caratteristiche fisiche e di contesto della parola. La parola
arco contiene informazioni come: ha quattro lettere, inizia con la a.
Quando i rilevatori relativi alle diverse informazioni superano una certa soglia critica la parola viene riconosciuta e
viene trasferita. Il livello della soglia è modulato da effetti di familiarità e frequenza d'uso, di contesto sintattico e
semantico e da effetti congiunti.
COMPRENSIONE DI FRASI
Comprendere una frase significa dare un senso a una sequenza di suoni. A questo compito contribuiscono processi che
coinvolgono principalmente conoscenze di tipo sintattico e conoscenze di tipo semantico.
Un approccio di tipo sintattico mette in luce l'utilizzo di differenti strategie volte a segmentare la sequenza di suoni in
un unità o costituenti frasali, a partire dai quali si potrà costruire la rappresentazione semantica (p.e. identificazione
delle <<parole funzioni>>).
COMPRENSIONE DI TESTI E DI STORIE
La comprensione di testi consiste nell'integrazione dei significati estratti dalle singole proposizioni che costituiscono il
testo in un'unica idea o nucleo concettuale. L'integrazione di idee è un compito tanto più complesso e difficile quanto
più debole è la relazione esistente tra le idee espresse dalle diverse proposizioni.
Thorndike, tra i primi, analizzò la struttura sintattica di una storia. La grammatica di storie si basa su un set di regole
che consentono di riscrivere i costituenti principali in costituenti di ordine inferiore.
La regola principale definisce una storia nei termini di uno scenario, un tema, una trama e una conclusione. Le altre
regole sono applicate per trasformare ulteriormente questi elementi, talvolta in maniera ricorsiva; ad esempio, la
trama può essere trasformata in un numero considerevole di episodi.
16
COMUNICAZIONE E PERSUASIONE
La comunicazione persuasiva è stata analizzata con diversi approcci teorici. Uno dei più accreditati è quello del modello
della probabilità di elaborazione dell'informazione secondo cui il cambiamento degli atteggiamenti, come effetto
dell'azione persuasiva di un messaggio, coinvolgono due percorsi differenziati denominati <<percorso centrale>>
(attivato quando l'elaborazione dell'informazione richiede un'elaborazione accurate e un'analisi attenta → il messaggio
contiene argomenti forti) e <<percorso periferico>> (attivato dallo scarso interesse che il messaggio ha per il
destinatario, quando il cambiamento di atteggiamento vede coinvolti elementi non direttamente collegati con il tema
principale del messaggio e argomentazioni deboli → informazioni sulle caratteristiche fisiche della fonte o la sua
attendibilità). In base al modello gli individui esposti a un messaggio attiveranno più probabilmente il percorso centrale
piuttosto che il percorso periferico, quanto più essi ritengono che il messaggio abbia una rilevanza personale e perciò
siano motivati a un'elaborazione attenta dei suoi contenuti.
Gli effetti persuasivi di un messaggio dipendono da una molteplicità di fattori.
Uno degli aspetti più importanti relativi alla fonte è la sua credibilità che dipende dal grado di competenza
riconosciutole e dalla fiducia dell'ascoltatore. Il secondo aspetto rilevante concerne l'insieme delle caratteristiche del
ricevente (p.e. disposizioni stabili → influenzabilità dell'individuo, autostima, ecc...).
infine, il messaggio di per sé svolge un ruolo centrale nel processo di persuasione. La vividezza costituisce una delle
caratteristiche del messaggio maggiormente discusse (può produrre effetti negativi e positivi).
CONVERSAZIONE E COMUNICAZIONE INTERPERSONALE
Una conversazione è caratterizzata da almeno tre diverse fasi: inizio o apertura (saluti), sviluppo di uno o più
argomenti di interesse per i partecipanti, insieme di espressioni che portano alla conclusione.
Un aspetto centrale nella dinamica conversazionale riguarda l'avvicendamento dei turni.
La comprensione dei messaggi linguistici che vengono trasmessi dai parlanti nello scambio conversazionale parte
dall'interpretazione che essi possono assegnare ai messaggi stessi.
L'interpretazione dei messaggi è favorita dall'assunzione da parte dei partecipanti alla conversazione di un particolare
tipo di <<contratto>> denominato contratto dato, nuovo grazie al quale uno dei partecipanti conviene di aggiungere
nuove informazioni a quelle che l'altro già possiede e viceversa.
La conversazione, inoltre, per essere una comunicazione interpersonale efficiente deve obbedire a un fondamentale
principio di cooperazione, inteso come la necessità da parte del partecipante di dare il proprio contributo al momento
opportuno coerentemente con le richieste della situazione comunicazionale. Grice ha declinato questo principio in
quattro regole o massime conversazionale. La prima , detta massima della quantità, suggerisce che i partecipanti alla
conversazione cerchino di non dire più di quanto sia necessario; la seconda, detta massima della qualità, suggerisce
che gli interlocutori facciano affermazioni vere; la terza, detta massima della relazione, si riferisce al fatto che gli
interlocutori cerchino di essere pertinenti; infine la quarta, detta massima del modo, suggerisce che gli interlocutori
cerchino di essere chiari.
LINGUAGGIO FIGURATO ED ESPRESSIONI IDIOMATICHE
La comunicazione può essere interpretata a due livelli di significato. Il primo livello concerne il significato letterale di
un'espressione linguistica, ovvero quel significato che emerge dalla particolare combinazione dei significati delle
singole parole che compongono l'espressione. Il secondo livello si riferisce, invece, al significato figurato, ovvero al
significato cui si può accedere se l'espressione linguistica viene elaborata facendo ricorso alle implicature, cioè quelle
inferenze che consentono di andare oltre il significato figurato dal primo livello per poter identificare l'intenzione
comunicativa del parlante. Il linguaggio figurato si manifesta attraverso un'ampia gamma di espressioni linguistiche. La
metafora è una forma linguistica tipica attraverso la quale si esprime il significato figurato.
Tra le forme di linguaggio figurato si possono collocare le espressioni idiomatiche, vale a dire quelle forme linguistiche
con funzioni metaforica ma con un significato unico e convenzionale. Cacciari propone una definizione molto generale
di espressione idiomatica: <<una stringa di parole il cui significato globale non è sempre deducibile dalle unità che
costituiscono, anche se in molti casi vi contribuiscono in modo significativo vincolandolo in termini sintattici e
semantici>> (p.e. <<chiudere la stalla quando i buoi sono scappati>>).
COMUNICAZIONE NEI GRUPPI
La comunicazione tra i componenti dei gruppi oltre a favorire il consolidamento della struttura organizzativa e la
distribuzione del potere tra i membri è un potente strumento di influenza sociale di singoli o di componenti del gruppo
su altre componenti del gruppo medesimo.
L'influenza sociale all'interno dei gruppi può assumere due forme principali. La prima, denominata influenza
maggioritaria, è stata studiata inizialmente da Festinger e ha come effetto quello di indurre negli individui condotte
compiacenti o conformistiche (il singolo a uniformare la sua scelta a quella della maggioranza, anche in caso di
valutazione palesemente erronee). L'influenza sociale può essere esercitata anche in un'altra forma e cioè ad opera di
17
una minoranza all'interno del gruppo. Questa seconda modalità di influenzamento è denominata influenza
minoritaria.
COMUNICAZIONE MEDIATA DA COMPUTER
Una particolare caratteristica dei sistemi di comunicazione asincrona (p.e. comunità virtuali) è la tendenza a riportare
in tutto o in parte il messaggio cui si intende rispondere in modo da facilitare il ricevente nella comprensione della
risposta. Altre caratteristiche tipiche del linguaggio online riguardano il ricorso a strategie comunicative volte a
compensare uno dei maggiori limiti della comunicazione mediata del computer, ovvero l'assenza di uno spazio fisico
condiviso sopperita dall'utilizzo di codici di comunicazione testuale (p.e. smileys). L'assenza di uno spazio fisico
condiviso impoverisce inevitabilmente l'interazione di importanti fonti di comunicazione quali le componenti della
comunicazione non verbale (la prossemica, i gesti, l'espressione facciale, ecc...). Le chat online possono condividere
alcune caratteristiche di immediatezza e di sincronicità con la comunicazione faccia a faccia. Werry ha sottolineato che
questa modalità di comunicazione influenza la conversazione determinando un particolare registro linguistico che
sembra essere caratterizzato da un uso altamente economico del linguaggio nel tentativo di emulare una normale
conversazione faccia a faccia.
COMUNICAZIONE E RISOLUZIONE NEGOZIATA DI CONFLITTI
La comunicazione è forse la forma più evoluta per la risoluzione di conflitti interpersonali.
I conflitti interpersonali sono per lo più determinati dalla scarsità di risorse disponibili (materiali o immateriali) e dalla
conseguente manifestazione di interessi divergenti. La risoluzioni di tali conflitti può avvenire secondo due principali
linee di condotta: il compromesso (trovare un accordo in cui la <<risorsa >> sia spartita tra le parti, modello tipico della
teoria economica dei giochi denominato gioco a somma zero) o il negoziato integrativo (cerca di aumentare le risorse
per soddisfare gli interessi divergenti delle parti).
Pensiero e ragionamento
Il pensiero può essere definito come l’attività mentale in grado di elaborare e di sviluppare le relazioni fra le
informazioni codificate in precedenza nella memoria. Il pensiero però può assumere forme differenti. Johnson- Laird
ha proposto una tassonomia secondo la quale l'attività di pensiero può essere sostanzialmente divisa in due
macrocategorie. La prima include le forme di pensiero non finalizzato, ovvero quelle caratterizzata da associazioni
libere. La seconda, include le diverse forme di pensiero rivolto ad una meta come il ragionamento, i processi mentali
volti alla soluzione di problemi e alla presa di decisione.
Vi sono tipicamente due forme di ragionamento e cioè il ragionamento deduttivo e il ragionamento induttivo.
Il ragionamento deduttivo è un modo di ragionare in cui facciamo uso di conoscenze relative a certe affermazioni che
sappiamo o riteniamo essere vere per inferire qualche conoscenza vera che necessariamente discende da quelle
affermazioni (non abbiamo mai visto un panda; ne è morto un esemplare in uno zoo; sappiamo dunque che si tratta di
un animale). Il ragionamento deduttivo, quindi, è un processo di pensiero che procede dal generale al particolare.
Il ragionamento induttivo è una modalità di ragionamento in cui vengono acquisite informazioni o dati a sostegno di
una data conclusione (sappiamo che se abbiamo mal di testa, febbre alta e brividi abbiamo l’influenza; chi presenta
questi sintomi ce l’ha). Il ragionamento induttivo, quindi, è un processo di pensiero che procede dal particolare al
generale.
Le inferenze tratte in maniera deduttiva sono valide se le premesse sono vere, perciò la conclusione sarà
necessariamente vera, mentre le inferenze tratte in maniera induttiva sono valide se le assunzioni che sono vere non
possono condurre a conclusioni che sono false.
SILLOGISMI ED ERRORI DI RAGIONAMENTO DEDUTTIVO
La struttura di ragionamento sillogistico è la forma più semplice di ragionamento deduttivo. I sillogismi sono una
particolare forma di logica deduttiva in cui due proposizioni sono combinate in maniera da produrre una proposizione
finale. Le prime due preposizioni sono dette <<premesse>>, la proposizione finale è detta <<conclusione>>. Una tipica
forma di sillogismo è nota come <<sillogismo tipo Barbara>> e presenta la seguente struttura:
Premessa maggiore
Tutti i B sono A
Tutti i chirurghi sono medici
Premessa minore
Tutti i C sono B
Tutti i medici sono laureati
Conclusione
Tutti i C sono A
Tutti i chirurghi sono laureati
La conclusione stabilisce una relazione tra i due termini estremi (C e A) e il termine medio (B). L'eliminazione del
termine medio permette di derivare la conclusione direttamente dal sillogismo.
Le affermazioni possono essere affermative o negative e universali o particolari (→ Tutti gli... universale e affermativa;
Qualche... particolare e affermativa; Nessun... universale e negativa; Qualche … non è … particolare e negativa).
IL RAGIONAMENTO DEDUTTIVO CONDIZIONALE
18
Il ragionamento deduttivo può anche caratterizzarsi come un processo inferenziale basato su proposizioni relate tra
loro da un connettivo linguistico come la particella <<se>>. La struttura formale tipica con la quale si esprime questa
modalità di ragionamento è il sillogismo condizionale.
Nel sillogismo condizionale la premessa maggiore ha la forma di un enunciato condizionale del tipo <<se p allora q>>:
 se guidiamo in stato di ebrezza allora ci toglieranno molti punti-patente;
 se sottoscriviamo un abbonamento annuale a <<Times>> allora riceveremo in regalo un palmare.
La premessa minore è un enunciato che può esprimere o la proposizione antecedente o la proposizione conseguente.
Entrambi gli enunciati possono essere proposti in forma affermativa o in forma negativa.
L'enunciato è falso quando p è vera e q è falsa; qualsiasi altra combinazione è vera.
SCHEMA DI RAGIONAMENTO CONDIZIONALE ED ERRORI LOGICI
Nel ragionamento condizionale si possono utilizzare due schemi inferenziali validi, ovvero due conclusioni che derivano
necessariamente dalla relazione tra la premessa maggiore e la premessa minore.
Il primo schema inferenziale, detto modus ponens, è caratterizzato dalla proposizione condizionale e dall'affermazione
dell'antecedente.
Se p allora q
Se un extracomunitario non ha un'occupazione fissa allora è un clandestino
p
un extracomunitario non ha un'occupazione fissa
q
è un clandestino
allora
Il secondo schema inferenziale, detto modus tollens, è caratterizzato dalla proposizione condizionale e dalla negazione
della conseguente.
Se p allora q
Se un extracomunitario non ha un'occupazione fissa allora è un clandestino
non-q
non è un clandestino
non-p
non è un extracomunitario senza un'occupazione fissa
allora
Quando si sviluppa un ragionamento condizionale si può incorrere in due fallacie. La prima fallacia è detta come
negazione dell'antecedente e produce come errore tipico la negazione della conseguente, la seconda fallacia in cui si
può incorrere è quella denominata affermazione della conseguente.
I MODELLI MENTALI
La teoria dei modelli mentali è stata proposta da Johnson-Laird. La teoria si basa sull’idea che il ragionamento si fonda
sulla generazione di rappresentazioni mentali o modelli del mondo. Essenzialmente la teoria descrive un processo
mentale che si sviluppa in tre fasi:
• prima fase: comprensione delle premesse grazie alle conoscenze linguistiche e a tutte le conoscenze rilevanti per tale
compito;
• seconda fase: combinazione dei modelli delle premesse per ottenere una descrizione della situazione che può essere
definita da quelle premesse;
• terza fase: validazione ovvero ricerca di modelli alternativi che sono congruenti con le premesse, ma in cui la
conclusione candidata ad essere adottata è falsa. Se ciò si verifica allora la conclusione è falsa e deve essere ricercata e
validata un'altra conclusione. Questa fase si conclude quando tutte le potenziali conclusioni sono esaurite.
RAGIONAMENTO LINEARE E MODELLI MENTALI DI DESCRIZIONI SPAZIALI
Ci sono problemi di ragionamento in cui le asserzioni forniscono informazioni relative alle relazioni esistenti fra i
termini questi problemi sono denominati sillogismi lineari o problemi a tre termini (p.e. Luigi è più alto di Mario.
Mario è più alto di Paolo. Chi è più alto?). In questi casi si trae un'inferenza valida quando si riescono a ordinare in
maniera coerente gli elementi del problema.
La difficoltà nella risoluzione di un problema a tre termini può essere imputabile alla difficoltà nella comprensione
delle premesse (i termini delle premesse semanticamente <<marcati>>, come <<basso>>, <<cattivo>>, ecc.., sono
elaborati più difficilmente rispetto agli aggettivi <<non marcati>>) e della domanda cui si deve rispondere (è più
semplice rispondere a una domanda congruente con le premesse che a una domanda incongruente).
IL RAGIONAMENTO INDUTTIVO
Ragionare in maniera induttiva non consente di provare che una conclusione o un'ipotesi siano logicamente valide. In
psicologia sono stati messi a punto vari compiti per capire i meccanismi alla base dell'incapacità della gente di generare
19
ipotesi che possano essere sottoposte a prova e tentare di falsificarle. La tendenza errata è, infatti, quella di
confermare le ipotesi.
Il compito di selezione è un famoso problema proposto da Wason per studiare le strategie utilizzate dagli individui per
risolvere problemi di questa natura. Il compito era strutturalmente molto semplice: venivano mostrate ai soggetti
quattro carte, due con una lettera e due con un numero. Le quattro carte avevano una lettera su di un lato e un
numero sull'altro. Wason proponeva ai soggetti la regola: <<Se una carta ha una vocale su un lato, allora a un numero
pari sull'altro.>>. Dopo di ciò egli chiedeva ai soggetti di indicare soltanto quelle carte che avrebbero dovuto girare per
controllare la regola. La risposta corretta sarebbe girare la carta su cui è visibile la vocale e quella su cui è stampato il
numero dispari. Infatti, soltanto se dietro la carta su cui è stampata una vocale c'è un numero dispari la regola è
violata. L'errore commesso da circa il 90% dei soggetti (girare la carta con impressa la vocale e quella con sopra in
numero PARI) viene denominato confirmation bias, per denotare la strategia caratterizzata nel confermare la regola,
contraria alla strategia razionale volta a indicare il caso che la falsifica. Gli individui incontrano difficoltà nell'utilizzo di
materiale astratto. Un altra strategia particolare è quella denominata matching bias per cui, in un compito di selezione,
i soggetti sembrano scegliere gli item nominati nella regola.
È stato verificato come la presentazione di materiale concreto innalzi la percentuale di risposte esatte (Wason → 10%,
Johnson-Laird 80%).
GLI SCHEMI PRAGMATICI DI RAGIONAMENTO E LA TEORIA DEL CONTRATTO SOCIALE
Alcuni ricercatori hanno proposto che la facilità con cui gli individui riescono a svolgere un compito di selezione con
materiale concreto, dipenda dal fatto che possono essere utilizzate delle regole pragmatiche che possono venire
normalmente impiegate in due classi di situazioni.
Cheng e Holoyoak hanno proposto l'ipotesi che generalmente gli individui applicano il ragionamento condizionale per
scopi pragmatici in particolare o per aver il permesso di fare qualcosa oppure perché devono aderire a un obbligo o
accettare vincoli contrattuali. Nel primo caso, gli individui applicano uno schema di permesso e cioè se qualcosa è vero
allora si può fare qualcos'altro; nel secondo caso, applicano uno schema di obbligo, e cioè se qualcosa è vero allora si
deve fare qualcos'altro. Gli schemi pragmatici proposti da Cheng e Holoyoak costituiscono delle rappresentazioni di
regole astratte in termini di <<condizione-azione>>.
Una prospettiva differente per rendere conto della facilitazione con cui i soggetti possono risolvere problemi relativi al
controllo di ipotesi è stata avanzata da Cosmides ed è nota come <<teoria dei contratti sociali>> per cui gli individui
intrattengono relazioni in cui possono ottenere qualcosa in cambio di qualcos'altro, cioè concorrono a stabilire dei
compromessi grazie ai quali possono ottenere vantaggi reciproci.
Soluzione dei problemi e creatività
I PROBLEMI E LA LORO STRUTTURA
I problemi sono tutte quelle situazioni in cui un qualche obiettivo deve essere raggiunto ma non si conoscono i mezzi
con cui può essere raggiunto o la strategia che consenta di risolvere la situazione problematica. I problemi possono
essere di diversi tipi, ma si possono riassumere in grandi categorie in funzione del grado di definizione o di precisazione
della struttura dei problemi e in funzione del tipo di strategie prevalentemente utilizzabile per la loro soluzione.
In base alla prima categoria i problemi possono essere ben definiti o mal definiti. Nel primo caso la struttura del
problema si presenta in maniera precisa, sono cioè individuabili i costituenti e l’obiettivo del problema; nel secondo
caso, il problema non presenta confini ben delineati e talvolta l’obiettivo non è ben specificato (p.e. problema ben
definito → la soluzione di un’espressione aritmetica);
In base alla seconda categoria i problemi possono essere definiti come problemi che più frequentemente richiedono
una strategia di soluzione riproduttiva e problemi che invece richiedono più frequentemente una strategia produttiva.
I primi sono quei problemi per i quali una procedura di risoluzione è stata sperimentata o è familiare quasi si dovesse
applicare un comportamento abitudinario. Il secondo tipo, sono quelli per la cui soluzione si deve applicare una
procedura innovativa o del tutto nuova come risultato di un atto di creatività (p.e. soluzione riproduttiva → una
soluzione geometrica; soluzione produttiva → cambiare la ruota bucata dell’auto senza disporre del cric).
IL PROCESSO DI SOLUZIONE DI PROBLEMI
La soluzione di problemi viene considerata come il risultato di un processo suddiviso in diverse fasi. Polya ha studiato
quali fossero gli stadi attraverso i quali poteva svilupparsi il processo di soluzione di un problema soprattutto sulla base
delle osservazioni che aveva fatto come insegnante di matematica.
Il processo è costituito da quattro fasi. Nella prima fase: il solutore cerca di comprendere il problema raccogliendo le
informazioni che il problema stesso impone di acquisire; nella seconda fase il solutore tenta di escogitare un piano che
consenta di valutare se la sua esperienza lo può aiutare a trovare una soluzione; nella terza fase il solutore tenta di
mettere in atto il piano controllando tutti i passaggi che il piano richiede; infine, nella quarta fase il solutore applica
20
una procedura di controllo a ritroso per vedere se il risultato ottenuto può essere ottenuto anche con un altro
metodo.
RAPPRESENTAZIONE DEI PROBLEMI, ALGORITMI ED EURISTICHE DI SOLUZIONE
I problemi possono essere risolti principalmente in due modi mediante l’applicazione di un algoritmo o mediante una
strategia euristica. Gli algoritmi sono delle procedure che, se applicate ricorsivamente, consentono di risolvere
correttamente il problema (p.e. se si applica correttamente la regola della moltiplicazione si può risolvere un problema
matematico). Spesso, però, il problema è troppo complesso per essere adeguatamente rappresentato a livello
cognitivo in vista della soluzione (Newell e Simon –> spazio del problema).
Le euristiche sono strategia generali di soluzione dei problemi e sono indipendenti dal loro contenuto, possono cioè
essere applicate a problemi di qualsiasi dominio, mentre hanno come obiettivo solo la loro semplificazione. Sono state
descritte da Newell e Simon e sottoposte a simulazione mediante programma informatico. Si tratta di tre procedure
generali denominate rispettivamente:
• euristica basata sull’analisi mezzi-fini;
• euristica basata sull’esame e a ritroso;
• euristica basata sulla semplificazione.
Quando si applica la prima euristica il problema cognitivamente troppo esoso viene trasformato in una sequenza di
sotto-problemi ognuno dei quali ha uno sotto-scopo. La soluzione del problema prevede la soluzione dei singoli sottoproblemi individuando i mezzi che consentono di raggiungere i rispettivi sotto-scopi (p.e. <<torre di Hanoi>>).
L’applicazione dell’<<esame a ritroso>> consente di risolvere il problema a partire dal risultato ritenuto corretto e
risalendo passo dopo passo allo stato iniziale del problema per controllare la correttezza della procedura.
L’applicazione dell’euristica di <<semplificazione>> consiste del produrre una rappresentazione semplificata del
compito e tentare una simulazione della soluzione per provarne l'efficienza.
RISOLVERE I PROBLEMI PER INSIGHT
Ci sono situazioni problematiche che possono essere risolte con un approccio creativo, grazie al quale la soluzione
emerge in virtù della capacità del solutore di cogliere nella situazione problemica elementi nuovi e nuove relazioni tra
gli elementi del problema. Questa modalità di soluzione viene denominata insight. Gli psicologi della Gestalt hanno
utilizzato questa nozione per indicare il momento in cui la soluzione di un problema si rendeva all'improvviso
disponibile all'individuo come conclusione di un processo di pensiero produttivo, ovvero un processo di pensiero in
grado di produrre una soluzione per la situazione attuale.
È stato provato che i problemi che richiedono soluzioni creative vengono risolti all'improvviso mentre nei problemi in
cui si applicano strategie di tipo riproduttivo la soluzione viene raggiunta graduatamente.
GLI OSTACOLI ALLE SOLUZIONI CREATIVE
La soluzione creativa mediante insight di problemi può essere ostacolata o resa impossibile a causa dell’azione di alcuni
fattori tipicamente cognitivi. Due tra i più importanti fattori che ostacolano il processo di pensiero che si conclude con
insight sono l’impostazione soggettiva e la fissità funzionale. Gli effetti dell’impostazione soggettiva derivano dal fatto
che la ripetizione di un particolare processo di soluzione impedisce agli individui di considerare percorsi di soluzione
alternativi. La fissità funzionale è un forte ostacolo che impedisce agli individui di adottare una strategia produttiva. Gli
effetti della fissità funzionale consistono nell’impedire soluzioni produttive perché gli individui restano fissati alle
funzioni degli oggetti normalmente e naturalmente sperimentate (p.e. problema delle puntine, scatola e candela).
L'USO DELL'ANALOGIA NELLA SOLUZIONE
Il ricorso all'analogia come procedura per risolvere i problemi richiede che il solutore individui una corrispondenza
strutturale tra due situazioni problemiche, anche differenti sul piano del contenuto, per poter effettuare un <<transfert
positivo>> della procedura di soluzione dalla situazioni in cui è stata applicata con successo alla nuova situazione
problemica.
Giudizio e decisione
<<BIAS>> ED EURISTICHE DI GIUDIZIO
Molto spesso gli individui fondano i propri giudizi su informazioni imperfette o incomplete e perciò ricorrono a
procedure pratiche, economiche sotto il profilo del carico cognitivo richiesto. Tali procedure, dette euristiche, se da
una parte costituiscono una modalità molto efficiente di svolgere i compiti di giudizio, dall'altra espongono i decisori a
errori di valutazioni, ovvero a distorsioni sistematiche nei giudizi dette bias.
LE EURISTICHE DI GIUDIZIO
21
Le euristiche di giudizio sono state descritte e analizzate da Kahneman e Tversky fin dall'inizio degli anni '70. Il loro
lavoro ha permesso di individuare almeno tre principali euristiche: l'euristica di disponibilità o evocabilità, quella di
rappresentatività e quella di ancoraggio e aggiustamento.
L'euristica della disponibilità o evocabilità si basa sul normale funzionamento della mente sulla conoscenza implicita
che gli individui hanno dell'attività mnestica. Gli individui, spesso, formulano le loro stime sul numero dei casi o esempi
dell'evento che vengono loro in mente; quanto più numerosi saranno gli eventi ricordati, tanto più saranno ritenuti
probabili. Kahneman e Tversky hanno dimostrato questo effetto presentando a dei soggetti un problema analogo al
seguente:
Considerate la lettera R. La lettera R è più probabile che compaia in una parola del vocabolario inglese:
1. in prima posizione?
2. In terza posizione?
Due terzi del campione stimarono che era più probabile la 1. Tale distorsione nel giudizio è determinata dal fatto che i
soggetti si basano sulla quantità di esempi evocati: plausibilmente vengono in mente più facilmente esempi del primo
tipo che esempi del secondo tipo. In molti casi, però, la distorsione è causata dal fatto che esempi dell'evento in esame
sono evocati poiché hanno una particolare <<salienza>> (p.e. rischio automobile/aeroplano –> coloritura emotiva,
vicinanza temporale). I giudizi degli individui subiscono l'effetto della disponibilità anche quando si valuta la probabilità
o la frequenza con cui due eventi possono verificarsi congiuntamente (p.e. tossicodipendenti/criminali → correlazione
<<illusoria>>). La plausibilità degli scenari che possono venire in mente, o la difficoltà di produrli, vengono utilizzate
come indizi per effettuare una stima. Ne consegue che se l'individuo non riesce a produrre nessuno scenario riterrà
l'evento impossibile, mentre riterrà quell'evento più probabile quanto più riuscirà a produrre degli scenari in cui
l'evento si verifica. Questo processo è alla base anche di un'operazione mentale denominata euristica della
simulazione. Tale euristica consiste nel simulare un mondo possibile in cui qualcosa che in realtà è avvenuto non si sia
realizzato e nel trarre le conseguenze da questa costruzione fantastica. I controfattuali fantastici sono il prodotto
dell'<<euristica della simulazione>>.
Gli individui possono effettuare stime anche ricorrendo all'eruristica di rappresentatività, ovvero valutando il grado di
similarità tra l'evento che deve essere stimato e il processo che l'ha generato o la categoria di riferimento (p.e. serie di
lancio della moneta). L'euristica di rappresentatività viene utilizzata nel ragionamento quotidiano in molte occasioni e
produce effetti distorcenti quando si valutano eventi congiunti invece di applicare una delle più elementari regole della
teoria della probabilità com'è la regola della congiunzione. La fallacia della congiunzione consiste nel ritenere che la
probabilità di occorrenza degli eventi congiunti (p.e. in spiaggia ci sono più donne o più donne abbronzate?) possa
essere superiore alla probabilità di occorrenza degli eventi costituiti.
La terza euristica è quella denominata ancoraggio e aggiustamento. Quando utilizzano questa euristica gli individui
formulano una prima valutazione (ancoraggio) di un determinato fatto; poi, in seguito all'acquisizione di ulteriori
informazioni, vengono effettuate delle modificazioni più o meno consistenti (aggiustamento), e finalmente viene
formulata la valutazione definitiva. Il risultato di questo percorso, però, è che il giudizio finale non è molto diverso da
quello iniziale.
LA PRESA DI DECISIONE: L'APPROCCIO NORMATIVO E L'APPROCCIO DESCRITTIVO
La presa di decisione è considerata, generalmente, un compito in cui gli individui esprimono una preferenza tra almeno
due alternative. Le alternative sono descritte da uno o più attributi. Vi sono decisioni, però, che riguardano l'adozione
di un solo corso di azione, di un'opzione singola.
Le decisioni possono essere classificati secondo una serie di criteri (p.e. incertezza associata agli esiti di una scelta →
incertezza/probabilità, certezza/sicurezza; lunghezza del processo decisionale; livello di coscienza al quale avviene il
controllo del processo decisionale → automatiche/coscienza assente, ponderante/controllo del decisore), oggetto di
analisi degli studiosi delle decisioni sono tipicamente tutte quelle decisioni che sono sotto il controllo della coscienza,
indipendentemente dal grado di incertezza associata all'esito.
Lo studio della decisione si ritiene abbia visto l'esordio agli inizi del '700, grazie a Nicolas Bernoulli che voleva capire
quanto gli individui fossero disposti a pagare per partecipare a un gioco familiare del lancio della moneta, gioco che
presentava due vincoli: il primo è che il gioco continua finché non esce Testa e il secondo prevede che se esce ancora
Testa nei lanci successivi il premio viene sempre raddoppiato. Questo problema è noto come paradosso di San
Pietroburgo poiché ben poche persone sono disposte a pagare somme di denaro enormi per giocare, anche se il valore
atteso del gioco è infinito. Il cugino di Bernoulli, Daniel, tentò di risolvere successivamente la questione posta dal
paradosso sostenendo che quanto più denaro uno ha a disposizione tanto minore sarà l'utilità di ulteriore denaro.
La nozione di utilità e l'intuizione relativa all'andamento decrescente dell'utilità del denaro sono elementi centrali
dell'approccio normativo allo studio della decisione, volto a determinare le modalità con cui un decisore razionale
dovrebbe comportarsi.
Molte delle teorie normative si basano su un certo numero di assiomi, ovvero dei principi che sottendono la condotta
razionale dei decisori: l'assioma della transitività (se un individuo preferisce l'opzione A all'opzione B e l'opzione B
all'opzione C, allora deve preferire l'opzione A all'opzione C), l'assioma della dominanza (se le opzioni in esame sono
22
uguali tra loro su tutte le caratteristiche, ma una è superiore alle altre su una sola caratteristica, allora questa opzione
deve essere preferita) e l'assioma dell'invarianza (se un'alternativa è preferita alle altre in un dato contesto, la stessa
alternativa deve essere preferita se il contesto viene cambiato).
Emozioni
CHE COSA SONO LE EMOZIONI
Le emozioni sono fenomeni complessi definiti in differenti modi a seconda degli orientamenti teorici e metodologici e
costituiscono uno degli ambiti di studio classici della psicologia. L'importanza delle emozioni in ambito psicologico non
riguarda soltanto il fatto che possono essere utilizzate per spiegare a posteriori le risposte degli individui ai compiti e
all'ambiente, ma anche e soprattutto per capire il loro peso nel prevedere quelle risposte.
LA TEORIA DI JAMES-LANGE
Una delle teorie più influenti sulle emozioni, sviluppata nei primi decenni del secolo scorso, è conosciuta come teoria
di James-Lange. L'aspetto centrale della teoria riguarda il fatto che gli individui per prima cosa manifestano reazioni
fisiche a eventi che si verificano nel mondo o nella mente, e soltanto successivamente, quando essi acquistano
consapevolezza dei cambiamenti avvenuti nel corpo, percepiscono un'emozione.
Con la nascita del cognitivismo divenne del tutto accettabile lo studio degli stati mentali come le emozioni quale
risultato di processi cognitivi piuttosto che come risposte fisiologiche apprese.
LE RELAZIONI TRA ESPRESSIONI EMOTIVE ED ELABORAZIONE COGNITIVA
La teoria proposta da Zayone sostiene che l'espressione emotiva si manifesta come risultato di un processo cui
concorrono elaborazioni di aspetti percettivi e semantici che consentono all'individuo di riconoscere ciò che gli sta
accadendo e di recuperare dalla memoria la necessaria informazione che gli consente di stabilire il tipo e il grado di
esperienza emotiva che sta provando (p.e. felice, triste, arrabbiato, impaurito, ecc...).
il punto centrale riguardante gli effetti dell'esperienza emotiva è che le emozioni richiamano l'attenzione degli
individui su un pericolo incombente o su un'opportunità e orientano i processi cognitivi propri su questi aspetti
segnalati. Il sistema cognitivo e quello emotivo agirebbero in parallelo e sono tra loro indipendenti. Infatti, il sistema
cognitivo tipicamente sviluppa una sequenza di attività che tratta le caratteristiche di uno stimolo in maniera tale da
poter identificare e discriminare quest'ultimo rispetto agli altri stimoli. L'elaborazione emotiva, invece, sviluppa una
sequenza di operazioni che tratta le caratteristiche che consentono di decidere quale possa essere la natura emotiva
dello stimolo e se è un oggetto che può piacere o non piacere.
La prova empirica che le risposte emotive si manifestano in una fase precoce dell'elaborazione dello stimolo emerge
anche dalla descrizione di due fenomeni. Il primo è costituito dall'<<effetto della semplice esposizione>>. Tale effetto
consiste nella tendenza a preferire stimoli presentati in precedenza anche se non sono stati esplicitamente
memorizzati. Il secondo fenomeno si riferisce al <<priming emozionale>>. Tale fenomeno si osserva come conseguenza
della presentazione a livello subliminale di stimoli in grado di elicitare emozioni. In questi casi è stata osservata
un'importante influenza sul giudizio di stimoli completamente visibili.
EMOZIONI, ATTIVAZIONE E SOLUZIONE DI PROBLEMI
Le emozioni costituiscono una leva per favorire l'attivazione (arousal) in vista dell'esecuzione di comportamenti
complessi e della soluzione di problemi.
La prima teoria in cui si fa esplicito riferimento alla relazione tra stati fisiologici dell'attivazione e specifiche esperienze
emotive è stata proposta da Yerkes e Dodson. L'idea centrale e caratterizzante della teoria consiste nel prevedere che
differenti livelli di attivazione conducano a differenti gradi di performance. Le performance ottimali si ottengono nella
condizione in cui l'attivazione si manifesti a livelli intermedi (modello a U rovesciata). L'esatto livello di attivazione che
si riflette nella migliore performance dipende dalla situazione. Alcune situazioni possono richiedere un moderato
livello di attivazione, alcune un livello medio e altre ancora un livello elevato. Le emozioni potrebbero essere un modo
per stabilire una corrispondenza tra il livello di attivazione e la situazione stimolo e per generare il livello più elevato di
performance.
Gli stati emotivi influenzano anche l'atteggiamento e la modalità con cui si risolvono i problemi (p.e. stati affettivi
positivi favoriscono la generazione di strategie creative di soluzioni di problemi differenti).
L'INTELLIGENZA EMOTIVA
In ambito accademico l'intelligenza emotiva trova i suoi più influenti studiosi in Salovey e Mayer. Costoro partono dalla
critica dell'analisi tradizionali delle emozioni che si basava sull'idea che emozioni e pensiero fossero antietici: quando
perciò un individuo si trova in qualche stato emotivo il suo pensiero rischia di diventare caotico.
Il nuovo orientamento sostiene che le emozioni sono adattive e funzionali a organizzare il nostro pensiero, e ci aiutano
a conoscere ciò cui dobbiamo prestare attenzione.
23
Intelligenze
PROBLEMI DI DEFINIZIONE
L'intelligenza è una delle capacità psicologiche tra le più complesse e che ancora oggi dividono le posizioni degli
psicologi. Resta il fatto che questa capacità può essere rappresentata da un insieme di abilità che Nickerson, Perkin e
Smith hanno tentato di riassumere nel modo seguente:
 classificare degli insiemi, ovvero assegnare stimoli non identici a delle classi;
 modificare il comportamento adattivamente all'ambiente, cioè apprendere;
 ragionare in maniera deduttiva, cioè trarre conclusioni logiche da date premesse;
 ragionare in maniera induttiva, ovvero generalizzare e ciò richiede scoprire regole e principi da esempi
particolari;
 sviluppare e usare modelli concettuali, cioè formarsi un'impressione del modo con cui il mondo è organizzato
e come funziona e usare tale impressione per comprendere e prevedere gli eventi;
 comprendere, abilità relata a quella di vedere relazioni esistenti nei problemi e di apprezzare il significato di
tali relazioni per risolvere i problemi.
LA CONCEZIONE FATTORIALE DELL'INTELLIGENZA
Per individuare queste componenti i ricercatori hanno ideato una tecnica di analisi dei dati ottenuti denominata analisi
fattoriale. Si può dire che si assume che gli individui siano in possesso di una serie di tratti o fattori, che si differenzino
rispetto a questi tratti e che tali differenze si riflettano sulle differenze osservate nell'esecuzione di compiti intellettivi.
Così la prestazione degli individui a un test di intelligenza generale o di una specifica abilità è mediata da un insieme di
fattori sottostanti o tratti.
Il principale sostenitore di questo approccio è stato Spearman. Egli propose che l'intelligenza fosse costituita da un
fattore generale o fattore g e da un insieme di fattori specifici responsabili dell'esecuzione di una specifica abilità
mentale che egli chiamò fattore s.
Secondo Spearman l'intelligenza è meglio caratterizzata da un singolo fattore latente predominante nel test
complessivo.
Un altro grande sostenitore dell'approccio fattoriale propose un'idea molto diversa da quella di Spearman. Secondo
questa teoria l'intelligenza sarebbe caratterizzata da un certo numero di fattori denominati abilità mentali primarie:
comprensione verbale, fluenza, ragionamento induttivo, visualizzazione spaziale, abilità numerica, memoria e velocità
percettiva. In quest'ottica, il profilo di abilità trasversale a queste sette dimensioni è ciò che meglio caratterizza le
attitudini di un individuo.
A sua volta un altro sostenitore propose una concezione costruttivista dell'abilità intellettiva, applicando l'analisi
fattoriale a un'analisi logica dei fattori coinvolti nelle funzioni mentali. Ciò gli permise di costruire un sistema
denominato struttura dell'intelletto, ovvero un'organizzazione complessa di componenti intellettive coinvolte in
compiti o risoluzione dei problemi, definita da tre macrofattori: <<operazioni>> (processi mentali → processi di
pensiero, pensiero divergente, pensiero convergente, la memoria e il giudizio); <<prodotti>> (rappresentazioni delle
operazioni mentali → unità, classi, relazioni, sistemi, trasformazioni e implicazioni); <<contenuti>> (contenuti specifici
di un problema → figurali, simbolico, semantici e comportamentali).
Un'evoluzione dell'approccio fattoriale allo studio dell'intelligenza è la proposta di Gardner e conosciuta come teoria
delle intelligenze multiple. Egli identificò sette tipi di intelligenza: linguistica, logica-matematica, spaziale, musicale,
corporeo-cinestesica, interpersonale e intrapersonale.
La concezione di intelligenza di Gardner è caratterizzata dalla <<modulatrità>>. Infatti, si assume che le diverse abilità
intellettive si riferiscono a dei moduli costituiti da insiemi di processi che funzionano indipendentemente gli uni dagli
altri e che le abilità coinvolte nelle sette aree sono governate da attività in diverse regioni del cervello che hanno
diversa storia evolutiva.
LA MISURAZIONE DELL'INTELLIGENZA
La misurazione dell'intelligenza divenne un'esigenza concreta alla fine del '900, quando in Francia le autorità educative
richiesero al pedagogista Binet di sviluppare un sistema per valutare il grado di sviluppo intellettivo dei bambini in età
scolare.
Binet predispose, assieme al suo collega Simon, una serie di test di abilità scolastica che potevano essere eseguiti da
bambini normali appartenenti a una precisa fascia di <<età cronologica>>. Superare queste prove significa avere un'età
mentale corrispondente all'età cronologica.
L'approccio di Binet fu adattato da un gruppo dell'Università di Standford per mettere a punto un test conosciuto come
<<Standford-Binet>> che poteva essere somministrato agli adulti, in particolare per selezionare coloro che potevano
essere arruolati come ufficiali nelle forze armate americane.
24
Il sistema di misurazione escogitato da Binet presentava un limite connesso con l'utilizzo del concetto di <<età
mentale>>. La misura utilizzata da Binet era la semplice differenza tra l'età mentale del soggetto e l'età cronologica e
questa misura non consentiva di valutare correttamente il ritardo mentale osservato con le prove.
Diventava quindi necessario comparare la prestazione individuale con la prestazione media dell'intera popolazione. A
tal proposito fu introdotto un nuovo concetto di misura e cioè il QI.
Il QI si ottiene nel mo seguente:
QI = EM/EC X 100
CONCEZIONE COGNITIVISTA DELL'INTELLIGENZA
Il modello triarchico di intelligenza proposto da Sternberg affronta l'analisi dell'intelligenza da un punto di vista
procedurale mediante l'individuazione e l'analisi dei componenti. Il modello triarchico dell'intelligenza è costituito da
tre sub-teorie in grado di spiegare modelli specifici di comportamento intelligente umano:
1. comportamento esperienzale intelligente. L'intelligenza si manifesta quando l'individuo deve affrontare una
nuova situazione problemica oppure quando sta procedendo all'automatizzazione della prestazione in un
determinato compito;
2. comportamento contestuale intelligente. L'adattamento all'ambiente. Si tratta d una qualità intellettiva
strumentale per consentire agli individui di mantenere un buon adattamento con il proprio ambiente;
3. comportamento componenziale intelligente. Strutture e meccanismi sottostanti al comportamento
intelligente (apprendimento, pianificazione).
Quest'ultima sub-teoria, corrispondente alla tradizionale nozione di intelligenza, si articola in tre differenti tipi di
componenti: metacomponenti (controllo dell'esecuzione di altre componenti → processi di pianificazione, visione
strategica, capacità di anticipazione e previsione), componente esecutiva (insieme di processi mentali coinvolti
nell'esecuzione dei compiti → capacità di eseguire piani, recuperare le informazioni, ecc...) e processi di acquisizione
delle conoscenze (capacità di apprendimento di nuove informazioni e del loro immagazzinamento e trattamento nella
memoria).
Sternberg osserva che ciascuna delle componenti descritte dalla sub-teoria componenziale presenta tre aspetti
misurabili: durata (tempo richiesto per eseguire quella componente); difficoltà (probabilità di commettere un qualche
errore di esecuzione); probabilità di esecuzione (probabilità che in una data situazione quella componente venga
eseguita).
I CORRELATI COGNITIVI DELL'INTELLIGENZA
I sostenitori dell'idea che l'intelligenza abbia effettivamente come misura reale il fattore g pongono come punto di
forza a favore della loro posizione il fatto che esistono delle correlazioni tra misure di prestazioni ottenute in compiti
cognitivi che non siano derivate dalle tradizionali prove dei test. I correlati del fattore g riguardano misure relative ai
tempi di reazione di scelta, velocità nell'accesso lessicale, alla velocità nell'esplorazione di pattern.
IL QI TRA EREDITÀ E AMBIENTE
Uno dei problemi che maggiormente ha interessato gli studiosi delle differenze individuali e in particolare nel QI tra gli
individui è quello di capire se queste differenze sono geneticamente determinate o se sono dovute principalmente alle
molteplici influenze dell'ambiente sullo sviluppo dell'individuo. Generalmente si sostiene che le diversità osservate nei
QI sono per il 50% determinate dall'ambiente e per il 50% dal patrimonio genetico.
Psicologia cognitiva applicata
Per quanto la psicologia cognitiva applicata possa riflettersi su vari campi e contesti, i suoi maggiori contributi si sono
riversati sull'ergonomia. In generale per ergonomia si intende l'insieme delle leggi che legano le relazioni tra l'uomo e
il suo ambiente di lavoro.
Il primo momento dell'ergonomia, che possiamo definire dell'ergonomia classica, si è occupato principalmente
dell'interazione uomo -macchina, dove le variabili prese in esame erano la postura dell'operatore e le sue
caratteristiche antropometriche messe a confronto con gli aspetti fisici della macchina e del lavoro svolto. Le soluzioni
che questo tipo di ergonomia propone sono nuovi standard per sedie, tavoli, spazi di lavoro, ecc.... il rapporto uomomacchina veniva affrontato soltanto riguardo ai parametri fisici dell'hardware dell'interfaccia con l'operatore.
Il secondo momento dell'ergonomia ha in parte cambiato l'oggetto della ricerca soprattutto in conseguenza
dell'evoluzione della tecnologia. Con ergonomia cognitiva si intende una combinazione di psicologia cognitiva ed
ergonomia impiegata al fine di comprendere l'interfaccia utente. L'operatore non viene più a trovarsi con le singole
operazioni nel luogo dove avvengono, ma è costretto a interagire con una o più interfacce. L'interfaccia può essere
definita come il modo in cui si fa qualcosa con uno strumento, cioè le azioni e il modo in cui lo strumento risponde.
DESIGN DI OGGETTI D'USO QUOTIDIANO
25
La psicologia cognitiva applicata e l'ergonomia propongono, per la progettazione degli oggetti, delle linee guida che
tengano conto della mente dell'utente. Innanzi tutto l'affordance (letteralmente l'autorizzazione, cioè le operazioni
permesse).
Con affordance si intendono le proprietà reali e percepite che un oggetto ha; quelle proprietà che si vedono e ci
indicano come si potrebbe utilizzare l'oggetto in esame. L'affordance di un oggetto fornisce quindi forti suggerimenti
per l'uso e il funzionamento. Le caratteristiche che conferiscono affordance ad un oggetto sono quelle ottenute con un
buon progetto e un buon design. Secondo Norman, un buon design si ottiene soddisfacendo alcuni principi generali:
 fornire un buon modello concettuale e rendere visibili le caratteristiche funzionali (massimizzare le
caratteristiche di visibilità di un oggetto → anelli delle forbici, uso del pollice);
 seguire un buon mapping (determinare in maniera chiara i rapporti tra azioni e risultati, in particolar modo
tra i comandi e i loro effetti; significa prevedere e dare corrispondenza logico-spaziale tra quello che si vuole
fare e ciò che appare fattibile ai nostri sensi, tra lo stato del sistema e ciò che è visibile → fuochi cucina
economica);
 applicare il principio del feedback (prevedere un messaggio visivo e/o acustico, attraverso il quale l'utente
riceve una completa e continua informazione retroattiva. L'informazione di ritorno dice all'utente quale
azione ha effettivamente eseguito e quale risultato ha ottenuto → scrittura computerizzata).
26