Psicologo: verso la professione
(Paolo Moderato, Francesco Rovetto)
Capitolo 1:
PSICOLOGO: UNA PROFESSIONE SCIENTIFICA
(Felice Perussia)
Nasce in Europa nella seconda metà dell’800.
Nel ‘900 il suo punto di riferimento diviene la psicologia statunitense.
Nasce in Università come ricerca pura: la pratica clinica, intesa come psicoterapia, compare solo con la
prima guerra mondiale (1913 Watson e il manifesto del comportamentismo).
Negli stati Uniti:
- prima guerra mondiale: sviluppo della psicometria
- seconda guerra mondiale: sviluppo della psicoterapia
In Italia:
- 1905 nascita pubblica della psicologia
- Anni 20: decadenza
- Anni 50: rinascita grazie alla Liberazione e allo sviluppo di psicofarmaci.
- 1978: abolizione della legge Basaglia
Def. Psicologia:
1.
2.
3.
4.
un sistema teorico/operativo per rapportarsi al mondo, una chiave di lettura della
realtà
una forma di conoscenza e quindi una scienza
una forma di costruzione della propria identità (almeno per gli psicologi), un modo di vivere
una professione (regolamentata da leggi, presuppone una formazione)
Capitolo 2:
QUALE PSICOLOGIA? QUESTIONI STORICHE ED EPISTEMOLOGICHE DELLA PSICOLOGIA
(Maria Armezzani)
Def. Epistemologia: la riflessione sui caratteri di scientificità che informano una disciplina
Def. Dizionario: quella branca della teoria generale della conoscenza che si occupa di problemi quali la natura , i fondamenti, i
limiti e le condizioni di validità, tanto delle scienze cosiddette esatte, quanto delle scienze empiriche (vedi psicologia); lo studio
dei criteri generali che permettono di distinguere le affermazioni di tipo scientifico, dalle opinioni religiose, etiche, etc… Parte
essenziale della filosofia della scienza.
Ogni stile di ricerca e professionale dipende dalle categorie conoscitive che si sono ammesse (più o meno
esplicitamente) all’inizio: si considerano “assunte” scelte che all’inizio erano problematiche.
Se l’assunzione di modelli diversi non è peculiarità della psicologia, qui la frantumazione disciplinare è tale
che si impone una prospettiva storico-epistemologica per comprendere questo quadro, è una delle
condizioni di “competenza professionale”.
La conoscenza storico-epistemologica:
- rivela le implicazioni dei paradigmi e ne determina le possibilità e i limiti;
- allontana il rischio di ideologizzare la propria prospettiva;
- esplicita l’esistenza e la natura del “punto di vista”;
- rende possibile e favorisce il confronto tra modelli.
LA SCUOLA DI LIPSIA
La psicologia ha “due anime”:
- sperimentale (processi di BASE)
- filosofica (processi SUPERIORI)
1
¾ Fondatore ufficiale: Wundt, ha fondato a Lipsia nel 1879 il primo laboratorio di psicologia
sperimentale. E’ il primo che decise di applicare la metodologia delle scienze naturali all’indagine
sulla “psiche” (da criteri filosofici si passa a criteri sperimentali-quantitativi).
¾ Oggetto di indagine: “l’esperienza umana immediata”, ciò che è reperibile immediatamente nella
coscienza soggettiva.
¾ Variabili controllate: processi sensoriali semplici (escluse tutto quello che oggi chiamiamo
psicologia)
¾ Strumento: l’introspezione, resa sistematica da precise regole che tendono ad equipararla
all’osservazione scientifica
¾ Scopo: indagare sulla struttura della mente per scoprirne regole e componenti
Accanto a questa psicologia sperimentale, lo stesso W. sostiene la necessità di una psicologia filosofica,
vicina alle scienze “umane”.
→ la psicologia è iniziata come scienza della “coscienza”: è proprio l’idea di analizzare la soggettività con
criteri empirici, che fonda la psicologia moderna.
Le correnti si dividono:
In Europa continua la tradizione filosofica, mentre in USA quella sperimentale
™ Correnti in Nord-America:
STRUTTURALISMO E FUNZIONALISMO (fine ‘800, primi del ‘900)
Strutturalismo
¾ Fondatore : Cattell, allievo di Wundt, ma dà una interpretazione diversa agli studi di Lipsia: i dati
ottenuti non sono misura delle sensazioni, ma misura dell’entità fisica oggettiva degli stimoli, da
misure dell’esperienza soggettiva si passa a misure dell’oggetto che provoca l’esperienza.
Collabora con Galton e introduce la statistica e i test mentali; l’interesse si sposta dal soggetto, alle
prestazioni soggettive (e poi alle differenze individuali).
¾ Fondatore: Titchener, allievo di Wundt, esclude tutta la parte filosofica dalla sua traduzione
dell’opera di Wundt e sposta tutto l’interesse sulla parte sperimentale, “risolvendo” così la
contraddizione interna. Vuole indagare la struttura della mente. Alla sua morte il movimento si
dissolve.
Funzionalismo
¾ Fondatore: James, più le correnti evoluzionistiche: Angell e Carr.
¾ Oggetto di indagine: non i contenuti psichici, ma i processi e le funzioni che favoriscono
l’adattamento dell’organismo all’ambiente.
¾ Metodi: eclettismo, basato sull’utilità pratica e sulla capacità di indagare le interazioni dell’uomo
con l’ambiente naturale (NO laboratorio!) Declino dell’introspezione!
2
Rif. culturali: teorie di Darwin, Neopositivismo.
COMPORTAMENTISMO (“manifesto” del 1913)
¾ Fondatore: Watson, per garantire la scientificità della psicologia, W. elimina come oggetti di studio
gli “eventi mentali”.
¾ Oggetto: comportamento osservabile, a prescindere dai rapporti che ha con la coscienza
¾ Metodo: sperimentale di laboratorio, che consente di manipolare le variabili indipendenti
(ambientali), osservandone gli effetti sulle var. dipendenti (comportamentali)
¾ Modello matematico: statistica inferenziale
Confermato dagli studi di Pavlov, W. utilizza il modello S-R (stimolo-risposta) che risponde ai criteri di
previsione e controllo delle variabili.
¾ Oggetto: diventa l’apprendimento, con gli esperimenti sul condizionamento (classico e operante),
per stabilire le leggi del comportamento.
La psicologia immette così sul mercato i primi strumenti di misurazione psicometrica che offrono garanzie
di controllabilità e prevedibilità.
Dalla fine degli anni trenta, si introduce il criterio della significatività statistica come ulteriore
rassicurazione: si può generalizzare i risultati come nelle altre scienze naturali.
(criterio molto criticato: la significatività è un criterio di ordine matematico, che non può rispondere tout
cour a domande di natura psicologica! Anche Hathaway critica il suo stesso test, l’MMPI)
Le correnti contemporanee conservano la concezione epistemologica, ma valorizzano una visione solistica
e attiva del comportamento umano con l’introduzione della nozione di “contesto”: il comportamento è
sempre un atto in un contesto che attribuisce i significati e le funzioni agli stimoli specifici dell’ambiente.
→ rientra il “significato”!!!
COGNITIVISMO (fine degli anni ’50)
Def. Cognitivo: “indica tutti quei processi che comportano trasformazioni, elaborazioni, riduzioni , immagazzinamenti, recuperi
e altri impieghi dell’input sensoriale. Termini […] che si riferiscono a ipotetici stadi o aspetti dell’attività cognitiva” (Neisser,
1976)
¾ Fondatori: Neisser (1967) e Miller, Galanter e Pribram, “comportamentismi soggettivi”(1960)
¾ Oggetto: attività e processi cognitivi non osservabili. Si ripropongono i problemi epistemologici.
→ La teoria non pretende di rispecchiare il reale stato dei fatti, ma di rappresentarlo.
E viene utilizzata la metafora del computer: la conoscenza umana è una manipolazione di simboli
realisticamente rappresentabile con l’analogia con il software.
I paradigmi sono storicamente due:
- HIP: sistema cognitivo definito come una serie di regole per la trasformazione di simboli (= un
processore di segnali) Æ paradigma computazionale simbolico teorizzato da Fodor e Pylyshyn.
Le regole sequenziali e il carattere localizzato dell’elaborazione non rendono conto di fenomeni quali la
riorganizzazione cognitiva, meglio spiegati dal secondo paradigma.
3
- PDP: connessionista, il sistema cognitivo è visto come una rete di interconnessioni auto-organizzato, la
metafora è con il SNC reale, con i neuroni.
¾ Metodi: costruzione di modelli e verifica tramite PC
¾ Modello matematico: teoria della probabilità
¾ Critiche:
- rapporto debole tra modello e esperimento
- artificialità dei modelli (situazioni lontane dalla vita quotidiana)
- dalla costruzione dei significati, si è passati a studiare l’elaborazione dell’informazione: di nuovo
impersonalità e oggettività
- sono stati esclusi dalle ricerche i processi che poco si adattano alla rappresentazione computazionale:
emozioni, creatività, interazioni tra soggetti, ecc.
- come nel comportamentismo, il cognitivismo è limitato dalla riduzione dell’oggetto di studio al metodo
disponibile.
TEORIE COSTRUTTIVISTICHE (anni ’80)
¾ Autori: Watzlawick
¾ Teoria: non esiste un mondo reale pre-esistente e indipendente dall’osservatore, ma esistono varie
versioni di mondo a seconda del punto di vista. Ogni pensiero/giudizio/percezione è un’operazione
costruttiva e autoreferenziale dell’osservatore.
¾ Oggetto: l’uomo come essere attivo, costruttore di significati e l’ambiente come universo di simboli
e di esperienze possibili.
¾ Metodo: rivalutazione dell’osservazione nelle situazioni di vita quotidiana, dei metodi qualitativi e
di strategie che prevedono un’interazione tra ricercatore e soggetto.
¾ Critiche:
il cognitivismo aveva enfatizzato il metodo, adattandovi l’oggetto di studio. In modo inverso, il
costruttivismo recupera il “significato” come oggetto di studio, non avendo però un metodo per studiarlo.
™ Correnti Europee:
→ La psicologia Resta legata alle discipline filosofiche ed ha un carattere più accademico della psicologia
nordamericana, e minore influenza sociale.
GESTALT (nascita ufficiale: 1912 Germania)
¾ Fondatore: Wertheimer, nel 1912 pubblica un importante lavoro sul movimento stroboscopio che dà
inizio alla scuola della Gestalt.
→ Gestalt = forma, come totalità significativa, le cui proprietà sono conoscibili attraverso un atteggiamento
e un metodo fenomenologico..
¾ Oggetto: “l’esperienza umana immediata” (N.B. come Wundt!!!), ma la intendono in modo diverso:
l’esperienza è un “campo psicologico organizzato” dove il soggetto si lega in modo intenzionale
all’ambiente.
Per la Gestalt:
- l’esperienza diretta è il materiale grezzo sia della fisica, come della psicologia;
4
-
non esiste osservazione neutra, l’osservazione è sempre prospettica;
sia la realtà fisica che quella psicologica sono “esperienze soggettive”, “fenomeni”.
¾ Metodi: esperimenti percettivi
¾ Applicazioni: psicologia della percezione, pensiero, memoria, personalità e sociale.
→ Kohler (1917) def. Insight:“ristrutturazione improvvisa del campo percettivo“ (≠ apprendimento per
prove ed errori di Thorndike)
PSICOANALISI (1900)
¾ Fondatore: Freud, nel 1900 pubblica “L’interpretazione dei sogni”: propone un’interpretazione
psicologica dei disturbi psichiatrici (N.B. novità assoluta!!)
Def. Psicoanalisi:
1) un procedimento per l’indagine dei processi psichici
2) un metodo terapeutico basato su tale indagine
3) una serie di conoscenze sul funzionamento psichico acquisite per questa via
¾ Oggetto: i processi psichici inconsci
¾ Metodo: metodo clinico, basato sull’interpretazione.
→ Dopo Freud la psicoanalisi si è diversificata anche a causa dell’esportazione dal contesto austrotedesco,
restando accomunata unicamente dal riferimento alla dimensione inconscia.
PSICHIATRIA FENOMENOLOGICA (inizi del ‘900)
¾ Fondatore: Biswanger
¾ Oggetto di indagine: l’ ”Erlebnis”(l’esperienza vissuta), il vissuto soggettivo
¾ Scopo: pervenire alle forme strutturali della conoscenza, attraverso un’analisi sistematica dei tratti
comuni delle esperienze umane.
Teoria di rif.: fenomenologia husserliana (cosa≠fenomeno)
¾ Metodo: limitazione dell’analisi a ciò che è reperibile nella coscienza (≠psicoanalisi), analizzare
l’esperienza umana per comprenderne le strutture fondamentali che lo mettono in rapporto con lo
spazio, il tempo, mettendo da parte ogni distinzione pregiudiziale tra normale e patologico e ogni
interpretazione causalistica-meccanicistica (≠comportamentismo).
EPISTEMOLOGIA GENETICA (anni ’50)
¾ Fondatore: Piaget, detta anche “scuola di Ginevra” o “costruttivismo piagetiano”.
¾ Oggetto: “conoscenza” , così come si sviluppa, nell’interazione organismo-ambiente; la relazione
tra il soggetto che agisce e pensa e il mondo che lo circonda, oggetto delle sue esperienze.
¾ Metodo: sperimentale e clinico. (osservazioni sui bambini)
5
Teoria: l’attività senso-motoria determina la costruzione del reale secondo processi alternati di
assimilazione e accomodamento combinati tra individuo e ambiente e, attraverso una riorganizzazione delle
strutture mentali, determina lo sviluppo ontogenetico del soggetto.
Osservazioni sulle diverse scuole:
- coerenza e rigore sono comunque attributi della scientificità, in qualunque modo la si concepisca;
- nella dialettica tra metodo e oggetto, spesso è stato sacrificato l’uno per l’altro senza trovare un giusto
equilibrio;
- è inevitabile operare una scelta di “punto di vista”, esserne consapevoli e esplicitarla nel lavoro di
professionisti.
Capitolo 3:
CRITERI DI COERENZA TRA TEORIA E PRATICA IN PSICOLOGIA CLINICA
(Franco Di Maria e Calogero Lo Piccolo)
Def. Psicologia clinica è confusa:
1. definita dal suo oggetto: cioè la cura → identificazione della psicologia clinica con la psicoterapia
2. definita da un modello di cura → definizione dello psicologo clinico come appartenente a una determinata scuola
E’ in netta ascesa la richiesta di interventi psicologici ma non psicoterapici: richiesta di soluzione di un
disagio psicologico (≠ psicopatologico), formazione professionale, gestione delle risorse umane.
La difficoltà di def., sta nella mancanza di coerenza tra teoria e pratica: le teorie più diffuse NON hanno al
centro la relazione (ma l’intrapsichico), la pratica ha sempre al centro la relazione.
¾ Propongono il modello della psicologia Clinica come dell’ action-research:
- perché tiene ben presente il significato di irruzione nel sistema, da parte del ricercatore
- si allontana dai criteri di oggettività intesa come neutralità: trasformiamo la realtà nell’atto stesso di
osservarla e conoscerla.
- non scotomizza la relazione, ma la utilizza per i propri scopi: la relazione come metodo di conoscenzaintervento
Ri-def: psicologia clinica = action-research che mira a valutare, comprendere ed trasformare i sistemi relazionali
umani, tenendo presente che agire-conoscere-trasformare sono fasi inseparabili.
¾ E’ importante che ogni professionista faccia della sua tecnica un oggetto di studio, apra una riflessione
teorica sul proprio operare.(teoria della tecnica)
¾ L’intervento si configura come la costruzione di uno spazio relazionale “altro” che renda pensabili e
osservabili i comportamenti degli attori, anche al di fuori del setting clinico tradizionale. La relazione è
il metodo di conoscenza-intervento.
¾ Analisi della domanda: come analisi di tutti gli aspetti anche fantasmatici della relazione, per la
costruzione di un area di senso “comune” che possa fare da base alla relazione.
¾ Distinzione tra set e setting:
set : tutti gli aspetti organizzativi che rendono possibile l’incontro (orario, frequenza, ecc.)
setting: accadimenti emotivi e relazionali dell’incontro, spazio relazionale e psichico che si ritaglia
all’interno di un set adeguato.
Ciò che lo psicologo clinico fa è usare la propria competenza per cambiare il set in funzione di un setting
più adeguato a riconoscere e pensare le emozioni.
6
Capitolo 4:
CONSIDERAZIONI SUL CONCETTO DI NORMALITA’ NELLO SVILUPPO COGNITIVO
(Silvia Perini)
Quesito della ricerca moderna: Normalità e ritardo cognitivo fanno parte di un continuum o di continua
differenti?
Inizio secolo: bambino come diverso dall’adulto, inizia ad interessare la ricerca.
Anni 20: Watson in USA e Piaget in Europa spiegano la genesi e l’evoluzione cognitiva.
Anni 60: teorie dell’elaborazione dell’informazione
Oggi: due correnti di pensiero sullo sviluppo cognitivo
¾
Sviluppo cognitivo come struttura/competenza: trasformazione quantitativa che si realizza nel
corso di stadi (lo sviluppo = sovrapposizione di strati di diverso livello)
Strutture come ogg. di studio dei cognitivisti Æ studiano conoscenza e mente, cioè costrutti
metaforici non osservabili. Manipolano variabili e attribuiscono le modificazioni del
comportamento correlate alle attività cognitive che si presumono influenzate dalle manipolazioni.
Æ ritardo mentale: prodotto da strutture della mente deficitarie.
¾
Sviluppo cognitivo come funzione/performance: crescita, vista come incremento quantitativo e
continuo.
Funzioni come ogg. di studio dei comportamentisti Æ studiano le relazioni osservabili fra eventi
ambientali e attività, in termini di stimoli, risposte ed eventi contestuali osservabili.
Æ ritardo mentale: rallentamento nel processo di cambiamento; il ritardo è evolutivo.
Def. Teoria: è esplicativa e rappresenta un tentativo di organizzare una serie di leggi derivate da dati empirici allo
scopo di spiegare e prevedere eventi.
Def. Modello: non è esplicativo, è un’applicazione metaforica della teoria, una rappresentazione della realtà, non una
descrizione. Non richiede dati empirici su cui basarsi.
¾ Oggetto: sia per la teoria che per il modello, studiare lo sviluppo, significa studiare il cambiamento
lungo la dimensione temporale.
™ Teoria Cognitiva (da Piaget al connessionismo):
La maggioranza degli studiosi ritiene che l’architettura cognitiva, sia una struttura immutabile dell’attività
cognitiva, nel senso che il suo funzionamento non cambia nel corso dello sviluppo.
L’attività dei sistemi cognitivi si può solo inferire da ciò che produce sul piano del comportamento.
Un costrutto ipotetico funge da mediatore fra il comportamento e ciò che lo determina.
Per Piaget si tratta delle strutture che sottostanno al pensiero, mediando le interazioni con l’ambiente
esterno. I processi di assimilazione e accomodamento fanno evolvere e sviluppare sia le strutture cognitive
sia le modalità con cui esse fungono da mediatori: prima i riflessi, poi schemi non simbolici, quindi
rappresentazioni mentali.
- Anni 60: la teorizzazione piagetiana viene influenzata dalle scienze dell’informazione, e vede la mente
come un sistema che manipola simboli. Æ il sistema cognitivo elabora i simboli in modo seriale e li
finalizza in accordo a regole che si modificano nel tempo.
Limiti dell’approccio seriale dell’elaborazione dell’informazione:
- qual è la natura del sistema di elaborazione, la sua organizzazione e i processi che lo guidano?
7
-
Come può il sistema essere adattato a compiti particolari?
-
I modelli connessionisti sembrano dare una soluzione: l’immagazzinamento e l’elaborazione
dell’informazione sono visti come processi che avvengono in parallelo anziché in sequenza seriale,
grazie a unità che hanno un reciproco effetto facilitante o inibente.
Fine anni 70: metacognizione, come conoscenza introspettiva sul proprio funzionamento mentale e sui
processi che lo regolano.
-
™ La teoria comportamentale: da Watson all’analisi del comportamento
L psicologia del comportamento considera lo sviluppo infantile un sottoinsieme della teoria generale:
l’oggetto di studio è il comportamento osservabile e il metodo è quello delle scienze naturali.
Sviluppo:
- interazioni continue tra bambino che si evolve biologicamente e cambiamenti dell’ambiente
- queste interazioni cambiano sia l’individuo, sia l’ambienteÆ le interazioni si modificano nel tempo in base all’età.
¾ Watson: C = f (s), gli stimoli colpiscono gli organi di senso e le risposte sono azioni del corpo.
(condizionamento della paura di Albert)
Il comportamentismo radicale di Skinner e l’intercomportamentismo di Kantor danno forma sistematica alla
psicologia del comportamento, dotandola di un chiaro ogg di studio, metodo e rapporto tra ricerca di base e
applicata.
¾ Skinner: teoria dell’apprendimento operante Æ rifiuta il dualismo mente-corpo e ritiene che anche i
processi mentali possano essere indagati con metodi delle scienze naturali, in situazioni sperimentali.
Diventa importante l’interazione tra comportamento e ambiente.
¾ Kantor: elabora ulteriormente il concetto di interazione. Privilegia come oggetto di studio la
coordinazione dell’intero organismo all’interno di un campo. Per spiegare il comportamento umano,
non solo funzioni stimolo e funzioni risposta, ma anche eventi situazionali (ciò che caratterizza il
setting).
Anni 60: integrazione dei due modelli ha prodotto paradigmi operanti nella ricerca in età evolutiva e
applicazioni in campo educativo in soggetti con ritardo mentale.
Capitolo 5:
METODOLOGIA DELLA RICERCA IN PSICOLOGIA: PIANIFICAZIONE, CONTROLLO E MISURA
(Paolo Moderato e Renato Gentile)
Ogni disciplina scientifica è caratterizzata, oltre che da affermazioni teoriche specifiche, da una serie di
riconoscimenti (assunti) più o meno espliciti che riguardano:
- la filosofia della scienza (assunti metateorici)
- i fenomeni da osservare (assunti teorici)
- i metodi di ricerca
(assunti metodologici)
Kuhn ha utilizzato per identificare questi elementi, il termine paradigma.
Questo termine viene utilizzato in un senso più ristretto per definire:
- i dispositivi fondamentali usati dal ricercatore per produrre il fenomeno che lo interessa (rif. paradigma
di ricerca).
La scelta del paradigma dipende strettamente da ciò che vogliamo studiare.
Quindi ogni buona ricerca deve partire da una buona definizione del proprio oggetto di studio.
Considerare un fenomeno, significa formulare delle ipotesi sul processo: su quali sono le variabili e che
funzione reciproca svolgono.
Va elaborato, a partire dal paradigma, un piano sperimentale (progettazione del disegno sperimentale) che
permetta lo studio dei singoli elementi (e la verifica delle ipotesi specifiche) con il minimo possibile di
errori.
Per cui vanno definite le possibili variabili interferenti (possono minacciare la validità della ricerca).
8
Un buon disegno deve rispettare due esigenze di controllo(procedimenti utilizzati per eliminare le minacce
alla validità della ricerca):
- individuare le fonti di errore (funz. preventiva): controllo metodologico
- verificare l’effettiva influenza delle var. indipendenti che agiscono nell’esperimento (funz. diagnostica):
controllo statistico
CONTROLLO SUL PIANO METODOLOGICO:
ƒ Il campionamento: ha la funzione di limitare o controllare possibili fonti di interferenza. Il campione
deve possedere le stesse caratteristiche della popolazione per poter poi generalizzare i risultati ottenuti a
tutti gli altri membri della popolazione. Quando ciò è possibile, la ricerca ha validità ecologica e i suoi
risultati sono facilmente estendibili. Il campione rappresentativo risulterà tanto più selezionato quanto più
numerose saranno le variabili che definiscono la popolazione.
Metodo: pretest (accerta l’omogeneità dei sogg per una o più caratteristiche), parallelizzazione tra gruppo
sperimentale e di controllo(casuale o in base ai risultati ottenuti al pretest), blocchi randomizzati (2 gruppi
omogenei fra loro ma non internamente).
ƒ Il piano sperimentale 1: il controllo riguarda : le variazioni della situazione.
Standardizzazione e taratura
Il compito va standardizzato (non ci devono essere differenze nella consegna) e tarato per i soggetti
dell’esperimento (evitare floor effect Æ livello troppo alto, prestazioni scarse o ceiling effectÆ difficoltà
bassa, livello massimo di performance).
Bisogna ricordarsi che anche le aspettative dello sperimentatore sono una possibile var. interferente (effetto
Rosenthal: influenza la condotta dello sperimentatore e la raccolta dati Æ si elimina col doppio cieco).
ƒ Il piano sperimentale 2: il controllo riguarda: il numero e tipo di variabili.
Progettazione del tipo di piano
→ per numero di var. indipendenti: disegni unifattoriali o multifattoriali
→ per tipo di var. indipendenti: disegni intersoggetti (between) o intrasoggetti (within)
¾ I disegni unifattoriali:
- between-subjects hanno tanti gruppi quanti sono i livelli della variabile, in modo da somministrarne uno
solo per ciascun gruppo.
- within-subjects hanno un unico gruppo che sottopongono a tutti i livelli della var. (disegni a misure
ripetute)Æ prestet (baseline), trattamento e post-test.
¾ I disegni multifattoriali sono più diffusi perché rispettano di più il contesto naturale dove si danno
numerose var. che interagiscono:
- quello between-subjects è noto come piano fattoriale a gruppi indipendenti
- quello within-subjects richiede l’uso di piani fattoriali a misure ripetute (una variante è il disegno a
trattamenti alternati).
¾ I disegni fattoriali a piani sperimentali combinati:
- disegno con più variabili miste, è il disegno fattoriale misto
- disegno con 2 variabili, di cui 1 within-subjects è il piano a quadrato latino
- disegno con più variabili, di cui 1 within-subjects, è il disegno fattoriale split-plot
- disegno con più variabili, di cui 2 within-subjects, è il disegno fattoriale split-split-plot
Var. interferenti intra-soggettti:
- sensibilizzazione: l’assuefazione altera la prestazione.(x ovviare: distanziare le prove nel tempo)
9
- pratica: effetto dell’allenamento sulla prestazione (x ovviare: utilizzare disegno between-subjects o
controbilanciare l’ordine di presentazione dei compiti)
- carry over: influenza degli effetti dalla prova “prima” a quella “dopo”.(Difficile da eliminare. X
ovviare: distanziare temporalmente le prove)
- effetti relativi all’ordine e alla sequenza (x ovviare: bilanciare i trattamenti così che un sogg li riceva in
tutti gli ordini possibiliÆnel quadrato latino si controlla l’effetto dell’ordine,ma non la successione)
I disegni between-subjects risultano generalmente più validi (validità interna: la var. indipendente è la causa
degli effetti osservati sulla var. dipendente) di quelli within-subjects, che invece hanno una maggiore
validità ecologica (validità esterna: i risultati sono generalizzabili alla popolazione e a situazioni diverse) ed
hanno una più immediata generalizzabilità dei risultati.
CONTROLLO STATISTICO
¾ Le analisi statistiche dei risultati di un esperimento si operano a due livelli:
- analisi descrittiva : la statistica descrittiva serve a presentare in modo chiaro le informazioni disponibili
per favorire la produzione di inferenze.
- inferenza statistica : verifica delle inferenze con i test più idonei.
¾ Metodi della statistica descrittiva:
- Distribuzioni di frequenza: le osservazioni vengono distribuite in classi ordinate in senso crescente o
decrescente, nelle quali si calcola la frequenza delle osservazioni presenti;
- Misurazioni della tendenza centrale: media (Sx/N), mediana (val centrale in una distribuzione),moda
(val. più frequente);
- Misure di dispersione o variabilità: varianza (scostamento medio delle osservaz. rispetto alla media) e
deviazione standard (scostamento quadratico medio)
- Forme della distribuzione: la più nota è la curva di Gauss o curva normale. Perché i dati prendano
questa distribuzione bisogna che le misure di tendenza centrale coincidano, i dati si dispongano
simmetricamente rispetto al punto centrale e la curva deve essere mesocurtica
- Correlazione e Regressione: servono rispettivamente per stabilire se c’è una relazione (il grado di
dipendenza funzionale tra i fenomeni) e di che tipo;
¾ Metodi della statistica inferenziale:
- Stime dei parametri della popolazione: si calcola il valore che con maggior probabilità corrisponde al
parametro della popolazione oppure l’intervallo entro il quale il parametro oscilla;
- Verifica delle ipotesi: verificare, a un certo grado di probabilità, la validità dell’assunzione che le
statistiche riferite al campione siano indicative anche dei parametri della popolazione.
Si sottopone a verifica l’ipotesi nulla H0: perché possa essere accettata le differenze del campione devono
essere dovute al caso con una probabilità superiore a una soglia (0,05 o 0,01). Se la probabilità che siano
dovute al caso è inferiore alla soglia, allora le differenze saranno significative (p<0,05) o altamente
significative (p<0,01)
Gli errori possibili sono di due tipi:
- I tipo: respingere H0, anche se è vera. Si associa a una probabilità α
- II tipo: accettare H0, anche se è falsa. Si associa a una probabilità β.
La potenza di un test (di respingere H0 quando è falsa) è uguale a 1-β.
MISURE E SCALE
Nella verifica delle ipotesi si possono usare test parametrici: si devono usare test non parametrici se le
osservazioni sono misurate su scala non parametrica o quando le popolazioni di riferimento non sono
normali.
Test parametrici sono più potenti dei non parametrici.
10
Def. misura: il procedimento mediante il quale le proprietà aritmetiche di un insieme ordinato di numeri reali,
vengono attribuite a un insieme di eventi empirici (Caracciolo).
Si considera che gli elementi dei due insiemi stabiliscano tra loro relazioni analoghe, tale per cui è possibile operare
sugli eventi come sui numeri. La relazione eventi-numeri è chiamata Scala di Misura.
Stevens studiò questo problema in psicologia e delineò quattro tipi di relazioni eventi-numeri:
1) relazioni di IDENTITA’: scala nominale, a classi o categorie omogenee al loro interno secondo un
“etichetta”, il numero ha valore nominale;
proprietà: equivalenza (riflessiva, simmetrica e transitiva)
es. Sistema diagnostico DSM IV
2) relazioni di ORDINE: scala ordinale, a ranghi, i numeri hanno valore di ordine crescente/decrescente;
proprietà: equivalenza + maggiore/minore di (non riflessiva, asimmetrica e transitiva)
es. valutazioni di profitto con voti agli studenti
3) relazione di INTERVALLI: scala a intervalli; scala a 0 arbitrario, quantitativa:, i numeri rappresentano
l’ampiezza delle distanze tra gli elementi e delle differenze tra due gradini qualsiasi della scala;
proprietà: operazioni algebriche
es. scala celsius o fahrenheit
4) relazione di RAPPORTO: scala a rapporti; scala a 0 reale che coincide con l’origine della scala stessa,
quantitativa, i numeri rappresentano i rapporti tra gli elementi;
proprietà: tutte le operazioni aritmetiche.
Solo le ultime due scale sono parametriche e solo agli elementi di queste possono essere applicati i test
parametrici: ANOVA, t di Student.
Capitolo 6:
IL METODO SPERIMENTALE NELLE APPLICAZIONI PSICOLOGICHE
(Santo Di Nuovo)
La ricerca di base tende all’incremento delle conoscenze e non si pone obiettivi pratici diretti, mentre la
ricerca applicata mira alla soluzione di problemi operativi ed è orientata verso decisioni mirate agli
interventi: il metodo sperimentale è tipico delle scienze “naturali” dove esiste una netta distinzione tra
“osservatore” e “osservato”ed è’ stato applicato alla psicologia fin dalle fasi della sua fondazione.
Questo metodo non si adatta in quelle aree:
- dove è importante la relazione soggetto-operatore;
- dove la complessità investe sia le relazioni tra variabili che le modificazioni dovute all’intervento dello
sperimentatore.
RICERCA SUI GRUPPI
Per risolvere questo tipo di problematiche si utilizza la ricerca-intervento(def. action research proposta da
Lewin nel 1948): un tipo di ricerca che è al tempo stesso momento di conoscenza scientifica della realtà
(ricerca di base) e contributo all’attivo cambiamento di essa (ricerca applicata):
-
¾ Oggetto di studio:
come avviene il cambiamento e in quale misura
nel caso in cui avvenga come ipotizzato, quali siano i fattori di ostacolo e quali lo favoriscano
quali sono gli effetti del trattamento a breve e lungo termine
11
¾ Metodo:
- la verifica delle ipotesi e il trattamento avvengono in contemporanea;
- i destinatari dell’intervento sono coinvolti attivamente nel processo di definizione e verifica degli
obiettivi;
- processo ciclico ricorrente: formulazione di ipotesi e obiettivi → intervento → verifica degli effetti →
aggiustamento delle ipotesi e degli obiettivi.
¾ Punti deboli: la necessità, a volte, di modificare il disegno di ricerca in itinere,sia per le variabili sia
per il campionamento.
¾ Problemi caratteristici dell’action research:
- la posizione del ricercatore non è neutra;
- il punto di vista del ricercatore influenza non solo lo studio delle ipotesi e l’analisi dei dati, ma anche il
“durante” della ricerca;
- le capacità relazionali del ricercatore e i suoi valori assumono un’importanza fondamentale.
Def. ricerca applicata rappresenta un processo di problem solving, nel quale la situazione-problema può
essere costituita di diverse situazioni (disagio psichico,stato di incompetenza, situazione di rischio di
malattia, ecc) Esso è un processo in diverse tappe:
1) delimitazione del problema
2) formulazione di un ipotesi diagnostica, mirata alla comprensione dei processi che mantengono il
problema e degli aspetti strutturali;
3) definizione degli scopi
4) intervento mirato alla soluzione del problema, inserito in un contesto relazionale e guidato del
ricercatore;
5) verifica periodica del cambiamento;
6) follow-up a distanza.
→ attenzione agli aspetti evolutivi e relazionali: c’è l’assunzione dell’impossibilità di scomporre-isolare le
variabili di un oggetto che è un sistema complesso.(la ricerca di base scompone il fenomeno per studiarlo e
ridurne la complessità; l’action research non può farlo!)
¾ Nella sperimentazione si usa il massimo controllo delle variabili, usando gruppi di controllo, al fine di
ridurre il più possibile l’errore. Il controllo tra gruppi non è usato perché spesso poco affidabile: è
difficile trovare gruppi confrontabili, o a volte eticamente scorretto, e spesso influenzato in maniera
poco prevedibile dal drop-out. Il metodo per garantire l’equivalenza è la randomizzazione (selezione
casuale della pop. di riferimento e assegnazione casuale a gruppi), ma se non è possibile, si può fare il
matching dei soggetti tra gruppo sperimentale e di confronto, che hanno le stesse caratteristiche nelle
var. da controllare. Se né randomizzazione, né matching sono possibili, si ha un disegno “quasisperimentale”(il gruppo di controllo non è equivalente).
¾ La varianza di errore attribuibile a mancato controllo delle variabili diventa un’informazione essenziale
sulla diversità dei soggetti e degli effetti: con un campione ampio, anche se non casuale, è necessario
conoscere le caratteristiche dei soggetti e le variabili osservate per correlarle (disegno correlazionale).
Ma anche la correlazione può essere dovuta a una variabile “altra” latente, di livello superiore a quelle
analizzate. Al criterio di significatività si sostituisce quello di rilevanza in relazione agli obiettivi fissati:
il trattamento funziona e i risultati non sono dovuti al caso.
¾ La composizione del campione nell’action research, quasi mai ha criteri di casualità o stratificazione
tipici dei disegni sperimentali.
¾ Attività fondamentale diventa l’assessment: valutazione e monitoraggio degli effetti.
Servono strumenti:
- che possano essere somministrati in modo rapido;
- ripetibili frequentemente;
12
- adatti al contesto (≠ strumenti già validati, ma in altri ambiti);
- adatti al campione con cui si lavora;
Esempi: colloquio, l’intervista, questionari self-rating e altri strumenti utilizzati invece solo
occasionalmente, questo per avere un assessment multiplo che permetta ipotesi diversificate.
I disegni applicativi privilegiano misurazioni in fasi successive delle variabili da modificare mediante il
trattamento. I dati ottenuti si dispongono in serie temporali (time- series) che permettono lo studio del
cambiamento:
- Per controllare il fattore “tempo”, esso può essere inserito nei disegni fattoriali quale variabile.
1.
2.
3.
Disegno a un baseline:
misurazione della baseline: si registrano le var. a intervalli regolari;
intervento: continuano le misurazioni;
verifiche periodiche.
- Disegno a baseline multipli: verificare se gli effetti di trattamenti diversi si verificano in corrispondenza
dell’introduzione di questi in momenti diversi. Possono valutare:
• Var. differenti nello stesso sogg. (fra comportamenti)
• Stesso var. in sogg. diversi (fra soggetti)
• Stessa var. nello stesso sogg. In situazioni diverse (fra setting)
Questi disegni pongono molti problemi metodologici in aggiunta a quelli che già si pongono con la baseline
semplice.
¾
-
Critiche:
il controllo delle var. è limitato a una o poche per volta;
non vengono considerate adeguatamente le differenze individuali dei soggetti;
gli strumenti di assessment spesso hanno effetti sulle var.
RICERCA SU CASI SINGOLI
Il soggetto è controllo a se stesso e l’uso di sequenze alternative di trattamenti alternativi fa da controllo
logico, per confrontare ipotesi contrapposte nella spiegazione degli effetti di ciascuno di essi.
Sono un utile strumento per il controllo e monitoraggio del lavoro quotidiano.
Ma hanno scarsa generalizzabilità: si diventa ragionevolmente sicuri del successo/insuccesso del
trattamento su quel caso (interesse per il clinico), ma non sul fatto che quell’intervento sia valido per altri
soggetti (interesse per il ricercatore).
Per aumentare la generalizzabilità, vanno ripetuti numerosi interventi su casi singoli (disegno “N = 1 alla
volta”), ripetizione che può essere sistematica per variabili prese in considerazione.
→ La generalizzazione non può essere solo su base logica, ma deve avvenire su base empirica con studi di
meta-analisi.
Capitolo 7:
PROBLEMI E METODOLOGIA NELLA RICERCA PSICOSOCIALE
(Saulo Sirigatti e Cristina Stefanile)
¾ Premessa
La ricerca psicosociale accetta una visione deterministica dei fenomeni, per cui il comportamento è un
oggetto definibile e causato da eventi specificabili.
Per questo, il metodo sperimentale è quello preferibile. Nel contesto applicativo, dove le var. sono
complesse e difficilmente isolabili, vengono utilizzati i disegni cosiddetti deboli come i disegni quasisperimentali, correlazionali, descrittivi.
13
DISEGNI:
Le minacce alla validità della ricerca sono raggruppabili in 4 categorie: statistica, interna, di costrutto di
causa-effetto, esterna. Esaminiamo quindi diversi tipi di ricerca con validità diverse:
1. Pre-test e Post-test con un gruppo (es. progetto sul burn-out)
Viene incluso tra gli approcci pre-sperimentali. Si fa un test come diagnosi del quadro iniziale, si applica
l’intervento, e si fa un test di verifica sugli stessi soggetti.
¾ Minacce:
- drop-out selettivi (dovuti forse ad attenuazione dell’evento indipendentemente al trattamento)
- effetti dovuti alla storia (eventi estranei al trattamento,maturazione)
- effetto Hawthorne (miglioramento nelle prestazioni dovuto alla consapevolezza nei soggetti di essere
studiati)
- regressione verso la media (per probabile errore di misurazione)
¾ Qualità:
- disegno snello, poco invasivo e poco costoso
- l’effetto Hawthorne comunque va nel senso del cambiamento cercato
2. Pre-test e Post-test con due gruppi non equivalenti (es. Ed. motoria su bambini e funz. cognitive)
E’ il disegno quasi-sperimentale più frequente: si effettuano il pre-test e il post-test su due gruppi ma solo
su un gruppo si applica l’intervento.
¾
-
Minacce:
interazione tra elementi come storia, maturazione, ecc. e modalità di selezione
diffusione o imitazione del trattamento all’interno del gruppo di controllo (validità di costrutto)
impiego di campioni “opportunistici” (validità esterna)
¾ Qualità:
- disegno snello
- controlla gli effetti principali: storia, maturazione, effetto Hawthorne
3. Approccio correlazionale (es. anomia e caratteristiche sociali negli anziani)
Mira a identificare le possibili relazioni tra due variabili.
Non definisce un rapporto di causalità perché non controlla la possibilità di terze variabili latenti che
influenzino entrambe le var. prese in considerazione.
¾
-
Qualità:
setting naturale
acquisizione di informazioni utili sulla popolazione generale
utile nelle fasi iniziali di una ricerca
4. Approccio descrittivo (es. questionario sulla scuola x infermieri)
Disegno di ricerca finalizzato all’illustrazione/rappresentazione, il più accurata possibile, di eventi che
interessano il ricercatore. Ai dati ottenuti, per esempio, attraverso un sondaggio di opinione vengono
applicate analisi statistiche descrittive, che danno un’idea generale sull’oggetto di studio.
5. Ricerca-intervento (vedi Cap. 6)
14
Action-research lewiniana, introdotta negli anni 40, si proponeva di applicare sul campo i risultati degli
studi sulle dinamiche di gruppo. I punti cardine consistono quindi nell’attenzione al cambiamento sociale e
nella partecipazione attiva dei gruppi coinvolti.
¾
-
Qualità:
procedura flessibile e adattabile durante l’esperimento
prevede verifica in ogni fase
può produrre profonda conoscenza socioculturale della realtà in cui si fa l’esperimento
consente integrazione tra conoscenza teorica e applicazione
¾
-
Critiche:
troppo influenzabile da eventi accidentali
validità scientifica insufficiente e risultati poco generalizzabili
campioni scarsamente rappresentativi
TECNICHE PER LA RACCOLTA DEI DATI
Dopo aver deciso il disegno da usare, si deve decidere con quale tecnica raccogliere i dati.
Le informazioni utili al ricercatore in psicologia sociale sono: comportamenti, stati emozionali o mentali,
dati riferiti al contesto-situazione.
¾ Possono derivare da varie fonti:
- informazioni soggettive-verbali acquisite da colloqui, questionari,ecc.
- informazioni acquisite dall’osservazione
- informazioni acquisite da registrazioni di indicatori psicofisiologici
¾ Fonti di minacce alla validità delle misure (Webb, Campbell e al.):
- soggetti: effetto reattivo alla misurazione, consapevolezza di essere esaminati, stili sistematici di
risposta (response set) o scelta di un ruolo per rispondere, la misura può produrre cambiamento su ciò che
misura.
- ricercatore: aspettative, caratteristiche personali, cambiamenti nella tecnica durante la ricerca
- campione: restrizioni che attengono al reperimento dei soggetti, limitazione nell’utilizzo di alcune
misure (es. saper leggere, disporre della vista,ecc), la popolazione da cui estraggo il campione può
modificarsi nel tempo.
¾ Colloquio e Intervista
Sono modalità di raccolta delle informazioni che prevedono lo scambio verbale faccia a faccia tra
ricercatore e soggetto. Possono essere impiegati in diverse fasi dell’esperimento. Sono più o meno
strutturati, duttili e flessibili: l’intervista può essere organizzata lungo un continuum che va da non
strutturata (detta anche tematica o in profondità) a completamente strutturata (detta anche standardizzata).
Comunque sia, il materiale ottenuto con un intervista è spesso molto abbondante e necessita di essere
organizzato per poterlo interpretare. Le informazioni vanno codificate per mezzo di griglie per poi
procedere ad un’analisi quantitativa.
¾ Questionario
Tecnica di auto somministrazione che richiede minima partecipazione da parte del ricercatore. E’ corredato
da istruzioni dettagliate, e la somministrazione può essere individuale o di gruppo.
Gli item sono domande o affermazioni, e attengono a svariati argomenti.
Diverse forme di risposta:
- domande aperte (risposta libera): utilizzato se non si hanno indicazioni circa la gamma delle possibili
risposte ottenibili dai soggetti.
- domande chiuse (risposta multipla):ampiamente usate, prevedono risposte a livello categoriale(es.
diploma, laurea, master,ecc), ma anche ordinale (quando si chiede di mettere in ordine di preferenza)
15
Qualità:
- strumento rigido e standardizzato Æ comparabilità delle risposte
- tempi di rilevazione modesti Æ riduzione dei costi
- strumento versatile Æimpiegabile in diversi tipi di ricerche
- impiegabile per grandi numeri e garantisce l’anonimato
Difetti:
- resoconto soggettivo: si presta a falsificazioni intenzionali delle risposte
- registra quello di cui una persona è consapevole (se non capisce la domanda, risponde male)
- non registra direttamente il comportamento, ma un resoconto di questo.
- scarsa motivazione dei soggetti Æ informazioni poco accurate
¾ Focus group
Affine all’intervista, si caratterizza per il tipo di setting e per le procedure di attuazione. E’ un’intervista
basata sulla discussione di gruppo, che produce un particolare tipo di dati qualitativi. Particolarmente usata
in psicologia della salute.
L’incontro è programmato quanto alle linee essenziali e finalizzato alla raccolta di informazioni. La
discussione si attiva a partire da uno “stimolo” che propone il ricercatore.
Questa tecnica evidenzia sia le dinamiche di interazione, che i contenuti.
Il gruppo deve avere da 6 a 12 persone. La durata di una sessione è di 1 o 2 ore. La discussione viene
generalmente audio- o videoregistrata.
¾ Osservazione diretta
Registrazione dei comportamenti verbali e non verbali di alcuni soggetti in una specifica situazione. Di
solito implica un osservatore esterno alla situazione che registra; si usa anche l’osservazione partecipante,
nella quale il ricercatore svolge duplice ruolo, prendendo parte attiva alla situazione che osserva.
La consapevolezza di essere osservati influenza il comportamento dei soggetti (effetto Hawthorne). Una
corretta osservazione è volta a ricavare campioni rappresentativi del comportamento e a questo scopo si
deve definire prima, chi e cosa osservare, per quanto tempo e in che modo.
Il ricercatore può registrare una vasta gamma di indicatori, vanno definite:
- le categorie di osservazione
- le unità di comportamento
- frequenza delle osservazioni
- durata delle osservazioni
Il ricercatore si costruisce una griglia di osservazione dove le categorie si autoescludono e coprono tutta la
gamma dei comportamenti possibili (registrazione degli eventi)
L’osservazione è considerato un buon metodo nella ricerca sociale, ma piuttosto complesso e impegnativo.
Il supporto audiovisivo consente una maggiore affidabilità dello strumento.
¾ Diari
La tecnica del diario trova utilizzi nella ricerca psicosociale, soprattutto negli ambiti della salute e del
lavoro. Registrazione di eventi, effettuate direttamente dalla persona coinvolta, e ancorati a determinati
periodi temporali. Possono essere più o meno strutturati.
Nell’ottica della ricerca-intervento, questa tecnica di auto-osservazione, facilita il coinvolgimento del
soggetto che può favorire il cambiamento desiderato.
Può produrre anche effetti reattivi indesiderati e minare la validità della ricerca.
¾ Tecniche proiettive
Vari materiali che hanno in comune l’ambiguità dello stimolo, ampia libertà di espressione, l’assenza,
spesso, di rigidi criteri quantitativi. Permettono di indagare in maniera indiretta vissuti profondi e aree
delicate della personalità. Sono stati oggetto di critiche per la loro scarsa obiettività, e per la supposta
16
appartenenza a modelli di riferimento aprioristici. Sono utili e hanno una validità accettabile, se utilizzati
nelle fasi preliminari di una ricerca.
¾ Tecniche psicofisiologiche
Tecniche che consentono di misurare reazioni psicofisiologiche in un soggetto in relazione a un eventostimolo. Il loro impiego richiede apparecchiature complesse e competenze specifiche. Sembra importante
evitare di fondarsi su singoli indicatori, ma utilizzare molteplici elementi che consentano di ottenere un
ampio profilo di risposta individuale.
¾ Tecniche non intrusive
Tecniche di osservazione indiretta, registrazione all’insaputa del soggetto di informazioni attuali o passate
tratte frequentemente da materiale d’archivio.
Il problema più evidente è la scelta degli indicatori da utilizzare.
CENNI PER L’ELABORAZIONE DEI DATI
¾ Esplorazione di strutture latenti
Si ricorre a statistiche come:
- analisi fattoriale (es. SPSS)
- uso di rotazioni di fattori
- analisi dei cluster (raggruppare unità o oggetti simili tra loro)
Le ricerche svolta in questo modo spesso danno risultati contrastanti o poco confrontabili per diverso
numero di fattori estratti, differente rotazione applicata.
¾ Verifica della corrispondenza dei dati empirici ai modelli teorici
Procedura statistica complessa: l’analisi fattoriale confirmatoria, si basa su quattro indici:
- χ quadro (bassi valori corrispondono a un buon Fit)
- relativi gradi di libertà (buon modello = χ quadro/G.L. ≤ 2.0)
- indice di Goodness-of-fit (GFI)Æ grado di adeguatezza del modello; si usa per confrontare due modelli
(0-1: dove 1 è perfetta adeguatezza)
- misura dell’ampiezza media dei residui stimati (RMR)
¾ L’esame di differenze tra gruppi
La ricerca prevede a volte di accertare le differenze tra gruppi per una caratteristica. Dopo una elaborazione
descrittiva (media e deviazione standard) si procede all’analisi della varianza a una via per determinare
l’eventuale significatività statistica delle differenze.
Limiti Æ quando si svolgono ripetuti confronti, c’è la probabilità che alcuni risultino casualmente
statisticamente significativi. Inoltre variabili intercorrelate, vengono trattate come indipendenti.
¾ Previsione di eventi
Un obiettivo importante è dato dalla previsione di eventi futuri basato sui dati disponibili.
Procedure statistiche sui dati disponibili:
- regressione semplice
- regressione multipla
con il calcolo del coefficiente di correlazione.
→ sono tecniche parametriche e si posso applicare solo su dati parametrici!
¾ Analisi di contenuto
Nelle indagini psicosociale, spesso si raccolgono dati qualitativi. Per trattarli bisogna predisporre uno
schema di classificazione, conosciuto come analisi di contenuto. Vi sono diverse tecniche per la formazione
di uno schema di classificazione dei dati qualitativi secondo tre differenti approcci.
L’approccio può essere:
17
- qualitativo: se si vuol comprendere il significato del materiale
- quantitativo: per ottenere dati numerici da elaborare in seguito
- strutturale: mettere in luce relazioni latenti tra il materiale raccolto.
In ogni caso il ricercatore dovrà decidere quali categorie impiegare in base ai suoi scopi.
Per rendere questa procedura più attendibili è utile utilizzare più codificatori e poi calcolare un indice di
accordo.
PROCEDURE RECENTI
- Simulazioni al computer Æ reti neurali basate su modelli connessionistici.
- Meta-analisi Æ sintesi delle conoscenze acquisite da diversi studi sullo stesso argomento.
Capitolo 8:
EFFICACIA DEGLI INTERVENTI TERAPEUTICI E PSICOSOCIALI
(PierLuigi Morosini e Paolo Michielin)
Def. efficacia: in campo sanitario, la capacità di modificare in senso favorevole il decorso di una malattia o di un
problema, o in altri termini, di produrre esiti di salute migliori di quanto non possa avvenire in caso di decorso
spontaneo. Occorre inoltre che i benefici siano superiori ai possibili affetti collaterali.
Efficacia sperimentale ≠ efficacia nella pratica: la prima riguarda gli studi su soggetti selezionati e in
laboratorio, mentre la seconda riguarda le condizioni quotidiane della professione, con soggetti non
selezionati..
¾ Fattori che ostacolano l’attribuzione di successo di casi singoli alla psicoterapia applicata (var.
interferenti):
1. miglioramento o remissione spontanei
2. regressione verso la media
3. effetto placebo
4. fattori aspecifici appartenenti alle varie tipologie di psico-terapie (es. alleanza terapeutica)
5. selezione dei casi
6. soggettività nell’interpretazione degli esiti.
¾ Principi di valutazione dell’efficacia:
- Confronto tra pazienti trattati in modo diverso
- Confrontabilità dei gruppi a confronto ( i gruppi dovrebbero essere simili per i fattori di significato
prognostico, come età, gravità di malattia, ecc)
- Confrontabilità delle rilevazioni dei dati: utilizzare stessi criteri di rilevazione per la diagnosi, la
prognosi, e l’esito, utilizzando il doppio cieco.
- Completezza degli esiti: devono essere valutati soprattutto gli esiti importanti per la qualità di vita del
paziente e non solo quelli fisiologici.
- Completezza del follow-up: valutare gli effetti a lungo termine (benefici iniziali possono tradursi in
peggioramenti)
- Replicabilità dei trattamenti: devono essere ben descritti, così da poterli replicare
- Valutazione dell’importanza della variabile “casualità”
- Comparabilità tra pazienti trattati (pazienti sui quali si è vista l’efficacia, devono essere simili ai
pazienti sottoposti agli altri trattamenti)
- Continuità nel tempo dello studio (valutare eventuali effetti collaterali dopo la fine della terapia)
- Costi (a parità di efficacia, quale trattamento costa meno in termini di tempo e soldi?)
¾ Disegni di ricerca per la valutazione degli interventi:
Si può operare uno studio di ricerca controllato randomizzato (Trial): se approvato da un comitato etico, i
soggetti si assegnano casualmente ai due trattamenti da confrontare.
18
Perché lo studio sia ben condotto è necessario:
- mascheramento della randomizzazione
- doppio cieco
- scelta degli esiti importanti e completezza- sufficiente durata del follow up
- considerazione della var. casuale
Questo è il miglior strumento a disposizione, ma ha il limite della ricerca sperimentale: in centri di terapiaricerca applicata, con pazienti non selezionati e poche risorse, non è detto che si avrebbero gli stessi dati.
Un altro disegno è la meta-analisi: studio sistematico delle ricerche effettuate su un determinato argomento
e loro confronto al fine di ottenere evidenze di vari livelli.
Solo una piccola parte degli interventi psicosociale nel mondo è stata oggetto di valutazione rigorosa
dell’efficacia.
Si sa che spesso sono efficaci anche interventi brevi, interventi cognitivo-comportamentali e interventi
gruppali, che hanno un ottimo rapporto tra costi e benefici.
Capitolo 9:
IL PRIMO COLLOQUIO NELL’ASSESSMENT CLINICO
(Ezio Sanavio)
Assessment Æ valutazione iniziale che uno psicologo clinico svolge in rapporto alla possibile presa in
carico di un paziente, al fine di:
- ricostruire meccanismi che sottendono i problemi lamentati
- concordare obiettivi immediati e a lungo termine
- identificare un trattamento adeguato
- decidere per la presa in carico
Vengono formulate ipotesi su relazioni tra disturbi e situazioni, ipotesi di ordine eziopatogenetico, ipotesi
sulle strategie di approccio e sulle tecniche di trattamento: l’assessment procede quindi per falsificazione di
ipotesi. Il primo colloquio è un sottoinsieme dell’assessment. Nell’assessment si usano tre classi di indici:
- indici soggettivi (autoriferiti dal sogg) Æ cognitivo-verbale
- indici motori e comportamentali (dall’osservazione esterna del sogg) Æ comportamentale-motorio
- indici fisiologici (con strumenti di registrazione)Æ psicofisiologico
Il primo colloquio non è autonomo, ma si inserisce in un assessment multidimensionale (comunemente
l’assessment iniziale prevede 2-3 colloqui) e tende a stabilire una relazione collaborativi col paziente.
Attraverso ridefinizione e riformulazione del problema, il colloquio termina con un avanzamento
conoscitivo da parte del paziente.
¾ Topografia dei colloqui iniziali:
- presuppostiÆ il colloquio è reso possibile da un contesto motivazionale
- Fase dei preliminareÆ convenevoli e richiamo degli eventuali antefatti (invio da parte di altri)
- AperturaÆ qual è il problema?
- Specificazione del problemaÆ ottenere descrizione del problema
- Ipotesi di mantenimento Æ esaminare eventuali stimoli che elicitano i disturbi
- AllargamentoÆ specificare problemi attuali oltre al problema di base
- Storia dei problemiÆ ricostruzione dell’inizio del disturbo e formulazioni di ipotesi eziopatogenetiche
- Storia personaleÆtralasciando problemi e patologia, cenni storici sul paziente
- Aspettative di trattamentoÆapprofondire le aspettative del paziente
- Ipotesi di trattamentoÆ precisazione di obiettivi di trattamento possibili
- Formulazione conclusiva e chiusuraÆ restituzione delle informazioni raccolte dai colloqui ed esami
19
Capitolo 10
IL COLLOQUIO IN PSICOLOGIA CLINICA
(Franco Del Corno, Margherita Lang)
(Wiens) Def. Il colloquio è un processo interattivo che ha luogo tra almeno due persone, diverso dalla conversazione
in quanto l’interazione è finalizzata al conseguimento di un obiettivo predeterminato.
Il paziente che si autoinvia Æ è da considerare che c’è differenza tra un paziente che si rivolge per la prima
volta a un terapeuta ed uno insoddisfatto della diagnosi di un altro.
Il paziente inviato dai familiariÆ capire perché i familiari l’hanno inviato e cosa pensa il paziente.
Il paziente inviato da un collegaÆ capire perché lo invia e come il pz ha vissuto l’invio
Il paziente inviato da altre figureÆse l’invio è corretto bisogna differenziare l’approccio tra pz volontario o
coatto.
Dopo aver stabilito un’alleanza diagnostica, bisogna rilevare elementi informativi diretti o inferiti, in modo
da farsi un quadro del paziente. E’ fondamentale indagare anche il funzionamento emotivo, il
funzionamento mentale, le sue modalità di interazione ed eventualmente, se necessari, si possono
interpellare familiari che chiariscano i punti oscuri.
Capitolo 11:
VALUTARE E SCEGLIERE UN TEST
(Luigi Pedrabissi e Alessandra Romito)
Qualità di un test
¾ Il significato del costrutto
Bisogna che sia chiaro il significato del costrutto a cui si è interessati e vedere se corrisponde a quello del
test. I significati espliciti sono riportati nel manuale, ma i significati impliciti si possono ricavare solo
dall’analisi degli item e vanno quindi verificati.
Vanno controllate le affermazioni dell’autore del test in riferimento agli scopi e all’uso del test.
¾ Attendibilità
Grado di ripetibilità dei punteggi ottenuti con un test (necessaria ma non sufficiente per la validità di un
test). Le fonti di errori sistematiche sono eliminabili. La fonte di errore sempre presente è la casualità,
quindi un certo margine è tollerato (maggiore è l’errore casuale, minore la coerenza dello strumento).
Punteggio ottenuto = punteggio “reale” + quota di errore
Si può testare un gruppo di sogg e utilizzare medie e DS dei punteggi del gruppo per derivarne le stime
dell’attendibilità.
Questa stima sui gruppi si calcola come:
- fedeltà test-retest (correlazione tra risultati del test in due tempi diversi: maggiore è la correlazione,
maggiore è l’attendibilità)
- coerenza interna, cioè dell’omogeneità degli item (metodo dello split-half, alfa di Cronbach)
- coerenza tra forme diverse (coerenza tra punteggi in forme parallele di test)
¾ Validità
Posto che un test ha punteggi ripetibili (ed è quindi attendibile), ci si chiede se i suoi item hanno indagato
davvero il costrutto che volevamo.
Intesa tradizionalmente come:
- validità di costrutto (detta anche di contenuto) Æ gli item rappresentano il costrutto?
- validità predittivaÆ il punteggio predice il comportamento?
- validità concorrente Æ relazione con punteggi di altri test che misurano la stessa cosa
- validità discriminante Æ relazione col punteggio di altri test che misurano cose diverse
20
¾ Il campione normativo
Deve essere rappresentativo della popolazione e corrispondere alle caratteristiche del soggetto. Importante è
la metodologia di selezione, l’ampiezza e l’attualità del campione.
¾
-
Item
Chiari come formulazioneÆprivi di bias
Essere a una sola dimensioneÆ rappresentare solo un comportamento, concetto.
Rappresentare il costrutto indagato
Questioni pratiche
¾ Somministrazione
Le istruzioni devono essere chiare ed assicurare l’interpretabilità di tutti i punteggi: item omessi, tempi,
livello di abilità necessarie,ecc.
¾ Scoring
Metodi di calcolo dei punteggi:
- Modello cumulativoÆ più alto è il punteggio, più è presente il costrutto nel sogg
- Modello di categorizzazioneÆinserisce la persona in classi,categorie a scopo predittivo
- Modello ipsativoÆ valuta se la prestazione del sogg è diversificata rispetto a certe variabili
¾ Costi
I costi di un test sono economici o sociali.
Le informazioni importanti devono essere esplicitate nel manuale.
Altre fonti di informazione sono: le revisioni critiche e le ricerche pubblicate su quel test.
Per l’utilizzo responsabile di un test psicologico, bisogna avere competenze:
- specifiche sull’uso del test
- relazionali (→ attenzione per le minoranze)
- psicodiagnostiche
Capitolo 12
IL PROCESSO DIAGNOSTICO IN PSICOLOGIA CLINICA
(Francesco Rovetto)
Nosografico/descrittivo : la classificazione è basata sulla descrizione del
quadro patologico osservato
Sistema
Interpretativo /esplicativo: la diagnosi si riferisce a un modello
epistemologico che ritiene le patologie espressione di cause sicuramente
identificate e descritte. [se si facesse unicamente riferimento a tale sistema, la
comunicazione tra operatori di diverso indirizzo sarebbe impossibile e
assumerebbe aspetti paradossali]
Nessuna classificazione dei disturbi mentali può avere un numero sufficiente di categorie specifiche per
comprendere tutti i casi clinici immaginabili. Pertanto ogni operazione diagnostica, per quanto corretta e
accurata, costituisce una forzatura, un limite e non solo un vantaggio per la comprensione del paziente in
quanto individuo.
In psicologia clinica non esistono i casi puri e lineari, nonostante ciò bisogna cercare di collocare il quadro
patologico del paziente in un sistema nosografico, per potersi “intendere” con i colleghi. Bisogna evitare
21
impulsività diagnostica ed eccessivo tecnicismo: utilizzare test per confermare o respingere le ipotesi
costruite sulla prima impressione.
E’ anche vero che una precoce e puntuale diagnosi consente di fare riferimento alla esperienza della
comunità scientifica, di comunicare quanto si è fatto, di esprimere una prognosi o valutare i rischi di
trasmissione ereditaria o le possibili evoluzioni di un quadro patologico.
Il sistema multiassiale oltre a consentire di identificare in modo universale le patologie tiene conto di alcuni
dei principali aspetti della vita e dell’esistenza del paziente (DSM IV)
La diagnosi viene emessa solo quando i sintomi superano il valore di soglia sia per durata che per intensità,
diventando così invalidanti.
Def. La diagnosi è un ragionamento plausibile e utile che mette ordine tra i fenomeni psicopatologici osservati,
utilizzando un minimo di inferenze.
¾ I disturbi mentali sono spiegati partendo da diverse prospettive e da diversi concetti:
1. lo stress (es. disturbo acuto da stress)
2. l’alterato controllo (es. disturbi del controllo degli impulsi)
3. la menomazione e la disabilità (es. demenza)
4. mancanza di flessibilità (es. disturbi dell’adattamento)
5. quadro sindromico, sintomatologico e comportamentale presentato (es. DCA, disturbi sessuali)
6. eziologia (es. disturbi d’ansia, disturbi da sostanze)
7. deviazione statistica (es. disturbi di personalità, ritardo mentale)
Se la diagnosi è corretta si tratta della migliore ipotesi fattibile in quel momento. A essa deve seguire un
costante tentativo di validazione. L’andamento nel tempo del caso e la risposta alla terapia possono fornire
occasione per una conferma, una modificazione o una smentita della diagnosi.
¾ Finalità diagnostiche:
1. indirizzare la scelta terapeutica
2. facilitare la comunicazione tra operatori
3. rendere possibili le indagini epidemiologiche ed eventuali studi genetici oltre alla stesura di
statistiche sanitarie
4. rendere possibile una prognosi in base all’andamento tipico di pazienti con patologie
5. valutare l’efficacia di un trattamento farmacologico psicoterapeutico.
6. facilitare la reperibilità su mezzi informatici
7. facilitare la formazione di gruppi omogenei di pazienti sui quali c0mpiere ricerche
8. fornire un chiarimento lo stesso paziente che può sentirsi rassicurato nel vedere che la sua
patologia è nota ed esistono realistiche possibilità terapeutiche
9. fornire i concetti base necessari per formulazioni teoriche i ambito scientifico
Il processo diagnostico, soprattutto se mal condotto e mal utilizzato, presenta notevoli rischi. La diagnosi è
una previsione che spesso tende ad autoavverarsi [ETICHETTATURA]. La persona deve essere vista come
un tutto senza dimenticare che i disturbi psicopatologici variano nel tempo, per cui la diagnosi ha una sua
validità limitata nel tempo
Una sindrome è un insieme di sintomi che, di solito, si manifestano in concomitanza.
Dopo aver identificato un sintomo, per esempio una condizione di tristezza, il passo successivo consiste
nell’analizzarlo più approfonditamente. La tristezza può essere un sintomo isolato o la punta di un iceberg.
Se è affiancata ad altri sintomi accuratamente descritti può consentire la diagnosi di disistima o depressione.
Una volta identificato il sintomo primario si va quindi alla ricerca di eventuali sintomi correlati.
22
¾ La diagnosi multiassiale secondo il DSM-IV
-
Asse 1: disturbi clinici e altre condizioni che possono essere oggetto di attenzione clinica.
Asse 2: disturbi di personalità e ritardo mentale. Utilizzato anche per annotare meccanismi di
difesa maladattivi che non raggiungono la soglia per un disturbo di personalità.
Asse 3 : condizioni mediche generali
Asse 4: problemi psicosociali e ambientali. Sull’asse IV si riportano i problemi psicosociali ed
ambientali che possono influenzare la diagnosi, il trattamento e le prognosi dei disturbi mentali.
Asse 5: Scala per la valutazione globale del funzionamento (VGF): Questo tipo di informazione è
utile per pianificare il trattamento o misurare il suo impatto e per predire l’esito. Il VGF può essere
utile per misurare i progressi clinici. Il VGF riguarda il funzionamento psicologico, sociale e
lavorativo.
Nel DSM-IV per la descrizione di ogni classe patologica sono descritte:
- Caratteristiche diagnostiche;
- Sottotipi e/o specificazioni;
- Procedure di registrazione;
- Manifestazioni o disturbi associati;
- Caratteristiche collegate a cultura, età e genere;
- Prevalenza;
- Decorso;
- Familiarità;
- Diagnosi differenziale.
I sintomi, per diventare indicatori di patologia, devono essere quantificati, valutati, posti in relazione con le
condizioni di vita del paziente , con le sue condizioni fisiche e con la sua cultura di riferimento.
¾ La diagnosi secondo il modello multimodale di Lazarus
Lazarus propone di prendere in considerazione 7 dimensioni in ciascun paziente : BASIC ID
B = comportamento
A = processi emotivi
S = sensazioni e funzionamento degli organi sensoriali
I = immaginazione
C = cognizioni
I = rapporti interpersonali
D = aspetto organico (farmaci e dieta)
¾ La diagnosi in ambito cognitivo comportamentale
Il modello legato alla diade S-R non è mai stato applicato fuori dall’ambito sperimentale. Negli ultimi anni
si è usata l’ analisi funzionale e la strategia diagnostica, definita come “formulazione del caso”: non
specifica una diagnosi, ma mette a fuoco le condizioni che precedono la comparsa del problema, compresi
gli schemi cognitivi appresi in età infantile e rinforzati dall’abitudine. Oltre agli aspetti motori vengono
compresi aspetti affettivi e fisiologici. Particolare importanza viene attribuita alle dinamiche individuali e
sociali di induzione e mantenimento del quadro patologico.
23
Capitolo 13
PSICOFISIOLOGIA SPERIMENTALE E CLINICA
(Daniela Palomba, Luciano Stegagno)
Def. Interessi primari della psicofisiologia clinica sono lo studio e la comprensione di quei meccanismi di
anomala reattività dell’individuo: la relazione reciproca tra eventi mentali, comportamento e disfunzioni
somatiche o psichiche è l’elemento centrale di studio.
La psicofisiologia clinica ha l’impianto concettuale e metodologico della psicofisiologia dalla quale deriva
ed ha due elementi fondanti:
- la psicologia sperimentale (da cui prende il metodo di studio)
- la fisiologia (da cui prende gli strumenti d’indagine e le basi funzionali)
es. patologia coronaria (correlazione tra personalità e modificazioni fisiologiche)
La psicologia clinica, la medicina e la psichiatria possono quindi ricorrere alla psicofisiologia clinica per
l’indagine dello stato funzionale di apparati fisiologici, risposte endocrine, ecc e per la correlazione delle
modificazioni osservate con eventi mentali e comportamentali.
¾ L’assessment psicofisiologico:
L’assessment si riferisce alla raccolta di tutte le informazioni necessarie per inquadrare il disturbo del
paziente, per stabilire un’ipotesi patogenetica e per impostare un intervento: l’accertamento può riferirsi sia
alla fase diagnostica, che alla fase di verifica dell’andamento del disturbo durante il trattamento.
¾ Caratteristiche dell’accertamento psicofisiologico:
Il requisito fondamentale deve includere componenti soggettive (resoconto del paziente) e oggettive
(alterazioni fisiologiche e comportamentali)
¾ Strumenti principali dell’assessment psicofisiologico
Gli strumenti indagano il disturbo a tre livelli:
- soggettivo-cognitivoÆ valutazione della condizione psicofisica e del proprio stato emotivo da parte del
paziente
- comportamentale-espressivo Æcomportamenti manifesti o situazioni sociali che precedono, si
associano o conseguono al sintomo
- fisiologicoÆ modificazioni somatiche correlate al sintomo-malattia. Viene valutato in condizioni basali
e di attivazione.
¾ Criteri metodologici:
I dati devono essere decifrati e interpretati in modo da costituire elementi informativi utili alla diagnosi e al
trattamento. Per far ciò bisogna:
- effettuare misurazioni di base ripetute (baseline) e replicare l’accertamento in condizioni diverse (es. al
lavoro)
- eseguire l’accertamento ai tre livelli, soggettivo, comportamentale e psicofisiologico
- tentare una valutazione quantitativa della sintomatologia (in modo da confrontarla con il posttrattamento)
% di miglioramento = valore di baseline – valore post-trattamento x 100
valore di baseline
L’accertamento psicofisiologico è utile se inserito in un programma più ampio che preveda tre aspetti:
ricerca(es. stress sul lavoro), prevenzione (es. prevenzione cefalea) e inquadramento diagnosticotrattamento (es. disturbi d’ansia).
24
Capitolo 14:
APPRENDIMENTO
(Paolo Moderato e Maria Lea Ziino)
L’apprendimento è prima di tutto uno strumento di adattamento dell’uomo verso l’ambiente come
l’evoluzione: Darwin per primo mise in evidenza come l’evoluzione e l’apprendimento interagiscano.
In termini più moderni: la trasmissione genetica e l’apprendimento non sono fattori antagonisti, ma processi
che interagiscono in funzione di un miglior adattamento dell’uomo al suo ambiente.
Def. apprendimento: quella modificazione comportamentale che consegue a, o viene indotta da,
un’interazione con l’ambiente ed è il risultato di esperienze che conducono allo stabilirsi di nuove
configurazioni di risposta alle situazioni-stimolo esterne.
Ogni organismo percepisce le variazioni dell’ambiente in cui vive: queste variazioni sono chiamate stimoli
o evento-stimolo.
Il cambiamento ha come oggetto la risposta, intesa come forma diversa di comportamento. Le modalità di
produzione di risposte dono due:
- risposte elicitate: conseguono automaticamente alla presentazione dello stimolo, sono reazioni
psicofisiologiche in reazione al perturbamento di un sistema che le attiva in funzione di ritrovare
l’omeostasi;
- risposte emesse: comportamenti tendenti a modificare l’ambiente, sono molto variabili, dalle più
semplici alle più complesse, praticamente comprendono l’ampia gamma delle manifestazioni umane.
La relazione stimolo-organismo è influenzata (acquista significato e rilevanza differente) da una terza
variabile, il contesto: definibile come l’insieme di eventi situazionali che fanno da sfondo a una particolare
situazione.
Vi sono anche cambiamenti non imputabili all’apprendimento:
- dovute a fattori fisiologici (es. crescita), oppure patologici
- fenomeni come l’assuefazione (diminuzione della risposta di fronte al ripetersi dello stimolo) e la
sensibilizzazione (es. fuga davanti all’iniezione) Æ si estinguono rapidamente
I cambiamenti dovuti all’apprendimento hanno perlopiù valore adattivo: La sopravvivenza della specie è
assicurata dall’apprendimento e dalla selezione naturale.
Misure del cambiamento in psicologia:
1. la forza della risposta (in senso analogo a quello fisico)
2. l’ampiezza della risposta (misura quantitativa: es. salivazione nel paradigma pavloviano)
3. la latenza della risposta (tempo tra stimolo e risposta)
4. la durata (periodo durante il quale il comportamento appreso è attivo)
5. la frequenza (numero di volte in cui un comportamento viene attuato in una situazione)
6. numero di tentativi o prove che vengono effettuate prima che un soggetto abbia appreso un
comportamento
APPRENDIMENTO E CONDIZIONAMENTO: PAVLOV
Pavlov era un fisiologo russo che mise a punto, con la pubblicazione del 1927 di “Riflessi condizionati” , il
paradigma del condizionamento classico o rispondente.
Pavlov studiava l’attività digestiva dei cani, e notò che la salivazione compariva anche in presenza del solo
sperimentatore senza cibo.
25
Salivazione in presenza di cibo = risposta incondizionale (RI)
Cibo = stimolo incondizionale (SI)
Associando per un certo numero di volte uno stimolo neutro (SN) come una luce, al cibo (Si), si assisteva
alla comparsa del riflesso condizionato (RC).
Un evento neutro acquista valenza di evento-stimolo perché è associato (associazionismo) a un eventostimolo.
Si (carne) Æ Ri (salivazione)
Si (carne) + Sn (luce) Æ Ri (salivazione)
Sn (luce) Æ Rc (salivazione)
APPLICAZIONI DERIVATE DAL PARADIGMA PAVLOVIANO
Il paradigma pavloviano, non riguarda solo gli animali, ma interessa molti fenomeni umani: su questi si
basa la tecnica del bio-feedback per l’eliminazione della paura e delle fobie.
Se si ha paura di uno stimolo non pericoloso, essa non è adattiva e quindi significa che si è instaurata una
fobia.
Watson, negli anni ’20, descrisse il caso del “Piccolo Albert”: W. condizionò Albert sperimentalmente alla
paura di una cavia bianca (associandola ad un forte rumore improvviso). Albert generalizzò la sua paura ad
altri stimoli percettivamente simili. W. voleva spiegare la genesi delle fobie e le possibili soluzioni
terapeutiche tramite l’estinzione sperimentale o il ricondizionamento.
L’applicazione delle conoscenze sperimentali sull’apprendimento, prende il nome di “terapia del
comportamento”.
Il decondizionamento della paura per mezzo di uno stimolo competitivo gradito (rilassamento progressivo),
si diffuse solo trentenni dopo, grazie a Wolpe, con il nome di desensibilizzazione sistematica.
Negli ultimi anni si sono proposte nuove interpretazioni del condizionamento classico, in particolare con
Rescorla (1988) che ha pubblicato un celebre articolo “It’s not what you think it is” dove sostiene che
l’apprendimento avviene all’interno di un contesto, l’associazione non è condizione necessaria e sufficiente
per stabilire il condizionamento. L’organismo è visto come dotato di preconfezioni e attivo: utilizza
relazioni logiche tra eventi per costruirsi una visione del mondo sempre più sofisticata.
APPRENDIMENTO E CONDIZIONAMENTO: LA TRADIZIONE SKINNERIANA
Questa concezione prende in considerazione gli effetti del comportamento sull’ambiente e di questi, in
retroazione, sull’organismo: le conseguenze di un comportamento aumentano/diminuiscono la probabilità
che questo avvenga successivamente.
Esponenti: Thorndike e Skinner
Thorndike mise i gatti in una situazione di problem solving: una gabbia da cui si poteva uscire premendo su
un chiavistello, dall’altra parte c’era del cibo (scatole problema). Studiò il comportamento dei gatti: la
soluzione compariva per caso e poi l’animale gradualmente eliminava i comportamenti inutili e sviluppava
sempre più precisamente la risposta. Chiamò questo comportamento: apprendimento per prove ed errori. E
formulò la legge dell’effetto: è l’effetto (satisfaction) di un comportamento che determina la maggiore/
minore probabilità dell’associazione S-R .
Sulla base degli studi di Thorndike, Skinner costruì il paradigma del condizionamento operante.
I comportamenti sono di due tipi:
- rispondente (r. elicitate) Æ risposte condizionali o incondizionali provocate da stimoli conosciuti che
precedono il comportamento
26
- operante (r. emesse) Æ risposte emesse liberamente e rafforzate dalle conseguenze che producono
sull’ambiente
Metodo: Skinner box (gabbia con un operante programmato per emettere cibo).
Definì gli elementi della sua teoria:
- operante: classe di comportamenti funzionalmente simili la cui emissione è influenzata dalle
conseguenze che hanno sull’ambiente;
- sono le conseguenze prodotte dal comportamento che determinano la probabilità di comparsa;
- lo stimolo discriminativo: indica le occasioni in cui le conseguenze sono in atto.
Il processo mediante il quale un comportamento viene influenzato dalle sue conseguenze è detto rinforzo.
Positivo: quando si aggiunge alla situazione (es. cibo), negativo: quando viene a mancare (es. rumore che
cessa).
¾ Il concetto di rinforzo non è opposto a quello di punizione: l’apprendimento che ne consegue è minore
come intensità e durata, non seleziona un comportamento vincente. La punizione determina
comportamenti di fuga o evitamento: molto resistenti (forse collegati al piacere di un’immediata caduta
dell’ansia).
Thorndike ≠ Skinner:
- la situazione di Sk. non è problemica, in Th. sì
- in Th. c’è nesso tra compito e meta: uscire dalla gabbia vuol dire avere cibo, in Sk, no.
- in Th. c’è associazione S-R (stimolo – risposta)
in Sk. c’è associazione R-R (risposta rinforzo)
- in Th: punizione = cancellazione dell’apprendimento
in Sk: punizione = apprendimento a non fare
APPRENDIMENTO E VARIABILITA’
Il contesto muta costantemente, come far fronte a questo?
GeneralizzazioneÆ capacità di reagire in modo simile a stimoli simili. Implica la capacità di categorizzare.
DiscriminazioneÆ capacità di reagire in modo differente a stimoli simili, ma differenti
1- l’operante può essere sia un comportamento osservabile, sia non direttamente osservabile.
2- Il comportamento produce delle conseguenze che hanno qualche effetto sul comportamento stesso.
3- Le relazioni ambiente-comportamento sono di tipo contestuale (non meccanicistico) e funzionale (non
deterministico)
APPRENDIMENTO E COGNIZIONE: L’ANALISI DI BANDURA
Def. modellamento: quel tipo di apprendimento che entra in gioco quando un comportamento di un
organismo che osserva si modifica in funzione di un altro organismo assunto come modello.
Bandura ha chiamato in causa fattori cognitivi e esperienze senza contatto diretto.
Ha messo in evidenza come le aspettative proprie e altrui influenzino la valutazione degli effetti e quindi
l’apprendimento.
Non conta solo il successo, ma anche l’attribuzione delle cause del successo:
- causa interna → aspettative maggiori e motivazione all’impegno
- causa esterna → aspettative minori
27
Il luogo della causa ha un effetto particolarmente forte sui sentimenti di stima e orgoglio: l’attribuzione
interna porta a credere nella stabilità e controllabilità delle proprie prestazioni e ad aspettative più positive
(teoria della self-efficacy), che diminuiranno l’ansia da prestazione.
APPLICAZIONI DELLA TEORIA DELL’APPRENDIMENTO
La più nota è la behavior therapy, un approccio psicoterapico che spiega la maggior parte dei disturbi
psicopatologici come il risultato di pattern di risposta appresi inadeguati e disadattivi.
Le tecniche concernono l’apprendimento di nuovi comportamenti adattivi, eliminazione-riduzione di
risposte disadattive, potenziamento di comportamenti già presenti.
Esempi di tecniche comportamentali:
- desensibilizzazione sistematica: per ansia e fobie
- training di assertività: mira ad aumentare le abilità sociali dell’individuo, per risolvere problemi
relazionali
Esempi di tecniche comportamentali-cognitive:
- ristrutturazione cognitiva: riformulazione dello stile cognitivo del paziente
- modificazione immaginativa: si addestra il pz a interrompere le fantasie ansiogene e sostituirle con
fantasie piacevoli.
- Modeling: la persona impara osservando il comportamento del terapista (es. coaching)
COMPORTAMENTO GOVERNATO DA REGOLE
Def. comportamento governato da regole: esiste una classe di eventi-stimolo precedenti, detti “regole”,
che influenzano il comportamento attuale. La regola è una descrizione verbale che indica quale
comportamento eseguire in quale determinata circostanza. La regola permette di apprendere gli effetti di un
comportamento senza averne fatto esperienza.
Reese (1989) distinse:
- regola come generalità: cosa che accade regolarmente
- regola come prescrizione: descrive ciò che dovrebbe accadere
Il comportamento governato da regole è insensibile alle proprie conseguenze empiriche, o sensibile
indirettamente, sotto mediazione verbale (es. soldato che non fugge di fronte alla guerra). E’ stato ipotizzato
che il comportamento istruito tenga conto di “conseguenze collaterali” di tipo sociale
IMPARARE AD APPRENDERE
Può succedere che la successione di due attività faciliti l’apprendimento o l’esecuzione dell’ultima di esse,
o comporti per la stessa qualche difficoltà. Questi effetti di interazione si chiamano transfer:
sperimentalmente consiste nell’effetto (positivo o negativo) giocato da un apprendimento su un altro che lo
segue o lo precede temporalmente. Per transfer di generalizzazione si ha il learning set, ossia la capacità che
si verifica come risultato di precedenti esperienze con problemi dello stesso tipo.
Capitolo 15;
MEMORIA
(Gesualdo Zucco)
La memoria associativa sembra essere la forma più primitiva di memoria e l’ultima a spegnersi.
Def. memoria: il prodotto di tre distinti momenti:
1. acquisizione: fase in cui ai soggetti vengono presentati gli stimoli da apprendere
28
2. ritenzione: fase durante la quale avvengono i cambiamenti nelle tracce mestiche (che non è dato rilevare
direttamente)
3. recupero: fase corrispondente alla riproduzione del materiale.
Primi studi:
Ebbinghaus (1885): usa sé stesso come soggetto sperimentale, nel suo laboratorio. Usò solo trigrammi
senza senso, e osservò che l’apprendimento di due serie (una originale e una derivata) era tanto più
semplice quanto più simili erano le serie: questa era una dimostrazione semplice e d efficace che la
memoria procede per associazioni.
GLI STUDI IN AMBITO ASSOCIAZIONISTA
(1940/60)
Presupposti del concetto associazionista sono:
- legame tra tracce e concezione dell’uomo passivo di fronte alla informazioni;
- riduttivismo e ricerca di unità elementari della funzione del ricordo;
- visione della mente umana come tabula rasa sulla quale l’ambiente imprime le modificazioni.
La visione associazionista porta a studiare la memoria come un semplice contenitore.
¾ Metodi:
Presentazione seriale
Consiste nel presentare ai soggetti lettere, numeri, parole in serie, con un ritmo costante. E poi nell’invitarli
a riprodurli nell’ordine esatto.
Fenomeni studiati:
- Risparmio: se, dopo un certo periodo di tempo, si invitano i soggetti a imparare la serie fino alla prima
ripetizione corretta, si riducono sia il tempo, che il numero delle prove necessarie.
- Esercizio: è solo la pratica che favorisce l’apprendimento
- Span di memoria: capacità individuale, intesa come numero di elementi ricordati
Apprendimento per coppie associate
Consiste nella presentazione di coppie di parole con l’invito ad apprenderle. Successivamente si presentano
al soggetto i primi elementi di ciascuna coppia e si chiede di rievocare i secondi.
La rievocazione può essere: seriale o libera (senza vincoli di ordine).
Fenomeni studiati:
- Interferenza: influenze tra i vari apprendimenti, proattiva (effetti deleteri derivanti da apprendimenti
precedenti) e retroattiva (derivata da apprendimenti successivi). Gli item centrali sono sottoposti a tutti e
due i tipi di interferenza, e quindi sono i meno ricordati. L’interferenza è massima per materiali simili.
- Transfer positivo: facilitazione nell’apprendimento di una serie, dato dall’apprendimento di una serie
precedente.
Riconoscimento
Consiste nel riproporre ciascuno degli item oggetto di studio insieme a uno (r. binario) o più item nuovi (r.
multiplo) e nel chiedere ai soggetti di individuare l’item originale.
Nel riconoscimento occorre confrontare una traccia mestica con uno stimolo. Nella rievocazione occorre
una ricerca attiva della traccia mestica in assenza di indizi, per cui sono due compiti diversi.
- Teoria della detezione del segnale: si presentano 20 parole ai sogg, poi le si mischia con altrettante
parole nuove. Si mostrano ai sogg gli stimoli uno ad uno. I sogg possono riconoscere uno stimolo della
serie originale (Hit), rifiutare correttamente uno stimolo non appartenente alla serie originale (Correct
rejection), non riconoscere uno stimolo della serie originaria (Missing) o riconoscere uno stimolo che non
fa parte della serie originaria (False alarm).Su questi dati si calcola l’indice d’, che rappresenta la capacità
di discriminare tra uno stimolo nuovo e uno già presentato.
29
Categorizzazione e organizzazione
Bousfield (anni ’50) osservò che in compiti di rievocazione libera di elementi posti in serie in modo
casuale, i soggetti tendevano a raggrupparli per categorie semantiche.
Tulving (1962) osservò che i legami non erano solo oggettivi, ma riflettevano anche caratteristiche
personali dei soggetti.
Osservarono anche che item eterogenei, in categorie omogenee, si ricordano meglio.
Questa osservazione era già stata fatta da Von Restorff ed in modo più sistematico. Recentemente è stato
nominato “distintività dello stimolo” .
LE INDAGINI SULLA MEMORIA A BREVE TERMINE
(anni ‘50/’60, in Gran Bretagna)
Due ipotesi sul perché si dimenticano le informazioni a breve termine:
¾ ipotesi del “Decadimento dell’Informazione”: solo per il passaggio del tempo
Esperimento di Peterson & Peterson:
1. Presentazione di trigrammi senza senso
2. compito di disturbo per impedire il rehearsal (ripetizione subvocalica)
Osservazione: la probabilità di rievocare il trigramma è funzione quasi lineare dell’intervallo di ritenzione
→ conferma dell’ipotesi di decadimento.
¾ ipotesi dell’ “Oblio per Interferenza”: per interferenza con apprendimenti successivi
Al di là delle conferme sperimentali, è l’ipotesi che gode più credito.
Esperimento di Waugh e Norman (1965):
Metodo: tecnica del “digit probe”.
1. Presentazione di una lunga lista di numeri con uno stimolo che si presentava due volte: in posizione
casuale e alla fine della lista.
2. Consegna: rievocare il numero che segue l’item critico (probe).
Gli autori spostavano la posizione dell’item critico in modo da aumentare/ridurre l’interferenza retroattiva.
Osservazione: maggiore è l’interferenza, minore è il ricordo → conferma della teoria dell’oblio per
interferenza.
Per la teoria dell’interferenza la distinzione MBT – MLT non aveva molto senso, invece lo aveva per la
teoria del decadimento.
Attualmente, in modo curioso, si sostengono le ipotesi:
- teoria dell’interferenza
- MBT distinta da MLT
Già allora c’erano prove a favore di questa distinzione:
1) Miller nel 1960 pubblicò un lavoro sul “magico numero sette” ± 2 , che testimoniava come la MBT
avesse una capacità inferiore alla MLT;
2) Nei compiti di rievocazione libera si osserva che il ricordo degli item nella serie ha una distribuzione a
“U”: si ricordano meglio i primi e gli ultimi (effetto di “primacy” e “recency”). Il rehearsal sposterà i
primi item in MLT , e gli ultimi staranno in un magazzino a capacità limitata, cioè la MBT.
3) Le prestazioni dei soggetti in compiti di memoria, sono influenzate dal tipo di materiale: in MBT sono
influenzate da somiglianze acustiche tra gli item, in MLT semantiche.
4) Osservazioni di pazienti con danni neurologici dimostrano che i danni sono selettivi per MBT e MLT.
LA RICERCA MANIACALE DEI MODELLI DI MEMORIA
(inizi anni ’60)
La psicologia cognitivista si impose sul panorama scientifico, scalzando quello associazionistacomportamentista, con:
- ritorno dello studio sui processi interni e invisibili della mente (es. memoria, pensiero, ecc)
30
- concezione dell’uomo come soggetto dinamico e attivo (interviene sulle informazioni e le elabora a
differenti livelli)
Ci fu un proliferare di modelli.
¾ H.I.P. (Human Information Processing)
Atkinson e Shiffrin (1968) presentano un modello di memoria che diventerà popolarissimo. La memoria
non era più un contenitore inerte, ma una funzione mentale attiva. Videro nel PC un modello della mente:
Il modello per la memoria si componeva di tre stadi corrispondenti a rispettivi magazzini:
1. registro SENSORIALE Æ catturare l’informazione in entrata
2. MBT Æ informazione trasferita dal reg. sensoriale
3. MLT Æ informazione trasferita da MBT
La trasmissione:
→ 1: modalità preattentiva e precategoriale
1→2: attenzione
2→ 3: rehearsal
La perdita avviene: in 1 per decadimento
in 2 per interferenza e per decadimento
in 3 per interferenza
Il formato: in 1 copia rudimentale dell’input
in 2 fonetica
in 3 semantica
Capacità: in 1 illimitata
in 2 variabile: 7±2
in 3 illimitata
Durata della traccia: in 1 millisecondi
in 2 fino a 30 secondi
in 3 illimitata
Recupero: in 1 non è recuperabile
in 2 favorito da indici fonetici
in 3 favorito da indici esterni riguardanti il contesto
- Componenti strutturali: i tre magazzini
- Processi di controllo: le operazioni svolte consapevolmente per facilitare l’immagazzinamento e il
recupero, strategie di memoria (es. reiterazione, immaginazione e categorizzazione).
Atkinson e Shiffrin utilizzarono solamente materiali visivi e verbali: non hanno mai confermato la validità
del loro modello per altri tipi di materiale.
¾ Critiche → ruolo del rehearsal: è stato dimostrato che non sempre la ripetizione libera produce
apprendimento. A. e S. hanno ipotizzato due tipi di rehearsal: superficiale e profondo (se si bada al
significato delle parole), solo il secondo produrrebbe apprendimento.
Sperling (1960, 1963) nel tentativo di spiegare il riconoscimento di stimoli presentati al tachistoscopio,
scoprì il registro sensoriale.
Dai suoi studi emerse con chiarezza l’esistenza di un magazzino sensoriale dalla capienza illimitata, ma in
cui le tracce restano un tempo brevissimo. S. chiamò questa memoria “iconica” .
Rilevò che è pre-categoriale e pre-attentiva, poiché non consente il riconoscimento del materiale in entrata
che avviene solo in MBT.
31
¾ TEORIA DELLA PROFONDITA’ DI CODIFICA
Esperimento di Hyde e Jenkins (1969)
1. presentazione di stimoli nella situazione di apprendimento incidentale.
2. richieste diversificate nella “situazione di orientamento”, stabilire:
- grado di piacevolezza (Æanalisi semantica)
- frequenza d’uso nel linguaggio comune
- presenza di una determinata vocale
- il numero di lettere
3. rievocazione
Osservazione: gli stimoli sottoposti a analisi più profonda (semantica), sono più facilmente rievocabili.
Craik e Lockart (1972)
Influenzati dagli esprimenti di H e J, formulano la teoria della profondità di codifica: la durata della traccia
presente nella memoria dipende dalla profondità con cui lo stimolo è stato elaborato in fase di codifica.
Ipotizzarono tre livelli di elaborazione:
1. strutturale
2. fonetico
3. semantico
¾ Craik e Tulving (1975)
Approfondirono e sistematizzarono le osservazioni e il metodo di Hyde e Jenkins, inducendo con domande
precise una codifica: strutturale, fonetica o semantica.
Osservazioni:
- a un’analisi più profonda corrisponde un tempo di reazione più elevato
- l’accuratezza di riconoscimento e rievocazione è strettamente connessa alla profondità di codifica
- tutto ciò è indipendente dal tempo dedicato all’elaborazione
Questo modello funziona anche per il riconoscimento dei volti.
Critiche:
- non è chiaro perché un compito di natura semantica deve condurre a prestazioni migliori
- se i suggerimenti in fase di recupero corrispondono al livello di elaborazione in fase di codifica, il
ricordo può essere buono anche per livelli superficiali di elaborazione
- nell’eseguire elaborazioni semantiche le risposte di tipo sì erano ricordate meglio dei no, e non si sa
perché
- l’esistenza di una sequenza ordinata e lineare di stadi sperimentalmente è stata contraddetta.
Gli autori risposero:
- il codice semantico è superiore per complessità di elaborazione e distintività (effetto von Restoff): gli
altri livelli sono meno elaborati e meno specifici.
¾ TEORIA DELLA SPECIFICITA’ DI CODIFICA
Tulving e Thomson (1973)
Le operazioni che si svolgono all’atto della codifica di un particolare materiale, possono essere un valido
suggerimento (cue) per il recupero (es. codifica a livello fonetico, seguita da suggerimento a livello
fonetico)
Spiega:
- la differenza tra risposte sì e risposte no
- il miglior ricordo se i suggerimenti sono “compatibili” con la codifica
- come suggerimenti apparentemente sganciati, sono utili se collegati tra loro in fase di codifica (es.
Cappuccetto e antico)
- il rapporto influente tra tono dell’umore e ricordo
32
Questa teoria si è dimostrata utile, per la rievocazione di ricordi da parte di testimoni.
ALTRI FERMENTI COGNITIVISTI (1970 / ’80)
Memoria di lavoro
Baddeley e Hitch nel 1974, proposero il concetto di “Working memory”.
La memoria di lavoro è un sistema dove vengono mantenute delle informazioni mentre stiamo svolgendo
un altro compito (per es. decidere, ragionare)
La memoria di lavoro fornisce il sostegno cognitivo necessario allo svolgimento di prove che coinvolgono
l’immagazzinamento a breve termine di svariate informazioni.
La centrale esecutiva sovrintende ai compiti di ragionamento e decisione, e supervisiona i due
“servomeccanismi” (sottoinsiemi verbale e visivo):
processo articolatorio ↔ centrale esecutiva ↔ magazzino visuospaziale
(articulatory loop)
(per materiale visivo)
immagazzinamento ed
elaborazione verbale
attraverso
immagazzinamento ed
elaborazione visuospaziale
↓
magazzino fonologico
(per materiale verbale)
L’articulatory loop ha la funzione di mantenere attive e disponibili le informazioni verbali: rehearsal.
Il magazzino visuospaziale ha la funzione di “Taccuino per appunti” per materiale visivo.
ƒ ≠ Miller: capacità limitata a 7±2 elementi o “chunk”
ƒ Spiega le interferenze selettive (per compiti dello stesso tipo): questi compiti impegnano uno stesso
servosistema, che si satura. Compiti di tipo diverso si distribuiscono su due servosistemi.
ƒ Le ipotesi di Baddeley vennero poi confermate appieno da numerose ricerche successive: esiste una
memoria di lavoro ( ≠ MBT intesa come contenitore) che consente lo svolgimento di operazioni in
parallelo, e appare plausibile la sottodivisione in due sistemi verbale-visivo.
Memoria dichiarativa e procedurale
Tulving nel 1972, propose una interessante distinzione nella memoria a lungo termine, a seconda dei
contenuti:
Memoria dichiarativa
↓
↓
semantica
episodica
≠
Memoria procedurale
¾ Conoscenze di tipo dichiarativo (o proposizionale): consentono di definire gli eventi per proposizioni.
Si divide in:
- Episodica: autoconsapevole (“autonoetica”), connotativa, contraddistinta da chiari riferimenti spaziotemporali, spesso autoreferente (es. ieri marco mi ha detto del suo divorzio)
- Semantica: rigida, simbolica, impersonale, denotativa, consapevole (“noetica”), non ha riferimenti
spazio-temporali ed esprime le nostre conoscenze del mondo (es. il burro si ricava dal latte)
Questa distinzione è stata confermata a livello neuroanatomico: dagli studi su pazienti amnesici, e da studi
effettuati con la PET. Tulving ha inserito la memoria autobiografica all’interno del sistema episodico.
¾ Conoscenze di tipo procedurale: sono le conoscenze che abbiamo sul come si svolgono le attività (es.
andare in bici). Sono conoscenze “anoetiche” (non sappiamo quando e come le abbiamo apprese).
33
Anche qui si sono trovate prove sperimentali di una divisone neuroanatomica.
L’attenzione e la consapevolezza hanno un ruolo differente nei vari tipi di memoria: importante per
episodica, meno importante per semantica, nullo per procedurale.
Memoria e immaginazione
Il cognitivismo ha riacceso l’interesse per lo studio delle immagini mentali. Le ricerche hanno dimostrato
che la mente si crea immagini che hanno particolarità proprie rispetto agli altri tipi di rappresentazioni:
possono essere esplorate, ruotate e modificate, come gli oggetti esterni.
Una delle più note teorie è quella del “doppio codice” sviluppata da Paivio nel 1971 e poi perfezionata.
L’autore sostiene che le informazioni sono codificate ed elaborate da due sistemi distinti: verbale e nonverbale.
Codifica verbale → processo sequenziale
Codifica per immagini → analisi globale e parallela
ƒ Spiega il fenomeno sperimentale per cui: figure e parole concrete ad alto valore di immagine vengono
codificate dai due sistemi e ricordate meglio di parole astratte.
ƒ Trovate sperimentalmente analogie tra immagini concrete e mentali: studi sullo “scanning” (ispezioni
mentali) hanno dimostrato che vi è analogia tra le operazioni svolte nella realtà e quelle rappresentate
mentalmente.
ƒ Kosslyn (1980) ha dimostrato che il tempo che si impiega mentalmente per spostarsi da un punto di un
immagine a un altro è funzione sia della distanza, sia degli oggetti che si frappongono, i tempi seguono le
leggi della percezione .
ƒ Shepard (1971) ha dimostrato che il tempo per decidere se due figure geometriche orientate in modo
diverso sono uguali oppure no, è funzione direttamente dell’angolo di rotazione.
Processi automatici e controllati
Hasher e Zacks (1979)hanno ipotizzato che alcuni attributi degli stimoli, nel processo di memoria, sono
esenti dall’influenza di strategie di memorizzazione o dalla volontà di apprendere.
Tali attributi vengono quindi codificati in forma automatica.
Prendendo una serie di item, gli attributi più importanti sono:
- frequenza (es. serie di parole e figure presentate in una lista: quante volte la parola x è comparsa?)
- posizione spaziale (es. cartoncini con parole agli angoli: in che angolo era la parola x?)
- ordine temporale di comparsa
I primi due sono stati sottoposti a rigorose prove sperimentali.
Le autrici definiscono il processo di memoria automatico quando il ricordo non è influenzato:
- dalle istruzioni
- dalla pratica con il materiale da apprendere
- dall’uso di strategie
- dal carico cognitivo (simultanea esecuzione di pochi o più compiti)
- dalle caratteristiche individuali e psicofisiche (stress, stati alterati)
La ricerca non concorda sulle conferme/disconferme di questa teoria.
La rappresentazione delle conoscenze
Vi è accordo tra i ricercatori nell’affermare che: nella MLT le conoscenze sono organizzate in reti
gerarchiche in base al loro significato.
Un’organizzazione ad albero per categorie semantiche sovraordinate (es. animali), intermedie (es. pesce) e
sottordinate (es. trota), collegate da nodi.
34
¾ Esperimento di Collins e Quillian (1969)
Presentazione: item (affermazioni) in serie
Consegna: Giudicare VERO/FALSO il più velocemente possibile
Osservazione: tempi più lunghi per affermazioni che implicavano l’appartenenza a categorie sovraordinate
(“la trota è un pesce” era più veloce di “la trota è un animale”).
Conferme alla teoria.
Critiche: il modello non spiega due fenomeni
1. maggiore rapidità con cui si risponde agli animali tipici di una specie (es.”una trota è un pesce?” è più
veloce di “un orca è un pesce?”)
2. la struttura gerarchica non sempre è collegata con i tempi di reazione. (es. “la balena è un mammifero?”
richiede più tempo di “la balena è un animale?”)
Successiva specificazione/modificazione del modello:
Collins e Loftus (1975)
Teoria della “propagazione dell’attivazione”: l’associazione non è lineare/gerarchica, ma procede per tutti i
possibili collegamenti-associazioni di un concetto:
- nodi semantici (non solo categoriali)
- nodi ± potenti (effetto tipicitàÆ es. penna è più connessa a carta, rispetto ad albero)
Questo modello spiega le precedenti anomalie.
Fu ripreso ed esteso da Anderson (1976) con il concetto di “priming semantico” : facilitazione prodotta da
uno stimolo nell’elaborazione del successivo (es. si riducono i tempi di reazione se si chiede “la trota ha le
branchie?” e poi “la trota è un pesce?”, perché appartengono alla stessa categoria semantica)
INTELLIGENZA ARTIFICIALE E MODELLI CONNESSIONISTI ( dal 1960)
Idea sostanziale: la mante umana opera in modo analogo a un calcolatore, riceve informazioni, codifica,
elabora, decide, fornisce un output.
Da qui → il pensiero intelligente può essere riprodotto-simulato tramite un calcolatore.
In sintesi:
‰ modello: analogia mente-computer
‰ metodo: simulazioni dei processi cognitivi
‰ applicazioni: programmi utili alla soluzione di svariati problemi: decisioni in campo economico,
progettazioni di manufatti, diagnosi mediche.
I programmi per PC che simulano il ragionamento umano sono composti da due tipi di elementi:
- euristiche: strategie generali e creative che consentono di affrontare situazioni nuove
- algoritmi: regole specifiche e rigide che favoriscono la soluzione in automatico di microproblemi
all’interno di quello generale.
Nel 1986 Rumehlart e Mc Clelland supplicano il volume: “Parallel distribued processing” che diffonde la
teoria delle reti neurali.
Fanno riferimento alla teoria pionieristica di Lashley (1929), per cui le informazioni non sono disposte in
punti precisi, ma distribuite su regioni (come la corteccia associativa). Queste informazioni possono essere
elaborate da più unità che lavorano simultaneamenteÆ la distruzione di alcune parti delle aree su cui sono
depositati i ricordi non da luogo alla perdita totale delle informazioni.
La metafora della mente stavolta è il cervello come organo, ed il PC diventa lo strumento per elaborare
simulazioni.
35
¾
-
Il modello di una rete PDP (Processi Distribuiti e Paralleli) concepisce:
un organizzazione delle informazioni in rete
un certo numero di nodi (informazioni)
connessioni ± potenti tra i nodi e che agiscono in due sensi: eccitatorio (+) e inibitorio (-)
organizzazione molto flessibile: la rete si riadatta continuamente per i nuovi apprendimenti
le informazioni si trovano in più punti e non si cancellano se un nodo viene danneggiato
Critiche: le più importanti da Edelman
- incapacità di tenere conto delle differenze individuali (biologiche, di storia personale, di contesto)
- il cervello non è dotato di generalizzazioni rigide precostituite
- il modello non gestisce le novità e gli imprevisti della vita reale
Capitolo 16:
PROCESSI COGNITIVI
(Marta Olivetti Belardinelli)
¾ Cognitivismo e Scienza Cognitiva
Con l’introduzione del HIP, la rivoluzione concettuale operata dal nuovo cognitivismo che si presentava
con caratteristiche compiute di corrente, sembrava risolvere il problema fondamentale della psicologia,
generato dalla interconnessione tra oggetto e metodo.
Il successo del cognitivismo era dovuto all’adozione dell’impostazione modellistica centrata sull’analogia
mente-computer. Dalla metà degli anni 70, il cognitivismo si scinde in due impostazioni, che attribuiscono
a questa analogia un diverso valore:
- Normann, Neisser, Pribram Æ sottolineano i limiti e il valore simbolico dell’analogia
- Newell Æ l’analogia diviene connotativa dell’identità tra mente e computer, come due esempi
distinti del medesimo sistema.
La scienza cognitiva ha prodotto,oltre a ipotesi generali sui processi cognitivi, anche una molteplicità di
ricerche. La crisi sembra investire le radici stesse del cognitivismo, quando Neisser dichiara di non ritenere
più possibile una teoria unificata dei processi cognitivi (processi costruttivi di pensiero ≠ processi
percettivi) Negli anni 80, si assiste al recupero della considerazione qualitativa dei fenomeni psichici.
La nuova corrente del connessionismo emerge alla fine degli anni 80 con ricerche sull’elaborazione
massiva distribuita in parallelo nelle reti neurali: le reti neurali sono capaci di simulare tutti gli aspetti del
pensiero.
¾ Concetti e categorizzazione
Per la scienza cognitiva, lo studio dei concetti è nodale, essendo questi considerati come le componenti
fondamentali del pensiero, oltre che del linguaggio e delle rappresentazioni mentali.
Fino alla metà degli anni 70, la ricerca psicologica si è occupata dello studio dei concetti e della loro
formazione. Solo con gli studi della Rosch, l’orientamento naturalista viene ad essere applicato anche allo
studio dei concetti e delle categorie. L’interesse maggiore della psicologia è centrato sui processi di
categorizzazione e sui concetti come prodotti di questi processi: la formazione della prima categoria (madre
buona), che si costituisce a causa della frattura dell’identificazione primaria madre-bambino, rappresenta il
modello di tutte le categorizzazione successive. Con il progredire dell’esperienza, l’identità identificata dal
linguaggio si costituisce in una categoria socioculturale la quale facilita i seguenti comportamenti adattivi.
Il problema della categorizzazione si innesta su quello della memoria, grazie agli sviluppi dell’ Intelligenza
Artificiale, della teoria degli schemi dei frames, degli scripts.
¾ Pensiero, ragionamento e teorie della mente
Il pensiero è da sempre un tema focale della psicologia, anche se ha posto difficoltà ai diversi approcci che
se ne sono occupati. Le difficoltà sono riconducibili a tre ordini di problemi:
- la complessità del pensiero come attività connessa e condizionata da motivazione, emozione,
percezione, memoria, apprendimento e linguaggio.
- la ricerca sul pensiero deve richiamarsi ad una specifica teoria della mente
36
-
la ricerca sul pensiero è caratterizzata da intrinseche difficoltà metodologiche (coincidenza oggetto e
metodo)
Nell’ultimo decennio, la ricerca sul pensiero è distinta in un approccio che considera il pensiero come
ragionamento guidato da regole di inferenza (come il linguaggio) e un approccio che caratterizza il pensiero
come ricerca euristica che procede attraverso il cambio di operatori. Questa dicotomia risale all’antica
dicotomia tra il pensiero accompagnato da rappresentazioni e pensiero senza immagini.
¾ L’intelligenza e il comportamento di soluzione dei problemi
Il comportamento di soluzione problemica fa parte della definizione stessa di intelligenza, poiché essa può
essere solo inferita come costrutto, attraverso l’osservazione di un comportamento che non è né abitudinale
né istintivo.
Per ragioni di ordine metodologico, gli associazionisti di Wundt ritennero le attività cognitive superiori non
indagabili sperimentalmente e focalizzarono il loro interesse sulla percezione.
I gestaltisti furono i primi ad indagare l’attività di modificazione del rapporto organismo-ambiente, posta
in essere dal soggetto, considerando il “pensiero produttivo” un buon esempio dell’attività strutturante
dell’organismo. Nascono così i problemi di “insight”, caratterizzati dal fatto che solo alcuni dei passi che
bisogna compiere per giungere alla soluzione sono cruciali. Una volta risolti, la soluzione segue
rapidamente, sempre che non subentri una fissazione funzionale, che ostacola la ristrutturazione produttiva.
Il comportamentismo escluse totalmente l’impiego della metodologia di tipo soggettivo: la ricerca adottò
come argomento privilegiato di indagine il problem solving.
L’avvento del cognitivismo frantuma lo stretto nesso deterministico fra stimolo e risposta, accentuando il
ruolo dei processi di elaborazione dell’informazione, a proposito dei quali si possono formulare solo dei
modelli di funzionamento (HIP)
¾ La regolazione affettiva della cognizione
Possiamo classificare gli argomenti relativi alla vita affettiva come pertinenti a:
- definizione-descrizione dei costrutti all’origine della determinazione affettiva del comportamento
- individuazione-definizione dei sistemi di controllo direzionale del comportamento
- individuazione-classificazione degli scopi del comportamento affettivamente regolato
- interazione-interferenza di fattori cognitivi e affettivi nella regolazione del comportamento
- origine-evoluzione-modificazione dei processi di regolazione affettiva.
O principali costrutti che si collocano all’origine del comportamento cognitivo, sono motivazione ed
emozione, anche se ne sono stati indicati altri (pulsione, istinto, tendenza, affetto, impulso)
Negli anni 90, tra i due costrutti, è stata svolta maggior ricerca sulle emozioni.
¾ I processi cognitivi di comunicazione
Lo sviluppo storico delle ricerche psicologiche sulla comunicazione è stato enormemente accelerato
dall’affermarsi dell’impostazione cognitivista: tutti i processi psichici vengono considerati come processi di
elaborazione di un’informazione comunicata in input al sistema elaboratore, il quale a sua volta comunica
al termine del processo, in output, la risposta.
Centrali per l’attuale scienza cognitiva sono le ricerche sul linguaggio: il linguaggio è un sistema
oggettivato di categorizzazione interrelate, passibile di manipolazioni sperimentali.
Al fine di ottenere indicazioni sulla struttura e le modalità di funzionamento della mente i cognitivisti hanno
individuato un altro linguaggio specie-specifico, quello musicale.
Capitolo 17:
MOTIVAZIONE E REGOLAZIONE DELLE EMOZIONI
(Pio Enrico Ricci Bitti e Roberto Caterina)
Il comportamento di un sogg è orientato alla realizzazione di un certo numero di scopi e alla soddisfazione
di determinati bisogni mediante azioni e attività coordinate.
L’attività cognitiva e l’attività comunicativo-espressiva fanno parte integrante del processo che porta
all’attivazione dell’organismo per il conseguimento di determinati obiettivi. In quest’ottica, si tende a
esaminare in maniera congiunta motivazione ed emozione (ruolo di mediazione tra esigenze ambientali e
individuali).
37
Motivazione ed emozione rappresentano due facce della stessa medaglia:
- studio della motivazione Æ perché un comportamento viene attivato (non verificato)
- studio dell’emozioneÆ analisi del come viene attivato.(sottoposto a controllo e verifica)
Il collegamento tra emozione e motivazione risiede nella potenzialità che hanno le emozioni di modificare
la relazione tra organismo e ambiente.
Concezione tradizionale: l’emotività era connessa a un’eccitazione disorganizzata e disfunzionale, la
motivazione a un’eccitazione organizzata e finalizzata a uno scopo.
Adesso si tende a evitare distinzioni così nette: si è visto che emozioni moderate aumentano la capacità di
raggiungere obiettivi. Le emozioni di paura e angoscia sono del tutto adeguate alla situazione e
predispongono l’organismo ad agire con la massima celerità; vi sono invece nella psicopatologia emozioni
non legate a situazioni di emergenza o in cui la reazione non è adeguata alla situazione. Esiste quindi una
quota dell’esperienza emotiva che può risultare non funzionale per il conseguimento di determinati scopi
da parte dell’organismo.
Soggetto ↔ Ambiente
↓
↑
Bisogni (φ e ψ) → Obiettivi → Attività Comunicativo-espressiva
→ Attività Cognitiva
→ Azioni
¾ Sistema motivazionale-cognitivo-emotivo
Modello proposto dagli autori Bitti e Caterina:
Questo sistema può situarsi a tre livelli gerarchici, a cui corrispondono vari pattern di combinazione degli
aspetti (motivazionale, cognitivo ed emotivo):
- motivazionali
- emotivi
- cognitivi
- comunicativi
- strutture cerebrali prevalenti
- apprendimento
Intervengono in modo interdipendente fattori interni, interpersonali e sociali, e la sfera motivazionale e
quella emotiva sono viste come processi che interagiscono.
Livelli della motivazione (ontogenesi Aspetti emotivi
dalla nascita alla maturazione)
I. livello
dell’esistenza riflessi, istinti
Risposte
biologica: gli animali
fisiologiche
con strutture cerebrali
adattamento
poco evolute
(arousal)
II. livello della vita sociale motivazioni primarie
Emozioni
in
gruppo:
animali
fondamentali
organizzati in gruppi
III. livello dell’acquisizione motivazioni secondarie
Emozioni
del linguaggio: uomo
secondarie
Livello in termini di filogenesi
di
¾ I livelli della motivazione:
Riflessi
Prime forme di attività dell’organismo biologico. Sono risposte automatiche e non apprese.
Istinto ≠ Pulsione
L’istinto: sequenza di comportamento automatica e diretta verso una meta. Dotazione genetica.
38
Pulsione: forza interna (es. fame e sete) senza essere correlato da comportamenti di soluzione, questi
devono essere appresi.
Motivazione primaria e secondaria
Bisogno = pulsione con un oggetto concreto (es. fame → bisogno di cibo)
Maslow (1954) propone il modello a livelli gerarchici di classificazione dei bisogni:
- Bisogni “primari”: (1)bisogni fisiologici e (2)di sicurezza
- Bisogni “sociali”: (3)bisogni di amore e appartenenza, (4)di riconoscimento e rendimento
- Bisogni del Sé: (5)di realizzazione di sé.
Æsi potrebbe aggiungere il bisogno di trascendenza.
I bisogni appartenenti a un gruppo superiore richiedono sempre l’esistenza di quelli propri del livello
inferiore. In situazioni di emergenza, i bisogni superiori possono venire meno. (es. mangiare cibo senza
chiedersi se è inquinato)
¾ Teoria sulla motivazione
La differenza tra bisogni primari e secondari implica anche una differenza tra pulsioni primarie e
secondarie.
Miller (1948), attraverso gli studi sul condizionamento, cercò di legare gli stimoli appresi a pulsioni
secondarie (anche esse apprese).
Gabbia bianca con scossa --- collegata a --- Gabbia nera senza scossa
Dopo un po’ i ratti fuggivano dalla gabbia bianca anche se il fondo non era elettrificato.
Si era creata un nuova “pulsione appresa” (da pulsione “evitamento del dolore” a pulsione “paura del colore
bianco”).
→ Questo non dimostra però che tutte le motivazioni secondarie siano frutto di apprendimento e di
trasformazioni di pulsioni primarie.
Allport (1961) le pulsioni secondarie non sono trasformazioni di quelle primarie.
Alla base del comportamento umano ci sono una serie di azioni ripetute e legate a dei successi: la
ripetizione e il consolidamento di queste azioni producono abitudini.
Queste danno vita a nuove motivazioni autonome, le ricompense si trasformano in nuovi bisogni (es. lavoro
per vivere → provo soddisfazione perché faccio bene il mio lavoro → Nuova motivazione: Motivazione al
successo).
Critiche:
- non tutte le azioni ripetute diventano abitudini
- non è evidente l’autonomia dalle motivazioni primarie
Con il cognitivismo, le motivazioni sono viste come concetti dinamici, che mutano in rapporto al numero di
informazioni provenienti dall’ambiente, che l’organismo è in grado di elaborare. Le informazioni in entrata
provocano una continua ristrutturazione dei piani progettati per il conseguimento degli obiettivi.
Critica: non in tutte le motivazioni c’è un’importanza fondamentale delle funzioni cognitive (es. fame e
sete).
Freud (1911) nella sua teoria “dei due principi dell’accadere psichico”, ipotizza due tipi di motivazione: il
principio del piacere (primaria) e il principio di realtà (secondaria).
I processi primari sono orientati dal principio del piacere. La necessità di dover agire sull’ambiente
comporta la rappresentazione a livello psichico di ciò che è reale. L’apparato psichico si ispira quindi al
principio di realtà. Il passaggio da uno all’altro comporta conseguenze in termini di ristrutturazione
cognitiva. Il primo non è annullato dal secondo , ma gli cede il passo per un migliore adattamento alle
richieste interne ed esterne.
39
I processi di base interagiscono con la motivazione, per esempio la percezione: vedere un oggetto
intensifica il desiderio di averlo, quando lo stimolo è ambiguo sono le motivazioni a influenzare la
percezione (vedi Test proiettivi).
Applicazioni:
- “psicologia del consumatore”
Si studia con metodi che mirano a individuare le motivazioni inconsce: interviste in profondità, tecniche
proiettive
- “motivazione al lavoro”
Tre tipi di approcci in linea con i bisogni di Maslow: razionale-economico (incentivi economici), sociale
(bisogno di affiliazione), di autorealizzazione (promuove un arricchimento qualitativo del lavoro). La
leadership più funzionale è diversa per ogni approccio e anche i compensi più motivanti.
EMOZIONE
Nello studio si soni intraprese due direttrici:
- emozioni nel rapporto tra l’essere umano, i suoi simili e il mondo esterno, che segnano in maniera
duratura l’esistenza individuale;
- analisi dei singoli episodi emotivi e delle manifestazioni espressivo-motorie.
Le emozioni hanno indicatori:
- verbali: consentono di comunicare l’esperienza emotiva e rifletterci
- non-verbali: in particolare le espressioni facciali, trasmettono in maniera diretta e efficace le
emozioni.
Le emozioni hanno differenti componenti:
- cognitiva: valutazione cognitiva degli stimoli ambientali
- fisiologica: salivazione, battito cardiaco, ecc
- espressivo motoria: postura, tono di voce, ecc
- motivazionale: predispongono l’organismo ad agire, per soddisfare bisogni e raggiungere scopi
determinati
- soggettiva: consentono l’attribuzione di significati e nomi specifici a stati emotivi
Per D’Urso e Trentin (1998) esistono quattro prospettive teoriche abbastanza delineate:
1) filone di studi che inizia con James e definisce le risposte fisiologiche;
2) la prospettiva evoluzionistica darwiniana con gli studi sulle emozioni fondamentali;
3) la prospettiva cognitivista con la concezione dell’emozione come informazione da elaborare,
come uno dei processi inseriti nell’interazione individuo-ambiente;
4) il costruttivismo sociale con l’importanza data dal contesto sociale nella determinazione
dell’espressione e del significato delle emozioni.
¾ Teoria di James-Lange (1884)
Affermava che gli elementi valutativo-cognitivi non precedono le risposte motorie-espressive, ma sono
determinate da queste ultime (es. si è tristi xchè si piange).
Esperimento di Hohmann (1966) su pazienti con aree estese del corpo paralizzate: l’insensibilità corporea
era correlata con una diminuita capacità a provare emozioni intense.
¾ Teoria di Cannon (1927) e Bard (1934)
Sosteneva una contemporanea attivazione del sistema espressivo-motorio e del sistema cognitivovalutativo, dal momento che entrambe dipendevano dall’attivazione del talamo.
Cannon rilevò una certa indipendenza dei due sistemi.
40
Esperimento di Schachter e Singer (1962) Indussero mediante iniezione di adrenalina delle reazioni
fisiologiche tipiche di arousal.
Alcuni soggetti erano stati informati correttamente, un altro gruppo fu informato in modo sbagliato, un
terzo gruppo informato per nulla.
Gli ultimi due gruppi si lasciarono coinvolgere più facilmente da uno sperimentatore in compiti emotivi e
attribuirono alle emozioni le modificazioni dell’arousal.
Critica: arousal indotto ≠ arousal spontaneo
Ma risulta valida la conferma dell’ipotesi di Darwin e James che l’attivazione può essere fonte della
valutazione cognitiva.
Oggi si tende a ridimensionare il peso di queste contrapposizioni e a considerare i rapporti tra sistema
cognitivo e sistema espressivo-motorio variabili a seconda del tipo di emozione e del tipo di stimolo. Non
sempre gli aspetti espressi dalle diverse componenti concordano tra loro (anche perché possono essere
inibiti-controllati in quantità diverse). Piuttosto che di primato, si parla di relativa autonomia tra le singole
componenti.
¾ Aspetti applicativi
Nel 1990 Salovey e Mayer proposero il concetto di “Intelligenza Emotiva”, reso famoso dal libro di
Goleman (1995) con lo stesso titolo.
Goleman riprende la concezione di Gardner e sostiene che esiste un tipo di intelligenza a carattere emotivo
che permette di vivere meglio e spesso più a lungo.
Riguarda:
- la consapevolezza delle proprie emozioni
- la capacità di controllo e regolazione
- la capacità di sapersi motivare
- l’empatia (riconoscimento delle emozioni altrui)
- capacità di gestire le relazioni di gruppo
Goleman vede l’applicazione di training per l’apprendimento emozionale in vari ambiti: scuole, lavoro, ecc
FORME DI CONTROLLO DELLE EMOZIONI
¾ Controllo cognitivo
Modello di Scherer (1987)
Le emozioni sono insiemi di informazioni che entrano in contatto con un individuo.
L’individuo come un computer attua una serie di controlli sull’input.
Questi controlli hanno un’organizzazione gerarchica e hanno una funzione di valutazione dello stimolo:
I)
grado di novità
II)
piacevolezza/spiacevolezza
III)
compatibilità con i fini ritenuti prioritari dal soggetto
IV)
riguarda la possibilità di comportamento nei confronti di uno stimolo (confronto con
le proprie capacità potenziali)
V)
compatibilità dello stimolo con le norme sociali e il concetto di Sé
¾ Controllo delle risposte fisiologiche
Le risposte emotive implicano un’attivazione del Sistema nervoso centrale, del sistema nervoso autonomo e
del sistema endocrino.
SNC: il suo ruolo è collegato:
- all’elaborazione cognitiva,
- alle modificazioni dell’attività corticale
- all’attivazione dei muscoli volontari (soprattutto facciali) deputati all’espressione delle emozioni
41
SNA: causa molteplici cambiamenti corporei: osservabili (sudore, arrossamento, modificazioni del
diametro pupillare, del ritmo respiratorio) e rilevabili solo con apparecchiature specifiche (modificazioni
nella conduttanza cutanea, pressione sanguigna,ecc). Sono tutti fenomeni involontari ed estremamente
difficili da inibire.
SNE: la produzione da parte delle surrenali di Adrenalina e Noradrenalina è essenziale per l’attivazione del
SNA. Ma esiste un vero e proprio profilo ormonale collegato all’attività emotiva, ed è particolarmente
evidente nelle manifestazioni di ansia e stress.
¾ Aspetti motivazionali
Le emozioni sono una forma di risposta orientata all’azione, reazioni di fronte al turbamento di un
equilibrio tra elementi pulsionali-cognitivi-esperienziali di un individuo.
Frijda (1986) ha indagato i rapporti tra processi cognitivi e azione.
Ha elaborato il concetto di “precedenza del controllo”: spesso l’azione ha la precedenza sull’elaborazione
cognitiva, per le emozioni primarie esistono schemi di azione che vengono valutati in blocco e spingono
verso la loro esecuzione in tempi brevi (tanto da interrompere atti che si stavano compiendo).
Altre emozioni funzionano in un altro modo, sono altri elementi che vengono valutati:
per es. Emozioni → Affetti: tramite il passaggio da una valutazione primaria (che tiene conto dell’arousal)
a una secondaria che considera il proprio sistema di valori e il contesto relazionale-sociale.
¾ L’espressione facciale delle emozioni
Darwin sostenne l’universalità dell’espressione facciale delle emozioni, tanto che è reperibile anche nei
primati superiori.
Numerose ricerche vanno in senso opposto.
Ekman e Friesen (1969) effettuarono uno studio molto importante: sottoposero al giudizio di un gran
numero di giudici provenienti da molte nazioni e di aree socioeconomiche diverse, delle espressioni facciali
da loro prodotte. Poi studiarono i giudizi di individui provenienti da due società “primitive” della Nuova
Guinea. Produssero un gran numero di dati che confermarono l’accordo di giudizio e quindi l’universalità
ipotizzata da Darwin.
Un’ipotesi che tiene conto delle differenze culturali è quella che le differenze stiano nelle regole che
governano l’espressione delle emozioni (es. società orientale).
Esperimento di Ekman: ha dimostrato che soggetti giapponesi controllano di più le espressioni facciali
rispetto a soggetti americani, e soprattutto se sono in presenza di compatrioti.
L’espressione/mascheramento delle emozioni è un importante indicatore clinico dello stato psichico di un
paziente: la stereotipia nell’espressione è indice di patologia.
Importanti sono anche i gesti e la postura.
Molte ricerche hanno dimostrato come l’inibizione della comunicazione emotiva (soprattutto in
conseguenza a eventi traumatici e luttuosi) abbia importanti ripercussioni sulla salute degli individui a
lungo termine, a breve termine può aiutare a attenuare il dolore.
Capitolo 18
LINGUAGGIO E COMUNICAZIONE
(Guglielmo Gulotta)
Il concetto di comunicazione viene utilizzato in svariati ambiti: dalle relazioni umane, al più generale
contesto delle relazioni sociali, al mondo della tecnologia. In ambito psicosociale, l’attenzione si è
focalizzata sulla comunicazione nei termini dell’interazione sociale.
42
La comunicazione non è un processo lineare da un emittente e un ricevente. La comunicazione crea un
punto di contatto, apre un processo dinamico che vive degli apporti dei due comunicanti e usa canali e
strumenti appropriati al ruolo di ciascuno. Si parla di circolarità di sistema.
I processi comunicativi devono tener conto di alcuni elementi:
- elementi linguistici, nel senso di segni
- strutture che appartengono all’atto del linguaggio, come parlare/comprendere
Negli studi si sono assunti opposti punti di vista:
- posizioni centrate sulla struttura vs posizioni centrate sulla funzione
- linguaggio-pensiero vs linguaggio-comunicazione
- linguistica del codice vs linguistica dell’inferenza
Nei primi ambiti è prevalso lo studio dei processi cognitivi, nel secondo la dimensione di azione.
Il problema attuale è quello di conciliare queste due posizioni, come si propone di fare la prospettiva
conversazionale.
Storia:
‰ Modello tecnico di Shannon e Weaver (1949)
Linguaggio come passaggio di informazioni da una fonte a un destinatario, mediante codifica dei segnali di
natura binaria (corrispondenza significante-significato)
‰ Modello linguistico
Si riconosce l’importanza del contesto e del partecipante come soggetto sociolinguistico
‰ Modello psicosociologico di Anzieu e Martin (1971)
Comunicazione come rapporto tra locutore e allocutario, finalizzato alla produzione di significati attraverso
registri verbali, non-verbali, paraverbali e prossemici.
‰ Modelli a interlocutori
Comunicazione come interazione, come luogo di fondazione dell’intersoggettività in un rapporto di
reciprocità e cooperazione.
La comunicazione ha una dimensione contrattuale dove la posta in gioco è la persuasione e gli attori sono
enunciatario-comunicante e enunciatario-interpretante.
COMUNICAZIONE E INTERAZIONE
La comunicazione può essere studiata come:
- sintassi: in relazione alla teoria dell’informazione (codici, canali,ecc)
- semantica: in relazione al significato come convenzione tra individui
- pragmatica: in relazione alla capacità di influenzare il comportamento altrui.
Nella prospettiva pragmatica, secondo Watzlawick ogni comunicazione ha un aspetto di contenuto e uno di
relazione, in modo tale che il secondo determina il primo ed è quindi “metacomunicazionale”.
La natura di una comunicazione dipende dalla punteggiatura delle sequenze di comunicazione tra i soggetti,
cioè dall’ordine causa-effetto che i sogg danno alle loro azioni e controreazioni.
Gli esseri umani comunicano:
- per parole, cioè nomi convenzionalmente legati all’oggetto (numerica)Æ es. “mi sono tagliato un
dito”
- per immagini, che sono simili all’oggetto e legate ad esso da nesso specifico (analogica)Æ es.
esprimere il taglio a gesti o urlando
Gli scambi sono, rispetto alle relazioni tra interlocutori:
- simmetrici
- complementari (up / down)
Le relazioni duali impostate secondo gli scambi simmetrici, tendono a essere competitive: avviene
un’escalation simmetrica dove uno vuole essere sempre più uguale all’altro.
43
Le relazioni complementari, tendono a incrinarsi quando sono troppo rigide.
Le manovre comunicazionali sono risposte che mirano a definire o ri-definire un rapporto e consistono in
richieste, suggerimenti, istruzioni all’altra persona, ecc.
Le strategie sono invece definite come metodi sottili, ma sleali, per raggiungere il controllo del
comportamento altrui e modificarlo in modo favorevole per se stessi. Le strategie disorientano
l’interlocutore consistono nell’uso di artifici dialettici che hanno la caratteristica di essere paradossali: es.
“io mi sbaglio sempre”, “io scherzo sempre”,ecc. Frequenti sono le prescrizioni paradossali, caratterizzate
da un’ingiunzione che richiede un comportamento da parte dell’altra persona, che può essere attuato
soltanto disobbedendo all’ingiunzione stessa. Es. “sii spontaneo!”, “dovresti amarmi”,ecc.
Le prescrizioni possono investire la sfera sessuale: diventano strategie per infrigidire e/o castrare. Ci sono
poi strategie per colpevolizzare e possono essere di tipo introiettivo (fare la vittima) o proiettivo
(dimostrare la colpevolezza dell’altro). Vi sono poi strategie per imbarazzare e per irritare.
COMUNICARE PER INFORMARE
La funzione essenziale della comunicazione è quella sociale: essa è il frutto di un gruppo di individui, ne
modifica la realtà soggettiva, è lo strumento di contatto.
Essenziale è quindi la funzione referenziale: lo scambio di informazioni tra interlocutori su un oggetto
(referente).
L’uso del linguaggio come di ogni altro strumento è condizionato dalla competenza, in questo caso,
linguistica.
Il concetto di competenza deriva dagli studi di Chomsky (1965): indica l’insieme di conoscenze che un
parlante ha della lingua che impiega, cioè delle regole che usa per produrre e comprendere potenzialmente
un numero infinito di frasi.
Competenza Æ è la conoscenza della lingua
≠
EsecuzioneÆ è il modo concreto di usare il linguaggio in una determinata situazione.
Assunti chomskyani:
- esiste una grammatica universale: tutti i linguaggi sono tagliati sullo stesso modello “profondo”
- le regole del livello profondo sono innate e non apprese e forniscono una base generale per
l’apprendimento del livello superficiale
Austin e Searle (1969, 1974): “Parlare è agire”, il fenomeno linguistico è equivalente a un’azione.
Distinguono tra enunciati
performativi Æ indicano il fare all’interno di un contesto (es.”mi dimetto”)
≠
constatativi (o referenziali)Æ sono usati per affermare proposizioni delle quali ci si può chiedere se siano
vere o false.
Nell’atto linguistico ci sono tre aspetti:
- locutorio: attività fisica necessaria per dire qualcosa e la conoscenza del codice grammaticale
- perlocutorio: dire qualcosa con l’ intenzione di procurare effetti su chi ascolta
- illocutorio: significato convenzionale dell’atto linguistico in un determinato contesto es.” verrò da te
domani” può essere promessa o minaccia)
Esistono indicatori di forza illocutoria, come postura o tono di voce, che aiutano nella decifrazione.
Searle ha proposto l’analisi degli atti linguistici indiretti, cioè di quegli atti che appartengono a una classe,
ma hanno lo scopo illocutorio di un’altra. (es. “e se tornassimo a casa?”Æ sono domande che però
richiedono azioni) Un altro fenomeno studiato è l’adattamento all’interlocutore (Orsetti, 1983): quando
parliamo con individui con ridotte capacità linguistiche (o età inferiore, status sociale,ecc.) tendiamo a
adattare la nostra produzione al suo livello di comprensione.
44
LINGUAGGIO
La comunicazione umana è un importante strumento per coinvolgere più individui, per portare parlante e
ascoltatore in uno stesso schema interpretativo. E’ un insieme complesso di segni e simboli, che ci servono
anche a interpretare il nostro ruolo sociale secondo un copione che noi stessi scriviamo.
Robinson (1978) il linguaggio copre tutta la gamma dei rapporti interpersonali, cioè:
- area operativa: domanda e offerta (es. chiedere o dare suggerimenti, giudizi, informazioni,ecc)
- area socioemotiva positiva: manifestazioni di solidarietà, ridere, comprendere, ecc.
- area socioemotiva negativa: manifestazioni di dissenso, odio, tensione, ecc.
Queste funzioni possono essere raggruppate in un ordine più elevato: analisi del problema, soluzione del
problema, sintesi della soluzione. Queste funzioni vengono utilizzate per risolvere specifiche situazioni
interattive. Principali funzioni:
¾ Funzione di eteroregolazione
Per realizzare la regolazione del comportamento altrui abbiamo a disposizione diverse forme, dalle più
dirette (es. dammi il libro) alle più sfumate (es. bisognerebbe comprare il pane)
- Regolatoria Æ è la prima funzione e consiste nell’intenzione del soggetto di far passare
un’informazione per esercitare un’influenza. Richiama la capacità di codifica e decodifica.
- Riproduzione Æ corrispondenza tra messaggio e mezzo di comunicazione che si intende usare.
¾ Caratterizzazione del Ruolo
Il ruolo è l’insieme di comportamenti prescritti o attesi da una certa persona che occupa una determinata
posizione sociale (es. differenti comunicazioni dal vicino di casa e dal capoufficio). Alcuni ruoli richiedono
forme linguistiche precise (associati verbali), in particolare riguardo agli allocutivi (es. dare del TU o del
VOI).
L’uso degli allocutivi è regolati da norme secondo le relazioni di ruolo:
- differenze di status
- differenze di età
- differenze di status occupazionale
Brown (1965) enuncia due regole fondamentali:
- norma di status: ci si rivolge a tutte le persone di status basso in modo informale, e elevato in modo
formale, indipendentemente dal grado di intimità;
- norma di solidarietà: si usa la forma educata con tutte le persone con le quali non si è in
confidenza, quella informale con i partner, a prescindere dallo status sociale.
¾ Caratterizzazione del parlante
Il linguaggio rivela caratteristiche del soggetto: sociodemografiche(es. lavoro, istruzione,ecc) e di
personalità.
¾ La funzione metalinguistica
Una volta intrappolati in una certa formulazione verbale che abbiamo dato al problema, può diventare
difficile vedere le cose diversamenteÆ watzlawick dice che le persone possono restare intrappolate dalle
stesse soluzioni che danno ai loro problemi.
COMUNICAZIONE NON VERBALE
E’ considerata un linguaggio di relazione, che sostiene e completa la comunicazione verbale fungendo da
canale di dispersione in quanto, essendo meno controllabile del linguaggio verbale, lascia filtrare contenuti
profondi.
Classificazione:
- linguaggio dei segni: tutte quelle forme in cui parole, numeri e punteggiatura sono costituite da gesti
- linguaggio dell’azione: tutti i movimenti che non sono usati esclusivamente come segnale (es. bere
comunica che “ho sete”)
45
-
linguaggio degli oggetti: esibizioni intenzionali e non di cose materiali che ci circondano (auto,
vestiti, cellulare,ecc)
Il linguaggio non verbale è stato chiamato linguaggio silenzioso, e ne sono stati classificati vari tipi:
a) Apparenza fisica: la bellezza è un importante fattore che facilita i rapporti sociali;
b) Abbigliamento: come dato visibile, ancora prima in senso di distanza dell’espressione facciale;
c) Postura: manifesta il diverso grado di accessibilità consentita all’altro;
d) Orientamento spaziale: posizioni reciproche che le persone assumo nello spazio;
e) Mimica facciale e sguardo: per rinforzare ciò che viene detto e fornire feedback all’altro;
f) Distanza interpersonale: intima (0-35cm), personale(da 35 cm a 1 mt), sociale (da 1 a 3 mt),
pubblica (da 3 mt in su).
Studi sull’importanza dei fattori nell’attribuire il significato ai messaggi, hanno indicato che:
- le parole 10 %
- il tono della voce 40%
- comportamento non verbale 50%
Se il tono di voce e il comportamento non verbale contraddicono le parole, il messaggio non passa o passa
solo parzialmente, mentre l’effetto è massimo quando i canali si rinforzano tra loro.
COMUNICARE PER PERSUADERE
Sembra che le variabili che correlano con l’efficacia della persuasione siano:
- Attendibilità: se la fonte è attendibile, veniamo influenzato da messaggio che altrimenti ci
lascerebbero indifferenti. Effetto latenza: dopo un mese aumentano gli effetti del messaggio poco
attendibile e diminuiscono gli effetti del messaggio attendibile, perché l’informazione viene scissa
dalla fonte.
- Attrattività fisica: si ascolta di più una persona piacevole da guardare
- Affinità tra emittente e destinatario: affinità per stile di vita,atteggiamenti,etnia, religione,ecc.
- Presunte Intenzioni: il messaggio acquista più rilevanza soprattutto se si considera il mittente
disinteressato
La disposizione ad accogliere varia in rapporto inverso con l’autostima del destinatario Æ bassa autostima
del destinatario, lo porta a credere a ciò che sente)
Perelman (1981) Chi comunica deve tenere conto di:
- tesi dell’uditorio (da utilizzare come aggancio all’argomentazione)
- area di accettazione e rifiuto
Gli individui tendono a rifiutare le comunicazioni che sollecitano un eccessivo cambiamento
d’atteggiamento (errore della petizione di principio). Quando la discrepanza è elevata, il messaggio non
viene accolto. L’ascoltatore è inoltre refrattario ad accettare il messaggio se si considera personalmente
coinvolto.
Festinger (1973): Teoria della dissonanza
1. ognuno di noi tende alla coerenza con sé stesso
2. conoscenze discrepanti creano disagio
3. la pressione per eliminare la dissonanza è funzione dell’importanza data alle componenti
in gioco
4. la dissonanza può essere appianata trasformando gli elementi cognitivi o aggiungendone
di nuovi
Il bisogno di coerenza influisce sulla “prima impressione”, che condiziona il modo in cui le informazioni
seguenti saranno percepite ed organizzate. Allo stesso bisogno si ricollega l’effetto alone (Asch 1946): la
tendenza a raggruppare i tratti in modo che siano tutti positivi o tutti negativi (teoria implicita della
personalità). Asch propose due liste di tratti che differivano per un solo tratto: caldo – freddo.
Questo tratto modificò tutto il prospetto di personalità fantasticato. Le nostre percezioni tendono a essere
uniformi e a raggrupparsi attorno a dei tratti centrali.
46
I ricordi risentono della sequenza di apprendimento dei dati: effetto primacy (la prima informazione è più
importante delle altre) ed effetto recency (l’ultima informazione ha maggior rilievo delle precedenti)
La psicologia sociale ha individuato fattori paralinguistici che aumentano la persuasività del linguaggio: la
velocità del linguaggio aumenta la persuasività e l’attendibilità.
Norton (1983) ha studiato gli stili comunicativi:
- dominante e rilassato → comunica fiducia
- sottomesso e nervoso → comunica insicurezza
- drammatico Æ influenza positivamente la percezione, l’attrattiva e l’affidabilità della fonte
- animatoÆ enfatizza e sottolinea aspetti del discorso
La combinazione dà luogo a vari effetti. L’efficacia della comunicazione aumenta con uno accorto delle
interrogazioni, che stimolano l’attenzione.
Nella comunicazione persuasiva quindi entrano in gioco diversi fattori riconducibili a un doppio canale:
centrale (variabili di tipo logico) e periferico (elementi analogici: tutto ciò che fa da contorno al discorso).
Toulmin (1979) ha studiato come deve essere strutturata un’argomentazione per essere efficace:
- Devono essere esposte in modo chiaro le asserzioni
- Devono essere supportate in modo attendibile da dati e fatti rilevanti
- Deve essere esplicitato il diverso grado di certezza o probabilità delle asserzioni
- Devono essere espresse riserve riguardo a circostanze eccezionali che potrebbero falsificare le
asserzioni
Anche la persuasione è considerata attualmente un processo interattivo tra persuasore e persuaso. La scelta
del tipo di tattica dipenderà di conseguenza dall’uditorio e dal contesto.
Capitolo 19
L’INTELLIGENZA
(Ornella Andreani)
Def. popolare: appare chiara, intuitiva, è un concetto d’uso comune per valutare una persona in molteplici
contesti in cui è necessaria una definizione di funzioni e ruolo oppure una previsione di successo nella
carriera (scolastica o lavorativa).
≠
Def. scientifica: criteri di misura frequentemente criticati come selettivi, poco affidabili, intrisi di
pregiudizi di razza, cultura, classe sociale.
E’ un argomento trasversale a tutta la psicologia.
STUDI PSICOMETRICI
I primi studi risalgono ai primi del ‘900 e si basavano sull’analisi delle differenze individuali in abilità
(talvolta specifiche e irrilevanti, talvolta più legate ai processi di base che ai processi superiori).
Ebbero però un forte sviluppo perché rispondevano alle esigenze della società industriale di allora
(selezione per scuola o lavoro).
Due linee principali nella costruzione dei test:
- Indici globali che differenziano diversi livelli di età (es. Scala di Binet) o di posizione rispetto alla
media dello stesso gruppo di età (Scala di Wechsler) Æ Nella scala binet, l’Età Mentale (EM)
presuppone un parallelismo tra maturazione cronologica e sviluppo intellettuale che non è lineare e
non c’è dopo i 15-18 anni, mentre le scale Wechsler colgono degli aspetti di esperienze e
conoscenze, piuttosto che potenzialità intellettuali.
- Metodi analitici (test di Thurstone) che misurano diverse dimensioni non correlate tra loro e
permettono di costruire un profilo dell’individuo confrontabile con i profili tipici del gruppo di
riferimento (classe o gruppo professionale) Æ il valore predittivo dei test fattoriali è minore rispetto
a quello degli indici globali
47
¾ Metodi fattoriali
Def. l’analisi fattoriale è un metodo statistico basato sull’analisi delle correlazioni tra vari test mentali e
prove, con cui si cerca di scoprire le unità funzionali :
- di tipo cognitivo Æ abilità
- di tipo comportamentale Æ tratti
oppure i fattori che stanno alla base di fenomeni associati tra loro.
I metodi fattoriali non partono da una definizione precisa e aprioristica dell’intelligenza (come le scale
wechsler o Binet), ma partendo da un largo numero di osservazioni empiriche (misurazioni effettuate con
uno o più test) fatte su larghi campioni di soggetti, calcola le correlazioni e cerca di identificare:
- la struttura fattoriale sottostante
- il peso dei singoli fattori
- attribuire ai fattori un significato
I fattori ripetutamente evidenziati sono di tre tipi:
1) Fattore generale, chiamato anche G di Sperman: corrisponde alle capacità di ragionamento
misurate dal Q.I., spiega la correlazione trovata più o meno tra tutti i test;
2) Dal fattore G derivano per effetto dell’educazione e della cultura due grandi fattori di gruppo:
verbale-numerico e percettivo-spaziale, spiega la correlazione tra test a contenuto simile;
3) La scuola americana (≠inglese) segnala l’esistenza di fattori specifici, le abilità mentali primarie,
presenti solo in un compito determinato, come la percezione, la memoria ecc. da cui deriverebbe
in seconda istanza il fattore G. Forse questa differenza è dovuta alla diversa impostazione delle
scuole americane dove la specializzazione è precoce.
I modelli più recenti hanno cercato di dare non solo una descrizione, ma anche una spiegazione:
- Guilford (1950) Pensiero divergente e convergente
Ipotizza una struttura dell’intelligenza a tre dimensioni (operazioni, contenuti e prodotti) con funzioni di
pensiero convergente (lineare e conformistico) e divergente (creativo). Critica ai test d’intelligenza di
misurare, con risposte predeterminate, solo il pensiero convergente.
-
Cattell (1950/60) Intelligenza fluida e cristallizzata
Distingue l’intelligenza potenziale, dall’intelligenza frutto dell’interazione con il contesto educativo,
sociale, culturale (quella misurata dai test). E introduce la distinzione tra l’intelligenza fluida (che si
basa su abilità percettive, di ragionamento, di apprendimento) e cristallizzata (che si basa sulle
conoscenze). La seconda con la vecchiaia non decade, e in alcuni casi addirittura migliora.
Queste due distinzioni sono molto importanti, ma spesso sfuggono alle misurazioni testistiche e alle
valutazioni sul peso che hanno sui risultati. Entrambi gli autori hanno costruito questi modelli utilizzando
informazioni provenienti da test costruiti per verificare altre ipotesi e sottoponendoli ad analisi fattoriale.
Le applicazioni dei test psicometrici per l’intelligenza vanno dal campo clinico a quello della psicologia del
lavoro. I fattori trovati attraverso l’analisi matematica non hanno una realtà psicologica, ma servono per
semplificare la descrizione della mente e per costruire dei modelli che possono essere usati per scopi molto
diversi. I fattori isolati attraverso operazioni matematiche non hanno una realtà psicologica, ma funzionano
come modelli:
- descrivere il funzionamento di un individuo rispetto a un gruppo
- per comprendere il funzionamento
- per delineare le strutture
FATTORI EREDITARI E AMBIENTALI
Negli anni ’60 / ’70 si accese un dibattito attorno al problema dell’importanza dei fattori ereditariambientali e delle modalità educative (uguaglianza delle opportunità scolastiche)
Due blocchi ideologici:
- teorie che accentuano il peso dei fattori genetici e chiedono un’educazione tesa a valorizzare le
differenze individuali
48
-
teorie che accentuano l’importanza dei fattori acquisiti e chiedono un’educazione completamente
egualitaria.
Tra le conseguenze più radicali: un attacco di Jensen nel 1969 ai programmi di educazione compensatoria
per bambini svantaggiati. J. Portò dati a favore dell’inferiorità razziale dei negri e affermò l’inutilità di
questi programmi.
Recentemente Herrnstein e Murray (1994) hanno portato dati provenienti dall’analisi di molti studi che
attribuiscono un Q.I. medio diversificato per razze:
- Giapponesi: 105
- Bianchi: 100
- Negri: 84
I risultati mostrano un’inferiorità delle classi più basse e anche che in certi casi i programmi compensatori
non sono stati molto utili perché l’intervento non ha cambiato le dimensioni veramente importanti
dell’ambiente che influisce anche sugli aspetti biologici (malnutrizione, malattie,ecc) oltre che psicologici.
In quasi tutti gli studi sulle differenze individuali l’ “effetto razza” viene confuso con l’ “effetto classe
sociale”.
Le ricerche più recenti hanno messo in dubbio non solo il peso dei fattori, ma anche la loro interazione e
evidenziato l’esistenza di modelli individuali di sviluppo e la plasticità dell’intelligenza soprattutto nel caso
di interventi precoci.
L’ambiente:
- esercita un’influenza più forte nelle prime e nelle ultime fasi della vita
- agisce già a livello prenatale aumentando i fattori di rischio a svantaggio delle classi povere
L’intelligenza è molto più plastica di quanto si credeva (aumento di 10/15 punti di QI nei bambini adottati
da classi di livello socioculturale più alto).
Agli effetti dell’ambiente sulla biologia dell’organismo e sul bagaglio culturale, vanno aggiunti:
- effetto cumulativo dei deficit di esperienze culturali e di linguaggio sullo sviluppo delle operazioni
logiche
- effetti delle esperienze di successo/insuccesso nel formare l’immagine di Sé,
- effetto dell’ambiente sui valori culturali e quindi sulla motivazione al rendimento
intellettivo(curiosità, bisogno di competenza).
→ genetico non vuol dire “che non cambia”
Il QI misurato in età adulta è abbastanza stabile, ma varia molto in età di passaggio, anche nell’adolescenza
dove le influenze emotive sono molto importanti e possono influenzare in un senso o in un altro la
prestazione a seconda di come sono gestite.
STUDI SPERIMENTALI
Nel periodo dal 1920 al 1950 si affermò il behaviorismo e gli studi sperimentali sull’intelligenza.
L’interesse era centrato soprattutto :
- sull’osservazione del comportamento intelligente
- sui processi di apprendimento
- l’associazione stimolo-risposta
- il ruolo dei rinforzi esterni
Nel 1956, Bruner e coll. Pubblicarono un interessante lavoro sulle strategie del soggetto per il problem
solving e per la decisione: l’innovazione era lo studio di processi non direttamente osservabili.
Negli stessi anni, nascono gli studi di psicolinguistica di Chomsky che elabora il suo modello della
Grammatica Generativa.
Nel 1958 compaiono i primi lavori di Newell e Simon sull’Intelligenza Artificiale.
Nel 1960 , Miller, Galanter e Pribram pubblicano “Piani e strutture del Comportamento” e danno l’avvio
al Cognitivismo.
49
In Europa: è la scuola della Gestalt che si occupa dell’intelligenza e si applica il concetto di ristrutturazione
unitaria del campo percettivo (insight) anche ad ambiti più vicini all’intelligenza come la memoria e il
problem solving.
INTEGRAZIONE TRA STUDI SPERIMENTALI-COGNITIVI E RICERCHE PSICOMETRICHE
E’ un approccio recente, che nasce dalla convenzione che è un errore separare lo studio dei processi
cognitivi dallo studio delle differenze individuali.
Hunt (1994) insieme con altri autori ha fatto un’analisi dei possibili modelli teorici che spiegano le
differenze individuali (risultati delle analisi fattoriali). Esiste un unico fattore G o multipli?
Emergono tre possibilità:
1. G = fattore (abilità) generale secondo il modello di spearman Æ T1 e T2 sono compiti di base
che comprendono una parte di G e una parte specifica;
2. G = un piccolo numero di processi indipendenti (abilità multiple) Æ T1 e T2 misurano
sottoinsiemi di abilità specifiche, che fanno parte di G.
3. G = largo numero di abilità non separabili Æ T1 e T2 misurano sottoinsiemi inscindibili di G
Kyllonen (1994) Si basa sulle ricerche della recente psicologia cognitiva e ipotizza che l’Intelligenza sia un
processo dell’elaborazione dell’informazione che si basa su quattro componenti:
A. Capacità della memoria di lavoro
B. Velocità di esecuzione dei sistemi di elaborazione
C. Ampiezza delle conoscenze dichiarative
D. Ampiezza delle conoscenze procedurali
Sperimentalmente, una batteria di test costruita su questo modello rende conto di circa la metà della
varianza individuale
¾ Metodo genetico e Meccanismi di sviluppo: Piaget
La teoria costruttivista: per Piaget, l’intelligenza è un caso di adattamento individuo-ambiente. Vi sono
delle funzioni del pensiero costanti (invarianti funzionali): organizzazione e adattamento.
L’adattamento è ottenuto attraverso processi di assimilazione e accomodamento.
La spinta all’organizzazione determina le strutture attraverso cui il pensiero organizza se stesso.
L’attività intellettuale nasce dal bisogno di conoscere che è una motivazione primaria.
Le operazioni mentali astratte si sviluppano da quelle concrete attraverso il processo dell’interiorizzazione .
La molla interna è il bisogno di equilibrio che va sempre riorganizzato e si dispone in configurazioni
chiamate stadi.
Una critica fatta al modello piagetiano è proprio che non spiega i fattori della transizione tra stadi.
Dal modello piagetiano sono derivati molti e interessanti studi recenti che tendono a recuperare
l’importanza del contesto culturale, dei metodi educativi e dell’interazione fra pari nel senso di favorire
l’emergere dei processi di pensiero superiori.
LA CONOSCENZA E LA TRASMISSIONE CULTURALE
Esponenti importanti sono due autori sovietici: Vygotskij e Lurija che considerano determinante il ruolo
dell’interazione sociale nell’emergere delle funzioni psichiche superiori.
Per Vygotskij (1930) il linguaggio non serve solo per comunicare, ma per trasformare e guidare i processi
di pensiero.
Per Lurija (1976) la formazione dei processi di pensiero più alti avviene tramite l’interazione sociale nelle
relazioni tra adulti e sottolinea come la maturazione individuale riflette la storia dell’umanità.
IL COGNITIVISMO E L’ELABORAZIONE DELL’INFORMAZIONE
Fondatore Neisser che nel 1967 pubblicò: “Cognitive Psychology”, ma le basi erano già presenti nell’opera
di Miller, Galanter, e Pribram.
Lo studio è riportato ai processi interni: si usa la metafora del Computer per la costruzione di modelli, la
misura dei tempi di reazione e le simulazioni per produrre le prove sperimentali.
50
Si studiano non solo i risultati del comportamento intelligente, ma i processi e le strutture che lo
compongono.
Si sentono le influenza di Chomski e dell’I.A.
Attualmente il più importante esponente è Sternberg (1988 – 1996) che ha proposto un modello di
intelligenza triarchico.
Tre processi fondamentali:
1. metacomponenti:processi esecutivi che pianificano e controllano l’elaborazione
dell’informazione;
2. componenti di performance: che eseguono le strategie pianificate;
3. componenti per l’acquisizione delle conoscenze.
Questa teoria cerca di spiegare l’intelligenza secondo tre subteorie:
- contestuale: adattamento all’ambiente esterno
- componenziale: adattamento all’ambiente interno
- esperienziale: che riguarda sia l’esterno che l’interno
Il comportamento è intelligente in quanto ha funzione di adattamento all’ambiente, oppure di selezione e
modellazione dello stesso.
Ha il grande merito di integrare lo studio dell’Intelligenza con lo studio della Personalità, ma non si adatta
facilmente a tutte le realtà: i soggetti più dotati sono quelli che riescono di più a modificare l’ambiente e ad
affrontare compiti nuovi, attraverso una combinazione di processi automatizzati e di adattamento alle
novità, che riguardano abilità di ragionamento, problem solving, verbali e sociali.
IL PENSIERO CREATIVO E LA PERSONALITA’
Gardner (1983, 1985) ha formulato la teoria delle Intelligenze Multiple. Sostiene che vi sono molte forme
particolari di Intelligenza, che vengono sviluppate in culture diverse e vengono sviluppate in particolar
modo in individui in cui il talento coincide con i valori della cultura che lo circonda, dalla quale riceve il
sostegno.
Esempi: l’intelligenza sociale (riguarda abilità interpersonali), l’intelligenza personale (valorizzazione di sé
attraverso forme di arte espressiva).
Gardner ha studiato casi di plusdotati e ha confermato che ogni persona è un sistema unico e particolare
tra abilità innate e ambienti favorevoli, in cui le abilità si sono sviluppate in anni di lavoro durissimo.
L’Intelligenza creativa è:
- curiosità
- apertura verso il nuovo
- anticonformismo
- amore per il rischio
- capacità di risolvere tensioni interne ed esterne
Lo studio dell’intelligenza si sposta quindi anche con Gardner verso lo studio della personalità.
Capitolo 20
PERSONALITA’
(Gian Vittorio Caprara e Concetta Pastorelli)
La Psicologia della personalità affronta tematiche che riguardano i nessi tra natura e cultura, mente e corpo,
individuo e società. Questi temi hanno una tradizione antica di riflessioni, ma una storia recente di studi
sistematici.
“Persona” = termine latino che significa maschera dell’attore, evoca sia l’apparenza individuale, sia
l’appartenenza a un ruolo sociale che può essere interpretato da molti.
Gli interrogativi recenti concernono le radici e le espressioni di quanto vi è di condiviso e unico nel modo
di presentarsi, agire, sentire di un individuo.
Def. personalità: un’organizzazioni di modi di essere, di conoscere, di agire, che assicura unità, stabilità e
coerenza e progettualità alle relazioni dell’individuo con il mondo.
51
La personalità si muove tra i due poli:
- struttura (come la personalità si presenta e si identifica nei tratti dell’individualità)
Tratti: sono disposizioni ad agire relativamente stabili rispetto al variare delle circostanze. E’ un
concetto centrale nella psicologia della personalità
Carattere: termine usato come sinonimo di personalità, o in alternativa al concetto di personalità con
un’accentuazione delle componenti valutative-morali.
Rimane controversa la tematica relativa alla natura e al numero dei tratti: alcuni li considerano
espressioni del patrimonio genetico (→ genetisti), altri espressioni fenotipiche che risultano
dall’interazione con l’ambiente. La configurazione dei tratti dà l’elemento strutturale dell’individuo.
Temperamento: aspetti che concernono caratteristiche energetiche e temporanee dell’individuo: la
reattività, l’irritabilità, … più collegate al substrato biologico, rispetto ai tratti.
Tipi: costellazioni di tratti o mega-tratti riassuntivi.
-
Dinamica: il funzionamento della personalità come sistema autoregolatore, autoconsapevole, capace di
riflettere su sé stesso e interagire con l’ambiente in modo da perseguire delle mete. In particolare si
riferisce ai processi che presiedono alla costruzione del Sé, della propria identità, alla messa in atto di
strategie appropriate.
La Psicologia della Personalità mira a svolgere una funzione di giuntura tra gli studi degli aspetti di base e
le applicazioni nei contesti operativi. Spesso in contesti applicativi si è dovuto sopperire con l’intuito alle
lacune date dall’impossibilità di sperimentare in questi campi.
Recentemente si è affermata la posizione che la personalità è una costruzione che avviene nel corso dello
sviluppo e alla quale l’individuo può contribuire attivamente.
TAPPE DI SVILUPPO DELLA PSICOLOGIA DELLA PERSONALITA’
La psicologia della personalità si è spesso intrecciata con la “vecchia” psichiatria tassonomica, con la
psicoanalisi, con la psichiatria clinica di Janet, con la tradizione delle differenze individuali.
Nell’ottica di una distinzione, negli ultimi 70 anni, la psicologia della personalità si è sviluppata nel nordamerica e può essere distinta in tre fasi:
- Una prima fase di “ricerca delle definizioni” in cui la psicoanalisi porta un modello criticabile, ma non
prescindibile, di concezione dell’uomo e dello sviluppo e di cosa possa essere la psicologia della
personalità.
-
Tra gli anni ’40 e ’70: dopo aver creduto nella possibile integrazione di varie discipline (sociologia,
antropologia e psicologia) e di vari indirizzi (comportamentismo, Gestalt e psicoanalisi), viene meno
questa convinzione e si rafforzano le scissioni tra:
- studio del comportamento individuale vs studio dei movimenti sociali e culturali
- le diverse prospettive vs. principi della psicologia scientifica.
La psicologia della personalità è sempre più confinata allo studio delle differenze individuali. Sembra
quindi inevitabile rinunciare ai grandi temi e ripiegarsi su problemi meno ambiziosi: proliferano le
micro-teorie.
-
Con gli anni ’80, si apre una nuova fase, si afferma il paradigma “socialcognitivo”:
- nuova curiosità per le differenze individuali
- rinnovato interesse per la ricerca su casi singoli
- nuove tecniche di elaborazione
Il funzionamento e lo sviluppo della personalità è concepito come un processo triadico di reciproche
influenze: persona → ambiente → condotta (che risulta dagli scambi tra ambiente e persona e li
condiziona a sua volta).
Il dualismo eredità-ambiente si risolve con il concetto di interazione: sin dal concepimento l’interazione
ambiente-eredità determina ciò che una persona è.
52
INDIRIZZI E STRATEGIE DI RICERCA
Diverse scuole o correnti di pensiero:
ƒ quelle che si fondano sul metodo clinico: di ispirazione psicoanalitica e fenomenologia;
ƒ quelle che utilizzano il metodo correlazionale: studi sull’individuazione dei tratti e ricerca della
struttura di personalità;
ƒ quelle fedeli al metodo sperimentale: che mirano a trovare leggi generali che regolano i vari
aspetti della personalità.
¾ Psicologia del profondo
Freud: la psicoanalisi ha posto al centro dell’interesse la teoria del conflitto tra le istanze psicologiche
profonde: conscio-inconscio, pulsioni-strutture adattive, affetti-cognizioni-comportamento. E’ stata sempre
maggiore l’importanza riconosciuta alle prime esperienze e alle relazioni affettive nello sviluppo della
personalità.
Le pulsioni sono le determinanti psichiche: forniscono l’energia e la motivazione all’azione.
La personalità è un’organizzazione articolata su tre strutture (Io – Es – SuperIo) che deriva dalla necessità
di soddisfare i bisogni dell’organismo, tenendo conto delle istanze ambientali. Gli anni dell’infanzia
acquistano un’importanza particolare.
Adler: “psicologia individuale”, in cui acquista maggiore importanza la sfera della consapevolezza, si
accentua l’importanza delle relazioni interpersonali e delle condizioni sociali e la tendenza dell’individuo
all’autorealizzazione.
Jung: “psicologia analitica”. La personalità appare il risultato di una storia personale, di una storia collettiva
e di un’istanza che spinge all’autorealizzazione del Sé. La libido diventa energia psichica e l’inconscio si
divide in personale e collettivo.
La personalità risulta dalla combinazione di quattro funzioni psicologiche fondamentali:
- pensiero
- sentimento
- sensazione
- intuizione
e di due orientamenti:
- introversione
- estroversione
Sviluppi post freudiani:
- Anna Freud: “Psicoanalisi dell’Io”
- Klein e Winnicott: “Psicoanalisi delle relazioni oggettuali”
- Bion: studio dei gruppi
¾ Psicologia umanistica
Gli indirizzi fenomenologico-esistenziali hanno sottolineato soprattutto il valore dell’esperienza soggettiva,
e il diritto di ogni uomo a realizzare un proprio progetto di vita. Le fonti di disagio psichico sono le
limitazioni poste dagli altri a questo progetto. C’è una decisa lotta al riduzionismo psicologico che
penalizza l’individualità.
¾ Psicologia dei tratti
Alla base c’è la convinzione dell’esistenza di una struttura latente di tratti (o disposizioni) che rende ragione
della diversità delle manifestazioni psicologiche.
Spesso è implicita la convinzione che questa struttura sia innata e radicata nella biologia dell’individuo.
Hanno usato sistematicamente l’analisi fattoriale.
Allport ha definito i tratti come “sistemi neuropsichici generalizzati e focalizzati, capaci di rendere molti
stimoli funzionalmente equivalenti, e capaci di iniziare e guidare coerenti forme di comportamento adattivo
ed espressivo”.
53
Altri autori: Cattell e Guilford
Le ricerche attuali convergono sostanzialmente su 5 tratti fondamentali, i cosiddetti Big Five:
1) Estroversione/Introversione
2) Amicalità
3) Coscienziosità
4) Stabilità emotiva/Nevroticismo
5) Intelletto
Il Modello Big Five si basa sull’”ipotesi lessicale” che assume che il vocabolario naturale contenga le
parole per descrivere la personalità, più importanti sono le differenze individuali e più è probabile che
vengano espresse con singole parole.
Da qui il Big Five Questionnaire (BFQ).
¾ Situazionismo (Comportamentismo)
Quello che caratterizza le teorie dell’apprendimento in psicologia della personalità, oltre agli elementi che
valgono anche in altri ambiti, è l’attenzione al contesto.
La personalità corrisponde a una gerarchia di abitudini e di apprendimenti consolidati da rinforzi.
Recentemente la diffidenza verso il mentale si è stemperata e l’erede è la teoria cognitivo-sociale di
Bandura.
¾ Social-Cognition
Autore fondamentale è Bandura. L’ambiente ha ancora una grande importanza ma svolge la sua influenza
su un apparato mentale strutturato, i rinforzi sono esterni, ma anche interni e la personalità si configura
come un sistema attivo. La personalità riflette, assimila e trasforma le influenze del mondo esterno.
Concetto di “Autoefficacia percepita”: la fiducia nelle proprie capacità di organizzare una serie di azioni al
fine di raggiungere uno scopo. Nasce da specifiche condizioni che ha un soggetto sulle proprie capacità di
far fronte a specifiche prove. E’ di conseguenza, una misura del controllo che un soggetto ha sull’ambiente.
Si modifica con le esperienze, la persuasione verbale, l’osservazione di modelli.
¾ L’Interazionismo
Ha avuto due fasi: il primo interazionismo era “meccanicistico”, mirava alla spiegazione delle differenze
individuali impiegando l’analisi della varianza.
Una seconda generazione “dinamica” ha studiato i rapporti di causalità reciproca tra gli individui come
soggetti attivi con l’ambiente.
L’interazionismo non si pone il problema di stabilire il primato tra strutture e situazione, ma di capire come
avvengono le influenze tra i due sistemi. La ricerca longitudinale è il metodo privilegiato.
Da questi studi emerge la stabilità nel tempo dei tratti, non come comportamenti, ma come stili di condotta
personali.
Capitolo 21
PERCEZIONE
(Walter Gerbino)
¾ Funzioni della visione
Il mondo percepito non è una rappresentazione completa e veridica del mondo fisico di cui l’uomo fa parte.
Generalmente però questa rappresentazione è adeguata.
Le anomalie sono dette illusioni visive, sono un insieme eterogeneo di effetti accomunati dalla sorpresa del
soggetto per le aspettative tradite.
Dipendono:
- dai meccanismi di registrazione dell’input ottico (e costituiscono una fonte di conoscenza di
quest’ultimo)
- dai meccanismi di codifica dell’input sensoriale da parte del sistema rappresentazionale-visivo
54
Nel quotidiano, la scena visiva appare come un mondo internamente coerente, con strutture e attributi
integrati in un unico codice linguistico.
Sintesi:
La funzione del sistema visivo è assicurare una rappresentazione adeguata del mondo esterno.
Per farlo il sistema ricorre a regole di funzionamento. In situazioni di input visivo ridotto, si assiste a
fenomeni (illusioni) di instabilità percettiva o ambiguità che rivelano le regole di funzionamento del sistema
visivo e il peso dato alle varie fonti di informazione.
La scienza della visione ha dei limiti strutturali riguardo alla conoscenza: l’esperimento di pensiero noto
come “Inversione dello spazio dei colori” (due individui con davanti colori diversi ai quali danno lo stesso
nome) dimostra come non ci è dato di conoscere i “qualia” (natura qualitativa degli elementi)
dell’esperienza visiva, ma solo i rapporti reciproci fra gli elementi.
Abbiamo solo prove di tipo comportamentale che confrontano la percezione (appunto!) ma non i “qualia”.
Possiamo comunque rassicurarci di stare studiando un insieme di rappresentazioni equivalenti allo spazio
dei colori per esempio, e essere sicuri che la struttura del nostro sistema e di quello “esterno” non varia.
Koffka (1935): “Why do things look as they do?”
La risposte del senso comune sono di due tipi:
1. realismo ingenuo: perché il mondo reale è così, ma a volte questa ipotesi non regge
2. adattamento: l’individuo si è adattato alle circostanze prevalenti nel suo ambiente (anche su base
culturale)
Nella scienza della visione la posizione è quella del realismo critico: il mondo percepito è un modello del
mondo fisico, elaborato a due livelli (input sensoriale, rappresentazione visiva). La rappresentazione deve
essere:
- adeguata agli scopi dell’azione e della descrizione verbale del mondo fisico (adeguatezza della
rappresentazione)
- aderente all’input sensoriale (all’informazione ottica).
Catena psicofisica:
Mondo fisico → informazione ottica → input sensoriale
(1)
(2)
Il primo passaggio è un mappaggio distruttivo (confusione tra componenti che nel mondo fisico son ben
separate e riduzione da 3 a 2 dimensioni), il secondo passaggio è un mappaggio ricostruttivo (il sistema
visivo cerca di recuperare le proprietà del mondo fisico, perse).
FENOMENI ACROMATICI
¾ L’ “indeterminazione fotometrica”:
la quantità della luce che raggiunge l’occhio è:
L (luminanza) =
r (riflettanza) x
I (illuminazione)
Da questa equazione risulta impossibile stabilire dalla luminanza direttamente la riflettanza (proprietà
dell’oggetto).
55
Questa conclusione è formalmente corretta, ma errata.
¾ Esperimento Gelb (1929):
Apparecchiatura: proiettore, stanza buia, cerchio di cartone.
Un cerchio grigio appare bianco, ma se mettiamo accanto un cerchio più chiaro, appare bianco quest’ultimo
e grigio l’altro.
In condizioni quotidiane prevale la “costanza del colore acromatico”, ma se mancano le condizioni per la
determinazione fotometrica (sotto illuminazione localizzata), si verificano grossolane illusioni.
Conclusioni: il sistema usa, per determinare il colore di superficie, non la luminanza locale, ma i rapporti
tra le varie luminanze e prende come riferimento la luminanza più elevata.
Esempi: Luna, neve/bianco delle case.
¾ Contrasto simultaneo: il grigio su sfondo bianco appare più scuro del grigio su fondo nero. Viene
attribuito a:
- un meccanismo fisiologico: l’inibizione laterale, che accentua il contrasto ai bordi,
- al “filling-in”: fenomeno di riempimento delle zone delimitate da bordi (vedi Anello di Benussi-KoffkaWertheimer)
Prove sperimentali ulteriori suggeriscono che più che il contrasto locale, sia importante l’appartenenza alle
varie unità:
- che danno luogo a fenomeni di luce/ombra (il contrasto si accentua se è disposto sulle facce di un cubo
in prospettiva)
- che creano effetti di trasparenza/sovrapposizione (effetto di tessuto “scozzese”)
L’intero sfondo (≠ zone di confine) circostante una determinata zona fa da schema di riferimento:
fenomeno dell’ “ancoramento al contesto”.
PROPRIETA’ GEOMETRICHE E PERCEZIONE
¾ Nel caso dell’ “indeterminazione radiale” la stessa grandezza può corrispondere a differenti distanze, e
la stessa forma a diverse inclinazioni rispetto all’asse visivo.
Da qui derivano due principi della rappresentazione visiva:
- invarianza forma/inclinazione
- invarianza distanza/grandezza
Regioni identiche sul piano pittorico assumono diversa forma/grandezza, se sono disposte in un contesto a
distanze e inclinazioni diverse .
Questi criteri rispondono a un’esigenza di coerenza dell’immagine visiva con il mondo fisico, nel quale le
grandezze rimangono costanti anche a dispetto di informazioni ottiche molto diverse.
Come queste costanza vengano ottenute, non è ancora chiaro.
¾ L’ “indeterminazione occlusiva”: gran parte dei corpi nel mondo fisico, non lasciano passare la luce,
quindi occludono parti di sé o parti di altri oggetti e determinano il problema dell’organizzazione
figura/sfondo.
Rubin dal 1921 studiò questi fenomeni, prendendo in causa il principio di minimo o di economia.
Dimostrò alcuni effetti:
- Area minore: a parità di altre condizioni, tendono a diventare figure le regioni più piccole
- Costanza di larghezza: a parità di altre condizioni, tendono a diventare figure le parti a larghezza
costante (segno del mulino a vento)
- Orientamento gravitazionale: tendono a diventare figure gli oggetti coerenti con l’orientamento
gravitazionale (nella parte bassa del campo visivo)
- Organizzazione duale: se la configurazione complessiva lo consente il sistema visivo ammette
l’esistenza di un bordo anche se non è segnato. Può essere:
1. stratificata: una figura davanti a un’altra
2. non-stratificata: due figure adiacenti
56
La stratificazione comporta la creazione di contorni:
- modali: che si vedono
- amodali: dati dall’interpolazione delle zone occluse, non si vedono
Petter (1956) ha dimostrato che la tendenza generale è quella di minimizzare i contorni modali (figure).
Un caso speciale di organizzazione duale sono le “figure anomale”, delimitate dai contorni illusori: la più
famosa è il “triangolo di Kanisza”. E’ un caso speciale perché il bianco si scinde in due parti: una fa da
sfondo e una da figura.
Il completamento amodale è un fenomeno tipico e molto diffuso: ha la funzione di costruire e mantenere
l’identità degli oggetti.
OGGETTI
Wertheimer fu il primo a occuparsi delle condizioni per la formazione degli oggetti fenomenici intesi come
totalità indipendenti dalle proprietà degli elementi che li formano.
Formulò una serie di leggi, molto eterogenee e ancora oggi non è chiara la loro sistematizzazione.
Principi di Wertheimer:
- Prossimità
Il sistema visivo collega gli elementi più vicini tra loro.
- Articolazione senza resti
Il sistema tende a formare unità in modo che non rimangano elementi isolati, senza significato.
- Somiglianza
E’ un concetto complesso anche in ambito filosofico: vanno definiti i criteri che usa un sistema per
rendere operativo il concetto di somiglianza.
Esperimento di Beck: sotto attenzione focale, la somiglianza tra le strutture è più importante della
somiglianza di orientamento es. le T sono più simili)
≠ se l’attenzione è distribuita: prevale l’orientamento sulla struttura.
Capitolo 22
LO SVILUPPO SOCIOCOGNITIVO NELL’INFANZIA
(Paola Di Blasio ed Elena Camisasca)
Gran parte delle teorie attuali sullo sviluppo sociocognitivo nell’infanzia si fondano sulla genesi sociale e
interattiva dei processi psichici e sull’idea che tali interazioni vadano intese come attività coordinate in un
insieme unitario e significativo. La psicologia dell’età evolutiva tradizionale non considera questi aspetti,
centrandosi di più sull’ambiente esterno e sui processi ad esso impliciti, come l’allevamento, le modalità di
nutrizione, ecc. Si necessita però di un paradigma che tenga conto dell’interattività per comprendere meglio
aspetti del genitore e del bambino. La relazione non è un obiettivo dello sviluppo, ma una condizione
presente da subito, resa possibile dalla predisposizione dei neonati alla vita sociale. Nella relazione con
l’adulto e poi coi pari, si realizza un costante scambio-adattamento che modifica le risposte del bambino e
dei genitori-coetanei.
¾ Le competenze cognitive e sociali precoci
Fin dalle prime settimane di vita il bambino influenza la vita degli adulti ed è ad essi strettamente
coordinato.
Può identificare una sorgente odorosa e al sesto giorno può riconoscere l’odore della madre.
Fin dalla nascita è sensibile al gusto, tanto da manifestare preferenza per sapori dolci. E’ predisposto a
ricevere ed elaborare informazioni che provengono dall’ambiente, soprattutto se provenienti da voci e volti
umani. Ha preferenza per il volto umano del quale scopre prima i contorni e poi i dettagli interni.
Ha sensibilità percettiva per le espressioni dei volti e a tre mesi, le distingue, rispondendo in modo
appropriato.
L’udito, alla nascita, risulta particolarmente sensibile alla voce umana: la voce materna era nota già dalla
vita intrauterina. Si presuppone l’esistenza di un’organizzazione temporale endogena, che gli permette di
apprendere regole dell’interazione sociale, come l’alternanza dei turni.
57
Nei primi mesi si assiste alla coorientazione visiva, come premessa di ogni interazione; seguono gli pseudodialoghi e infine, verso i 10 mesi, dialoghi veri e propri. Inizia a stabilirsi quindi una relazione con il
caregiver.
Æ nel periodo postatale l’obiettivo principale consiste nel regolarizzare i processi fisiologici fondamentali
per renderli compatibili con le richieste ambientali.
Dai 6/8 mesi, i bambini iniziano a dimostrare timore per l’estraneo: M. Ainsworth ha studiato in strange
situation l’attaccamento. Le reazioni del bambino all’estraneo variano in concordanza con la modalità
interattiva e sono modulate in base alle caratteristiche dell’ambiente circostante.
I genitori maltrattanti Æ accentuano emozioni negative e influenzano negativamente lo sviluppo della
competenza emotiva dei figli, che presentano difficoltà a regolare e comprendere le emozioni proprie e
altrui.
¾ Teorie della mente e comprensione delle intenzioni
Ricerche recenti sulla “teoria della mente”, negli anni 80, hanno contribuito a spiegare sia gli stati di
coscienza (es. credenze, pensieri), sia gli stati intenzionali (es. emozioni, intenzioni)
Def. Originale: teoria della mente Æ capacità di attribuire stati mentali agli altri, dove stati mentali sono
sia le esperienze soggettive emotivamente ricche (es. desiderare qualcosa), sia condizioni più astratte (es.
pensare, credere, ecc)
Secondo Wellman (1990) un bambino:
- a 2 anni Æ psicologia del desiderio
Riescono a rappresentarsi correttamente i desideri e la loro funzione nel modulare il comportamento
umano.
- mentre dai 3 in su Æ psicologia del desiderio-credenza
Cominciano a riferirsi agli stati cognitivi, di ciò che loro od altri sanno, pensano o ricordano. Non si
tratta di rappresentazioni adulte e quindi vere o false, ma di copie fedeli della realtà.
- 4-5 anni Æ il bambino è in grado di rappresentarsi l’altro, come un soggetto con desideri e credenze,
vere o false, rispetto alla realtà esterne e differenti dalle proprie. E’ in grado di risolvere il False belief
taskÆ paradigma sperimentale di Perner (1983), basato sul compito di preveder il comportamento di
un attore o in base alla sua credenza o in base al dato di realtà. E’ a quest’età che si arriva quindi a
formulare una teoria della mente e a capire come diverse percezioni, possano indurre le persone a
interpretazioni diverse.
Dunn (1990) sostiene che la natura dei rapporti intrafamiliari solleciti lo sviluppo delle capacità di intuire
sentimenti e intenzioni delle persone, rapporti di potere e principio di giustiziaÆ è nei rapporti coi fratelli
che i bambini vivono a 2-3 anni le esperienze sociali più intense, comprendendo sentimenti e intenzioni
altrui. A quest’età capiscono che le regole si applicano in modo diverso a persone diverse.
Perner et al. hanno ipotizzato dagli studi di Dunn, che sia il numero di fratelli presenti in una famiglia, sia la
loro differenza di età, possa favorire la capacità di comprendere i pensieri e sentimenti altrui.
Æ poiché i figli unici danno uguali prestazioni, si pensa che le variabili cruciali siano le sollecitazioni
fornite dall’interazione con gli adulti.
¾ Stili di attaccamento e competenze metacognitive e sociali nei bambini
Le relazioni sociali e i modelli mentali del bambino si organizzano a partire dalle prime esperienze affettive
con le figure di accudimento (madre). La rispondenza emotiva tra adulto e bambino sembra l’aspetto che
maggiormente condiziona la qualità del legame tra i due partners.
Ainsworth et al. sono tra i primi esponenti della teoria dell’attaccamento ed hanno individuato tre stili
diversi, presenti già nei bambini di 1 anno:
- attaccamento sicuro Æ rassicurante fiducia nella disponibilità e nell’appoggio dell’adulto: separati
dalla madre, dimostrano sconforto, ma poi esplorano l’ambiente
- attaccamento ansioso-ambivalente Æ madre che richiede il contatto solo quando vuole e non
secondo i bisogni del bambino: separati dalla madre, piangono inconsolabili, non esplorano
l’ambiente e quando la madre torna, dimostrano rabbia e aggressività.
- attaccamento ansioso-evitanteÆ madre completamente insensibile ai segnali del bimbo, che
scoraggia e rifiuta il contatto fisico quando il bimbo sta “male”: separati dalla madre, anche se
58
hanno paura, non dimostrano sconforto. Esibiscono eccesso di autonomia e concentrazione sul
compito. Al ritorno della madre, sono distaccati ed evitano il contatto.
- Attaccamento disorganizzato o disorientatoÆpresentano modalità comportamentali particolari. Si
riscontra in bambini maltrattati fisicamente e/o trascurati, in cui la madre è depressa gravemente o
che soffre di lutti irrisolti.
Strutturazione e mantenimento degli stili di attaccamento Æ attraverso i primi scambi con le figure di
attaccamento significative, l’individuo forma dei modelli operativi interni (working models) sempre più
complessi, sia delle figure di attaccamento, sia di sé stesso. Queste rappresentazioni interne indirizzeranno
poi l’individuo nella interpretazione delle informazioni del mondo esterno e guideranno il suo
comportamento nelle situazioni nuove (es. A. evitanteÆ immagine di sé come di non degno d’amore e della
figura d’attaccamento, come di colui da cui non aspettarsi nulla) Tali aspettative verranno poi estese a tutte
le figure affettive nel corso della vita e determineranno i comportamenti indirizzati ad esse.
Studi recenti hanno evidenziato come la sensibilità del caregiver, influenzi la capacità del bambino di
attribuire stati mentali a sé o agli altri. Rifacendosi a ciò, alcuni autori hanno cercato di individuare le
connessioni tra sicurezza nell’attaccamento e sviluppo delle capacità cognitiveÆ il caregiver sensibile, fa
comprendere al bambino che il suo comportamento può venir meglio capito se fatto risalire a sentimenti ed
idee. Il bambino è visto quindi come avente un proprio stato mentale. Nella formazione del sé riflessivo
(Fonagy), ovvero del sé che comprende la consapevolezza dei propri stati mentali, è decisiva la capacità del
caregiver di catturare gli aspetti dell’attività del bambino e aggiungervi una “intentional stance”.
Bambini di 2-3 anni con attaccamento sicuro, rispetti a quelli con attaccamento insicuro, sono più socievoli
e fiduciosi, competenti nel risolvere problemi o conflitti sociali e si appoggiano efficacemente agli
insegnanti usandoli come risorse.
Gli insicuri-evitanti non mostrano il loro stato emotivo, soprattutto quando ne hanno bisogno, sono isolati e
ostili e dimostrano una crescente prudenza verso gli altri e la tendenza a percepire le relazioni sociali come
minacciose. Risultano essere più timorosi di subire privazioni, più sensibili a critiche e ironia, permalosi e
con atteggiamenti di vittimismo verso gli altri.
Negli incontri con più figure di attaccamento, i primitivi working models evolvono nel tempo, anche per la
necessità di integrare nuove esperienze relazionali.
¾ Il comportamento Prosociale
Già nei primi due anni di vita compaiono quelle capacità empatiche (precursori dell’altruismo), che
consentono di percepire il disagio altrui e reagirvi con risposte tese ad alleviare la sofferenza.
Con l’aumentare dell’età si suppone che si affini nel bambino la comprensione dei bisogni altrui, favorendo
la tendenza a condividere e prestare aiuto. La connessione tra età e comportamento d’aiuto sembra però
meno forte di quella tra età e generosità. Il comportamento d’aiuto richiede infatti una serie di operazioni
complesse, che possono interferire con l’attivazione dell’azione altruistica.
Ricerca di Staub Æ tendenza dei bambini a non rispondere alle invocazioni d’aiuto: forse perché
l’altruismo entra in conflitto con le paura della disapprovazione dell’adulto.
Tra le condizioni che possono favorire o inibire il comportamento prosociale è il positivo valore dato alle
pratiche educative, alle esperienze familiari e all’atteggiamento dei genitori: uno stile educativo basato sulla
tendenza a dare spiegazioni, a usare il ragionamento, più che le punizioni, costituisce un fattore facilitante il
comportamento altruistico e la comprensione delle esigenze altrui.
¾ La relazione con i coetanei
Fin dalla prima infanzia i bambini dimostrano di avere preferenze nella scelta dei compagni, che si
consolidano in vere e proprie amicizie, caratterizzate sia dalla ricerca di prossimità, condivisione e
reciprocità, sia da conflitto (sul possesso e uso degli oggetti) e competitività. Gli amici di 2-4 anni tendono
a stabilire un contatto fisico, mentre i bambini più grandi, un contatto verbale. Il comportamento prosociale
tra amici tende a produrre azioni positive più consistenti, come donare, condividere e produrre gesti di
intimità: quindi solo alcuni tipi di azione (aiuto e conforto) possono essere considerati tipicamente
prosociale, poiché gli altri (dare e gesti d’intimità) sono indicatori di amicizia.
59
La relazione amicale rappresenta un fattore determinante che attiva facilmente una sensibilità emotiva più
spiccata e interventi prosociale più frequenti.
Capitolo 23
LA VALUTAZIONE DELLO SVILUPPO
(Marta Montanini Manfredi e Paola Corsano)
La valutazione è un processo attraverso cui si descrive il cambiamento nel tempo di un individuo rispetto a
una dimensione evolutiva.
Il punto di partenza è costituito dalla definizione precisa degli obiettivi da perseguire:
- obiettivi di tipo normativo Æ stabilire la normale progressione dei cambiamenti nel tempo per
individuare, rispetto alla popolazione standard, quali comportamenti sono caratteristici di un’età.
Metodologia: ricerca logintudinale (stesso sogg nella crescita) o trasversale (gruppi di età diverse
ma equivalenti per altre variabili). Si possono unire entrambi gli approcci, analizzando gruppi di età
differenti in modo sequenziale.
- obiettivi di tipo applicativo Æ in questo ambito c’è maggior diffusione della valutazione dello
sviluppo: deve essere basata su un esame in profondità effettuato sul caso singolo.
Metodologia: può avvalersi di metodologie collaudate, come l’osservazione diretta e indiretta, i test
e gli strumenti standardizzati.
Una volta definiti gli obiettivi della valutazione, bisogna individuare gli strumenti. Esiste una relazione tra
ipotesi teoriche sullo sviluppo in generale e le rispettive modalità di valutazione di esso:
- prospettiva organismica-contestuale (piaget e neopiagetiani) Æ uomo è organismo attivo e
competente che si costruisce ed è costruito. Si può usare l’osservazione, il metodo sperimentale o il
colloqui clinico piagetiano.
- prospettiva ermeneutico-comprendente (teorie psicoanalitiche) Æ l’individuo costruisce una “sua
storia”, dalla cui interpretazione si può estrapolare un racconto tipico e costruire una casistica. Si
possono usare il colloquio clinico psicoanalitico, ma soprattutto l’osservazione psicoanalitica.
Parallelamente alle varie prospettive teoriche, c’è una divergenza sullo sviluppo come processo continuo o
discontinuo.
¾ Quale sviluppo?
Lo sviluppo è un processo interattivo e multifattoriale che si svolge nel tempo e che si estende dalla nascita
fino alla morte. La recente prospettiva life-span ha individuato in ogni fase del ciclo di vita la possibilità di
sperimentare cambiamenti positivi. Non tutte le età sono state ugualmente indagate: l’infanzia è stata
privilegiata, insieme all’aspetto cognitivo. Negli ultimi anni sono state condotte numerose ricerche sul
temperamento e sul periodo neonatale.
Per lo sviluppo fisico o cognitivo è più facile individuare una progressione continua, anche se “per salti”,
con una quota innegabile di discontinuità, nella direzione di una sempre maggiore maturità (livelli diversi di
sviluppo quantificabili). Per le dimensioni evolutive di tipo sociale invece non è sempre agevole la
misurazione: questo tipo di valutazione non mira a quantificare o collocare un soggetto rispetto alla
sequenza considerata normale, ma di comprendere come i diversi fattori individuali, relazionali e culturali
si combinano nella competenza sociale.
¾ Valutazione del neonato
Uno strumento di valutazione neonatale dovrebbe avere elevato potere diagnostico e prognostico e
dovrebbe consentire di monitorare tutte le situazioni definite “a rischio”: subito dopo la nascita vengono
effettuate diverse procedure finalizzate a valutare lo stato di salute del bambino (indice Apgar). Per una
valutazione neurologica del neonato lo strumento più usato è l’esame di Prechtl e Beintema.
Le scale neurocomportamentali comprendono prove sia neurologiche sia comportamentali. La più utilizzata
è quella di Brazelton, nota come NBAS, somministrata nel primo mese di vita: valuta le abilità interattive
del neonato, il suo comportamento sociale e di sollecitare nel caregiver un’interazione adeguata.
¾ Intelligenza: come valutarne lo sviluppo?
Permangono modalità differenti di considerare e valutare l’intelligenza:
60
modello piagetiano Æ cerca principi generali, l’approccio è qualitativo e privilegia la discontinuità
dello sviluppo (es Scale ordinali di Uzgiris e Hunt, EPL e BAS)
- modello psicometrici Æ cerca differenze individuali, l’approccio è quantitativo e interessato a
rilevare la continuità evolutiva (es WAISS) Sono moltissimi i test costruiti a partire dalla scala di
Binet e Simon, per valutare l’intelligenza. Vengono classificati in due gruppi:
- misurano un’abilità mentale generale (fattore G dell’intelligenza) Æ WAISS
- misurano una serie di abilità specifiche, individuate mediante l’analisi fattoriale
Negli ultimi anni Sternberg cercò di spiegare l’intelligenza tramite il modello triarchico (1984): tale
approccio supera la divergenza tra continuità e discontinuità nello sviluppo, individuando la prima a livello
di prestazioni (componenti) e la seconda a livello delle funzioni di controllo (metacomponenti). I tre distinti
processi possono essere valutati con test che valutano le prestazioni dei soggetti in relazione al contesto e
alla precisa situazione in cui l’individuo si trova Æ i soggetti si differenziano rispetto alla loro capacità di
utilizzare dati offerti dal contesto ed elementi della propria esperienza.
¾ La valutazione della personalità e dello sviluppo socioaffettivo
Si sta affermando un nuovo approccio allo studio della personalità che rivaluta la nozione di temperamento
e che tenta di valutarlo. La definizione più credibile di temperamento è in termini di “stile
comportamentale” Æ differenze individuali nel comportamento del bambino, caratteristiche presenti dalla
nascita, permettono di ipotizzare stili comportamentali diversi che influenzerebbero fortemente le modalità
allevanti della madre o del caregiver.
Uno sviluppo positivo del bambino è garantito dalla goodness of fit e cioè, una perfetta concordanza tra le
caratteristiche del bambino e le aspettative e le risposte dell’ambiente.
Le dimensioni rispetto alle quali i bambini differiscono già alla nascita sono: livello di attività, regolarità
delle funzioni biologiche, ritirata o approccio a stimoli nuovi, adattabilità, soglia sensoriale, umore
prevalente, intensità delle reazioni, distraibilità e persistenza. Queste dimensioni permettono di individuare
tre categorie di temperamento: bambino facile, bambino difficile e bambino lento a scaldarsi. Oltre ai test e
questionari, nella ricerca viene usata l’osservazione.
-
Capitolo 24
LA MEMORIA : PROCESSI, MECCANISMI E FATTORI DELLO SVILUPPO
(Olimpia Pino)
ƒ La memoria che presuppone l’intenzione di ricordare è chiamata: strategica; quella che si verifica senza
intenzione: automatica.
Con il processo evolutivo dovrebbero evolvere le strategie e quindi evidenziarsi differenze solo nella
memoria strategica e non in quella automatica (questa distinzione è molto popolare, anche se dubbia).
ƒ Riferimento al modello di Memoria di Tulving, in particolare alle relazioni tra memoria e
consapevolezza:
Episodica → Autonoetica Ægestisce la ritenzione di episodi o eventi specifici, sperimentati personalmente
Semantica o generale → Noetica Æconoscenza del mondo posseduta da un soggetto
(Procedurale → Anoetica)
Tulving (1985) ha insistito molto sulla differenza tra ricordare (esperienza autonoetica) e sapere
(esperienza noetica).
Perlmutter (1988) distingue tra:
a) conoscenza epistemica (conoscenza del mondo: semantica ed episodica)*
b) conoscenza operativa (procedure, abilità e strategie, anche di memoria)
c) conoscenza metacognitiva (conoscenza sul funzionamento della memoria)*
* bambini avranno prestazioni più scarse rispetto ai sogg adulti, poiché non possono correlare gli eventi a
esperienza personale.
ƒ Memoria:
retrospettiva: che si riferisce alle cose fatte
prospettica: che si riferisce alle cose da fare
61
Questa distinzione è di interesse recente, perché interessa abilità e fenomeni della vita quotidiana più che
del laboratorio.
ƒ Memoria implicita ed esplicita:
Memoria autobiografica: assume un’importanza soprattutto applicativa, in psicologia giudiziaria, per
questo è importante attualmente.
a- Diverse forme di memoria, se veramente distinte, richiedono procedure diverse di indagine e sollevano
problemi metodologici diversi: le memorie prospettica e autobiografica pongono problemi metodologici per
quanto riguarda lo studio con i bambini, per questo sono poco studiate.
b- Alcune forme di memoria hanno guadagnato maggior interesse da parte degli studiosi, come la memoria
strategica, episodica e retrospettiva.
Negli anni ’70 e ’80, la memoria è stata descritta in base a due deficit nei bambini: deficit di mediazione e
di produzione. Quindi si sono molto studiate le strategie, il loro sviluppo e il modo di migliorarle.
Negli anni ’90 si sono ampliati gli studi a carattere “ecologico” e si è giunti a considerare lo sviluppo della
memoria un processo interattivo, di adattamento all’ambiente, che considera come fattori determinanti per
la prestazione: il contesto, lo stato del soggetto, il livello di sviluppo, le differenze individuali.
Strategie e base di conoscenza: che cosa si sviluppa?
Def. strategie: attività cognitive o comportamentali, appropriate al compito, attivate sotto controllo
intenzionale e consapevole del soggetto, al fine di migliorare il ricordo.
→ Esistono anche processi automatici e inconsapevoli che aiutano il ricordo!
C’è un sostanziale accordo tra i ricercatori sul fatto che nell’infanzia le strategie, quando ci sono, sono
limitate: il comportamento mnesico abitualmente manifestato dai bambini non è strategico, e può diventarlo
solo se il contesto favorisce la messa in atto di strategie.
Si ritiene che lo sviluppo aumenti l’ efficienza di elaborazione , per tre ordini di fattori:
1. aumentano le abilità di codifica che influenza il grado di accessibilità dei concetti;
2. emerge l’organizzazione automatica degli stimoli(individuare relazioni tra eventi);
3. aumenta la capacità di utilizzare le strategie mnesiche.
L’organizzazione degli eventi-stimoli nell’infanzia si basa su tre classi di relazioni, che compaiono in modo
diverso al variare dell’età :
Relazioni associative:
- due o più eventi che spesso si presentano insieme
- per lo più automatiche
- si formano dall’esperienza diretta.
→ Memoria Autobiografica
Relazioni schematiche:
- gli eventi si collocano in successioni causali o spazio-temporali
- gli eventi sono associati per appartenenza al medesimo “script” o routine
- si formano dall’osservazione dell’esperienza
→ Memoria Episodica
Relazioni categoriali:
- gli eventi sono membri della stessa categoria tassonomica
- gli eventi si associano per relazioni orizzontali di generalizzazione
- si formano dalle generalizzazioni sulle conoscenze del mondo attraverso etichette
→ Memoria Semantica
Sembra che lo sviluppo consista nell’aumento della facilità con cui queste categorie sono attivate.
62
Negli ultimi 10 anni, è considerato particolarmente importante per lo studio dello sviluppo della memoria, il
concetto di contesto ambientale, diviso in:
- contesto esterno all’organismo Æ caratteristiche del materiale e del compito sperimentale
- contesto dell’organismo (stato)Æ es. ritardo mentale, demenza senile, ansia e depressione
Sono scarse le conoscenze sulle origini delle strategie, particolarmente negli anni prescolari.
Schneider e Sodian (1991) hanno studiato le origini e lo sviluppo delle strategie, con uno studio quasi
longitudinale: due misurazioni a 4 e a 6 anni.
Gli aiuti di memoria “interni” non bastano a spiegare tutti i possibili comportamenti strategici della vita
quotidiana (anche in un adulto!).
Gli autori hanno dimostrato che le strategie esterne(es. indicare, toccare) giocano un ruolo fondamentale
nello sviluppo cognitivo e che possono essere i precursori delle strategie interne.
Lo studio della metamemoria si è distinto in due direzioni di ricerca:
- esaminare la relazione diretta della metamemoria con la memoria
- esaminare le differenze evolutive nei contenuti della metamemoria
E’ degli anni ’90 lo studio della “memoria quotidiana” (everyday memory) in contesti naturali, ma con
l’attenzione al rigore del metodo sperimentale.
Sono emersi tre importanti aspetti della memoria autobiografica:
- vi sono lacune di conoscenza (che non sempre si coprono con l’uso di strategie)
- non si può “sfogliare”: l’organizzazione dei dati non è disposta linearmente nel tempo
- l’apparente oblio di determinati episodi è superabile con suggerimenti adeguati
I ricordi colmi di emozione sono percepiti come più vividi, ma non è detto che siano più completi o chiari,
spesso sono ricostruiti sulla base di inferenze logiche.
Memoria autobiografica nei bambini:
- alcuni autori sostengono che i bambini in tenera età posseggono maggiormente conoscenze generali che
non episodiche
- non discriminano tra eventi immaginati ed eventi reali (carenza nell’esame di realtà)
- l’amnesia infantile rende inaccessibili i ricordi dei primi anni di vita, forse perché i bambini preverbali
hanno un vissuto che non può essere agganciato dai meccanismi di recupero mnesico di un adulto.
La maggior parte delle reminescenze autobiografiche sembra attendibile se ci si limita a ricordare gli eventi
generali (non essendoci intenzionalità nel ricordare, non c’è precisione dei dettagli).
La relazione tra emozioni e ricordo è stata studiata facendo ricorso soprattutto ai modelli a rete: le emozioni
corrispondono a nodi, che con il tempo sviluppano connessioni. Un’esperienza emotiva può legarsi a un
evento (che avviene nello stesso momento) connotandolo. La possibilità di ricordare un evento può
dipendere quindi anche dal contesto interno dell’individuo.
Questa teoria spiega:
- perché la coerenza tra stato d’animo nel momento dell’apprendimento e nel momento del recupero
facilita il ricordo: l’emozione fa da cue per il recupero (teoria della specificità di codifica)
- perché la memoria è facilitata se il significato emotivo degli eventi coincide con lo stato d’animo del
soggetto.
63
Capitolo 25
INVECCHIAMENTO BIOLOGICO E PSICOLOGICO
(M e G Cesa-Bianchi, Pravettoni)
Per invecchiamento o senescenza si intende il processo attraverso il quale si diventa vecchi, modificandosi
in alcune caratteristiche personali.
Dal punto di vista biologico non è possibile stabilire un dato che contrassegni l’inizio dell’invecchiamento
(la cessazione dell’attività riproduttiva è troppo variabile).
Il sistema nervoso è stato maggiormente studiato allo scopo di scoprire quali modificazioni intervengono
nel processo di invecchiamento:
- diminuzione irreversibile del numero di neuroni
- rallentamento nella produzione di certi neurotrasmettitori
- funzionamento meno efficace dei meccanismi di regolazione
- aumento progressivo delle cellule gliali
- comparsa di placche
- progressivo irrigidimento nelle pareti dei vasi sanguigni
Le esperienze individuali facilitano la conservazione di determinate funzioni e l’attenuazione di altre: sono
conservate le funzioni maggiormente utilizzate nel corso della vita, mentre decadono quelle scarsamente
esercitate.
¾ Percezione
Nell’invecchiamento c’è una progressiva diminuzione delle abilità visive e acustiche. Facilitano un buon
funzionamento in vecchiaia della percezione visiva:
- teoria del campo percettivo Æ la percezione si realizza come espressione di un campo collocato nel
nostro cervello in cui operano forze di coesione e freno. Un aumento delle forze centrali di coesione
rispetto a quelle periferiche di freno, rende la percezione migliore, poiché più espressione del
cervello e meno delle sensazioni.
- persistenza della costanza percettiva Æ capacità di non modificare la percezione visiva anche se
variano le modalità fisiche con cui l’oggetto viene presentato.
- Teoria del filtro Æ fra le migliaia di stimoli che pervengono agli organi di senso, possono
raggiungere i centri del cervello solo alcuni, che riescono a bypassare il filtro. In vecchiaia, il filtro
diviene più selettivo, quindi passano meno stimoli, ma risultano più precisi.
Nell’anziano peggiora la percezione dei particolari, ma non la percezione globale di un oggetto.
¾ Attenzione
Le caratteristiche che la contraddistinguono sono:
- arousal Æ livello di soglia
- capacità dei meccanismi attentivi Æ quantità di informazione elaborabile in parallelo
- capacità di essere selettivi Æ ignorare alcune informazioni e considerarne altre
Il nostro sistema di elaborazione è limitato.
Studi sull’effetto Stroop dimostrano che esso aumenta negli anziani a causa di una ridotta efficienza del
sistema percettivo.
Studi sull’attenzione fluttuante, indica difficoltà negli anziani, dovuta all’incapacità di mantenere in standby uno stimolo.
¾ Linguaggio
E’ una delle funzioni che risente meno dell’invecchiamento. Sono più frequenti errori sintattici e
grammaticali, specialmente in frasi complesse che richiedono un maggior uso della memoria a breve
termine. La comprensione lessicale risulta conservata, così come la comprensione superficiale di un brano.
¾ Affettività e adattamento
Vi è una riduzione dell’intensità soggettiva dell’affettività, che corrisponde a una diminuzione della sua
espressività, riconducibile all’accresciuta capacità di rappresentazione simbolica degli affetti.
La vita affettiva si viene caratterizzando da minori emozioni positive. Il disadattamento in età senile (fra i
60 e 70 anni) può essere scatenato da un pensionamento forzato e condurre a depressione e isolamento.
¾ Sessualità e Creatività
64
Può essere mantenuta, soprattutto la psicosessualità. In media l’efficienza sessuale, in persone sane, è
mantenuta fino a 70-75 anni, a meno che non intervengano condizionamenti culturali e sociali, che
inibiscano tale funzione.
Lo svolgimento di un’attività creativa può facilitare e regolare l’andamento dell’invecchiamento.
Capitolo 26
I PROCESSI COGNITIVI NELL’INVECCHIAMENTO NORMALE E PATOLOGICO
(Amoretti)
Le ricerche psicologiche sull’invecchiamento sono iniziate con lo studio del rapporto tra età e intelligenza e
sono state favorite dall’applicazione su larga scala dei reattivi, durante la prima guerra mondiale in USA.
Modello del declino intellettuale globale: Yerkes confrontando i risultati tra gruppi di età diversa sostenne
che il declino intellettuale inizia a partire dai 30 anni di età. Le ricerche di Wechsler confermarono il
modello. Le prime critiche al modello giunsero dall’applicazione delle tecniche di analisi fattoriali ai
reattivi e dal riconoscimento dell’importanza del fattore “istruzione” nelle prestazioni dei test cognitivi.
¾ Intelligenza fluida e cristallizzata
Una rettifica alla teoria del declino intellettuale globale giunse dalle ricerche di Horn e Cattel e dalla loro
ricerca su intelligenza fluida e cristallizzata:
- Intelligenza fluida Æ riguarda i processi base dell’informazione e della soluzione di problemi (es.
velocità di organizzazione, memoria associativa, ecc)
- Intelligenza cristallizzata Æ collegata alla dimensione socioambientale e culturale ed è influenzata
da fattori educativi
La senescenza è caratterizzata da un deterioramento delle abilità fluide e da una sostanziale stabilità di
quelle cristallizzate.
¾ Il contributo degli studi longitudinali
Il modello del declino intellettuale globale è stato messo in dubbio anche da Arenberg: utilizzando compiti
tradizionale di problem solving esaminò soggetti compresi tra 24 e 87 anni a intervalli di 6 anni. Con
confronti trasversali emerse un aumento degli errori con l’avanzare dell’età. Analizzati longitudinalmente si
osservò un declino solo a partire dai 70 anni.
Ha sottolineato l’importanza, nello sviluppo delle attività cognitive, della dotazione intellettuale di
partenza. Il Seattle Longitudinal Study (Schaie e coll.) diede il via a rinnovamento nella ricerca
sull’invecchiamento Æ fondatori della life-span psychology, hanno sviluppato modelli di studio
dell’invecchiamento inteso come processo di cambiamento.
Un filone di ricerca sviluppatosi negli anni 70 è costituito dalle ricerche-intervento: si distinguono in
training cognitivi e training non cognitivi.
Una grossa mole di dati ha dimostrato sostanziali differenze interindividuali nello sviluppo (es. istruzione,
anno di nascita, ecc) e una considerevole variazione nei ritmi di crescita e declino delle singole abilità Æ i
cambiamenti involutivi dell’età sono legati a complessi eventi ambientali (senescenza biologica = processo
discontinuo e individualizzato).
Denney suddivide le abilità intellettive in due gruppi distinti: abilità poco esercitate e abilità ottimizzate.
Entrambe raggiungono l’apice del loro sviluppo nella prima età adulta per poi iniziare a declinare.
Baltes e col. Sostiene che l’intelligenza ha due aspetti:
- uno meccanico-psicometrico (formale) Æ risolvere i problemi svincolati dai contenuti appresi
- un aspetto pragmatico (di contenuto), chiamato expertiseÆ abilità acquisite e capacità di rispondere con
efficacia ai problemi concreti e specifici.
¾ La memoria
Lo studio dell’apprendimento e della memoria è iniziato con Ebbinghaus, ma le ricerche sull’età delle
capacità mestiche hanno origini recenti. I motivi di questo ritardo sono:
- predominio della teoria del declino intellettuale globale
- avvento dell’orientamento HIP
65
Non esistono oggi teorie d’insieme che si riferiscano allo sviluppo mnestico nel corso della vita: i dati sono
contraddittori e variano secondo il materiale usato.
L’invecchiamento è caratterizzato dall’accentuarsi di una serie di cambiamenti che interessano il sistema
nervoso centrale. Fra i 20-25 anni c’è il massimo sviluppo delle abilità mestiche, che cominciano a
declinare con la terza decade. E’ stata proposta anche l’ipotesi del massimo adolescenziale con un picco
massimo delle abilità tra i 13 e i 20 anni.
Welford ipotizzò che il declino mestico fosse dovuto alla mancanza d’esercizio, al disuso delle funzioni
mestiche. Postulò anche l’ipotesi di interferenza (interferenza proattiva sulla memoria a breve termine che
ne causa deficit)
Gli studi degli anni 70 si focalizzarono sull’importanza della velocità Æ allungando il tempo di prestazione
e di risposta, le prestazioni di soggetti di qualsiasi età vengono migliorate.
La maggior parte delle ricerche non ha messo in evidenza riduzioni significative delle capacità del registro
sensoriale: la memoria iconica sarebbe più persistente nell’anziano. La tendenza degli anziani a fornire
prestazioni analoghe ai giovani nei compiti di riconoscimento è data dal fatto che le difficoltà mnestiche
degli anziani sono a livello di recupero dell’informazione e non a livello di codifica.
Deficienza di produzione Æ anziani sono meno abili dei giovani nell’uso spontaneo di strategie efficaci di
memorizzazione. Questa teoria è stata formulata in due versioni:
- deficit di ricerca: anziani hanno difficoltà nella formulazione spontanea di strategie efficaci
- profondità dell’elaborazione: gli anziani non raggiungono la codifica profonda (semantica)
Il ruolo delle conoscenze metamnestiche determina le differenze giovane-anziano: nell’anziano,
l’esperienza di fallimenti, può dare origine a convinzioni di impotenza e caduta dell’autostima.
Il contributo di fattori affettivo-motivazionali al deficit mnestico negli anziani è stato rilevato sia
sperimentalmente che con metodi ecologici: avere fiducia e alta motivazione sono connesse con buona
conservazione della memoria.
Il deficit mnestico senile è spiegabile ipotizzando che l’informazione passi per tre fasi:
acquisizione:
• lo stimolo deve essere percepito (la vecchiaia ha difficoltà percettive)
• la ridotta velocità senile, determina una riduzione del materiale acquisito
• l’attenzione selettiva non sembra declinare con l’età
codifica
• riduzione della capacità di working memory
• difficoltà strategiche
• problemi metamnestiche
recupero
• ridotte prestazioni della MLT
• ridotta quantità di materiale appreso
• problemi nel ricordo soprattutto dopo i 70 anni
Per ciò che concerne l’invecchiamento patologico, la senilità può essere caratterizzata da demenza. La
demenza si divide in sottocorticale e corticale.
Capitolo 27
CAMBIAMENTI EVOLUTIVI IN ADOLESCENZA
(Cigala, Zammuner)
Verso la fine dell’800 emerge un’idea biologica di adolescenza: Hall sostiene che il rinnovamento totale
della personalità che avviene in questo periodo è determinato biologicamente ed è quindi indipendente da
variabili culturali e ambientali. A questo si è aggiunta la prospettiva antropologica che evidenzia il ruolo
determinante della cultura e studi di derivazione sociologica.
Con la psicoanalisi, la psicologia si è focalizzata più sui cambiamenti interiori dell’adolescente. Un altro
contributo viene dalle teorie cognitive, che provano a spiegare le modalità di pensiero e acquisizione della
conoscenza. In ultimo l’apprendimento sociale di Bandura ha evidenziato i meccanismi attraverso i quali in
66
adolescenza lo sviluppo è condizionato da stimoli ambientali. I cambiamenti nel pensiero dell’adolescente
permeano lo sviluppo affettivo e sociale dell’adolescente: secondo Piaget l’intelligenza è una forma di
adattamento all’ambiente, che si modifica nel tempo organizzandosi in strutture più complesse.
Autori neopiagetiani reinterpretano le teorie piagetiano alla luce delle teorie dell’elaborazione
dell’informazione Æ gli individui sono solutori di problemi che elaborano le informazioni per mezzo di
piani mentali attraverso cui si rappresentano una soluzione problematica.
Erikson Æ compito principale dell’adolescenza è acquisire un’identità autonoma. I cambiamenti spingono
l’individuo a una ridefinizione del proprio sé rispetto agli altri. Si passa da uno stato di diffusione
dell’identità (sperimentazione e identificazione) a uno di acquisizione dell’identità.
I cambiamenti che vive l’adolescente con la loro conflittualità, si esprimono nella famiglia: separazione
reciproca, individuazione correlata Æ rinegoziazione delle distanze interpersonali.
Capitolo 28
PSICOLOGIA DELLA FAMIGLIA
(Cusinato)
Vengono utilizzate nell’approccio alle famiglie, due prospettive teoriche:
- scuola umanistica, cognitiva e comportamentale Æ individuo è il centro della realtà familiare.
- metafora dei sistemi Æ ogni membro è influenzato da ogni altro membro della famiglia.
Studiamo quindi le relazioni all’interno di una famiglia, cioè come ciascun membro si relaziona alla
famiglia e al terapeuta.
Si indagano gli antecedenti della relazione disfunzionale familiare (es. figlio malato, madre depressa) Æ ci
sono effetti multidirezionali (feedback loop) fra i membri della famiglia, dove ognuno ha influenza ed è
influenzato da ciò che ogni altro dice o fa.
L’Abate costruisce una teoria evolutiva delle relazioni familiari riassumibile in:
- continuum sentire dentro-esprimere Æ da come le informazioni vengono elaborate ed espresse in casa,
possiamo capire se la famiglia funziona o no. Le informazioni percepite vengono gestite lungo un
continuum a cinque modalità:
- emotività Æ competenza della famiglia di trattare i sentimenti
- razionalità Æuso della famiglia delle proprie competenze cognitive e logiche per elaborare
l’emotività
- attività Æquanto una famiglia sia attiva o passiva nell’esprimere ciò che ha ricevuto
- consapevolezzaÆmodalità correttiva di cambiamento determinata dal livello di coscienza
e ammissione circa ciò che la famiglia è disposta e capace di rivelare
- contestoÆ modalità con cui la famiglia interpreta il problema, caricando più o meno la
famiglia stessa della responsabilità
La buona stella permette di evidenziare la dimensione degli aspetti.
- livelli di analisi:
- 1°. va valutato come un individuo funzioni, come influenzi e come sia influenzato dagli
altri
- 2°. Valutazione della diade (padre-figlio,fratello-fratello,ecc)
- 3°. Valutazione della dimensione delle proprietà di gruppo 8come ogni membro è
influenzato e influenza gli altri)
- 4°. Valutazione parentale: famiglie di origine
- 5°. Valutazione di comunità: come la famiglia si comporta con parenti e vicini.
- livelli di interpretazioneÆ livello descrittivo (presentazione e fenotipico), livello esplicativo (genotipico
e storico)
- continuum di somiglianzaÆ tre modalità relazionali che rappresentano ciò che viene scambiato fra i
membri della famiglia: essere (come una famiglia attribuisce importanza ai suoi membri e quanto siano
67
intimi fra loro), Fare (quante informazioni e servizi vengono scambiati in famiglia) e avere (come il
denaro e i beni sono procurati valutati e tenuti in famiglia).
68