la mente del consumatore

annuncio pubblicitario
A

Mario Graziano
LA MENTE
DEL CONSUMATORE
INTRODUZIONE AL NEUROMARKETING
L'opera usufruisce del contributo dei fondi relativi al Progetto di Ricerca
PRIN anno 2007 dal titolo “Filosofia e naturalizzazione del mentale.
Nuove prospettive sulla conoscenza e la natura umana"
(Unità locale dell'Università degli Studi di Messina).
Copyright © MMX
ARACNE editrice S.r.l.
www.aracne–editrice.it
info@aracne–editrice.it
via Raffaele Garofalo, 133/A-B
00173 Roma
(06) 93781065
ISBN
978-88–548–3201–5
I diritti di traduzione, di memorizzazione elettronica,
di riproduzione e di adattamento anche parziale,
con qualsiasi mezzo, sono riservati per tutti i Paesi.
Non sono assolutamente consentite le fotocopie
senza il permesso scritto dell’Editore.
I edizione:Lussografica, Caltanissetta 2008
II edizione: febbraio 2010
Indice
Introduzione
p.
7
I. Scienze cognitive e neuroeconomia
1.1. Cosa sono le scienze cognitive
11
1.1.1. La neuropsicologia classica, p. 12 - 1.1.2.Le tecniche di
visualizzazione cerebrale, p. 17 - 1.1.3. I limiti delle tecniche, p. 19
1.1.4. La modularità, p. 22 - 1.1.5. Il cervello automatico, p. 25
1.2. La neuroeconomia
28
1.2.1 Utilità e substrato cerebrale umano, p. 31
II. Il Neuromarketing
2.1. Le neuroscienze del consumatore
2.2. La preferenza e il neuromarketing
35
37
2.2.1.La preferenza per le automobili, p. 42 - 2.2.2. Non solo oggetti:
la preferenza elettorale, p. 45
.
2.3. Vendesi emozioni
2.4. Il ruolo della corteccia prefrontale
52
62
III. Il marketing
3.1.Cosa manca al neuromarketing: il marketing
3.2.La percezione
67
69
3.2.1. La percezione subliminale e il marketing, p. 72
3.3. I concetti
75
3.3.1. Domini e frames, p. 78
3.4. Concetti e frames nel marketing
5
82
6
Indice
IV. La ricerca motivazionale
4.1. I bisogni dei consumatori
4.2. Le scale per misurare gli atteggiamenti
4.3. Misure esplicite e misure implicite
89
91
95
4.3.1.Le misure implicite nel marketing, p. 99
4.4. Il potere predittivo delle metafore
103
4.4.1.La metafora nella linguistica, p. 105 - 4.4.2.La teoria
comparativa e quella interattiva, p. 107 - 4.4.3.La metafora
come evento del pensiero, p. 109
4.5. Manager o psicoterapeuta?
114
V. Una possibile sintesi
5.1.Teorie normative e descrittive della decisione
5.2.La teoria dei giochi
5.3.Teoria dei giochi e neuroscienze
5.4. Le emozioni
119
122
125
127
5.4.1. Scienze cognitive ed emozioni, p. 129 - 5.4.2. La valutazione
dell’emozione, p. 131 - 5.4.3. L’ipotesi di polarità, p. 136
5.5. Il ruolo delle emozioni nelle decisioni economiche
5.6.Teoria dei giochi e teoria della mente
139
143
5.6.1. Il test di falsa credenza, p. 145
5.7. ToM e Neuroeconomia
151
Bibliografia
157
Introduzione
Il sogno ricorrente del responsabile marketing di un’azienda è sempre
stato quello di riuscire a prevedere, con precisione, il comportamento
del consumatore di fronte ad una nuova campagna pubblicitaria, ad un
nuovo prodotto; sapere se il nuovo spot ha in sé gli elementi giusti per
funzionare, riuscire ad indirizzare l’azienda senza errori, raggiungere
gli obiettivi preposti con la minima dispersione di risorse. Negli anni
Ottanta, molti autori hanno studiato le condizioni che fanno sì che
un’azienda possa raggiungere con successo questi obiettivi. Ad esempio, Tom Peters e Robert Waterman hanno intervistato 43 imprese con
lo scopo di individuare i fattori determinanti del loro successo. I risultati ottenuti sono stati successivamente presentati nel libro Alla ricerca dell’eccellenza, il libro di marketing più venduto di tutti i tempi.
I due autori riscontrarono come principio determinante, alla base del
successo delle imprese studiate, la precisa attitudine a motivare i propri dipendenti a considerare la qualità ed il valore dei propri clienti.
Nel 1986, Frank Rodgers, direttore centrale marketing dell’IBM, pubblicò il libro Il metodo IBM, in cui viene descritto come questa importante azienda traduca in pratica il principio secondo cui “il cliente è
re”. Tutto ciò che ha formato oggetto della pubblicistica aziendale in
quegli anni negli Stati Uniti, la formulazione delle strategie, lo sviluppo di sistemi informativi per il management, le tecniche di realizzazione, si dimostrò di rilevante importanza poiché si continuò a tenere
conto di una condizione fondamentale: l’orientamento al cliente. Da
questo punto di vista diviene fondamentale chiedersi come i consumatori rispondano ai diversi stimoli di marketing che un’impresa è in
grado di proporre loro.
Un’impresa, infatti, in grado di capire e prevedere correttamente
come i propri consumatori possano rispondere alle differenti versioni
del prodotto, ai diversi livelli di prezzo, a campagne pubblicitarie alternative, riuscirà ad avere un rilevante vantaggio competitivo sui
concorrenti. Nonostante queste considerazioni, nel nostro Paese
l’attenzione verso il comportamento del consumatore è stata posta
solo di recente e decisamente dopo la nascita del marketing propriamente inteso. Mentre negli Stati Uniti, dove è nata questa disciplina,
esiste un certo equilibrio fra gli studi di marketing e quelli sui consu7
8
Introduzione
matori, in Italia in ambito scientifico-disciplinare, questa pratica non è
ugualmente diffusa. Ciò che risulta abbastanza curioso è rilevare come, in Italia, i primi esempi di studi di marketing risalgono ai primi
anni Trenta, mentre le prime trattazioni organiche e sistematiche sul
comportamento del consumatore sono comparse solo nei primi anni
Sessanta. Una spiegazione potrebbe essere data dal fatto che
l’assimilazione delle teorie del comportamento del consumatore, negli
studi di marketing, risulta piuttosto difficile per chi proviene da una
cultura economica-aziendale. Infatti, le radici teoriche delle teorie del
comportamento del consumatore sono abbastanza distanti da una prospettiva d’impresa: antropologia, psicologia, filosofia e scienze cognitive contribuiscono a costruire le basi su cui si innesta un disegno
complessivo che non prende necessariamente in considerazione il
punto di vista delle imprese, quale prospettiva privilegiata. Proprio
partendo da questa istanza, nei primi anni Sessanta, John A. Howard
[Howard, 1963] ha aperto la strada a una disciplina che si è progressivamente affrancata dalla sua subordinazione storica e teorica al marketing management e ha cominciato a produrre teorie e modelli propri,
indipendentemente dal fatto che risultassero immediatamente o necessariamente funzionali o utili per la funzione marketing all’interno
delle imprese. Questa traiettoria sembra culminare nei contributi di alcuni studiosi [Holbrook e Hirscheman, 1982; Hirschman e Holbrook,
1995] che negano espressamente la necessità di finalizzare i risultati
dello studio del comportamento del consumatore ad eventuali applicazioni di marketing: infatti, studiare i consumatori avrebbe un valore in
sé e non solo come supporto per il marketing.
Dagli inizi del Duemila, l’incontro teorico tra ricercatori di diverse discipline, come neuroscienza, psicologia, filosofia, antropologia ed
economia, ha permesso la nascita di due nuove discipline: la neuroeconomia e il neuromarketing. Entrambe si rifanno ai paradigmi e alle
conoscenze delle neuroscienze cognitive e hanno per oggetto lo studio
dei processi mentali espliciti ed impliciti dei consumatori in dei diversi contesti economici, concernenti anche attività di valutazione, di presa di decisione, di memorizzazione o di consumo. Scopo generale,
pertanto, di questo libro è quello di indagare, attraverso la descrizione
e spiegazione dei processi mentali (affettivi e cognitivi), i comportamenti risultanti osservabili negli individui in azione in dei contesti di
Introduzione
9
natura commerciale e consumistica. Il volume è così articolato. Dapprima, nel capitolo I, viene delineato il quadro epistemologico di riferimento nell’ambito del quale si pone la neuroeconomia.
Un’attenzione particolare è stata dedicata alla questione metodologica,
specificando i meriti ed i limiti delle tecnologie di visualizzazione cerebrale. Nel capitolo II segue, attraverso una rassegna di alcuni tra i
lavori empirici più significativi, un’introduzione relativa al dibattito
attorno il neuromarketing. Vogliamo a questo proposito specificare
che quando parliamo di neuromarketing non ci riferiamo ad una versione “debole” che consiste in una semplice appropriazione di metodologie e di tecniche obiettive che mirano a quantificare e visualizzare
dei fenomeni cognitivi, ma al contrario, aderiamo ad una versione
“forte”, secondo la quale è il contesto globale e paradigmatico delle
neuroscienze ad applicarsi a dei contesti particolari circoscritti
dell’attività umana. In questo senso, il neuromarketing contribuisce
alla raccolta di dati sulla conoscenza riguardo la relazione comportamento-cervello, conservando parallelamente una sua finalità pratica
nel mondo degli affari e della pubblicità.
A ciò fa seguito, nel capitolo III, una rassegna delle principali aree
del sapere psicologico applicabili al marketing, in modo da fornire al
lettore una più adeguata comprensione di tutti i fattori che con forza
sfociano in un determinato comportamento d’acquisto. A tal proposito, ci siamo concentrati sulle variabili affettive e motivazionali che
attengono all’individuo, sulle molteplici influenze semantiche, sociali,
antropologiche, valoriali e, più in generale, culturali che, nell’insieme,
connotano i processi d’acquisto. Sono successivamente introdotti, nel
capitolo IV, alcune teorie e modelli che pur trovando origine in altri
ambiti del sapere hanno successivamente trovato collocazione nelle
teorie di marketing. Infine, nel capitolo V, viene riassunto il quadro epistemologico e metodologico di riferimento nell’ambito del quale si
pone la teoria della decisione, ovvero quell’area del sapere che ha per
oggetto lo studio scientifico di come si prendano le decisioni, di come
si possa cercare di renderle ottimali o per lo meno soddisfacenti e di
quali fattori possono influire su di esse. Viene delineato, inoltre, attraverso la trattazione di alcuni concetti della “teoria dei giochi”, come i
vissuti emotivi e le dinamiche strategiche di interazione sottoforma di
10
Introduzione
cooperazione e conflitto possano influire sul processo decisionale individuale.
Questo libro è stato la tappa di un viaggio di conoscenza, di verifica e di confronto, durante il quale tante persone mi hanno accompagnato ed aiutato. In particolar modo dato l’ineguagliabile sostegno
che, in questi anni, ha dato al mio lavoro tengo a ringraziare Pietro
Perconti che ha avuto anche la pazienza di leggere e commentare
l’intero manoscritto. Ringrazio, inoltre, Ninni Pennisi e Franco Lo Piparo per l’influenza che hanno avuto sul mio pensiero con i loro contributi e le loro critiche. Devo rivolgere altresì il mio ringraziamento ai
professori Francesco Parisi, Andrea Velardi, Alessandra Falzone, Daniele Schilirò, Valentina Cardella, Alessio Plebe, per avermi fornito
preziosi commenti e utili stimoli culturali. Ho inoltre beneficiato della
discussione sui temi qui affrontati con molteplici colleghi-amici, tra
cui: Elvira Bruni, Piero Drago, Domenica Bruni, Caterina Scianna,
Sebastiano Nucera, Maria Primo, Emiliano La Licata, Cristina Puleo.
Un debito ugualmente profondo ho con la mia famiglia per avermi
sopportato e sostenuto nei momenti difficili.
I. Scienze cognitive e neuroeconomia
1.1. Cosa sono le Scienze cognitive
Quando si parla di scienza cognitiva s’intende quella confluenza di ricerche multidisciplinari aventi come oggetto di studio i processi cognitivi. Nella scienza cognitiva confluiscono studiosi provenienti da
diversi ambiti quali, ad esempio, filosofia, neuroscienze, psicologia,
linguistica, intelligenza artificiale, per citare solo gli ambiti disciplinari che hanno fornito i maggiori apporti. I settori sono, dunque, molti
ed eterogenei, tanto che si è ritenuto opportuno, probabilmente a ragione, parlare di scienze cognitive, al plurale.
Infatti, da un lato, i vari studiosi pur provenendo da settori diversi
hanno in comune l’interesse per l’analisi della cognizione; dall’altro, a
seconda della provenienza di ogni singolo studioso, tale analisi viene
affrontata con metodi talvolta molto differenti. Questo pluralismo metodologico viene visto da alcuni studiosi come un fattore positivo di
scambio, dialogo e incontro; di contro, secondo altri questo fantomatico pluralismo non è altro che motivo di confusione e di preoccupazione. Cercheremo di affrontare alcune di queste difficoltà epistemologiche ed in particolare ci soffermeremo sull’idea che più di ogni altra è
stata al centro di discussione: cioè l’ipotesi per cui sarebbe possibile
mettere in relazione specifiche regioni del cervello con particolari aspetti del comportamento cognitivo.
Alcuni studiosi, partendo dall’osservazione di sintomi estremamente selettivi a seguito di lesioni cerebrali, hanno postulato che alcune capacità potessero essere realizzate da un insieme complesso di
meccanismi, operanti in modo relativamente autonomo e tali da risultare separabili e singolarmente lesionabili. In questo senso, lo studio
della cognizione e dei suoi rapporti con il cervello si è venuto progressivamente a configurare da un lato come un tentativo di scomporre il
comportamento nei suoi meccanismi più elementari (componente funzionale), dall’altro come un tentativo di individuare regioni distinte
sotto il profilo anatomo-fisiologico nell’organizzazione del cervello
11
12
Capitolo I
(componente neurale), nella speranza di poter individuare omologie
fra gli uni e gli altri.
La rilevanza di questo genere di questioni emerge soprattutto nei
confronti dei nuovi paradigmi sperimentali di cui si avvalgono le neuroscienze cognitive per correlare comportamento e cervello, in primis
le metodologie di brain imaging, considerate da gran parte degli studiosi come una delle strategie più promettenti per cercare di restringere reciprocamente l’architettura funzionale dei processi cognitivi e
l’anatomia funzionale del cervello umano. Le ipotesi tradizionali, emerse dai paradigmi sperimentali classici, circa la corrispondenza fra
componenti funzionali ed aree di elaborazione nel cervello, hanno trovato nei metodi di brain imaging un efficace strumento di conferma e
di eventuale revisione.
1.1.1.La neuropsicologia classica
La neuropsicologia, ovvero lo studio dei rapporti fra lesioni cerebrali e
disfunzioni comportamentali, ha rappresentato, a partire dal XIX secolo, il terreno più fertile per lo studio dell’organizzazione funzionale
del cervello umano. Alle origini del paradigma neuropsicologico stava
l’idea che lesioni di particolari regioni della corteccia cerebrale generavano deficit specifici di particolari capacità. La possibilità, quindi, di
identificare delle disfunzioni selettive che lasciavano inalterato
l’insieme delle rimanenti facoltà, ha dato origine alla concezione del
cervello come sistema costituito da organi autonomi specializzati nella
realizzazione di diverse funzioni.
La neuropsicologia si avvaleva, pertanto, di due classi di fenomeni: da un lato anomalie specifiche ricorrenti in un soggetto nell’atto di
svolgere alcune attività (come il nominar un oggetto percepito, il ripetere parole ascoltate, il leggere ad alta voce sequenze scritte di caratteri), dall’altro la presenza nello stesso soggetto di una lesione circoscritta di una determinata area cerebrale. Il primo requisito
dell’indagine neuropsicologica era quello di capire come il deficit osservato fosse interpretabile in maniera significativa rispetto al comportamento normale. La sindrome patologica isolata non dice, infatti, nulla se non in rapporto ad una teoria del funzionamento normale della
capacità considerata. Si richiedeva come prima cosa, pertanto, un mo-
Scienze cognitive e neuroeconomia
13
dello del funzionamento normale di una determinata capacità: soltanto
rispetto ad essa il sintomo poteva essere interpretato come disfunzione
circoscritta di una specifica struttura funzionale. È questo il principio
noto come “assunzione di trasparenza”. Questo principio stabilisce
che schemi comportamentali deficitarii possano essere interpretati solo a patto che rimangano inalterate le restanti capacità cognitive [Caramazza, 1986]. Questa assunzione, in altre parole, richiede che il sistema cognitivo di un paziente che presenta una lesione cerebrale sia
essenzialmente lo stesso di quello di un soggetto normale, eccezion
fatta per una modifica locale del sistema. Viene cioè respinta la possibilità che una lesione cerebrale comporti la creazione di nuove operazioni cognitive, tali da dare luogo nel soggetto ad un diverso sistema
cognitivo che abbia una relazione non trasparente con il sistema originario. Schemi di risposta devianti sarebbero di scarso valore teorico se
fossero privi di restrizioni, se cioè fossero devianti su tutte le funzioni
interessate. L’assunzione di trasparenza postula, quindi, che una lesione cerebrale non alteri complessivamente l’organizzazione dei sistemi
cognitivi, fornendo in tal modo una cornice teorica per la classificazione dei disturbi nonché per la previsione di deficit non ancora osservati. Per meglio esplicitare questa problematica riportiamo, a titolo di
esempio, il modello classico di Ludwig Lichtheim [Lichteim, 1885]
teso a ricostruire l’architettura della facoltà del linguaggio e le procedure legate alla comprensione ed alla riproduzione degli stimoli linguistici:
Figura 1. Modello dell’architettura della facoltà del linguaggio [Lichtheim,
1885]
14
Capitolo I
Questo modello individua l’insieme delle operazioni e delle procedure
richieste dai diversi tipi di compiti linguistici che siamo abituati a
compiere, quali ripetere ad alta voce parole udite, trascriverle e via dicendo. Lo schema di sinistra, infatti, descrive i “centri di elaborazione” del linguaggio e i percorsi dell’informazione di essi (a descrive
l’input sensoriale, m l’output motorio dell’elocuzione verbale, A per il
centro delle rappresentazioni motorie delle parole, O per il centro delle
rappresentazioni visive, B per il centro semantico, E per il centro
d’innervazione degli organi deputati della scrittura). Lo schema di destra, viceversa, riporta i vari punti in cui il sistema è suscettibile di lesioni tali da produrre deficit comportamentali. Come scrive Andrè
Ombredane [Ombredane, 1951], questo modello ha consentito la prima descrizione unitaria delle diverse sindromi descritte nella letteratura afasiologica (ad esempio, da una lesione che colpisce il centro
dell’articolazione motoria M discende la sindrome afasica descritta da
Broca o- secondo la definizione di Wernicke -afasia motoria, tale che
viene abolita la parola spontanea -BMm-, la ripetizione di parole aAm-, la lettura ad alta voce OABMm-).
Il modello di Lichtheim risulta particolarmente interessante per il
nostro studio poiché stabilisce una diretta corrispondenza fra capacità
deficitarie e lesioni selettive di componenti funzionali: l’autore evidenzia, infatti, le connessioni dirette tra i vari centri sottostanti al processo linguistico, ritenendo pertanto che questo fosse il risultato della
loro azione congiunta, e che le diverse forme di afasia fossero in tal
modo causate sia dalla distruzione dei centri, sia dall’interruzione delle vie di connessione tra i vari centri. Naturalmente il modello è stato
oggetto di numerose critiche. John Morton [Morton, 1984], ad esempio, ne dà una sommaria rassegna, a partire da Freud e Head, circa
l’inadeguatezza strutturale dei suoi modelli di spiegazione delle afasie.
In realtà, osserva Morton, il valore dell’opera di Lichtheim sta nel suo
tentativo di separare descrizioni della funzione da descrizione
dell’anatomia, nella sua intenzione di isolare un dominio indipendente
di ricerca, teso a studiare la pura articolazione funzionale dei processi
linguistici alterati in seguito a lesioni. La mistificazione operata dai
denigratori di Lichtheim deriverebbe, sempre secondo Morton,
dall’aver quindi interpretato l’associazione lesione-sindrome come
un’associazione lesione-componente funzionale, dall’aver, pertanto,
Scienze cognitive e neuroeconomia
15
caricato di valenze “localizzazioniste” ipotesi che non erano affatto
nell’intenzione dell’autore.
Ciò che comunque questo modello evidentemente non contempla
è la possibilità di spiegazioni molteplici dello stesso deficit. Tim Shallice [Shallice, 1988] osserva, a tal proposito, il fatto che pur essendo
possibile che alcuni componenti funzionali possa operare in modo
normale, questo non ci impedisce di postulare che il modo in cui essi
interagiscono non lo sia: che non lo sia cioè l’insieme delle procedure
attraverso cui i vari componenti realizzano dati compiti. Shallice suggerisce, quindi, di individuare dei criteri più stringenti per identificare
singoli componenti deficitarii ed evitare in questo modo la costruzione
di modelli artefatti: criteri individuati da Shallice nella strategia delle
“doppie dissociazioni”.
Figura 2. Schema esplicativo del fenomeno della doppia dissociazione [Shallice,
1988]
16
Capitolo I
Ciò che questo modello mette in evidenza è il fatto che il riscontro, rispettivamente, in due soggetti che riportano una lesione cerebrale di
(1) una capacità A deficitaria di fronte a una capacità B illesa e (2)
della stessa capacità A illesa accanto alla capacità B deficitaria, possa
assumersi generalmente sufficiente a garantire l’indipendenza dei due
sistemi responsabili dei deficit osservati. Come risultato degli studi
fatti con il metodo delle doppie dissociazioni, la neuropsicologia cognitiva potrebbe essere descritta come un esercizio di scomposizione
di una funzione cognitiva nelle sue componenti essenziali.
Come sottolinea sempre Shallice, le difficoltà cognitive riscontrate
nei pazienti neurologici devono essere interpretati in termini di un
normale sistema dell’informazione con alcuni sottosistemi isolati o vie
di trasmissione che operano in modo sbagliato. Pertanto questi modelli, non più strettamente legati al substrato anatomico, sono considerati
come caratteristiche schematiche o formalizzate del normale processo
di elaborazione cognitiva dell’uomo, e risultano estremamente utili
per lo studio di pazienti che hanno subito deficit cognitivi a causa di
un danno cerebrale.
La strategia delle doppie dissociazioni ha goduto di tanta stima
negli studi neuropsicologici, rappresentando lo strumento teorico più
comune per la costruzione di modelli normativi di date capacità cognitive. Tuttavia il problema centrale del modello di Shallice, così come
di tutti i modelli che mirano a spiegare capacità complesse, è che se
pur costruito in maniera tale da dar ragione del funzionamento in termini astratti di una data capacità e dei suoi potenziali deficit, sembra
necessitare di un ulteriore requisito e cioè che i processi descritti a livello di architettura funzionale siano ad un certo livello di analisi confrontabili con i processi effettivamente realizzati nel cervello. La neuropsicologia classica per rispondere a questo requisito assumeva che
dovesse esistere almeno una regione cerebrale che fosse la realizzazione fisica di ogni singolo componente funzionale specificato in un
modello e che le regioni fossero tra loro connesse in modo tale da implementare i processi descritti dal modello; questa concezione che
proiettava il tutto sull’anatomia cerebrale è stata oggetto di aspre critiche. In seguito a queste considerazioni anche la moderna neuropsicologia deve continuare a porsi il problema dell’adeguatezza implementazionale dei propri modelli? Un filone consistente di studiosi dichia-
Scienze cognitive e neuroeconomia
17
ra, infatti, di non volersi sbilanciare in attesa di conoscenze più precise
da parte neurologica sulle strutture che realizzano i processi cognitivi.
Esamineremo a tal proposito come le ipotesi fin qui esaminate abbiano
trovato nei metodi di brain imaging un efficace strumento di conferma
o di eventuale revisione.
1.1.2. Le tecniche di visualizzazione cerebrale
I progressi compiuti nella comprensione delle strutture cerebrali si sono fatti significativamente più rapidi a partire dagli anni Settanta, attraverso l’introduzione delle sofisticate tecniche di imagery cerebrale.
L’impiego, infatti, di metodi non invasivi per la visualizzazione
dell’attività cerebrale, quali in primis PET (Positron Emission Tomographi) e fMRI (Functional Magnetic Resonance Imaging ), ha permesso di osservare la sede e l’estensione dei danni cerebrali nonché la
visualizzazione delle modifiche dell’attività cerebrale in seguito allo
svolgersi dei diversi compiti mentali.
La PET (Tomografia per emissione di positroni), è uno strumento
di registrazione indiretta dell’attività cerebrale (mentre le tecniche
come, ad esempio, EEG e MEG, così come le altre tecniche elettrofisiologiche sono definite dirette in quanto misurano direttamente il segnale elettrico o un segnale ad esso riconducibile come quello magnetico), che rivela variazioni di un indice dell’attività cerebrale, nella fattispecie del debito sanguigno dei tessuti neurali. La validità del metodo riposa, sull’assunzione che variazioni dell’attività cerebrale siano
accompagnate costantemente da variazioni dell’irrogazione sanguigna
dei tessuti. Utilizzando un tracciante radioattivo a decadimento rapido,
preliminarmente iniettato nel paziente, è possibile individuare le aree
in cui il debito sanguigno aumenta conseguentemente ad una aumento
di un’attività cognitiva; localizzando, in seguito, le zone in cui il tracciante decade, la PET permette di identificare le aree in cui si è sviluppato il debito sanguigno in seguito ad un’attività neurale.
Il sistema di rilevazione della PET è costituito da una serie di sensori disposti a corona attorno alla testa del soggetto: dal momento che
il decadimento dell’isotopo radioattivo è accompagnato dall’emissione
simultanea di due fotoni in direzione opposte, il rilevamento del loro
incontro simultaneo con i rilevatori permette di risalire alla traiettoria
18
Capitolo I
della loro emissione (rilevamento per coincidenza). Dall’intersezione
delle diverse traiettorie individuate in corrispondenza di altrettante
coppie di fotoni è possibile risalire ulteriormente alle regioni da cui
esse provengono. Una elaborazione digitale di questi dati permette infine di visualizzare tridimensionalmente le regioni d’emissione e di
correggere le eventuali distorsioni dovute all’assorbimento dei tessuti.
La risoluzione spaziale della PET è dell’ordine del millimetro: più che
sufficiente, quindi, a rilevare fenomeni di attivazioni cerebrali di larga
scala. Sotto il profilo temporale, di contro, la PET risulta essere una
tecnica piuttosto povera, dal momento che i tempi necessari per
l’acquisizione delle immagini risultano notevolmente più lunghi della
durata dei processi che essi intendono misurare: l’attività in cui il soggetto è impegnato deve di conseguenza essere mantenuta o ripetuta
per tutta la durata temporale richiesta dagli strumenti ai fini
dell’acquisizione dei dati. Il limite maggiore consiste però nel fatto
che la PET richiedendo l’impiego di traccianti radioattivi risulta essere
una tecnica molto invasiva, con la conseguenza che il numero di esperimenti reiterabili per soggetto è notevolmente limitato.
L’fMRI (Risonanza Magnetica Nucleare funzionale) è, invece,
basata sul fenomeno della risonanza magnetica nucleare, che sfrutta le
proprietà nucleari di certi atomi in presenza di campi magnetici. La
tecnica è entrata in uso negli anni Settanta allo scopo di ottenere immagini dettagliate dell’anatomia cerebrale. Attraverso tecniche di rilevamento ultrarapido dei dati, è divenuta possibile l’acquisizione di
immagini in tempi talmente ridotti (dell’ordine del centesimo di secondo) da permettere di seguire nel loro svolgimento alcuni aspetti del
metabolismo. Applicato alla fisiologia del cervello, l’fMRI ha permesso di visualizzare su una scala temporale estremamente fine le variazioni dell’ossigenazione delle regioni corticali, variazioni che si considerano siano in stretta relazione con il grado di attività delle regioni
stesse. Si sono sfruttate a questo scopo le proprietà magnetiche di cui
godono le molecole di emoglobina, proprietà che differiscono leggermente a seconda che questa sia legata o meno all’ossigeno. Si registrano dunque immagini che si ipotizza rappresentino fedelmente le
variazioni dell’attività neurale regionale laddove si evidenzia un contrasto fra regioni ricche in ossiemoglobina, in cui cioè il flusso sanguigno risulta accresciuto, e regioni dal flusso sanguigno normale.
Scienze cognitive e neuroeconomia
19
Se il segnale, rispetto alla PET, rilevato è più debole, minore la
sensibilità e peggiore di conseguenza il rapporto segnale/rumore, i
vantaggi rispetto a quest’ultima sono molteplici. Oltre alla risoluzione
temporale accresciuta, va sottolineato in primo luogo che l’fMRI si
basa su un segnale intrinseco che non richiede alcun tipo di tracciante.
Inoltre, rispetto alla PET, le misurazioni ottenute per fMRI
dell’attività legate al compito svolto dal soggetto in sede sperimentale
possono essere rapportate direttamente alle immagini anatomiche tridimensionali del soggetto ricavate con la stessa tecnica. L’insieme di
queste tecniche, unitamente a quelle di analisi microstrutturale e agli
studi di lesione, ha aperto uno spazio di indagine estremamente ampio
per studiare l’organizzazione ed il funzionamento del cervello: è oggi
possibile misurare tramite tecniche diverse l’attività neurale dal livello
sinaptico fino a quello convoluzionare, così come studiare fenomeni
che si collocano sotto il profilo temporale intorno a una durata
dell’ordine del millisecondo (le interazioni tra neuroni) fino a fenomeni relativamente lenti, come quelli dell’apprendimento.
1.1.3. I limiti delle tecniche
Con l’introduzione di queste sofisticate tecniche, i modelli della neuropsicologia si sono dovuti confrontare con le varie mappe anatomofunzionali del cervello, divenendo così possibile un raffronto fra teorie, conferme o confutazioni delle stesse. Come le altre metodologie
che mirano a spiegare i complessi rapporti fra cervello e comportamento, anche il brain imaging annovera, all’interno del suo apparato
teorico, una serie di metodi atti a rendere più trasparenti possibile i dati osservativi e a contenere la possibile proliferazione di spiegazioni
dei fenomeni esaminati. A dire il vero nel caso in questione ciò si presenta di fondamentale importanza per il semplice fatto che vengono
applicati modelli comportamentali all’interpretazione di dati di natura
neurofisiologica. La metodologia più accettata in sede neuroscientifica
è quella nota con il nome di “sottrazione cognitiva”. Per capire il ruolo
dei metodi sottrattivi bisogna fare un passo indietro nella storia delle
scienze cognitive fino agli studi di Frans Cornelis Donders di psicologia sperimentale e dei tempi di reazione dei processi mentali. In questi
studi Donders aveva sviluppato una rudimentale tecnica sottrattiva che
20
Capitolo I
nelle intenzioni dell’autore avrebbe permesso di isolare le differenti
operazioni compiute da un soggetto nel corso di una determinata attività cognitiva.
La logica di base del metodo di Donders consisteva nell’idea che
la durata di una fase di elaborazione può essere misurata mettendo a
confronto il tempo necessario per risolvere una versione di un particolare compito (ad esempio premere un pulsante dopo il riconoscimento
di un particolare stimolo visivo), con una seconda versione del compito che differisce dal primo solo perché viene omessa la fase di elaborazione (la pura reazione allo stimolo visivo). La differenza nel tempo
necessario per risolvere le due versioni rappresentano il tempo che è
stato speso nello stadio di elaborazione preso in considerazione. Il metodo sottrattivo di Donders fu ripreso e perfezionato un secolo più tardi da Saul Stenberg con il metodo dei “fattori additivi”. Stenberg
[Stenberg, 1969], infatti, dimostrò che i tempi di reazione dei processi
mentali erano suscettibili di variazioni a seguito di manipolazioni di
alcune variabili: ad esempio, nel caso del tempo necessario ad un soggetto per stabilire se un numero appartenga ad una lista preliminarmente scelta, variabili influenti possono essere la chiarezza con cui il
numero viene presentato visivamente (quindi la chiarezza del segnale),
la ricerca nella memoria attiva della lunghezza della lista memorizzata, l’attivazione della risposta dalla sua compatibilità, ecc.
Quindi assumendo che un task richieda una sequenza di operazioni, è possibile valutare, sostiene Stenberg, in che misura, manipolando
le variabili, ne risenta la durata delle singole operazioni.
L’importazione del metodo sottrattivo di Donders e dei fattori additivi
di Sternberg negli studi di brain imaging è dovuta alla collaborazione
fra il neurologo Marcus E. Raichle e lo psicologo Michael Posner [Posner e Raichle, 1994]. Negli studi dei due autori la sottrazione viene
impiegata nella ricostruzione dei fattori che generano l’attività neurale
rilevata: il principio adottato da Posner ricalca, infatti, quello di Donders e di Stenberg e consiste nel sottrarre, nelle mappe di attivazione
rilevate dalla PET, i valori relativi allo stato di controllo da quelli relativi allo stato attivato.
Ad esempio, sottraendo dai valori ottenuti chiedendo ad un soggetto di fissare uno stimolo visivo, i valori di controllo registrati nello
stesso soggetto mentre tiene gli occhi chiusi, si può ipotizzare, secon-
Scienze cognitive e neuroeconomia
21
do Posner, di poter isolare l’attività cerebrale correlata alla sola fissazione passiva dello stimolo visivo. Quello che vogliamo pertanto affermare è che non si deve ritenere che lo studio della fisiologia o
dell’anatomia funzionale fornisce dati per così dire indipendenti rispetto, ad esempio, ai modelli psicologici di partenza sull’architettura
dei processi cognitivi: in altre parole si vuole avanzare ben più che il
semplice sospetto che gli esperimenti scientifici partano con un modello neuropsicologico ben chiaro.
In complesso, si è riconosciuto che la grande innovazione apportata dall’impiego di tecniche come la PET e l’fMRI, rispetto ad esempio
alle tecniche classiche, consiste nel fatto che, pur non fornendo che
una misurazione indiretta dell’attività cerebrale, esse hanno permesso
di visualizzare in modo tridimensionale e con una notevole definizione spaziale il flusso sanguigno cerebrale, indicatore della variazione
locale dell’attività del cervello. In particolare, le tecniche di brain imaging hanno rappresentato il primo potente strumento non invasivo
per la localizzazione di funzioni cognitive nel cervello umano e sono
state, di conseguenza, un ponte teorico fra gli studi dettagliati sugli animali e le eterogenee informazioni neuropsicologiche sulla specializzazione funzionale del cervello dell’uomo. Le forti aspettative che
molti studiosi nel campo delle scienze cognitive hanno mostrato nei
confronti del brain imaging sono intimamente legate all’idea che esso
potesse per la prima volta fornire una misura integrata dell’attività
globale del cervello umano in relazione a un determinato compito o, in
altre parole, una visualizzazione precisa delle diverse aree cerebrali
coinvolte nella realizzazione di un compito. Al tempo stesso le grandi
riserve sono dovute all’argomento che avanza più di un dubbio
sull’idea avanzata da alcuni studiosi per cui ad ogni procedura cognitiva (modulo funzionale) corrisponda un centro localizzato nel cervello (modulo anatomico).
L’importanza di questa distinzione sta a nostro avviso nel fatto
che una definizione architettonica di modulo deve essere scevra da ingerenze relative alla sua realizzazione neurale: da questa distinzione
dipende il rigore di ipotesi di correlazione e la possibilità di applicare
vincoli comportamentali all’identificazione di aree cerebrali e viceversa. D’altronde, le conoscenze complessive di come le strutture macroscopiche del cervello siano in relazione con gli aspetti del comporta-
22
Capitolo I
mento cognitivo, sono ancora ad uno stadio embrionale. A questo proposito, le scienze cognitive non dispongono che di informazioni locali
provenienti da diversi paradigmi sperimentali: dati circa la risposta di
particolari regioni cerebrali a classi di stimoli sensoriali (evidenza elettrofisiologia), nozioni relative ai percorsi principali all’interno della
corteccia (studi anatomo-fisiologici sulla connettività), evidenza clinica e comportamentale relativa a disfunzioni selettive indotte da lesioni
localizzate (evidenza neuropsicologica), conoscenze comparative
sull’organizzazione cerebrale di specie filogeneticamente affini
all’uomo (studi su primati) oppure informazioni globali sul coinvolgimento di varie regioni e sulle variazioni di parametri metabolici in
corrispondenza di determinati compiti (studi elettrofisiologici su larga
scala e metodologie di brain imaging).
Il problema cardine della modellizazione dei sistemi cerebrali su
larga scala è quello di come impiegare contestualmente e confrontare
reciprocamente questa massa eterogenea di dati sperimentali. Infatti,
lo scarto che intercorre nel rapporto teoria/osservazione fra la neuropsicologia e le neuroscienze non comporta difficoltà rilevanti finché si
resta ad un livello strettamente intrametodologico. Nel momento stesso in cui, però, si passa ad un livello di confronto interdisciplinare in
mancanza di un tessuto teorico comune, diventa fondamentale
l’individuazione di criteri espliciti per il confronto fra teorie ed osservazioni di natura eterogenea. In realtà, se lasciamo cadere alcune delle
assunzioni che governano i singoli metodi di indagine, assunzioni non
sempre universalmente accettate (si pensi, ad esempio, all’assunzione
di trasparenza nel caso della neuropsicologia, o alla pura additività nel
caso del brain imaging), vengono automaticamente a cadere quei vincoli da cui, singolarmente presi, essi dipendono.
1.1.4. La modularità
L’ipotesi che il cervello sia costituito da sistemi operanti in maniera
autonoma e indipendente gli uni dagli altri ha assunto vigore negli ultimi anni del Novecento non solo sotto la spinta delle indagini neuroscientifiche (e quindi dei metodi sottrattivi), ma argomenti a sostegno
sono stati avanzati anche dall’indagine psicologica. Di questi tentativi,
il più rappresentativo è certamente quello di Jerry Fodor [Fodor, 1983]
Scienze cognitive e neuroeconomia
23
che ha esposto le caratteristiche in virtù delle quali alcune proprietà
architettoniche riescano a determinare sottosistemi isolati all’interno
di facoltà più ampie (ad esempio, la facoltà della visione o la facoltà
del linguaggio). Fodor [Fodor, 1985] definisce come “modulo” un
componente di un sistema più complesso caratterizzato da una serie di
proprietà. Tra queste proprietà la più importante è la specificità di dominio, vale a dire quella caratteristica che intende valutare la destinazione di un sistema nella elaborazione dell’informazione proveniente
da una sola modalità sensoriale. Questa caratteristica esclude, pertanto, che lo stesso componente funzionale possa trattare input diversi dal
dominio per cui è designato.
Strettamente legata alla specificità di dominio vi è anche una altra
proprietà, l’idea di Fodor più forte della nozione di modulo, e cioè
l’icapsulatezza o “ impenetrabilità cognitiva”. Un sistema si definisce
“ incapsulato” se non riceve informazioni da altri sistemi, ovverosia se
i processi che svolge non sono modulati dall’insieme di informazioni
di cui l’organismo dispone, ma dipendono bensì soltanto
dall’informazione di livello più basso (i cosiddetti transducers) o
dall’informazione contenuta nel sistema stesso. L’esempio riportato
dallo stesso autore è quello della visione, in cui si può cercare di stabilire in che misura gli stadi iniziali della percezione visiva non siano interessate da conoscenze preacquisite, ma svolgono autonomamente la
loro elaborazione degli stimoli. In altre parole, le operazioni di un
modulo si avvalgono unicamente di informazioni altamente specifiche
contenute al suo interno, senza mai ricorrere a conoscenze di tipo più
generale disponibili al resto del sistema cognitivo. Il modulo fodoriano è pertanto computazionalmente autonomo, vale a dire riesce a portare a termine il processo di cui è responsabile in modo completamente autonomo, senza condividere cioè risorse con altri componenti o
meccanismi neurali. Oltre alla specificità di dominio, l’accessibilità
limitata e l’incapsulamento informativo, altre proprietà definiscono un
modulo fodoriano: ad esempio, i moduli sono veloci (cioè non subiscono interferenze da altri sistemi tali da rallentare il processo), sono
obbligati (cioè che non è possibile, ad esempio, percepire una frase
come una pura sequenza di suoni), mostrano disfunzioni peculiari (caratteristica legata alla specificità di dominio e di fondamentale impor-
24
Capitolo I
tanza per l’indagine psicologica), e seguono nel loro sviluppo un ritmo
e una sequenza caratteristica.
Queste caratteristiche sono una conseguenza diretta del modo in cui
i moduli sono concepiti, cioè come meccanismi di elaborazione di informazione puramente sintattica, tarati, quindi, sul particolare formato
dei propri dati e non sul contenuto. Impostando in questo modo il concetto di modularità, rimangono fuori dalla spiegazione di Fodor stati
mentali complessi (come, ad esempio, credenze e desideri) che non
possono essere ricondotti facilmente ad una singola funzione mentale,
ma che sono invece emergenti, attribuibili olisticamente alla mente
nella sua interezza e non a un suo sottosistema: in opposizione alle capacità implementate localmente dai moduli mentali, Fodor tratta questi stati come globali. La sensibilità di essi al contenuto, oltre che alla
forma, lo spinge a vederli come non implementabili all’interno di un
modulo e, quindi, non trattabili da un punto di vista computazionale.
Contro questa ipotesi si sono schierati i sostenitori
dell’interpretazione massiva del modularismo mentale, secondo i quali
la cognizione può essere spiegata facendo appello all’idea di un funzionamento coordinato dei numerosi moduli specializzati, deputati
ciascuno di essi a trattare problemi di un dominio specifico, mentre le
proprietà della cognizione generale sarebbero da ricondursi
all’interazione tra i moduli [Pinker, 1997; Sperber, 1994].
Entrambe le interpretazioni del modularismo sostengono, quindi,
che le informazioni sono elaborate dai moduli da un punto di vista puramente sintattico, secondo dei processi perfettamente replicabili da
una macchina di Turing. Per Fodor e per i sostenitori della teoria modulare classica della mente, tuttavia, i dati da elaborare ricalcano le entità teoriche della psicologia del senso comune e sono codificati in un
linguaggio interno (il mentalese) simile ad un linguaggio naturale, in
maniera tale che la base di conoscenze a fondamento dei moduli ricalca in senso forte un processo logico-deduttivo di calcolo. Secondo i
teorici della modularità massiva, al contrario, le informazioni sono
presenti nei moduli in un formato subsimbolico [Smolensky, 1988],
dando in questo modo la possibilità ai moduli di interagire strettamente tra loro: infatti, sebbene essi trattino forme di informazioni altamente specifiche, la codifica di queste nei circuiti neurali può dar vita a dei
Scienze cognitive e neuroeconomia
25
meccanismi di corrispondenza e di associazione che ignorano la specificità dei dati e del loro formato di rappresentazione.
Steven Pinker, a questo proposito, scrive: “i moduli mentali non
hanno bisogno di essere rigidamente isolati l’uno dall’altro, di comunicare solo tramite poche e strette condutture..[…] la metafora del
modulo mentale è insomma un pò approssimativa; una migliore è
quella di Chomsky, di organo mentale che è una struttura fatta su misura per svolgere una particolare funzione” [Pinker, 1997: 9]. Da questo deriva che non è necessario ipotizzare, in maniera alquanto ingenua, l’esistenza di moduli per ogni argomento che gli uomini possono
trattare, ma, al contrario, qualsiasi fenomeno di distribuzione sociale
dell’informazione può utilizzare i preesistenti moduli.
Argomentazioni a favore della modularità massiva della mente
provengono dallo studio delle patologie psicologiche: l’autismo, per
citare un solo caso, è stato recentemente interpretato come un danneggiamento locale dei moduli deputati all’interpretazione degli stati
mentali altrui (e propri) in termini di credenze e desideri e
all’attribuzione di questi stati ad altri (e a se stessi) che, tuttavia, lascia
intatti altri tipi di abilità cognitive [Baron-Cohen e Swettenham,
1997]. Più dubbio è il discorso riguardo all’evidenza sperimentale:
l’ipotesi della modularità è in effetti confermata da analisi
dell’attivazione neurale per quanto riguarda alcune attività cognitive,
quali la percezione [Zeki, 2000], ma per le attività generalmente definite come “centrali”, l’interpretazione dei dati empirici è più controversa [Carruthers, 2003]. Infatti, sebbene, per una definizione minima,
i moduli devono essere pensati come distinti e specializzati, la loro
funzione dipende in larga misura dalla posizione rispetto a sistemi di
moduli più ampi e infine al macrosistema rappresentato dal cervello
umano, la cui complessa topografia siamo ben lontani dal conoscere
con sicurezza.
1.1.5. Il cervello automatico
Per molto tempo si è pensato, in modo implicito, che gli esseri umani
avessero capacità cognitive generali e che queste potessero essere applicate a qualsiasi tipo di problema. Inoltre si assumeva che le persone
si comportavano in maniera equivalente nei confronti dei problemi
26
Capitolo I
che si presentavano loro con le stesse caratteristiche. L’automaticità
del cervello, evidenziata da alcuni studi neuroscientifici, suggerisce, al
contrario, che il modo di agire delle persone dipenderà, in maniera
critica, da come può essere valutato un particolare problema da un
modulo neuronale specializzato e che ben si adatta a quel tipo di analisi. Pertanto, quando esiste un modulo neuronale specializzato a risolvere un particolare compito, l’elaborazione avviene rapidamente ed
il compito viene svolto relativamente senza sforzi (è quanto avviene,
ad esempio, per i processi automatici implicati nella visione). Sapere,
quindi, fino a che punto i nostri giudizi, le nostre decisioni o i nostri
comportamenti sono sotto il controllo del pensiero cosciente o se sono
frutto di processi automatici è tra le questioni al centro di un acceso
dibattito. Inizialmente era dibattuta l’esistenza stessa di questi particolari processi. Oggi, invece, la discussione si focalizza sulle circostanze
nelle quali l’uno o l’altro di questi processi (controllati o automatici)
sono attivi.
I “processi controllati” vengono definiti come stati di atti mentali
che vengono iniziati volontariamente, che necessitano pertanto di uno
“sforzo” e che si possono controllare. Definire, invece, i “processi automatici” è più arduo. In una accezione minima essi sono i contrari dei
processi controllati, operano in parallelo alla coscienza, non necessitano di alcuno “sforzo intenzionale” e sono abitualmente vissuti come
percezioni [Lieberman, 2003]. Bargh e Chartrand [Bargh e Chartrand,
1999] distinguono due forme di processi mentali “non coscienti”. Entrambi operano senza sforzo ma il primo sistema necessita del comando della coscienza per iniziare la sua azione (ad esempio, guidare una
automobile per la centesima volta), mentre l’altro evolve completamente in parallelo. Il modo di operare dei processi controllati e automatici è chiaramente interattivo anche se, naturalmente, i processi automatici essendo più rapidi fanno sempre valere la loro “opinione”,
occupando in tal modo larga parte delle basi del comportamento [Camerer et al., 2003]. Di fronte ad un compito o un problema da risolvere, i due processi possono arrivare ad una diversa soluzione. Ciò è stato dimostrato da Stevan Sloman [Sloman, 1996], il quale evoca delle
forme di credenza che possono essere simultaneamente contraddittorie
come viene provato dall’illusione visiva e l’errore di giudizio delle
due linee dell’illusione ottica di Muller-Lyer.
Scienze cognitive e neuroeconomia
27
Figura 3. L’illusione di Muller-Lyer
Pur essendo le linee della stessa lunghezza (cambia solo il senso) la
percezione visiva e la comprensione astratta forniscono due risposte
differenti. Solo la conoscenza astratta delle regole della geometrica ci
permettono di comprendere che la percezione visiva induce all’errore.
Un altro errore di giudizio che ci permette di illustrare la coesistenza
di processi controllati e automatici è conosciuto con il nome di “errore
di congiunzione” [Tversky e Kahneman, 1983] e si rifà al più noto e
semplice tra i principi statistici, ovvero quello che la probabilità di una
congiunzione è inferiore alla probabilità del verificarsi di ciascuna delle sue componenti ( la formula è: P (A e B) < P (A) e P (a e B) < P
(B)).
Tversky e Kahneman presentando l’esperimento ai partecipanti
premettono loro che:
Linda ha 31 anni, è molto intelligente ed ha ottenuto una laurea in filosofia. Inoltre, è impegnata socialmente contro le discriminazioni ed
ha partecipato a delle dimostrazioni anti-nucleari.
In seguito i due studiosi domandarono ai partecipanti di classificare in
ordine di probabilità alcune opzioni di risposte, tra cui:
1) Linda è attiva nel movimento femminista (A)
2) Linda è cassiera in una banca (B)
3) Linda è cassiera in una banca ed è attiva nel movimento femminista
(A e B).
La stragrande maggioranza dei partecipanti, anche quelli che avevano delle ottime conoscenze dei principi statistici, violò la regola
di congiunzione: essi non la applicarono semplicemente perchè si trovavano fuori da un contesto di un corso normale di statistica. La coe-
28
Capitolo I
sistenza di queste due forme di valutazione è, secondo gli autori, la
prova dell’esistenza di due processi, uno di deliberazione attentiva e
l’altra fatta su base associativa.
Studi neuroscientifici, nei quali si è utilizzato l’fMRI, hanno permesso di identificare alcuni corollari cerebrali dei processi controllati
e automatici. Il neuroscienziato Philip Lieberman classifica i processi
in due categorie: il “sistema C” ed il “sistema X”. Il “sistema C” è
composto da tre regioni cerebrali: la corteccia cingolata anteriore, la
corteccia prefrontale ed il lobo temporale mediale (incluso
l’ippocampo). Il lobo temporale mediale permette la memoria cosciente. La corteccia prefrontale (chiamata anche regione esecutiva) utilizza
le informazioni provenienti dalle altre zone del cervello per formulare
obiettivi a breve e lungo termine, pianificando le azioni conformemente a questi obiettivi [Lieberman, 2003; Shallice e Burgess, 1998; Camererer et al., 2003]. La corteccia cingolata anteriore si attiva per diversi conflitti cognitivi [Eisenberger et al., 2003]. Questa regione può
“allertare” la corteccia prefrontale quando i processi automatici non
raggiungono il loro obiettivo [Botvinick et al., 1999]. Benché queste
regioni fanno parte dei processi controllati non si può classificarli
troppo rigidamente poiché alcuni processi automatici hanno ugualmente corso in queste strutture cerebrali. Per quanto riguarda il “sistema X”, Lieberman, individua tre strutture neuronali: l’amigdala, il
giro centrale (gangli della base) e la corteccia laterale temporale.
L’amigdala reagisce spontaneamente a degli stimoli di differenti forme (espressioni di paura o presenza, ad esempio, di animali che incutono timore, ecc.) dando vita a movimenti motori di avvicinamento o
di fuga. Il giro centrale risponde a differenti forme di ricompensa anticipata, mentre la corteccia temporale laterale permette il riconoscimento dell’identità, attributi e comportamenti di oggetti sociali e non
sociali.
1.2. La neuroeconomia
Gli economisti sono stati i primi, proponendo il termine neuroeconomia, a cogliere l’esigenza di comprendere i processi di decisione degli
agenti economici rifacendosi agli approcci della psicologia cognitiva e
Scienze cognitive e neuroeconomia
29
delle neuroscienze [Tversky e Kanheman, 1974]. La neuroeconomia è
una branca dell’economia comportamentale (behavioral economics)
che cerca di indagare il ruolo dei meccanismi psicologici dell’analisi
economica senza, tuttavia, rigettare di colpo il paradigma neoclassico,
che fornisce una cornice teorica basata sulla massimalizzazione
dell’utilità, degli equilibri e dell’efficienza [Camerer e Loewenstein,
2002]. Questi concetti sono stati rimpiazzati, comunque, da altre ipotesi giudicate più realiste, al fine di tenere conto dei limiti umani in
materia di capacità di calcolo, volontà, egoismo. È in questo contesto
che la neuroeconomia è stata definita come lo stato in cui
l’utilizzazione dei processi cerebrali permette di trovare dei nuovi
fondamenti per le teorie economiche [Camerer, 2004]. L’economia
sperimentale, la psicologia e le neuroscienze possono, pertanto, convalidando o falsificando il modello dell’utilità, permettere d’arricchire
la comprensione del comportamento economico. Nel modello
dell’utilità, si suppone che la scelta presa abbia una più grande utilità
rispetto le sue alternative concorrenti. L’utilità può, dunque, essere
concepita come un sistema mentale in cui si effettua una valutazione
soggettiva, delle differenti alternative, con l’ipotesi della massimizzazione. Per Jeremy Bentham, è la dimensione edonistica dell’utilità, il
cuore della presa di decisione. La scelta tende ad orientarsi verso la ricerca del piacere e l’evitabilità del dispiacere. Di recente, sono stati attivati dagli studiosi di neuroscienze nuovi campi di studio. Queste ricerche, collegate alla memoria, ai processi di decisione e di risoluzione dei problemi, fanno appello ad alcuni concetti proposti
dall’economia, in primis l’utilità [Camerer e Loewenstein, 2002].
L’utilizzazione del concetto di utilità per spiegare le scelte ed i comportamenti complessi ha quindi permesso di stabilire alcuni ponti tra
neuroscienza ed economia.
L’ipotesi standard di una funzione d’utilità consiste nell’idea che
l’utilità sia marginale e decrescente, vale a dire che U<0 e U>0. Un
esperimento di Platt e Glimcher [Platt e Glimcher, 1999] fatto su delle
scimmie, ha permesso di illustrare come il cervello possa realmente
codificare questo genere di funzione. Infatti, vi è una certa similitudine tra come le scienze economiche intendono questo concetto di base
e i dati che sono state registrati a partire dal cervello delle scimmie. Lo
studio sperimentale di Platt e Glimcher [Platt e Glimcher, 1999] ha
30
Capitolo I
permesso, utilizzando il concetto di speranza dell’utilità e la tecnica di
misurazione di un solo neurone, di dimostrare che la regione laterale
intraparietale del cervello delle scimmie, possa allo stesso tempo codificare sia le probabilità sia il valore associato ad una ricompensa.
L’esperimento consisteva nell’insegnare alle scimmie a scegliere tra
due punti luminosi (che apparivano su degli schermi piazzati a destra
o a sinistra rispetto al punto di osservazione in cui si trovavano le
scimmie). Quando, con un movimento della testa, le scimmie effettuavano la scelta giusta, ottenevano una ricompensa (del cibo). Per rendere massima la sua utilità, una scimmia doveva ricordare le probabilità
anteriori associate alla sua scelta ed ovviamente anche il valore della
ricompensa. Il compito sperimentale, veniva eseguito su blocchi di
100 compiti. In alcuni di questi blocchi, la probabilità del movimento
verso la parte destra si stabilivano all’ 80% ed al 20% verso la sinistra.
In altri blocchi, queste probabilità erano invertite. In questo modo, le
probabilità anteriori e posteriori, a ognuno di questi blocchi dovevano
essere continuamente stimate dal cervello della scimmia e non essere,
quindi, concordanti.
Figura 4. L’esperimento di Platt e Glimcher [Platt e Glimcher, 1999]
L’obiettivo era quello di variare le probabilità di ricompensa mantenendo costanti gli stimoli visivi e i movimenti motori, in maniera tale,
da verificare se l’attivazione dei neuroni della regione laterale intrapa-
Scienze cognitive e neuroeconomia
31
rietale era correlata, in un modo o in un altro, con le probabilità anteriori o posteriori. Mantenendo costanti gli stimoli e i movimenti delle
scimmie, gli autori constatarono che le probabilità di ricompensa ed i
loro cambiamenti erano correlati all’attivazione neuronale. Quindi, il
cervello delle scimmie, codificava un segnale non sensoriale e non
motore. Platt e Glimcher interpretarono questo segnale come prova
che le scimmie cercano innanzitutto di massimizzare le loro probabilità di guadagno.
Dopo aver mostrato che il cervello della scimmia può codificare le
probabilità associate ad una ricompensa, un secondo momento
dell’esperimento era dedicato a verificare se la scimmia è capace di fare altrettanto con il valore della ricompensa. Gli autori, quindi, mantennero costanti i movimenti, gli stimoli e le probabilità di ricompensa
(che furono fissate al 50%) e variarono, da un blocco di compiti
all’altro, solo le quantità di ricompense (in alcuni blocchi, le quantità
di cibo ottenuto erano 0,2 ml guardando a sinistra e di 0,1 ml guardando a destra; in altri blocchi, le quantità erano invertite). I risultati
misero in luce come anche i valori del guadagno, quando gli elementi
sensori-motori erano mantenuti costanti, venissero codificati dai neuroni; in pratica, i neuroni erano più attivi quando la speranza di guadagno era elevata. Il fatto che, il cervello delle scimmie, fosse in grado, allo stesso tempo, di codificare tanto l’ampiezza delle ricompense
quanto la loro probabilità, dimostra due cose. In primo luogo, che il
concetto di speranza dell’utilità, sembra avere trovato un corollario
neurologico. In secondo luogo, che alcuni concetti la cui base si trova
nella teoria economica possano trovare spazio nel quadro d’analisi
delle neuroscienze. L’economia e le neuroscienze possono, quindi,
beneficiare l’una dell’altra, cosa che del resto è stata già sottolineata
da Knutson e Peterson [Knutson e Peterson, 2005].
1.2.1. Utilità e substrato cerebrale umano
Comprendere meglio i meccanismi grazie ai quali il cervello valuta e
confronta delle alternative e delle forme variabili di ricompense ci può
permettere di risalire alle determinazioni delle nostre scelte e dei nostri comportamenti. Nel cervello, ogni alternativa deve essere incorporata e confrontata in modo automatico o delimitata, a partire da dei ve-
32
Capitolo I
ri domini di informazione. Queste alternative devono dunque essere
trasformati dal cervello in unità comparabili. Per esempio,
l’attivazione della corteccia parietale posteriore è correlata
all’ampiezza del guadagno monetario [Paulus et al., 2001] tanto che la
sua anticipazione sarà positivamente correlata con l’attivazione della
regione dello striato ventrale [Knutson e Peterson, 2005]. Due osservazioni importanti sono state fatte da Knutson e Peterson. In primo
luogo, lo striato ventrale è attivato solo dall’anticipazione di un guadagno monetario; un guadagno, una perdita, o l’anticipazione di una
perdita monetario non hanno, apparentemente, effetto su questa regione.
Il quadro d’interpretazione di questi autori (che diverge parzialmente da quello di Platt e Glimcher) si inserisce nell’ottica della teoria
prospettiva di Kahneman e Tversky [Kahneman e Tversky, 1984], vale a dire che la prospettiva di guadagno e di perdita sono supposte non
essere trattate dagli stessi algoritmi e dagli stessi meccanismi neurali.
Una seconda osservazione di Knutson e Peterson concerne la regione
mediana della corteccia prefrontale. Secondo loro, questa regione registra il guadagno monetario, disattivandosi quando il guadagno monetario è nullo. Fatto importante è che questa non è attiva né per quel
che concerne le anticipazioni (perdita o guadagno), né le perdite. La
corteccia prefrontale non è, quindi, funzionale all’anticipazione di una
ricompensa inizialmente appresa. La corteccia prefrontale può tuttavia
dare dei feedback quando le condizioni ambientali cambiano. Brian
Kuntson ed i suoi colleghi [Knutson et al., 2001] fanno la seguente
omologia: in pratica paragonano lo striato ventrale ad un pedale, mentre la regione mediana della corteccia prefrontale ad un volante che
può orientare le scelte, verso la direzione appropriata, quando cambiano le condizioni. I risultati ottenuti, oltre a convalidare l’esistenza di
due diversi tipi di processi mentali della presa di decisione (i processi
controllati dalla corteccia prefrontale ed i processi automatici dello
striato), danno forza al concetto che Daniel Kahneman [Kahneman,
1994] ha suggerito per l’utilità; cioè che le differenti forme d’utilità
trovano, rispettivamente, la loro fonte da differenti regioni del cervello. Secondo Knutson e Peterson, lo striato ventrale è legato al concetto
d’utilità anticipato, mentre la regione mediana della corteccia prefrontale è legata al concetto di utilità istantaneo. I loro risultati sono, inol-
Scienze cognitive e neuroeconomia
33
tre, ugualmente compatibili con la distinzione fatta da Berridge e Robinson [Bernheim e Rangel, 2002] secondo i quali esistono due distinti processi neurali attivi per quello che si ama (liking) e quello che si
vuole o si desidera (wanting).
È possibile, inoltre, stabilire alcuni parallelismi tra il modello
dell’utilità e la dopamina (composto chimico che dà origine alla noradrenalina; la dopamina è uno dei neuromediatori e la sua ridotta presenza, in alcuni nuclei del cervello, è messa in relazione al morbo di
Parkinson). Numerose ricerche, infatti, hanno dimostrato il ruolo primordiale giocato dalla dopamina nella selezione degli obiettivi. Le
prime evidenze del ruolo giocato dalla dopamina, nella presa di decisione, associano quest’ultima alla sensazione di piacere [Olds e Milner, 1954]; gli studi, infatti, mostrano l’aumento della dopamina in
certe regioni del cervello dei topi, quando questi venivano coinvolti in
delle attività gratificanti. Da questo sembra evidente il legame tra la
dopamina ed il piacere edonistico. Riassumendo, possiamo asserire
che, per assicurarsi la sopravvivenza, tutte le specie devono potere
compiere delle funzioni vitali diverse come cibarsi, reagire alle aggressioni e riprodursi. I circuiti cerebrali della ricompensa permettono
di ottenere questi obiettivi. L’area ventrale (ATV), un gruppo di neuroni situati nel pieno centro del cervello, è particolarmente importante
nel funzionamento di questo circuito. Questa riceve degli imputs da
diverse altre aree del cervello che la informano del livello di soddisfazione dei bisogni fondamentali (o più specificatamente umani).
All’arrivo di un segnale che annuncia una ricompensa, si riscontra un
aumento dell’attività della ATV. Questa regione trasmette, quindi,
queste informazioni grazie ad un messaggio chimico particolare, la
dopamina appunto, che viene emessa dalla corteccia prefrontale e
dall’amigdala, attivando in questo modo sia l’attività motoria sia
l’attenzione selettiva.
Dunque, è questa secrezione di dopamina ad ottenere l’effetto di
rafforzare determinati comportamenti, permettendo la soddisfazione di
bisogni fondamentali. Di conseguenza, possiamo affermare che il circuito della ricompensa, così come quello della punizione, forniscono
la motivazione necessarie alla maggioranza dei nostri comportamenti.
La secrezione della dopamina può essere causata dall’ambiente associato alla ricompensa e non dalla ricompensa stessa. Per esempio, la
34
Capitolo I
semplice vista di un bicchiere di vodka può generare un impulsivo desiderio (non cosciente) di fumare una sigaretta ad una persona che, in
passato, aveva preso l’abitudine di consumare insieme queste due sostanze. La dopamina sarà allora responsabile di un’insieme di comportamenti, fra cui anche l’acquisto economico [Laibson, 2001; Bernheim
e Rangel, 2002], destinati ad attendere diverse forme di ricompensa.
Scarica