Definizioni e tipologie Per psicobiologia si intende una disciplina

Definizioni e tipologie
Per psicobiologia si intende una disciplina che rientra nell'ambito delle neuroscienze, cioè quelle scienze
che hanno come oggetto di studio il sistema nervoso a livello anatomico e fisiologico per quanto riguarda
la sua influenza sul comportamento umano.
Nasce come disciplina nella metà degli anni ‘40 attraverso gli studi di Carl Lashley e tramite la
pubblicazione di Hebb “L'organizzazione del comportamento”. Hebb espose la prima teoria generale di
come fenomeni psicologici complessi, quali percezione, emozioni, pensiero e memoria, potessero essere
prodotti dall'attività cerebrale.
Oggi la psicobiologia si caratterizza per una funzione di integrazione rispetto ai contributi proposti da
altre discipline affini come ad esempio:
la psichiatria biologica che studia le basi biologiche dei disturbi psichiatrici e del loro trattamento;
la neurobiologia dello sviluppo che studia il sistema nervoso dallo sviluppo alla maturazione fino al suo
invecchiamento;
la neurochimica che studia le basi chimiche dell'attività neurale;
la neuroendocrinologia che studia l'interazione tra il sistema nervoso ed il sistema endocrino;
la neuroanatomia che studia la struttura del sistema nervoso;
la neurofisiologia che studia le attività del sistema nervoso;
la neurofarmacologia che studia gli effetti dei farmaci sul sistema nervoso;
la neuro etologia che studia l'interazione fra il sistema nervoso e il comportamento esibito dagli animali
nel loro ambiente naturale e che pone le basi per un approccio comparativo rispetto allo studio della
psicobiologia nell'essere umano.
Gli psicobiologi svolgono le loro ricerche utilizzando una varietà di approcci sperimentali in base ai quali
possiamo distinguere sei principali aree:
la psicologia fisiologica;
la psicofarmacologia;
la neuropsicologia;
la psicofisiologia;
la neuroscienza cognitiva;
la psicologia comparata.
Appredimento, memoria e amnesie.
La memoria viene definita come la capacità di un organismo vivente di mantenere tracce della propria
esperienza passata ed utilizzarla per relazionarsi col mondo e con gli eventi futuri. Si ritiene che sia un
processo in tre stadi:
codifica ed immissione delle informazioni;
1
memorizzazione e consolidamento delle informazioni;
recupero delle informazioni.
Viene definito come ricordo la funzione in cui si esprime la memoria, mentre si definisce oblio la
diminuzione o la scomparsa del ricordo. L’oblio è spesso dovuto ad un naturale deterioramento
fisiologico e psicologico e va distinto dalla amnesia che invece è una riduzione più o meno grave non del
ricordo ma della capacità di ricordare. Ha una causa patologica che può essere organica, come, ad
esempio, un trauma cranico, o psicogena, come un evento traumatico a livello psicologico che può
determinare una amnesia come difesa rispetto al dolore associato al ricordo.
Si può distinguere l’amnesia in:
anterograda, ovvero la perdita di memoria per gli avvenimenti successivi all’evento che l’ha prodotta;
retrograda, ovvero la perdita di memoria per gli avvenimenti antecedenti all’evento che l’ha prodotta. Si
distingue in: retrograda con gradiente temporale (deficit del II stadio del processo di memoria, cioè della
memorizzazione); retrograda senza gradiente temporale (deficit del III stadio del processo di memoria,
ovvero il recupero delle informazioni).
Per quanto riguarda gli studi sulla memoria e sui suoi fondamenti biologici vi sono due teorie principali:
la teoria di Carl Lashley e la teoria di Hebb.
La teoria di Lashley è stata formulata nell’ambito di studi sulla localizzazione neurali degli engrammi,
ovvero modificazioni cerebrali responsabili dell’immagazzinamento in memoria. Gli studi di Lashley che
consistevano nell’addestrare animali da laboratorio, nel far eseguire loro compiti di apprendimento
abbastanza complessi, per poi asportare o lesionare parti di cervello cancellando la memoria di questi
apprendimenti. Sulla base dei risultati ottenuti Lashley concluse che si potevano affermare due principi:
il principio dell’azione di massa, secondo cui le memorie di compiti complessi sono immagazzinate
diffusamente nella neocorteccia;
il principio della equipotenzialità, secondo cui tutte le parti della neocorteccia giocano lo stesso ruolo
nell’immagazzinamento delle informazioni e delle memorie di compiti complessi.
Lashley ammetteva che alcune parti avevano ruoli più importanti nell’immagazzinare tipi diversi di
memoria, per esempio, la corteccia visiva poteva avere un ruolo fondamentale nel conservare
informazioni visive, però sosteneva anche che le memorie erano immagazzinate in maniera diffusa e
uguale nelle diverse aree funzionali.
La teoria di Hebb invece si basava sugli studi della memoria a breve e lungo termine. Diverse ricerche
avevano infatti suggerito l’ipotesi che una certa informazione venisse conservata temporaneamente in un
magazzino a breve termine fino a che non si verificavano delle modificazioni psicologiche che portavano
ad un immagazzinamento a lungo termine.
Hebb sosteneva che la funzionalità della memoria a breve termine è mediata da una attività riverberante,
cioè un’attività che si ripete in circuiti neurali chiusi eccitati solo da un evento in particolare. Questa
produce modificazioni strutturali nelle sinapsi che successivamente portano ad una facilitazione
sinaptica, cioè facilitano il verificarsi del pattern di attività.
Le basi neurali della memoria, dell’oblio e dell’amnesia sono state studiate soprattutto attraverso
esperienze di interventi neurochirurgici di un paziente indicato solo con le sue iniziali : H.M. Questo
paziente è stato sottoposto alla lobectomia temporale mediale bilaterale, quindi all’asportazione della
parte mediale dei lobi temporali di entrambe le parti mostrando poi i sintomi di una amnesia anterograda
e impossibilità di formare nuove memorie a lungo termine.Gli studi effettuati su questa persona hanno
portato ad individuare le basi neurali implicate nell’amnesia, ossia l’ippocampo, l’amigdala e il peduncolo
temporale.
I principali test psicologici che si utilizzano per la valutazione sistematica delle forme di amnesia sono:
il test del digit span +1 in cui viene richiesto di ripetere 5 cifre che vengono lette ciascuna con un
intervallo di un secondo; se il paziente le ripete tutte correttamente nella prova successiva gli vengono
proposte le stesse 5 cifre nello stesso ordine e alla fine della sequenza si aggiunge 1 cifra. Appena il
2
paziente riesce a ripetere anche questa sequenza, viene aggiunta un’altra cifra e cosi via. I soggetti
normali, dopo 25 presentazioni, sono in grado di ripetere un numero di circa 15-18 cifre, mentre i
pazienti con deficit mnestici di amnensia anterograda riescono a ripetere non più di 7 cifre quindi solo
una in più rispetto al digit span di base.
Il block tapping memory span test o test dei cubetti si utilizza perché l’amnesia anterograda non è
limitata al materiale solo non verbale o solo verbale, per cui bisogna utilizzare test diversi sia rispetto al
materiale verbale che non verbale. Inoltre, tale amnesia può implicare ulteriori deficit in prestazioni di
tipo manuale che implicano capacità logiche, di coordinamento sensoriale e muscolare. In questo test
vengono dati 9 cubetti che vengono sparsi sul tavolo di fronte al paziente, il neuropsicologo tocca una
sequenza di cubetti e poi chiede al paziente di toccarli a sua volta nella stessa sequenza. La persona che
ha un deficit mnestico non riesce ad imparare la sequenza anche se gli viene ripetuta per almeno 12 volte.
Tale deficit viene chiamato amnesia globale.
Il test di appaiamento verbale e non verbale in cui si presenta al soggetto un item campione e dopo un
certo intervallo di tempo si presenta un insieme di items fra cui bisogna scegliere quello che corrisponde
al primo item campione. Ci sono forme sia verbali che non verbali di questo test e in pazienti con deficit
mnestici si vede che in ogni prova lo stimolo campione viene presentato per poco tempo in una matrice
fatta di 3 riquadri x 3 e l’item campione viene messo nel riquadro centrale. Dopo intervalli di differente
durata vengono presentate altre 8 matrici con items fra cui scegliere per l’appaiamento, quindi il paziente
deve toccare il riquadro che contiene l’item corrispondente al campione. Con stimoli verbali, ad esempio
sequenze di consonanti, i pazienti non mostrano alcuna difficoltà, perfino con intervalli prolungati
intorno ai 40 secondi; per stimoli non verbali, ad esempio forme geometriche, il paziente non riesce ad
eseguire il compito ad intervalli maggiori di 5 secondi che è un risultato abbastanza grave se si pensa che
un gruppo di bambini di controllo in età scolare non commette errori in nessuna delle due forme del test.
Il test del disegno allo specchio consiste nel tracciare una linea continua lungo un tracciato a forma di
stella osservando il tracciato in uno specchio. Per ogni prova si conta il numero degli errori, cioè quante
volte il paziente esce dal tracciato. Vi è un progressivo apprendimento del compito che permette un
miglioramento nel corso dell’esecuzione ripetuta per alcuni giorni, tuttavia quando viene chiesto al
paziente se ha già svolto quel compito afferma di non averlo mai visto. Quindi non c’è memoria rispetto
all’aver già svolto il compito ma c’è una ritenzione sulla sua esecuzione.
Nel test del rotary pursuit il soggetto deve mantenere la punta di una matita in contatto con un bersaglio
che si muove circolarmente su un disco che ruota. Nel caso di H.M., per esempio, si è visto che dopo 9
sessioni di prova le prestazioni miglioravano significativamente anche se il paziente non ricordava di
aver già eseguito quel test.
Nel test delle figure incomplete si utilizzano 20 figure di oggetti che vengono presentati ciascuno in 5
forme che vengono disegnati con un numero crescente di tratti : quindi la forma 1 è la più incompleta,
mentre la forma 5 riproduce l’oggetto per intero. Al soggetto vengono presentate prima le figure degli
oggetti più incompleti, quindi la forma 1, e gli viene chiesto di identificarli; poi gli vengono presentate le
forme 2 degli oggetti che non ha riconosciuto e si propongono le forme 3, 4, e 5 finché tutti e 20 gli oggetti
non siano stati riconosciuti. Anche in questo caso la prova mostra dei miglioramenti ripetendo le sessioni
di prova ma il soggetto all’inizio di ogni nuova sessione non ricorda di aver già svolto quel compito.
3
Un’ altra forma di memoria è quella che deriva da un condizionamento pavloviano. In uno studio vennero
somministrati al soggetto una serie di stimoli acustici associati ad un colpo d’aria sull’occhio tale da
provocare ammiccamento. Dopo la fase di condizionamento il paziente ammiccava alla sola
presentazione dello stimolo acustico. Dopo diverso tempo il soggetto continuava a mostrare questa
risposta condizionata sebbene non avesse alcun ricordo cosciente del periodo di condizionamento.
Vi sono poi delle amnesie legate a patologie particolari: l’amnesia legata alla sindrome di Korsakoff,
l’amnesia legata al morbo di Alzhaimer, l’amnesia collegata a traumi cranici chiusi. La sindrome di
Korsakoff è un quadro clinico legato agli alcolisti cronici derivante da un deficit di tiamina che è una
vitamina del gruppo B1. I sintomi generali di questa sindrome sono deficit sensoriali e motori, grave
confusione, modificazione della personalità, oltre al rischio di morte per problemi epatici,
gastrointestinali e cardiaci legati all’assunzione eccessiva di alcol. Le strutture neurali implicate nella
sindrome di Korsakoff, a seguito soprattutto di autopsia condotta su pazienti morti a causa di questa
patologia, sembrano essere la corteccia prefrontale e il diencefalo, in particolare talamo, ipotalamo (corpi
mammillari), la neocorteccia e il cervelletto. I deficit associati ad una alterazione di queste strutture
diencefaliche sono deficit cognitivi che portano ad uno sviluppo di amnesia retrograda che si accompagna
ad una comparsa progressiva di amnesia anterograda che è aggravante rispetto ai sintomi generali. Per
quanto riguarda invece la corteccia prefrontale, i deficit associati sono interferenza proattiva, cioè il
fenomeno per cui l’esecuzione di un compito mnestico interferisce con l’esecuzione di un compito
successivo, e amnesia per le sequenze temporali.
Il morbo di Alzhaimer è la principale causa di demenza senile, cioè deterioramento intellettivo generale
nelle persone anziane che rende il soggetto incapace di svolgere le più comuni attività, ed è un’altra delle
principali cause di amnesia. Anche le modificazioni neurali dei pazienti affetti da morbo di A. sono
studiate mediante autopsia del cervello di pazienti deceduti in seguito a questa patologia. Queste autopsie
hanno evidenziato a livello neurale la presenza di neurofibrille del citoplasma nei neuroni, placche
amiloidi, cioè intrecci di fibre neurali degenerate miste a proteine anomale definite amiloidi, e neuroni
degenerati che si trovano soprattutto nella neocorteccia frontale e temporale, nell’ippocampo e nel
proencefalo basale.
La degenerazione e modificazione neuronale che si evidenzia in pazienti affetti da morbo di A. è di due
tipi: a livello della corteccia frontale e temporale e dell’ippocampo vi è una degenerazione e riduzione
dell’attività dei neuroni colinergici che producono enzimi che stimolano la sintesi di acetilcolina, invece
nei nuclei del proencefalo c’è proprio una riduzione quantitativa dei neuroni. Sulla base di queste
osservazioni viene formulata una ipotesi di implicazione dei meccanismi colinergici nei processi mnestici,
in particolare nella memoria della sequenza temporale degli eventi. In base a questa ipotesi furono usati
anche dei farmaci come la scopolamina che blocca i recettori colinergici di tipo muscarinico, e intrapresi
studi su farmaci antagonisti e agonisti colinergici e sui loro effetti rispetto alla memoria.
Gli agonisti colinergici hanno effetti nootropici cioè migliorano la memoria, tuttavia è un’ipotesi che deve
essere ancora valutata con una evidenza sperimentale rigorosa. Per quanto riguarda l’amnesia legata ai
traumi cranici chiusi, dobbiamo dire che questo è un trama in cui non c’è rottura della scatola cranica o
penetrazione di oggetti esterni. L’amnesia derivante può essere sia anterograda che retrograda e può
essere accompagnata da due fenomeni particolari , il fenomeno delle isole di memoria e il fenomeno delle
lacune di memoria. Isole di memoria significa che si conservano memorie di eventi particolari verificatisi
in periodi di cui non si conserva nessun altro ricordo, quindi c’è un periodo precedente al trauma cranico
rispetto al quale non si ricorda nulla tranne delle memorie isolate.
Le lacune di memoria sono delle lacune persistenti anche quando l’amnesia retrograda e anterograda si
riducono.
Per quanto riguarda l’amnesia da lesione dei lobi temporali , vennero effettuate delle lesioni o distruzione
dell’ippocampo, lesioni dell’amigdala o del peduncolo temporale quindi di quelle strutture che negli
esseri umani erano già ritenute implicate come basi della memoria e dell’amnesia. In particolare, in uno
4
studio di Mishkin, una scimmia doveva effettuare una prova del test di accoppiamento ritardato di oggetti
non ricorrenti (stimoli nuovi); in ogni prova del test si presentava ad una scimmia un oggetto
campione sotto il quale era possibile trovare del cibo, quindi dopo un intervallo variabile in cui la
scimmia viene coperta da uno schermo si mostra poi all’animale di nuovo lo stimolo iniziale insieme ad
un oggetto nuovo. L’animale deve ricordare il primo stimolo per poter scegliere lo stimolo nuovo sotto
cui ora è nascosto il cibo. In ogni prova si mostrano sempre stimoli nuovi. Se l’intervallo è di pochi minuti,
scimmie normali addestrate sono in grado di risolvere il compito nel 90% dei casi, se l’animale ha invece
una lesione temporale mediale bilaterale si comporta correttamente solo se l’intervallo è di pochi
secondi, altrimenti la sua prestazione diventa assolutamente casuale.
Questo test ha portato ad affermare che il peduncolo non fosse implicato nell’amnesia ma ciò che invece
era fondamentale era l’attività sinergica dell’ ippocampo e dell’amigdala.
Mishkin ha effettuato anche studi sulle lesioni diencefaliche della scimmia e sulla conseguente amnesia
effettuando lo stesso test ed osservò che i deficit nella prestazione erano dovuti soprattutto a lesioni dei
nuclei dorso mediali del talamo come avveniva nei pazienti umani affetti da sindrome di Korsakoff,
mentre il ruolo dei corpi mammillari non era evidenziato da queste ricerche. Questo test è stato infine
usato anche per osservare deficit di memoria conseguenti a lesioni della corteccia prefrontale e ciò che si
è evidenziato è stato un deficit della memorizzazione delle sequenze temporali come avveniva a pazienti
amnesici umani.
Un altro paradigma sperimentale che è stato usato sempre su animali è il paradigma della Mumby box
che si basa su test di non appaiamento ritardato di oggetti non ricorrenti e un oggetto campione in cui
l’oggetto campione veniva posto in una di due vaschette per il cibo ad una estremità di questa scatola,
mentre all’altra estremità sempre su altre due vaschette per il cibo veniva posto sia lo stesso oggetto che
un oggetto nuovo. Quando si solleva la porta scorrevole il ratto addestrato e deprivato di cibo corre a
sollevare l’oggetto e a prendere il cibo sottostante. A questo punto lo sperimentatore toglie lo stimolo e il
ratto rimane nel box per un intervallo di tempo variabile, ad esempio un minuto. Viene poi aperta l’altra
porta e il ratto che ricorda lo stimolo appena visto corre verso l’oggetto nuovo per prendere il cibo che si
trova nella vaschetta sottostante. A questo punto il ratto si dirige verso il centro i divisori vengono
richiusi e vengono posizionati gli oggetti per la prova successiva.
Questo esperimento dimostra che le prestazioni del ratto nella mumby box sono molto simili a
quelle
della scimmia nelle prove di non appaiamento ritardato di oggetti non ricorrenti. Lesioni dell’ippocampo
e dell’amigdala producono deficit nelle prestazioni della mumby box che sono gli stessi evidenziati nelle
prove sperimentali per la scimmia e nei test standard utilizzati per la valutazione sistematica
dell’amnesia nell’essere umano.
Sono stati poi effettuati studi più specifici per quanto riguarda le sedi neurali della memoria in relazione
alla fase di immagazzinamento in memoria; le prime teorie di Lashlay ipotizzavano che le memorie
venissero immagazzinate diffusamente e quindi che non ci fossero delle sedi specifiche di localizzazione ,
sono stati quindi effettuati studi ulteriori per verificare se questo fosse effettivamente vero o se invece
esistevano delle sedi neurali specifiche di immagazzinamento. L’evidenza sperimentale porta ad
integrare queste due ipotesi nel senso che le memorie vengono immagazzinate diffusamente e la
memoria di una singola esperienza implica sedi neurali diverse, in particolare aree sensoriali della
corteccia implicate nell’analisi percettiva delle diverse informazioni sensoriali, ovvero la corteccia infero
temporale è sede neurale per l’immagazzinamento della memoria delle informazioni visive, la corteccia
parietale posteriore è sede neurale per l’immagazzinamento della memoria relativa alla localizzazione
spaziale degli oggetti, e la corteccia somatosensoriale secondaria è la sede neurale
dell’immagazzinamento della memoria riferita a stimoli tattili.
Per ciò che riguarda le prestazioni dei soggetti amnesici ai diversi test standard di valutazione importante
è anche la distinzione fra memoria implicita ed esplicita e memoria procedurale e dichiarativa. Ciò che è
stato possibile dimostrare usando test specifici come il test di apprendimento percettivo, test di
5
condizionamento classico e test di priming di ripetizione è che c’è una conservazione di memorie
implicite, ad esempio attraverso una studio che usava un test di apprendimento percettivo si è visto che
pazienti amnesici addestrati a leggere immagini speculari di parole conservavano questa abilità anche
dopo 3 mesi pur non ricordando di aver effettuato l’addestramento per questo tipo di compito. Con il
condizionamento classico pazienti amnesici hanno appreso una risposta di ammiccamento condizionato
e l’hanno mantenuta per 24 ore pur non ricordando di aver effettuato le prove di condizionamento.
Attraverso prove di priming di ripetizione venivano presentate ai pazienti liste di parole e poi frammenti
delle parole della lista che i pazienti dovevano completare. Pur non avendo i pazienti alcuna capacità i
ricordo e riconoscimento delle parole ma riuscivano comunque a completare correttamente il test. Questi
test dimostravano che esistono due diversi sistemi di memorizzazione, definiti memoria esplicita ed
implicita mediate da sistemi differenti. I ricordi espressi in forma di dichiarazioni consapevoli fanno
parte di un sistema di memoria esplicita, mentre i ricordi che sono presenti in memoria e che
inconsapevolmente influenzano un comportamento migliorando ad esempio le prestazioni fanno parte di
un sistema di memoria implicita. La memoria esplicita è quindi espressa da dichiarazioni consapevoli
quindi include il ricordo ed il riconoscimento ed è mediata dalla memoria dichiarativa che comprende la
memoria episodica e la memoria semantica. La memoria si riferisce alla memoria di eventi che hanno un
tempo e un luogo, la memoria semantica invece si riferisce alla memoria di eventi ed informazioni
generali che sono state acquisite nel corso di specifiche esperienze e specifici apprendimenti. La memoria
esplicita viene più spesso danneggiata nei casi di amnesia; infatti la memoria esplicita ed in particolare
quella dichiarativa che è quella accessibile all consapevolezza e che può essere richiamata alla mente sia
verbalmente che non verbalmente è quella che più spesso viene danneggiata nei casi di amnesia. La
memoria implicita invece viene espressa dalla performance e dai miglioramenti relativi ad esperienze
precedenti non ricordate, in questo caso c’è una assenza di ricordo e riconoscimento consapevole ed è
mediata dalla memoria procedurale, una memoria che si valuta mediante le prestazioni perché impegna
abilità e operazioni che implicano una particolare conoscenza precedente. E’ una memoria che si attiva
automaticamente cioè ci sono delle informazioni e rappresentazioni preesistenti che sono di tipo
procedurale che vengono attivate automaticamente quando la persona deve effettuare una determinata
performance. Infine per quanto riguarda la localizzazione neurale nelle amnesie facendo riferimento alle
diverse fasi di memoria, quindi immagazzinamento codifica e recupero sono stati individuati osservando
pazienti umani e animali sperimentali con danni in diverse sedi neurali quale tipo di disturbo mnestico
relativo a quale fase si possa collegare ad una sede neurale piuttosto che ad un’altra. Per esempio
nell’amnesia da danno medio temporale c’è un disturbo della memorizzazione ed un oblio molto rapido
perché anche se la capacità di codifica e recupero sono intatte l’informazione non si è consolidata, invece
nell’amnesia legata a danni del diencefalo c’è un disturbo della codifica e del recupero quindi l’oblio è
progressivo perche la memorizzazione permane ciò che è più difficile è la codifica delle informazioni
nuove e il recupero però l’informazione rimane in memoria. Ci sono quindi due sistemi mnestici diversi e
la distruzione del fornice che è la struttura neurale che collega questi due sistemi non produce amnesia il
che significa che i due sistemi mnestici diversi mediano fasi diverse del processo di memorizzazione.
Lesioni bilaterali dell’ippocampo nelle cavie spesso hanno sulla memoria effetti scarsi o nulli. Me esiste
un’eccezione : tali lesioni compromettono i compiti che comportano la memoria spaziale. Per esempio tali
lesioni compromettono le prestazioni nel labirinto ad acqua di Morris e nel labirinto a bracci radiali. Ad
esempio la capacità di visitare solo il corridoio che contiene il cibo nel labirinto a bracci radiali è una
misura della memoria di riferimento ossia la memoria di quelle abilità generali richieste per svolgere il
compito in tutte le sessioni, mentre l’abilità a percorrere non più di una volta ciascun corridoio prima di
localizzare quello con il premio è invece una misura della memoria di lavoro, cioè la memoria a breve
termine necessaria per svolgere correttamente il compito in ciascuna sessione sperimentale. Un’ulteriore
dimostrazione a favore della teoria dell’ippocampo come mappa cognitiva fu la scoperta nell’ippocampo
di ratto di numerosi neuroni che funzionano come cellule di posizione cioè neuroni che rispondono solo
6
quando l’animale è in una determinata posizione spaziale. Ogni cellula di posizione ha un campo recettivo
in un punto diverso dell’ambiente, cosicché alcuni ricercatori hanno potuto osservare che l’attivazione
delle cellule di posizione di un ratto indica dove l’animale pensa di essere e non dove si trova realmente.
Importanti sono anche le ricerche sugli uccelli che nascondono le riserve di cibo : essi devono infatti
avere una notevole memoria spaziale per ricordare la posizione di centinaia di nascondigli. E proprio
questo nascondere ed andare a riprendere il cibo serve per lo sviluppo dell’ippocampo che risulta essere
più grande rispetto ad altri uccelli. Alcune ricerche di Maguire hanno dimostrato che vi è un
coinvolgimento dell’ippocampo nella memoria spaziale anche nell‘ essere umano; ad esempio hanno
scoperto che i tassisti londinesi con più di vent’anni di esperienza hanno una quantità di materia grigia
ippocampale maggiore del normale. L’importanza dell’ ippocampo nella memoria spaziale si basa
comunque su tre teorie: la teoria della mappa cognitiva secondo cui ci sono diversi sistemi nel cervello
che si specializzano nel ricordo di diversi tipi di informazione e la funzione dell’ippocampo è il deposito
di ricordi per la localizzazione spaziale. In particolare è stato suggerito che l’ippocampo costruisce mappe
allocentriche del mondo esterno, cioè rappresentazioni dello spazio basate su relazioni tra oggetti esterni
e punti di riferimento, secondo input sensoriali che riceve. Egocentriche invece sono invece quelle
rappresentazioni dello spazio basate sulle relazioni relative alla propria posizione. Vi è poi la teoria
dell’associazione di configurazioni secondo cui la memoria spaziale è una manifestazione specifica delle
funzioni più generali dell’ippocampo, ossia l’ippocampo avrebbe un ruolo nel ricordo del significato
comportamentale di una combinazione di stimoli, ma non nella memoria di stimoli singoli. Infine è stata
suggerita una teoria specifica del ruolo dell’ippocampo nel riconoscimento degli oggetti, in particolare di
combinazioni spaziali di oggetti, e nel rapporto con la corteccia paraippocampale che sembrerebbe avere
un ruolo fondamentale in quasi tutti i compiti di riconoscimento degli oggetti. Vi sono anche altre 5
strutture del cervello coinvolte nell’ immagazzinamento dei ricordi. La corteccia infero temporale che
essendo coinvolta nella percezione visiva degli oggetti si pensa abbia un ruolo nell’immagazzinamento
dei ricordi; l’amigdala che sembra avere un ruolo nella memoria del significato emotivo dell’esperienza
(ratti con la ablazione dell’amigdala non rispondono con una reazione di paura ad uno stimolo neutro che
è stato ripetutamente associato ad uno shock elettrico doloroso); la corteccia prefrontale che sembra
essere coinvolta nella regolazione di processi cognitivi della memoria di lavoro come ad esempio
attenzione e organizzazione (pazienti con danni alla corteccia temporale presentano deficit nella
memoria dell’ordine temporale degli eventi e nella memoria di lavoro, hanno ad esempio difficoltà ad
eseguire compiti che comportano una serie di risposte; il cervelletto che si pensa immagazzini i ricordi
delle capacità sensori motorie apprese (es della membrana nittitante del coniglio) e il corpo striato che si
pensi immagazzini i ricordi di relazioni significative fra stimoli e risposte. A volte questa forma di
apprendimento basata sul corpo striato è definita formazione dell’abitudine.
Il Sistema nervoso
In psicobiologia il sistema nervoso costituisce la base del comportamento umano. Il sistema nervoso è
definito sistema di doppie in quanto si divide a due a due: SNC e SNP, cervello e midollo spinale (SNC),
SNS e SNA per il SNP, nervi afferenti ed efferenti per entrambi, SNsimpatico e SNparasimpatico per SNA.
Anatomicamente il SN dei vertebrati è composto di due parti principali: il SNCentrale e il SNPeriferico. Il
7
SNC è costituito dal cervello, o encefalo, contenuto nella scatola cranica, e dal midollo spinale contenuto
nella colonna vertebrale. IL SNP, che rappresenta la porzione del SN non contenuta nelle suddette
strutture ossee, è formato dal sistema nervoso somatico (SNS) e dal sistema nervoso autonomo (SNA). Il
SNA invece è quella parte del SNP che partecipa alla regolazione interna dell'organismo. E' costituito da
nervi afferenti che trasportano le informazioni sensitive dagli organi interni al SNC e da nervi efferenti
che portano segnali motori dal SNC agli organi interni. Il SNA presenta due tipi di nervi efferenti:
simpatici e parasimpatici. I nervi simpatici sono i nervi che stimolano, organizzano e mobilitano le risorse
energetiche per affrontare situazioni di pericolo, mentre quelli parasimpatici tendono a conservare le
energie. I neuroni simpatici e parasimpatici partono dal SNc e solo in parte raggiungono gli organi
bersaglio prima di stabilire connessioni sinaptiche con altri neuroni di secondo livello che trasportano
informazioni lungo il resto del percorso. I neuroni simpatici comunque stabiliscono connessioni
sinaptiche ad una notevole distanza dagli organi bersaglio mentre quelli parasimpatici stabiliscono
connessioni sinaptiche vicino agli organi bersaglio su neuroni di secondo livello molto corti. E' necessario
evidenziare tre principi molto importanti: 1) i nervi simpatici stimolano organizzano e mobilitano le
risorse energetiche nelle situazioni di minaccia mentre i nervi parasimpatici agiscono per conservare
l'energia; 2) ogni organo bersaglio autonomo riceve un input opposto simpatico e parasimpatico e quindi
la sua attività è controllata dai relativi livelli di attività simpatica e parasimpatica; 3) i cambiamenti
simpatici sono indicativi di arousal psicologico, mentre i cambiamenti parasimpatici sono indicativi di
rilassamento psicologico. Il SNS corrisponde a quella componente del SNP che interagisce con l'ambiente,
ed è composto da nervi afferenti che veicolano le informazioni dalla cute, articolazione, occhi, orecchie,
muscoli scheletrici al SNC ed efferenti che trasportano i segnali motori dal SNC ai muscoli scheletrici. Il
sistema nervoso periferico è costituito da 12 paia di nervi cranici o nervi encefalici che non originano dal
midollo spinale ma partono direttamente dal tronco encefalico. Sono connessi alla superficie ventrale del
cervello e la maggior parte di essi svolge funzione sensoriali e motorie per la regione della testa e del
collo. Uno di essi il nervo vago regola la funzione degli organi della cavità toracica e addominale. I nervi
cranici ricevono le informazioni sensoriali dalla testa e dal collo, gustative dalla lingua, uditive e
vestibolari dalle orecchie relative all'equilibrio, visive dagli occhi, e olfattive dal naso. Nell'anatomia
umana ci sono 12 paia di nervi cranici pari destri e sinistri numerati dall'alto verso il basso con numeri
romani. Il primo è il nervo olfattivo, il secondo il nervo ottico, il terzo l'oculomotore, il quarto il trocleare,
il quinto il trigemino, il sesto l'abducente, il settimo il facciale, l'ottavo il nervo vestibolo cocleare, il nono
il nervo glossofaringeo, il decimo il nervo vago che è il nervo cranico più lungo e contiene fibre motorie e
sensitive per numerosi organi interni, l'undicesimo il nervo accessorio al vago e il dodicesimo il nervo
ipoglosso. Il nervo vago (uno dei nervi più lunghi) concorre all'innervazione viscerale di tutto il tratto
digerente, del cuore e dei polmoni, nonché della regione faringo-laringea. Hanno le stesse caratteristiche
dei nervi spinali in quanto presentano fibre motrici e sensitive viscerali e somatiche, la differenza sta nel
fatto che i nervi encefalici possono avere anche solo una di queste caratteristiche mentre i nervi spinali
sono dei nervi misti.
Il cervello ed il midollo spinale sono gli organi più protetti del corpo. Sono racchiusi in una teca ossea e
avvolti da 3 membrane protettive dette meningi. La più esterna è una membrana resistente chiamata
dura madre, al di sotto della quale vi è una membrana più sottile chiamata membrana aracnoidea o
aracnoide. Sotto quest'ultima vi è uno spazio detto spazio subaracnoideo che contiene i grandi vasi
sanguigni e il liquido cerebrospinale. La membrana più interna è invece la pia madre, più delicata e
ampiamente vascolarizzata che aderisce alla superficie del SNC. Un altro sistema di protezione è
rappresentato dal liquido cerebrospinale o liquor che riempie spazi comunicanti tra loro attraverso una
serie di aperture come lo spazio subaracnoideo, il canale centrale del midollo spinale e i ventricoli
cerebrali dell'encefalo. Il canale centrale è un canale stretto che corre centralmente per tutta la lunghezza
del midollo spinale mentre i ventricoli cerebrali sono costituiti da 4 ampie camere all'interno del cervello
( due laterali, terzo e quarto ventricolo). Il liquido cerebrospinale sostiene e funge da cuscino protettivo
8
per il cervello, una diminuzione di tale liquido può infatti provocare intense cefalee e forti dolori
quando si scuote la testa. Il liquor è prodotto dai plessi coroidei ovvero una rete di capillari che dalla pia
madre arrivano fino alle cavità ventricolari. L'eccesso di liquor è continuamente riassorbito entro i seni
venosi, ampi spazi ematici che percorrono la dura madre e drenano il sangue nelle vene giugulari del
collo. A volte la circolazione del liquor può essere ostacolata dalla presenza di un tumore in vicinanza di
uno dei canali che collegano tra loro i ventricoli. L'aumento della pressione liquorale determina
un'espansione dei ventricoli che prende il nome di idrocefalo (testa d'acqua). La terapia dell'idrocefale
consiste nel drenaggio del liquor in eccesso e nella rimozione dell'ostacolo alla sua circolazione. Poichè
alcune sostanze chimiche possono seriamente compromettere il funzionamento del cervello, esiste un
meccanismo, chiamato barriera emato-encefalica, che impedisce il passaggio di molte sostanze tossiche
dalla circolazione sanguigna verso l'interno del cervello. Questa barriera dipende dalla speciale struttura
dei vasi sanguigni cerebrali. Infatti nel resto del corpo le cellule delle pareti dei vasi sanguigni non sono
aderenti fra loro e ciò consente il passaggio di diverse molecole nel tessuto circostante . nel cervello
invece tali cellule sono molto attaccate fra loro formando cosi una efficace barriera al passaggio di molte
molecole fra cui proteine e altre grandi molecole. Il di9verso grado con cui per esempio i farmaci
psicoattivi operano sui processi psicologici dipende dalla facilità o meno con cui passano la barriera
emato-encefalica. Vi sono però molecole importanti per il funzionamento del cervello come il glucosio il
cui passaggio non è impedito ma che sono trasportate attivamente attraverso la parete dei vasi ematici
cerebrali. In alcune zone inoltre la parete dei vasi sanguigni consente il passaggio di grandi molecole
come ad esempio gli ormoni sessuali in alcune zone implicate nel comportamento sessuale.
Il cervello viene diviso in 5 regioni in riferimento al suo sviluppo embrionale. Nello sviluppo
dell’embrione dei vertebrati il tessuto che darà origine al SNC si presenta inizialmente come un tubo
pieno di liquido. Nelle prime fasi dello sviluppo all’estremità anteriore di questo tubo si formano tre
vescicole che sono i precursori del proencefalo, del mesencefalo e del romboencefalo dell’adulto. Prima
della nascita queste tre vescicole diventano cinque, poiché sia la vescicola anteriore che posteriore si
dividono ciascuna in due ulteriori vescicole. Pertanto alla nascita il cervello si dividerà in : telencefalo
(emisferi cerebrali destro e sinistro), che va incontro alla maggior crescita durante lo sviluppo e il
diencefalo che costituiscono il proencefalo, mesencefalo, metencefalo e mielencefalo, spesso chiamato
anche midollo allungato, che costituiscono il romboencefalo. Queste ultime 4 regioni sono chiamate
complessivamente tronco encefalico, ovvero il tronco su cui sono posti i due emisferi cerebrali.
Il mielencefalo, o midollo allungato o bulbo, è la regione più caudale del cervello ed è formato da tratti,
fasci ascendenti e discendenti di fibre che veicolano segnali tra il corpo e le diverse parti del cervello. Una
delle strutture più importanti del mielencefalo è la formazione reticolare, cioè una complessa rete di circa
100 piccoli nuclei che occupa la regione centrale del tronco encefalico. Deve il suo nome all’aspetto di
reticolo, e a volte è chiamata anche sistema reticolare attivante poiché una arte di essa è impegnata nel
mantenimento degli stati di vigilanza. I diversi nuclei della formazione reticolare sono impegnati in
diverse funzioni fra cui il sonno, l’attenzione, il movimento, il mantenimento del tono muscolare e nella
regolazione di numerosi riflessi cardiaci circolatori e respiratori. Il metencefalo ospita anch’esso
numerosi tratti ascendenti e discenti oltre che una parte della formazione reticolare. Queste strutture
creano un rigonfiamento detto ponte sulla superficie ventrale del tronco encefalico. Oltre al ponte un
‘altra divisione del metencefalo è il cervelletto che è una grande struttura formata da numerose pieghe o
circonvoluzioni posta sulla superficie dorsale del metencefalo. Svolge una importante funzione nel
controllo sensorimotorio, ma non solo, infatti in seguito a lesioni cerebellari viene persa la capacità di una
precisa regolazione dei movimenti e la possibilità di adattarli alle condizioni esterne. Tali lesioni possono
però produrre anche una serie di disturbi cognitivi. Il mesencefalo presenta due divisioni : il tetto ed il
tegmento. Il tetto occupa a superficie dorsale del mesencefalo e nei mammiferi è formato da due paia di
rigonfiamenti detti collicoli. Questi a loro volta si dividono in collicoli inferiori più caudali che svolgono
funzioni uditive, e i collicoli superiori più rostrali che svolgono funzioni visive. Nei vertebrati inferiori il
9
tetto prende il nome di tetto ottico poiché svolge funzioni solo visive. Il tegmento è invece una regione
posta ventralmente rispetto al tetto e contiene oltre alla formazione reticolare e a tratti di fibre tre
strutture pigmentate: il grigio periacqueduttale, la sostanza nera ed il nucleo rosso. Il grigio
periacqueduttale corrisponde alla sostanza grigia intorno all’acquedotto cerebrale di Silvio, ovvero il
canale che collega il terzo e quarto ventricolo, e svolge un ruolo nel mediare gli effetti analgesici degli
oppiacei ; la sostanza nera (di Sommering) ed il nucleo rosso sono due importanti componenti del
sistema sensori motorio. Particolarmente importante dal punto di vista clinico è il sistema di proiezione
nigro-striatale che collega la sostanza nera del mesencefalo al corpo striato. La compromissione della via
nigro striatale è associata al morbo di Parkinson un disturbo neurologico caratterizzata da rigidità,
tremore ed estrema povertà di movimenti volontari. Tale disturbo origina dalla progressiva morte delle
cellule della sostanza nera. Questi neuroni producono un particolare neurotrasmettitore chimico, la
dopamina, che inviano al corpo striato. Via via che i neuroni della sostanza nera muoiono , la quantità di
dopamina inviata allo striato si riduce sempre più. Lo striato interviene nel controllo dei movimenti, e per
fra questo normalmente ha bisogno di dopamina. La dopamina non rappresenta una terapia adeguata per
il morbo di Parkinson perché è una sostanza che non attraversa facilmente la barriera emato-encefalica.
Tuttavia la conoscenza della trasmissione dopaminergica ha permesso di sviluppare un efficace
trattamento: la L-dopa., il precursore chimico della dopamina che penetra prontamente attraverso la
barriera emato-encefalica ed è convertita in dopamina nel cervello. Il diencefalo è formato da due regioni:
il talamo e l’ipotalamo. Il talamo è una struttura a due lobi che occupa la sommità del tronco encefalico. I
due lobi posti ai due lati del terzo ventricolo sono collegati mediante la massa intermedia, ovvero un
fascio di fibre nervose che passa attraverso il terzo ventricolo. Sulla superficie del talamo vi sono poi due
lamine di sostanza bianca costituite da assoni mielinizzati. Si è scoperto che la maggior parte delle
persone che hanno comportamenti normali sono prive di questa massa intermedia. Il talamo comprende
molti nuclei la maggior parte dei quali proietta alla corteccia. Alcuni sono nuclei di relè sensoriale cioè
centri di ritrasmissione che ricevono informazioni dalla superficie recettoriale, le elaborano e le inviano a
specifiche aree corticali. Ad esempio il nucleo genicolato laterale è un importante centro di elaborazione
nel sistema visivo, il nucleo genicolato mediale elabora e trasmette informazioni uditive, mentre i nuclei
ventrali posteriori svolgono un ruolo importante nel sistema somatosensoriale. L’ipotalamo è posto al di
sotto del talamo ed ha un ruolo importante nel regolare gli stati motivazionali. Esercita in parte i suoi
effetti controllando il rilascio di ormoni da parte dell’ipofisi (ghiandola pituitaria) che è attaccata alla
superficie ventrale dell’ipotalamo. Il termine ghiandola pituitaria significa ghiandola del muco poichè
venne osservata per la prima volta in un cadavere non imbalsamato e per la sua consistenza gelatinosa
venne considerata erroneamente la principale fonte del muco. Oltre al’ipofisi l’ipotalamo presenta anche
il chiasma ottico e i corpi mammillari. Il chiasma ottico è una struttura a forma di X che si forma nel punto
di unione dei nervi ottici provenienti dagli occhi dove una parte delle fibre di ciascun nervo ottico si
incrocia sulla linea mediana (decussazione) e proietta all’emisfero cerebrale opposto. Queste fibre sono
dette controlaterali mentre quelle che non si incrociano sono dette ipsilaterali. I corpi mammillari sono
un paio di nuclei sferici posti sulla superficie ventrale dell’ipotalamo dietro l’ipofisi. Il telencefalo è la
regione più ampia del cervello dell’uomo e svolge le funzioni più complesse come controllare i movimenti
volontari, decodificare e interpretare gli stimoli sensoriali, mediare numerose funzioni cognitive
complesse, come apprendimento, linguaggio e capacità di risolvere i problemi. Gli emisferi cerebrali sono
ricoperti da uno strato di tessuto chiamato corteccia cerebrale. Nell’uomo essa presenta numerose pieghe
o circonvoluzioni che hanno lo scopo di aumentarne la superficie ma non il volume complessivo. In alcuni
mammiferi detti lissencefalici (a cervello liscio) la corteccia si presenta priva di queste pieghe. Nel
passato si riteneva che le capacità intellettive di una specie fossero in relazione alla profondità e al
numero delle circonvoluzioni cerebrali. L’ipotesi attuali è comunque che il numero delle pieghe corticali
dipenda dalle dimensioni corporee dell’animale. Infatti negli animali di grandi dimensioni la corteccia
cerebrale appare più ricca di circonvoluzioni. Le pieghe corticali più profonde sono dette scissure, mentre
10
quelle più piccole sono dette solchi. Le zone fra scissure e solchi sono dette giri. I due emisferi sono quasi
completamente separati sulla linea mediana dalla scissura longitudinale; essi appaiano collegati solo da
alcuni fasci di fibre trasversali detti commessure cerebrali la più grande delle quali è il corpo calloso.
Ciascun emisfero è diviso in 4 lobi da due pieghe corticali di riferimento : la scissura laterale di Silvio ed il
solco centrale di Rolando. I lobi in cui si dividono gli emisferi sono: lobo frontale, parietale, temporale e
occipitale. I giri corticali di maggior rilievo sulla superficie laterale di ciascun emisfero sono il giro
precentrale, sede della corteccia motoria, il giro postcentrale, che contiene la corteccia somatosensitiva,
e il giro temporale superiore per la corteccia uditiva. Il lobo occipitale è invece interamente deputato alla
funzione visiva. Circa il 90% della corteccia cerebrale nell’uomo è neocorteccia (neocortex) ovvero una
corteccia a sei strati numerati da uno a sei partendo dalla superficie esterna. Comprende due diversi tipi
di neuroni: le cellule piramidali e le cellule stellate. Le cellule piramidali sono grandi neuroni multipolari
con soma a forma di piramide, un grosso dendrite detto apicale che si estende dall’apice della piramide
alla superficie corticale, e un lunghissimo assone; le cellule stellate invece sono piccoli interneuroni a
forma di stella. I sei strati della neocortex differiscono tra loro per dimensioni e densità dei corpi cellulari
e per la quantità relativa di cellule stellate e piramidali che ciascuno contiene. Inoltre molti assoni e
dendriti attraversano la neocortex verticalmente e questa disposizione verticale è alla base
dell’organizzazione colonnare della neocorteccia. I neuroni che si trovano in una determinata colonna
verticale costituiscono un circuito che svolge un’unica e specifica funzione. Un’altra importante
caratteristica della neocortex è che le dimensioni dei sei strati che la compongono variano da un’area
corticale all’altra : ad esempio il IV strato le cui cellule stellate sono specializzate nel ricevere segnali
sensoriali dal talamo è più spesso nelle aree corticali sensoriali, mentre il V strato le cui cellule piramidali
inviano segnali motori al tronco encefalico e al midollo spinale è più spesso nelle aree corticali motorie.
Nei mammiferi soltanto due strutture corticali non hanno questa composizione a sei strati : la corteccia
olfattiva e la corteccia ippocampale che fanno parte della paleocorteccia o corteccia antica perché si
suppone che abbiano un’origine filogenetica più antica rispetto alla neocorteccia. La prima è la corteccia
olfattiva che ha tre strati cellulari : due con corpo cellulare e uno senza. L’altra area che non appartiene
alla neocorteccia è l’ippocampo. La sua corteccia è costituita da due strati di cellule, uno con corpo
cellulare e uno senza. L’ippocampo, che ha un ruolo nella memoria a lungo termine e nella navigazione
spaziale, è una struttura avvolta su se stessa che ha l’aspetto di un cavalluccio marino e si trova nella
parte infero-mediale del lobo temporale. La porzione sottocorticale del telencefalo oltre a fibre assonali
ascendenti e discendenti dalla neocorteccia comprende voluminosi nuclei sottocorticali. Alcuni
appartengono al sistema limbico altri ai gangli della base. Il sistema limbico è un circuito di strutture
mediane disposte ad anello attorno al talamo. E’ implicato nella regolazione degli stati motivazionali,
come fame, fuga, lotta. Oltre all’ippocampo e ai corpi mammillari fanno parte del sistema limbico anche
l’amigdala, che significa dal latino mandorla, è un grosso gruppo di nuclei posti nella porzione anteriore
del lobo temporale davanti all’ippocampo, il fornice, che significa arco, è la struttura maggiore di
connessione del sistema limbico, le sue fibre originano dall’estremità caudale dell’ippocampo percorrono
la superficie dorsale del terzo ventricolo e terminano nei nuclei settali e nei corpi mammillari, la corteccia
cingolata, ampia regione di neocortex posta nel giro cingolato che forma un anello che circoscrive il
talamo, ed il setto, che è un nucleo della linea mediana situato all’estremità anteriore del giro cingolato.
All’interno del circuito limbico numerose vie collegano il setto ed i corpi mammillari all’amigdala e
all’ippocampo. I gangli della base comprendono tre grandi nuclei sottocorticali : il nucleo caudato, il
putamen ed il globo pallido. Il nucleo caudato presenta due zone : una testa ed una lunga coda che origina
dall’amigdala. Ciascun nucleo caudato forma un cerchio quasi completo nel cui interno connesso da una
serie di ponti di fibre vi è il putamen. L’insieme di questi due nuclei viene chiamato corpo striato poiché
entrambi presentano delle striature. Il globo pallido è un nucleo sferico e chiaro collocato medialmente al
putamen, tra questo ed il talamo. L’amigdala è considerata inoltre anche parte dei gangli della base.
Questi ultimi svolgono un ruolo importante nell’esecuzione dei movimenti volontari.
11
IL midollo spinale, un cilindro cavo di tessuto neurale che si trova all’interno della colonna vertebrale,
comprende due diverse aree: una regione centrale di sostanza grigia a forma di H circondata da una
regione di sostanza bianca. La sostanza grigia è composta in gran parte da corpi cellulari e da
interneuroni non mielinizzati mentre la sostanza bianca è formata essenzialmente da assoni mielinizzati
(la mielina conferisce a questa sostanza il suo colore bianco translucido). Le due braccia dorsali della
sostanza grigia spinale sono spesso chiamate corna dorsali mentre le braccia ventrali sono definite corna
ventrali. Dal midollo spinale emergono 31 paia di nervi spinali ciascuno dei quali in prossimità del
midollo si divide in due rami : radice dorsale e ventrale. Tutti gli assoni della radice dorsale somatici o
autonomi appartengono a neuroni unipolari sensitivi (afferenti) i cui corpi cellulari sono raggruppati
insieme a formare il ganglio associato alla radice dorsale. Molte delle terminazioni sinaptiche di questi
neuroni sono localizzate nelle corna dorsali del midollo. Le fibre che compongono invece la radice
ventrale appartengono a neuroni multipolari motori (efferenti) che si trovano a livello delle corna
ventrali. Le fibre efferenti che fanno parte del SNS proiettano ai muscoli scheletrici. Quelle del SNA
raggiungono i gangli dove fanno sinapsi con neuroni (gangliari) che proiettano agli organi interni come
cuore, stomaco, fegato ecc..
Le cellule del sistema nervoso sono di due tipi: i neuroni e le cellule gliali. I neuroni sono cellule
specializzate nella ricezione conduzione e trasmissione di segnali elettrochimici. I neuroni, che si
differenziani per forme e dimensioni, sono formati esternamente da un corpo cellulare o soma che
rappresenta il centro metabolico del neurone, da brevi prolungamenti detti dendriti che originano dal
corpo cellulare e ricevono la maggior parte dei contatti sinaptici dagli altri neuroni, dal monticolo
assonico che è una regione conica in corrispondenza della giunzione tra assone e soma, dall'assone che è
un lungo e sottile prolungamento che origina dal soma spesso ricoperto di mielina ovvero di una guaina
lipidica isolante che presenta delle interruzioni chiamate nodi di Ranvier che permettono una conduzione
del segnale più rapida detta conduzione saltatoria, da una membrana semipermeabile che racchiude il
neurone detta membrana cellulare, e che è composta da un doppio strato lipidico in cui sono incluse
numerose molecole proteiche responsabili di molte delle proprietà funzionali della membrana; alcune
proteine di membrana sono proteine di canale e consentono il transito attraverso la membrana di
molecole specifiche, altre invece sono proteine di segnale e hanno il compito di trasferire all’interno del
neurone segnali che si generano quando alcune molecole si legano al suo esterno, dai bottoni terminali
che sono strutture poste all'estremità degli assoni adibite al rilascio di sostanze chimiche nella sinapsi,
ovvero una struttura specializzata nella trasmissione di segnali elettrochimici tra neuroni adiacenti.
Internamente il neurone presenta il nucleo ovvero una struttura sferica contenente il DNA (acido
desossiribonucleico) della cellula, i mitocondri ovvero siti di rilascio di molecole di ATP, fonte di energia
per le cellule, il reticolo endoplasmatico ovvero un sistema di membrane ripiegate presente nel corpo
cellulare; le parti ruvide con ribosomi (organuli rilevanti per la sintesi proteica) svolgono un ruolo nella
sintesi proteica mentre le parti lisce senza ribosomi sono importanti per la sintesi di lipidi, il citoplasma
ovvero il fluido chiaro all’interno della cellula, l’apparato del Golgi che rappresenta un sistema di
membrane in cui alcune molecole sintetizzate nel neurone sono immagazzinate in vescicole, i microtubuli
che sono tubuli responsabili del trasporto rapido di sostanze attraverso il neurone, le vescicole sinaptiche
che sono corpuscoli membranosi di forma sferica in cui sono immagazzinati i neurotrasmettitori, ovvero
molecole rilasciate dai neuroni attivi e in grado di influenzare l’attività di altre cellule. Le cellule
neuronali possono essere classificate in base al numero dei prolungamenti citoplasmatici che originano
dal corpo cellulare : un neurone multipolare è un neurone con più di due prolungamenti ( la maggior
parte dei neuroni sono multipolari); un neurone unipolare è un neurone con un prolungamento mentre
un neurone con due prolungamenti è classificato come neurone bipolare, I neuroni privi di assone o con
un assone corto sono denominati interneuroni la cui funzione è quella di integrare l’attività di più
neuroni all’interno di una singola struttura cerebrale e non quella di condurre segnali da una regione
cerebrale all’altra. Da un punto di vista macroscopico nel SN ci sono due tipi di strutture neuronali: quelle
12
costituite primariamente da aggregati di corpi cellulari neuronali e quelle costituite da prolungamenti
assonali. Nel SNC gli aggregati di corpi cellulari sono chiamati nuclei e l’insieme di più prolungamenti
assonali o fibre sono chiamati tratti mentre nel SNP sono chiamati gangli mentre i fascicoli di fibre
nervosi sono chiamati nervi. Nel sistema nervoso oltre ai neuroni vi sono anche le cellule gliali, formate
da glia un collante nervoso, che forniscono un sostegno fisico e funzionale ai neuroni e li superano con
una proporzione di 1 a 10. Le cellule gliali sono di 4 tipi : oligodendrociti o oligodendroglia che emettono
prolungamenti che si avvolgono intorno agli assoni di alcuni neuroni del SNC; sono ricchi di mielina una
sostanza lipidica isolante e formano attorno agli assoni delle guaine che aumentano la velocità e
l’efficienza della conduzione. Nel SNP questa funzione è svolta dalle cellule di Schwann, o cellule satelliti,
ognuna delle quali costituisce un singolo segmento mielinico mentre un oligodendrocita forma più guaine
mieliniche. Una importante differenza fra cellule di Schwann e oligodendrocita è che le prime possono
guidare la rigenerazione (ricrescita) dell’assone dopo un eventuale danno; ecco perché nel SNC che è
scarso di cellule di Schwann vi è solo una modesta ricrescita assonale. Gli astrociti o astroglia hanno una
forma stellata con numerosi prolungamenti che coprono la superficie esterna dei vasi sanguigni cerebrali.
Poiché tali prolungamenti prendono contatti anche con i corpi dei neuroni si pensa che una delle funzione
di queste cellule sia quella di consentire il passaggio di sostanze chimiche dal sangue alle cellule
neuronali. Le cellule microgliali reagiscono alle ferite e alle malattie assorbendo frammenti cellulari e
innescando le risposte infiammatorie per distruggere gli agenti infettivi prima che danneggino il tessuto.
Inizialmente si credeva che la funzione delle cellule gliali fosse esclusivamente quella di sostenere i
neuroni provvedendo al nutrimento, rimuovendo gli scarti e assicurando la matrice fisica che tiene
insieme i circuiti neuronali (glia significa colla), ma in seguito si dimostrò che esse partecipano alla
trasmissione dei segnali inviandoli ai neuroni e ricevendoli a loro volta , controllano la creazione ed il
mantenimento delle sinapsi fra i neuroni e partecipano ai circuiti gliali.
Al fine di localizzare le strutture neuroanatomiche nel SN dei vertebrati si ricorre ad alcune tecniche
neuroanatomiche e a sistemi di coordinate. Il problema maggiore nella visualizzazione di neuroni non è
dato dalle loro piccole dimensioni ma dal fatto che sono stretti in poco spazio e che i loro assoni e
dendriti sono avvolti in modo molto intricato. Per ovviare a queste difficoltà è necessario preparare il
tessuto nervoso con varie tecniche che mettono in risalto ciascuna un aspetto diverso delle strutture
neuronali, per poi combinare i risultati ottenuti. Fra queste tecniche possiamo citare: il metodo di Golgi
casualmente scoperto dal medico italiano Golgi nel 1870 il quale nel tentativo di colorare le meningi con
dicromato di potassio prima e nitrato d’argento poi, osservò che il cromato d’argento che si formava in
seguito alla reazione chimica colorava completamente di nero solo alcuni neuroni presenti in ciascuna
sezione di tessuto nervoso. Questa scoperta consenti di osservare neuroni singoli e non masse
aggrovigliate di neuroni sebbene comunque fosse ben visibile solo la loro forma e non il loro interno e
non fornisse indicazioni sul numero di neuroni presenti in un’area; la colorazione di Nissl introdotta dallo
psichiatra Nissl nel 1880 che comunemente utilizza come colorante il cresil violetto; questo ed altri
coloranti di Nissl penetrano in tutte le cellule della sezione ma si legano in modo efficace solo ad alcune
strutture del corpo cellulare del neurone, come il citoplasma e il corpo cellulare: in questo modo è
possibile avere una stima del numero dei neuroni presenti in un’area semplicemente contando i punti
colorati con il Nissl; la microscopia elettronica che rappresenta una tecnica neuroanatomica che ha
fornito notevoli informazioni sui dettagli della struttura neuronale. Poiché il limite di ingrandimento della
microscopia ottica è di 1500 volte a causa della natura della luce, si possono ottenere maggiori
informazioni sui dettagli anatomici fini dei neuroni ricoprendo sezioni sottili di tessuto nervoso con una
sostanza che assorbe elettroni e che si lega in quantità diversa alle diverse parti del neurone. Quindi si fa
passare attraverso il tessuto un fascio di elettroni che va ad impressionare una pellicola fotografica. Si
ottiene cosi una micrografia elettronica in grado di visualizzare i particolari anatomici più fini della
struttura neuronale. La microscopia a scansione elettronica fornisce invece immagini tridimensionali
spettacolari sebbene non sia in grado di ingrandire tali immagini come la microscopia elettronica
13
convenzionale; Il colorante di Waigert è un metodo di colorazione destinato allo studio degli assoni
perché macchia selettivamente le guaine degli assoni mielinici. Successivamente sono state sviluppate
delle metodiche più raffinate : il tracciamento anterogrado e retrogrado. I primi si usano per determinare
dove terminano gli assoni che hanno origine in una particolare struttura, mentre i secondi servono per
determinare da dove provengono gli assoni che terminano in una determinata struttura. Questi metodi si
basano sul fatto che alcune sostanze sono captate dai corpi cellulari e trasportate lungo l’assone fino al
bottone terminale, altre sostanze sono invece captate dal bottone terminale trasportate fino al corpo
cellulare. Per quanto riguarda il tracciamento anterogrado la principale tecnica è detta tracciamento
autoradiografico che si basa sul fatto che gli aminoacidi presenti nel liquido extracellulare sono assorbiti
dai corpi cellulari, incorporati come proteine e trasportati attraverso tutto il neurone; quindi un
aminoacido viene marcato con il trizio che è un isotopo radioattivo dell’idrogeno e poi viene iniettato nel
sito di cui si vogliono studiare le proiezioni anterograde. Dopo qualche giorno il cervello viene diviso in
sezioni che vengono ricoperte con una emulsione fotografica e conservato in contenitori a tenuta di luce
per diverse settimane durante le quali le particelle radioattive che sono emesse dall’aminoacido marcato
reagiscono con l’emulsione fotografica. Le sezioni sono sviluppate come una pellicola in modo da rilevare
i punti in cui si trovava l’aminoacido nel momento in cui è morto l’ animale che si sta osservando. Si
evidenziano in questo modo le posizioni degli assoni e dei bottoni dei neuroni che hanno il sito nel luogo
dove è stata effettuata l’iniezione. Il tracciamento retrogrado invece utilizza la tecnica della perossidasi
del rafano. La perossidasi del rafano è un enzima che si trova nel rafano e in varie altre piante e si è
scoperto che viene captato dai bottoni terminali dell’assone e viene poi trasportato abbastanza
velocemente verso il corpo cellulare. Per scoprire qual è l’input neurale in un certo sito il ricercatore
inietta in quel sito una piccola quantità di perossidasi di rafano e aspetta qualche giorno. La distribuzione
della perossidasi rivela la posizione dei corpi cellulari dei neuroni i cui bottoni terminali hanno captato la
perossidasi nel sito in cui è stata effettuata l’iniezione.
Neurotrasmettitori
I neurotrasmettitori vengono individuati nel sistema nervoso centrale attraverso alcune tecniche fra cui
la tecnica dell’istofluorescenza, la autoradiografia dei legami recettoriali, l’immunoistochimica di
anticorpi monoclonali, e la microiontoforesi. La tecnica dell’istofluorescenza consiste nel fatto che le
monamine esposte a formaldeide emettono energia luminosa se esposte a radiazioni fluorescenti; si
utilizza quindi un microscopio a fluorescenza la serotonina si evidenzia perché dà un colore giallo, la
noradrenalina, adrenalina e dopamina perché danno colore verde. La autoradiografia dei legami
recettoriali consiste invece nel fatto che il ligando che sia neurotrasmettitore o farmaco viene marcato
con un isotopo radioattivo, poi il tessuto nervoso viene esposto a questo isotopo radioattivo, il legame
viene ricoperto con emulsione fotografica e reagente alla radioattività e vengono evidenziati i recettori,
se si evidenziano legami brevi si cerca di aumentarne la forza se invece si evidenziano legami poco
specifici si cerca di aumentarne la selettività. L’immunoistochimica di anticorpi monoclonali si basa sul
fatto che i linfociti in cavie di laboratorio possono essere fusi con cellule midollari carcinomatose e si
producono cosi cellule ibride con le caratteristiche di entrambi i generatori quindi si ottengono cellule
che secernono anticorpi come i linfociti e che però si dividono finchè sono mantenute in un ambiente
adatto come le cellule cancerose. Una volta che sia stata isolata una colonia che produce un anticorpo
specifico per una particolare proteina questo può essere prodotto in quantità illimitate. La
microionoforesi è invece una tecnica in cui si dispone una pipetta esterna al neurone e una interna ad
esso, si fa passare una piccola quantità di corrente elettrica tra la pipetta interna e quella esterna e questo
fa depositare alcune molecole della sostanza neurochimica sulla superficie del neurone la cui risposta si
rileva tramite una soluzione salina che si trova nella pipetta interna. Con questa tecnica si possono
scoprire i neurotrasmettitori che modificano il potenziale di riposo del neurone e dimostrare che il
neurone postsinaptico risponde a una sostanza chimica che quindi è un neurotrasmettitore.
14
Plasticità neuronale
Con il termine plasticità neurale si intende il fatto che il sistema nervoso non è un sistema statico
costituito da elementi connessi fra loro ma è un vero e proprio organo vivente modificabile che cresce e
muta in continuazione in risposta ai suoi stessi programmi genetici nonché alle interazioni con
l’ambiente. Lo sviluppo del sistema nervoso e quindi la plasticità neurale rientra nel generale programma
di sviluppo con cui matura l’organismo umano attraverso una serie di fasi. Per quanto riguarda lo
sviluppo neurale si hanno tre fasi : origine di neuroni specializzati, collocazione dei neuroni nella sede
appropriata e stabilirsi di sinapsi adeguate fra questi neuroni. La fecondazione, ossia l’unione fra una
cellula ovulo femminile e una cellula spermatozoo maschile, genera uno zigote che successivamente si
suddivide per moltiplicazione cellulare da cui si costituiscono molte più cellule figlie per un processo
definito mitosi che però non sono cellule omogenee che vanno a costituire una massa indistinta. Subentra
infatti la differenziazione cellulare ossia le cellule si sviluppano ognuna con delle differenti proprietà
strutturali, biochimiche e fisiologiche per andare a costituire poi i muscoli o il sistema nervoso o altri
tessuti e organi del corpo. Un altro processo fondamentale è la collocazione delle cellule nella sede
appropriata per poter svolgere la funzione a cui sono preposte, nonché la coordinazione fra cellule
limitrofe per un funzionamento adeguato del tessuto o dell’organo che vanno a costituire. Le fasi dello
sviluppo neurale nel dettaglio sono 5 : induzione della placca neurale, proliferazione neurale, migrazione
e aggregazione, crescita dell’assone e formazione delle sinapsi, morte neurale e riorganizzazione
sinaptica. Induzione della placca neurale: prima dello sviluppo della placca neurale le cellule
dell’ectoderma dorsale sono totipotenziali, hanno cioè la possibilità di svilupparsi in un qualsiasi tipo di
cellula dell’organismo. Quando la placca neurale comincia a formarsi le cellule perdono questa proprietà
e diventano specifiche, ossia le cellule della placca neurale diventano tessuto del sistema nervoso centrale
anche qualora vengano trapiantate in altre posizioni dell’embrione. Ogni tipo di cellule della placca ha la
possibilità quindi di svilupparsi in qualsiasi tipo di cellula del sistema nervoso maturo ma non in altri tipi
di cellule. Cellule di questo tipo sono dette multi potenti. Le cellule della placca neurale sono spesso
definite cellule staminali embrionali, ossia cellule che rispondono a due criteri specifici : hanno una
capacità apparentemente illimitata di auto rinnovarsi e hanno la capacità di svilupparsi in diversi tipi di
cellule adulte. La formazione della placca neurale è indotta da segnali chimici provenienti dallo strato
intermedio dell’ embrione, il mesoderma, definito organizzatore. E’ in corso la ricerca di una particolare
sostanza rilasciata dal mesoderma che provoca lo sviluppo nella placca neurale: un elemento chiave
sembra essere l’inibizione di una classe di proteine che normalmente ostacola lo sviluppo neurale, ossia
le proteine morfogenetiche delle ossa, ma non si sa ancora nulla di come avviene tale inibizione. Ad
ogni modo, nello specifico, dopo 21 giorni di gestazione, ossia dall’origine dello zigote, si forma sulla
parte dorsale dell’embrione la placca neurale ectodermica costituita dall’ectoderma che è il tessuto
cellulare più esterno dei tre strati dell’embrione: ectoderma, mesoderma ed endoderma. L’induzione
della placca neurale è il primo stadio dello sviluppo neurale in tutti i vertebrati . Dalla placca neurale si
forma prima il solco neurale che si ripiega gradualmente, poi le pieghe del solco neurale si uniscono per
formare il tubo neurale che si trasformerà nel suo interno in canale neurale e ventricoli. Il tubo neurale,
nella sua porzione apicale, dopo 40 giorni di gestazione da origine a tre rigonfiamenti dai quali
deriveranno proencefalo, mesencefalo e romboencefalo. Questo avviene perché durante tutta la
trasformazione della placca neurale il numero delle cellule destinate a svilupparsi nel sistema nervoso
rimane costante, poi quando il tubo neurale è formato le cellule cominciano a proliferare. La
proliferazione neurale, che per la maggior parte ha luogo nella zona ventricolare del tubo neurale
adiacente a ventricolo, avviene quando le pieghe del solco neurale si fondono e creano il tubo neurale; a
questo punto le cellule del tubo cominciano a crescere rapidamente ma non in modo simultaneo e
nemmeno equamente in tutte le porzioni del tubo, ma in ciascuna specie avviene secondo una sequenza
15
caratteristica, responsabile della formazione dei ripiegamenti del tessuto che danno poi al cervello un
aspetto tipico diverso per ogni specie. Nel processo di divisione ogni cellula invia due prolungamenti uno
alla superficie ventricolare del tubo e l’altro alla superficie esterna. Attraverso questi prolungamenti la
cellula si spinge dalla superficie ventricolare fino al centro della zona ventricolare e qui il DNA delle
cellule si duplica in preparazione della divisione cellulare, poi la cellula torna sulla superficie ventricolare
e si divide. Dopo la divisione le due cellule o si dividono ancora o migrano verso siti appropriati. Durante
la migrazione le cellule sono ancora n forma immatura e mancano di alcune parti come assoni e dendriti
che caratterizzano i neuroni maturi. La migrazione delle cellule nel tubo neurale è di due tipi : la
migrazione radiale che va dalla zona vestibolare in linea retta verso la parete esterna del tubo, e la
migrazione tangenziale, che avviene ad angolo retto rispetto alla migrazione radiale ovvero parallela alle
pareti del tubo. Ci sono due metodi con cui le cellule possono migrare : la translocazione del soma in
cui si ha la crescita di un’estensione dalla cellula in sviluppo nella direzione della migrazione, l’estensione
esplora l’ambiente circostante alla ricerca di segnali attrattivi e repulsivi, poi il corpo cellulare
espandendosi e ritraendosi si sposta. Il secondo metodo è la migrazione mediata dalle cellule gliali, ossia
una volta avviata la proliferazione nervosa e le pareti del tubo neurale sono ispessite, si manifesta nello
sviluppo del tubo una rete temporanea di cellule gliali dette cellule gliali radiali. A questo punto la
maggior parte delle cellule coinvolte nella migrazione radiale si muove lungo la parete gliale radiale verso
la loro destinazione. Quindi quando le cellule del tubo neurale cominciano a proliferare e a riprodursi la
maggior parte si sposta dalla zona ventricolare e va a formare uno strato di cellule sempre più spesso
chiamato zona intermedia; quando la zona intermedia si è strutturata alcun cellule prodotte nella zona
ventricolare migrano a formare uno strato posto fra la zona ventricolare e zona intermedia che è
chiamata zona sub ventricolare, le cellule che si collocheranno in questa zona diventeranno cellule gliali o
interneuroni, poi altre cellule del proencefalo appena formate cominciano a migrare verso questi strati
formando uno strato ulteriore che è la placca corticale che è quella da cui si svilupperà la corteccia
cerebrale. Le cellule di questo primo dei sei strati della corteccia arrivano per prime alla loro
destinazione e quindi le cellule che vanno a costituire gli altri 5 strati successivi devono attraversarle,
quindi abbiamo uno sviluppo corticale dall’interno all’esterno, ossia dal più profondo a quelli più
superficiali. Questo modello radiale dello sviluppo corticale si chiama modello dentro-fuori. Quando la
migrazione delle cellule dalla zona ventricolare è completata le cellule che rimangono in questa zona si
differenziano in cellule ependimali e formano il rivestimento dei ventricoli del cervello e del canale
centrale del midollo spinale. Dorsalmente su entrambi i lati del tubo neurale c’è una struttura che è
chiamata cresta neurale formata da cellule che si staccano dal tubo neurale. La migrazione delle cellule
della cresta neurale è stata particolarmente studiata perché queste cellule danno origine ai neuroni e alle
cellule gliali del sistema nervoso periferico che quindi si spostano su distanze maggiori rispetto alle altre.
A dirigerle verso il SNP non è l’informazione in esse contenuta bensì è il mezzo attraverso cui viaggiano,
quindi non stimoli endogeni, ma il loro spostamento viene spiegato attraverso l’ipotesi dell’adesione
differenziale, secondo cui le cellule della cresta neurale migrano verso i tessuti seguendo diversi percorsi
a cui tendono ad aderire. Si ha poi l’aggregazione, ossia una volta che i neuroni raggiungono l’area in cui
dovranno svolgere la loro funzione nel sistema nervoso maturo, questi neuroni devono stabilire precise
relazioni con gli altri neuroni in via di sviluppo che sono giunte nella stessa area per costituire le varie
strutture del sistema nervoso : questo processo è detto appunto di aggregazione. Si ritiene che come per
la migrazione anche il processo di aggregazione sia regolato da molecole di adesione delle cellule nervose
che si trovano sulla superfici dei neuroni e che sono in grado di riconoscere le molecole presenti su altre
cellule e di aderire a quest’ultime. Una volta che i neuroni si sono stabiliti nei siti appropriati si ha
crescita degli assoni che con i dendriti si espandono verso altre cellule e la formazione delle sinapsi.
Affinchè il SN possa funzionare in modo corretto è necessario che queste proiezioni neuronali crescano
fino a raggiungere la terminazione corretta. La crescita degli assoni verso i siti di destinazione può essere
influenzata da alcuni segnali chimici lungo il percorso : alcune di queste molecole guida attraggono gli
16
assoni in crescita altre li respingono. Anche i neurotrasmettitori possono servire da molecole guida nel
sistema nervoso in crescita. Le molecole guida non sono gli unici segnali che guidano gli assoni in crescita,
ma esistono altri tipi di segnali che arrivano dagli assoni in crescita adiacenti. Alle estremità degli assoni e
dendriti in crescita vi è una struttura dalla forma ameboide detta cono di accrescimento o di crescita da
cui partono e si ritraggono delle estensioni citoplasmatiche dette filopòdia come se fossero alla ricerca
del percorso corretto. La maggior parte dei coni di accrescimento raggiunge la destinazione corretta
anche se deve percorrere una distanza considerevole. Attraverso alcuni studi sia su umani che cavie di
laboratorio sono state sviluppate tre ipotesi su come avviene il raggiungimento della destinazione
corretta. Tali ipotesi sono : l’ipotesi dell’affinità chimica, l’ipotesi della mappa e l’ipotesi del gradiente
topografico. Secondo l’ipotesi dell’affinità chimica ciascuna superficie postsinaptica nel sistema nervoso
rilascia una sostanza chimica specifica che attrae gli assoni in crescita sia durante lo sviluppo che durante
la rigenerazione. Questa ipotesi è stata affermata sulle base di una serie di esperimenti condotti intorno
gli anni 40 da Sperry fra cui uno dei più importanti prevedeva di sezionare i nervi ottici di una rana,
ruotare i globi di 180 gradi e attendere la rigenerazione delle cellule gangliari retiniche che costituiscono
il nervo ottico (queste cellule negli anfibi si possono rigenerare mentre nei mammiferi invece non sempre
è possibile). Una volta terminata la rigenerazione Sperry effettuò un test comportamentale per
determinare le capacità visive della rana. Il test consisteva nel presentare un’esca alle spalle della rana la
quale per prenderla puntava la lingua in avanti dimostrando in questo modo che il campo visivo, come i
globi oculari, risultava ruotato di 180°. Le rane che avevano subito la rotazione dei globi oculari ma non la
sezione dei nervi ottici si comportavano allo stesso modo. Ciò dimostrò quindi che ciascuna cellula
gangliare retinica nella rigenerazione aveva ripreso contatto con lo stesso punto del tetto ottico alla quale
era originariamente connessa. Secondo l’ ipotesi della mappa la crescita assonale nel sistema nervoso in
evoluzione verso la sede appropriata sarebbe invece influenzata da segnali chimici o meccanici oppure
solo da uno o dall’altro rilasciati lungo tutto il percorso. Gli studi che hanno portato allo sviluppo di
questa ipotesi sono stati effettuati verso la fine degli anni 70 da Singernord, Lender ed Egard e secondo
questa ipotesi un sistema nervoso ancora non sviluppato avrebbe queste tracce chimiche e/o meccaniche
che gli assoni seguono per arrivare a destinazione. Si parte dall’ipotesi che coni di crescita pionieri, cioè i
primi coni di crescita a percorrere un determinato cammino nel sistema nervoso in via di sviluppo
seguano le tracce corrette interagendo con le cellule lungo il percorso e quindi i coni di crescita successivi
seguono il percorso tracciato dai coni di crescita pionieri. Questa tendenza degli assoni in crescita a
procedere lungo il percorso intrapreso dagli assoni precedenti viene detta fascicolazione. L’ultima delle
tre ipotesi che sono state sviluppate è l’ipotesi del gradiente topografico. Secondo questa ipotesi lo
sviluppo delle connessioni neurali è guidato dalle posizioni relative dei neuroni su gradienti ortogonali
e non si basa su una codifica punto per punto. Gli assoni quindi si sviluppano organizzando le loro
terminazioni sinaitiche in modo da rispecchiare la posizione relativa occupata dai loro somi nella sede di
origine che viene definita mediante l’intersezione ortogonale di due gradienti (alto-basso e
sinistra-destra). Inizialmente si crede che l’integrità delle relazioni topografiche era mantenuta durante
lo sviluppo grazie ad una affinità chimica punto per punto ; invece studi sulla recisione e rigenerazione
dei nervi ottici di pesci o rane con lesione della retina o del tetto ottico hanno dimostrato che durante la
rigenerazione gli assoni non ricrescevano fino ad innervare i loro punti di connessione originari come
avrebbe previsto l’ipotesi dell’affinità chimica, bensì crescevano in modo regolare fino a riempire lo
spazio reso disponibile, ossia andavano a riempire lo spazio rimasto disponibile della retina o del tetto
ottico. Una volta che gli assoni hanno raggiunto il sito di destinazione devono stabilire delle sinapsi
adeguate. Un neurone può sviluppare un solo assone ma è necessaria un’attività coordinata di almeno
due assoni per formare una sinapsi. Una delle scoperte più importanti sulla sinaptogenesi è che dipende
dalla presenza di cellule gliali in particolare astrociti. In genere vengono generati più neuroni e sinapsi di
quanto ne siano necessari alcuni sopravvivono e altri no. Vi sono tre fenomeni che suggeriscono che a
morire sono i neuroni incapaci di ricevere dagli organi bersaglio sostanze chimiche vitali. Ad esempio il
17
trapianto di organi bersaglio aggiuntivi riduce la morte dei neuroni; la distruzione di un certo numero di
neuroni in una determinata area prima che ci sia la morte neurale definitiva aumenta i siti bersaglio
disponibili per i neuroni che sono rimasti e quindi aumenta la percentuale dei neuroni che
sopravvivono; l’aumento del numero di assoni che inizialmente innervano un sito bersaglio riduce la
percentuale di neuroni che sopravvivono. Quindi la morte neuronale ha probabilmente lo scopo di
rendere il numero dei neuroni innervanti pari alla capacità recettiva dei loro siti bersaglio. I neuroni
che stabiliscono sinapsi scorrette sono soggetti a morire, quindi la morte neuronale aumenta
l’accuratezza delle connessioni neurali. Vi è dunque la scomparsa di molte connessioni sinaitiche e la
formazione di nuove quindi c’è una riorganizzazione delle connessioni sinaptiche e non solo una
riduzione di numero. La riorganizzazione sinaptica affina l’output di ciascun neurone su un ridotto
numero di cellule postsinaptiche aumentando così la selettività della trasmissione nervosa. Sono state
identificate molte sostanze vitali che vengono fornite ai neuroni dagli organi bersaglio : la classe più
importante è quella delle neurotrofine che svolgono diverse funzioni fra cui favoriscono la crescita e la
sopravvivenza dei neuroni, funzionano come molecole guida degli assoni e stimolano la sinaptogenesi.
La morte cellulare non è un processo passivo bensì attivo: l’assenza della neurotrofina appropriata
innesca un programma depositato nel neurone che ne provoca l’autosoppressione. La morte cellulare
passiva è detta necrosi, quella attiva è detta apoptosi. L’apoptosi è più sicura della necrosi in quanto le
cellule necrotiche si spezzano in due e versano il loro contenuto nel liquido extracellulare causando
infiammazioni potenzialmente pericolose, mentre nella morte cellulare apoptotica il Dna e le altre
strutture si dividono e vengono introdotte nella membrana prima che le cellule si spezzino in due. Le
membrane contengono molecole che attraggono cellule spazzino e altre che prevengono le infezioni.
Nella plasticità neurale vi è una interazione fra il patrimonio genetico e gli stimoli e l’esperienza che
possono influire sullo sviluppo neurale. Poiché i circuiti neurali si sviluppano se vengono usati, quindi
togliendo stimolazioni ambientali si riduce il numero di neuroni corticali attivati, se invece la
stimolazione è normale si osserva che la corteccia è più spessa, che c’è un maggiore sviluppo di dendriti e
che c’è un maggior numero di sinapsi per ogni neurone. Lo studio della plasticità del sistema nervoso ha
costituito è stato anche un punto di partenza per lo studio delle basi cellulari dell’apprendimento. Per
apprendimento si intende quel processo psichico che permette una modificazione durevole del
comportamento per effetto dell’esperienza. Ovviamente è fondamentale che ci siano delle tracce di
questa esperienza passata e la conservazione di queste tracce è a carico del funzione psichica della
memoria. Quindi apprendimento e memoria sono legati fra loro sia per quanto riguarda la funzione che
per quanto riguarda le basi cellulari e neurali. L’apprendimento si divide in associativo e non associativo.
L’apprendimento associativo è un apprendimento semplice o meccanico fondato sull’apprendimento d
una relazione fra lo stimolo e la risposta, come ad esempio l’apprendimento classico studiato da Plavov il
quale in questo senso effettuò studi con dei cani. Questi animali nel momento in cui veniva presentato
loro del cibo cominciavano a salivare come reazione naturale; associando più volte alla presentazione del
cibo uno stimolo neutro che poteva essere lo squillo di un campanello o una luce si osservò che dopo
ripetute associazioni gli animali cominciavano a salivare alla sola presentazione dello stimolo neutro.
L’apprendimento non associativo è invece un cambiamento del comportamento determinato
dall’esperienza ripetuta di un singolo stimolo o di stimoli diversi privi di relazioni spazio temporali fra
loro. Questo tipo di apprendimento include tre processi che sono l’abituazione, la sensibilizzazione e la
disabituazione. Gli studi sull’apprendimento e sulle sue basi cellulari e neurali sono stati fondati
soprattutto sull’osservazione delle modificazioni neurali legate all’esperienza su forme semplici di
apprendimento mediate da circuiti neurali molto semplici. Fra gli studdi maggiormente condotti si
possono citare quelli effettuati sulla lumaca marina Aplysia, in particolare gli studi sul riflesso di
retroazione della branchia sia attraverso apprendimento associativo che non associativo. L’aplysia
presenta un sifone cioè un piccolo tubo carnoso con cui espelle acqua e rifiuti; quando questo sifone viene
toccato sia il sifone che la branchia adiacente vengono coperti e protetti con un riflesso di retroazione
18
sotto il mantello. Il circuito neurale che controlla tale riflesso è molto semplice : ci sono 24 neuroni
sensoriali nella pelle del sifone che formano sinapsi su 6 motoneuroni responsabili della retroazione del
sifone e della branchia. Quindi i neuroni sensoriali attivano sia direttamente questi 6 motoneuroni che
interneuroni che a loro volta fanno sinapsi sui motoneuroni. Da un punto di vista di apprendimento non
associativo nell’aplysia si può parlare innanzitutto di abituazione, ovvero il decremento nella forza della
risposta comportamentale ad uno stimolo che si ha quando lo stimolo viene presentato ripetutamente.
Nel caso dell’aplysia se il sifone viene toccato più volte a intervalli molto brevi, es 30 secondi, il riflesso di
retroazione diventa sempre meno vigoroso. L’abituazione rimane per circa 2-3 ora dalla stimolazione
ripetuta. I meccanismi neurali si cui si basa questa abitazione nel riflesso di retroazione è stato studiato
osservando le risposte dei motoneuroni della branchia durante l’abituazione a stimolazioni ripetute del
sifone tramite un getto d’acqua. Col diminuire di intensità del riflesso di retroazione della branchia c’è
una riduzione del numero di potenziale di azione prodotti nei motoneuroni della branchia ogni volta che
veniva sollecitato il sifone. Poiché la capacità di risposta del motoneurone al neurotrasmettitore rilasciato
dal neurone sensoriale non diminuisce durante l’abituazione, si è concluso che questa diminuzione di
potenziale di azione nel motoneurone era dovuta ad un declino progressivo nella quantità di
neurotrasmettitore che veniva rilasciato dal neurone sensoriale. Quindi l’abituazione si basa su una
diminuzione di neurotrasmettitore rilasciato dal neurone sensoriale che rileva lo stimolo. La
sensibilizzazione è invece l’aumento della capacità di risposta a stimoli che seguono uno stimolo nocivo.
Per esempio l’intensità del riflesso di retroazione della branchia dovuto alla stimolazione del sifone
dell’aplysia aumenta per alcuni minuti se prima della stimolazione del sifone viene somministrato uno
shock doloroso alla coda. Questa sensibilizzazione, che può durare per settimane, è dunque un
processo opposto all’abituazione. La sensibilizzazione è infatti dovuta ad un aumento della quantità di
neurotrasmettitori che i neuroni liberano in risposta al potenziale di azione provocato dallo stimolo
nocivo. Ciò che si determina è una facilitazione presinaptica cioè le fibre sensoriali della coda dell’aplysia
fanno sinapsi con interneuroni facilitatori che a loro volta fanno sinapsi con neuroni sensoriali del sifone.
Quindi queste sinapsi fra assone e assone fanno si che la scarica di potenziali provocata dallo shock alla
coda modifichi i bottoni terminali dei neuroni sensoriali del sifone e quindi ogni potenziale di azione
prodotto quando si stimola il sifone fa rilasciare maggior quantità di neurotrasmettitore verso il
motoneurone. L’abituazione e la sensibilizzazione a lungo termine possono portare anche dei
cambiamenti strutturali nei terminali sinaptici nei neuroni sensoriali, questo perché se non c’è una
stimolazione sensoriale incrementata ci sono delle zone attive per il rilascio dei neurotrasmettitore
minori per numero e dimensioni e di conseguenza un minor numero di vescicole sinaptiche; se invece i
neuroni sensoriali sono stimolati più volte si nota un maggior numero di zone attive più grandi e un
maggior numero di vescicole sinaptiche.
Il fenomeno della disabituazione, come la sensibilizzazione, è
un aumento di una risposta conseguente ad uno stimolo nuovo però la disuabituazione riguarda
specificatamente la capacità di un nuovo stimolo di svincolare un riflesso di abitazione. Alcuni studiosi
hanno visto che i meccanismi di disabituazione si manifestano nell’aplysia quando erano completi lo
sviluppo del sifone e della branchia, mentre la sensibilizzazione si manifestava quando erano più avanti
con l’età. Quindi questo suggeriva che i meccanismi responsabili della sensibilizzazione e disabituazione
sono diversi legati anxche a fasi diverse dello sviluppo : la disabituazione è tipica delle prime fasi dello
sviluppo mentre la sensibilizzazione è tipica di fasi di sviluppo avanzate. Per quanto riguarda
l’apprendimento associativo, il condizionamento di Pavlov è il modello di base per spiegarlo. Sempre
nell’aplysia è stato studiato il condizionamento pavloviano discriminativo sempre nell’ambito del riflesso
di retrazione della branchia. La sensibilizzazione veniva prodotta dando uno shock alla coda che eccitava
un neurone facilitatorio e la scarica nell’interneurone prodotta da questo shock portava alla
modificazione del bottone terminale del neurone sensoriale. A causa di questo cambiamento dovuto a
uno stimolo condizionato veniva prodotto il rilascio di maggior quantità di neurotrasmettitore dal
neurone sensoriale. Per quanto riguarda invece ... L’attività prodotta dall’interneurone per lo shock ha un
19
effetto particolarmente rilevante sulla terminazione di un neurone sensoriale che invece è stimolato da
un altro stimolo che era invece attivo prima che giungessero i segnali all’interneurone legati allo shock. Si
può quindi dire che durante questo condizionamento pavloviano discriminativo del riflesso di retrazione
della branchia venivano somministrati due stimoli leggeri sul manto e sul sifone; entrambi producono
una risposta riflessa i retrazione della branchia; poi solo uno dei due stimoli veniva poi associato allo
shock alla coda. Ciò che si osserva è che lo stimolo accoppiato allo shock ripetutamente alla fine produce
anche da solo un riflesso di retroazione immediato come nel condizionamento classico di Plavov. Per
quanto riguarda invece gli studi neurali della memoria le teorie più importanti hanno preso corpo a
partire da Hebb secondo il quale i cambiamenti durevoli della trasmissione sinaptica sono alla base della
memoria a lungo termine. Diversi studi dimostrano che una facilitazione durevole della trasmissione
sinaptica ha luogo a seguito dell’attivazione di una sinapsi tramite una stimolazione intensa ad alta
frequenza dei neuroni presinaptici. Questo fenomeno è stato definito potenziamento a lungo termine. E’
un processo per cui fibre presinaptiche vengono sottoposte ad una stimolazione elettrica ad elevata
frequenza per pochi secondi, poi viene effettuata una stimolazione successiva ad intensità bassa
osservando un aumento della risposta dei neuroni postsinaptici che si mantiene. Questo studio ha
riguardato in particolare l’ ippocampo, una struttura che sulla base di vari studi è stata considerata
implicata nella funzione della memoria. Negli esperimenti effettuati su cavie da laboratorio il
potenziamento a lungo termine veniva prodotto stimolando la principale afferenza dell’ipocampo che è la
via perforante e registrando le risposte multicellulari dello strato delle cellule granulari dell’ippocampo
che riceve queste afferenze. Il motivo per cui sono state studiate le basi cellulari della memoria
soprattutto studiando il fenomeno del potenziamento a lungo termine è che la facilitazione a lungo
termine della trasmissione sinaptica su cui si basa tale fenomeno è simile alla facilitazione che per molto
tempo è stata considerata base dell’immagazzinamento in memoria. Le proprietà principali del PLT sono
che tale fenomeno può perdurare per un lungo periodo di tempo se preceduto da stimolazioni multiple e
che si verifica solo se la scarica del neurone presinaptico viene seguito dalla scarica del neurone
postsinaptico : se quest’ultimo non si attiva allora il PLT non si sviluppa. Analogamente ciò avviene anche
se il neurone postsinaptico è attivo ma non lo è il neurone presinaptico. Si ritiene che la co-occorrenza
della scarica dei potenziali di azione nelle cellule pre e postsinaptiche sia il fattore critico del PLT, e che il
fatto che tale co-occorenza sia necessaria per l’apprendimento viene spesso citata con il nome di
postulato dell’apprendimento di Hebb. Il PTL, sebbene sia indotto da stimolazioni intense, può essere
però indotto anche da stimolazioni che simulino una normale attività neuronale. Inoltre relativamente al
PLT si può dire che i suoi effetti sono particolarmente evidenti in quelle strutture che si ritengono
coinvolte nell’apprendimento e nella memoria come l’ippocampo e che molti farmaci che influenzano i
processi di apprendimento e memoria hanno effetti analoghi sul PLT. Le basi cellulari dell’apprendimento
e della memoria sono state poi approfondite studiando il più semplice circuito neurale di
apprendimento associativo in memoria, ossia un modello di risposta motoria dipendente dal
"condizionamento" che riguarda la membrana nittitante dell'occhio del coniglio. Nella prima fase di
addestramento viene inviato un soffio d'aria sull'occhio del coniglio: questo stimolo attiva i recettori delle
terminazioni sensitive (cutanee, congiuntivali e sclerotiche) del trigemino e determina la risposta riflessa
del muscolo della membrana nittitante. La risposta che segue al soffio d'aria è lo scorrimento della
membrana sulla superficie dell'occhio. Nella seconda fase, il coniglio sente prima un suono e dopo un
intervallo di tempo (da 200 a 400 millisecondi), riceve il flusso d'aria sull'occhio: il suono prosegue
mentre il soffio viene emesso e i due stimoli terminano contemporaneamente. L'addestramento del
coniglio, che prevede l'importante relazione temporale tra i due stimoli, viene ripetuta più volte. Nella
terza fase, il coniglio sente il suono non seguito dal soffio d'aria e questo stimolo da solo provoca lo
scorrimento della membrana nittitante sulla superficie dell'occhio. Ciò indica che il circuito che regola la
risposta ha modificato la sua azione sulla base di un apprendimento. Si è cercato di capire che tipo di
cambiamenti si verificano nel circuito del romboencefalo che è implicato nel riflesso della membrana
20
nittitante al fine di poter riprodurre tale riflesso sulla base per esempio di uno stimolo acustico, ossia
quando lo stimolo non è diretto, ma si è visto che nel condizionamento di questo riflesso non vi è una
implicazione diretta delle strutture rombo encefaliche.
Il PLT si considera un processo a tre fasi : induzione, mantenimento ed espressione. L’induzione del PLT è
appunto l’apprendimento. Il PLT è stato studiato maggiormente in quelle sinapsi nelle quali sono
presemti prevalentemente i recettori per il glutammato, che è il principale neurotrasmettitore eccitatorio
del cervello. Questo recettore risponde in modo efficace solo quando si verificano due eventi insieme,
ossia quando il glutammato si lega al recettore e quando il neurone postsinaptico è parzialmente
depolarizzato. Ciò è necessario in quanto gli ioni calcio affluiscono limitatamente nel neurone a meno
questo non sia depolarizzato nel momento in cui il glutammato si lega al recettore : a questo punto
l’ingresso di ioni calcio nel neurone postsinaptico è tale da generare potenziali d’azione che insieme ad
una serie di eventi combinati daranno origine al PLT. Questo fenomeno consente che le reti di neuroni
apprendano le associazioni. L’immagazzinamento ed il recupero del PLT comportano variazioni sia nei
neuroni pre che postsinaptici e nell’ambito dei meccanismi che regolano questi due fenomeni sono state
fatte alcune scoperte fra cui il fatto che il calcio che entra in una spina dendritica non diffonde al di fuori
di questa ma esercita i suoi effetti localmente, che il mantenimento a lungo termine comporta dei
cambiamenti strutturali che dipendono dalla sinesi delle proteine che non può essere invece responsabile
del mantenimento a breve termine perché non avviene abbastanza rapidamente, che il PLT sulle sinapsi
glutamminergiche sia associato ad un incremento durevole di glutammato extracellulare la cui
produzione può essere intensificata con stimolazioni elettriche successive, che devono esistere segnali
che ritornano dai neuroni postsinaptici a quelli presinaptici e che questo segnale dal neurotrasmettitore
ossido nitrico sintetizzato nel neurone postsinaptico in risposta all’entrata di calcio e successivamente
diffondere in modo retrogrado verso il bottone presinaptico (questo perché l’induzione del PLT comincia
nei neuroni postsinaptici mentre il mantenimento e l’espressione implicano variazioni presinaptiche), e
che i cambiamenti strutturali avvengono nelle sinapsi glutamminergiche in combinazione con PLT a
lunga durata, vi sono infatti aumenti nel numero e nelle dimensioni delle sinapsi e dei dendriti e nel
numero dei recettori postsinaptici.
L’altra faccia della medaglia del PLT è la depressione a lungo termine che avviene come risposta ad una
stimolazione prolungata a bassa frequenza dei neuroni presinaptici.
Risposte a un danno del sistema nervoso
Le risposte della plasticità neuronale a un danno del sistema nervoso sono 4: degenerazione,
rigenerazione, riorganizzazione e recupero.
Degenerazione. Un metodo molto usato per controllare le reazioni dei neuroni ad un danno consiste nel
tagliare l’assone, definita assotomia, a seguito della quale si verificano due tipi di degenerazione :
anterograda e retrograda. La degenerazione anterograda è il deterioramento del segmento distale,
ovvero di quella porzione dell’assone reciso che si trova tra il taglio e i terminali sinaptici. La
degenerazione retrograda invece è il deterioramento del segmento prossimale, ovvero di quella porzione
dell’assone reciso che si trova tra il taglio e il corpo della cellula. A seguito dell’assotomia la
degenerazione anterograda avviene rapidamente perché il segmento distale dell’assone, separato dal
soma, si gonfia sproporzionatamente e dopo pochi giorni si riduce in frammenti. La degenerazione
retrograda procede invece gradualmente e a ritroso verso il corpo cellulare. Le modificazioni più evidenti
sono visibili dopo circa due tre giorni dall’assotomia e quelle precoci del corpo cellulare sono di natura
21
sia degenerativa che rigenerativa. Le variazioni degenerative precoci, come riduzioni di volume, indicano
che il neurone morirà alla fine del processo di solito per apoptosi ma a volte anche per necrosi o per la
combinazione dei due, le variazioni rigenerative precoci, come aumento di volume, indicano che il corpo
della cellula sta sintetizzando in modo massiccio proteine che verranno usate per sostituire l’assone
degenerato ance se ciò non garantisce comunque la sopravvivenza a lungo termine del neurone: infatti
se l’assone in via di rigenerazione non riesce a prendere contatto sinaptico con un bersaglio appropriato
il neurone probabilmente morirà. A volte la degenerazione può estendersi dal neurone danneggiato a
quelli con cui quest’ultimo ha connessioni sinaptiche e viene chiamata degenerazione transneuronale.
Anche in questo caso può essere transneuronale anterograda quando sono danneggiati i neuroni che
fanno sinapsi sul neurone danneggiato, e transneuronale retrograda quando sono danneggiati i neuroni
sui quali fa sinapsi il neurone danneggiato. Numerose ricerche hanno dimostrato che è possibile ridurre il
danno cerebrale nell’uomo bloccando la degenerazione neuronale mediante delle molecole come la
proteina inibitoria dell’apoptosi, il fattore di crescita dei nervi e gli estrogeni. In generale le molecole che
limitano la degenerazione neuronale ne favoriscono anche la rigenerazione.
Rigenerazione. Nei mammiferi o nei vertebrati superiori la ricrescita di neuroni danneggiati,
rigenerazione neuronale, non è efficace come negli invertebrati o nei vertebrati inferiori, nel SNC dei
mammiferi adulti la rigenerazione è praticamente inesistente e nel SNP è quasi casuale e la ricrescita
della sezione prossimale di un nervo danneggiato comincia due o tre giorni dopo la lesione. Ciò che si
verifica dipende principalmente dalla natura della ferita. Esistono tre possibilità: 1) se un nervo viene
danneggiato senza che le cellule di Schwann della guaina mielinica siano compresse, ad esempio per
schiacciamento, i singoli assoni periferici ricrescono verso i loro obiettivi originali; 2) se il nervo
periferico è reciso e le due estremità delle guaine delle cellule di Schwann sono leggermente separate
allora i singoli assoni spesso ricrescono verso guaine diverse che li dirigeranno nella direzione sbagliata;
ecco perché è spesso difficile recuperare l’uso coordinato di un arto dopo la lesione ad un nervo anche nel
caso di una notevole rigenerazione; 3) se il nervo è danneggiato e le due estremità delle guaine delle
cellule di Schwann sono molto separate o se è danneggiata larga parte del nervo allora non si verifica
alcuna rigenerazione significativa poiché gli apici assonali in crescita formano un groviglio intorno al
segmento prossimale e infine muoiono. I neuroni del SNC sono in grado di rigenerarsi solo se vengono
trapiantati nel SNP e questo proprio a causa dell’assenza nel SNC delle cellule di Schwann. Queste cellule,
che ricoprono di mielina gli assoni del SNP, stimolano la rigenerazione dei neuroni del SNP producendo
sia fattori neurotrofici, che stimolano la crescita di nuovi assoni, sia molecole di adesione delle cellule
nervose (CAM) che si trovano sulle membrane delle cellule di Schwann e che forniscono il percorso lungo
il quale gli assoni del SNP ricrescono. Al contrario invece l’oligodendroglia che ricopre di mielina gli
assoni del SNC non stimola ne guida la rigenerazione ma in realtà rilascia fattori che la ostacolano. La
rigenerazione dei vertebrati inferiori invece è estremamente accurata sia nel SNC che nel SNP e anche
quando gli assoni non ricrescono nelle guaine delle cellule di Schwann rimaste. Nel caso in cui potessero
venire identificati i fattori che rendono cosi accurata la rigenerazione nei vertebrati inferiori e se
potessero venire applicati al cervello dell’uomo ciò aprirebbe una speranza nella cura dei danni cerebrali
umani che ora sono incurabili. Quando un assone degenera dai nodi di Ranvier o dalle branche terminali
dell’assone dei neuroni adiacenti partono delle ramificazioni assonali che vanno a prendere contatti
sinaptici nelle zone lasciate scoperte dall’ assone degenerato. Questo fenomeno si chiama sprouting
collaterale. Anche se normalmente la rigenerazione non avviene nel SNC dei mammiferi può però essere
indotta. Alcuni studi hanno dimostrato che la rigenerazione può essere associata al recupero funzionale.
Riorganizzazione neuronale.
Il cervello di un mammifero adulto mantiene la capacità sensoriale e motoria di riorganizzarsi in modo
significativo in risposta all’esperienza ma anche come reazione ad un danno. Questa capacità è stata alla
22
base di molti studi sulla riorganizzazione neuronale in età adulta. La riorganizzazione della corteccia
sensoriale primaria di un mammifero adulto è stata ottenuta in due modi diversi: danneggiando le vie
sensoriali e la corteccia sensoriale stessa. Per esempio è stato valutato l’effetto di una piccola lesione ad
una retina rimuovendo l’altra e si è osservato che dopo molti mesi dall’operazione i neuroni della
corteccia primaria che avevano dei campi recettivi nella parte lesa della retina mostravano campi
recettivi nell’area della retina adiacente alla lesione. Sono state ricostruite le mappe della corteccia
somatosensoriale primaria di alcune scimmie alle quali erano stati tagliati 10 anni prima i neuroni delle
vie sensoriali del braccio controlaterale scoprendo che la rappresentazione corticale della faccia si era
espansa in modo sistematico nella regione che era originariamente del braccio. E’ stata rimossa l’area
della corteccia somatosensoriale della scimmia che viene attivata da una stimolazione tattile del palmo
della mano controlaterale osservando che diverse settimane dopo i neuroni adiacenti alla lesione
rispondevano alla stimolazione tattile del palmo. Sono inoltre stati sezionati nel ratto i motoneuroni che
controllano i muscoli dei loro baffi osservando poche settimane dopo che la stimolazione dell’area della
corteccia motoria che determinava i movimenti dei baffi ora attivava altri muscoli della faccia.
Spesso però la riorganizzazione avviene troppo rapidamente per poter essere spiegata dalla crescita
neuronale; inoltre la riorganizzazione rapida non implica mai delle variazioni che interessano più d due
millimetri d superficie corticale. Queste due osservazioni sono a favore dell’esistenza del meccanismo di
rafforzamento di connessioni esistenti attraverso la liberazione dal inibizione. In supporto invece al
meccanismo dello sprouting collaterale può essere riportata l’osservazione ce la grandezza di una
riorganizzazione a lungo termine può essere troppo vasta per essere spiegata da modificazioni che
interessino connessioni già esistenti
Recupero di una funzione dopo un danno cerebrale.
Il recupero di una funzione dopo un danno cerebrale è un processo ancora poco chiaro e questo per due
ragioni: è difficile condurre esperimenti controllati su una popolazione di pazienti con danni cerebrali, e
perché le lesioni cerebrali producono una tale varietà di modificazioni che qualcuna di esse può essere
facilmente scambiata con il recupero di una funzione. Ad esempio un miglioramento nelle due settimane
successive alla lesione può essere sintomo di una riduzione dell’edema cerebrale, piuttosto che di un
recupero del danno cerebrale in se e qualsiasi miglioramento nei mesi successivi potrebbe riflettere
l’apprendimento di nuove strategie cognitive e comportamentali piuttosto che il recupero di quelle
perdute. Di conseguenza il recupero di una funzione è meno comune e meno completo di quanto si creda
e che comunque è più probabile quando la lesione è circoscritta e quando il paziente è giovane. Si pensa
che la riserva cognitiva abbia un ruolo importane nel recupero delle funzioni cognitive dopo un danno
cerebrale. Kapur ha condotto uno studio su medici e neuroscienziati con danni al cervello e ha potuto
osservare un notevole recupero cognitivo dovuto però al fatto che la riserva cognitiva permetteva loro di
eseguire compiti cognitivi in modi diversi. In passato la riorganizzazione neuronale sembrava essere
l’unica spiegazione al recupero di danni del SNC, ipotesi derivante da uno studio in cui si è scoperto che il
livello di recupero motorio di pazienti colpiti da ictus era correlato al livello di riorganizzazione della
corteccia motoria; ma in seguito si aprirono le porte anche alla possibilità che anche la crescita di neuroni
nuovi (neurogenesi) potesse avere un ruolo importante in tale recupero, in particolare quando la lesione
riguarda l’ippocampo. E’ stato recentemente dimostrato che l’ischemia cerebrale che di solito colpisce
l’ippocampo favorisce la neurogenesi adulta, che molte delle nuove cellule vanno a far parte
dell’ippocampo, e che stabilendo sinapsi diventano neuroni maturi. Sarebbe quindi possibile che un
incremento della neurogenesi adulta contribuisca al recupero da un ictus ma questo rimane per ora
ancora una ipotesi. L’uso di tecniche di riabilitazione, come la terapia della costrizione indotta consisteva
nel legare il braccio funzionante per due settimane mentre il braccio menomato era sottoposto a
riabilitazione intensiva, per il recupero di danni del SNC si basa sul ruolo fondamentale dell’esperienza
23
nell’organizzazione del cervello in sviluppo e adulto. Infine la tecnica della riabilitazione è stata utilizzata
anche su quei pazienti che hanno subito l’amputazione di un arto e che in genere continuano ad avvertire
la reale presenza dell’arto amputato, fenomeno noto con il termine di arto fantasma. In molti casi l’arto
fantasma percepito dal paziente si comporta come l’arto normale, ad esempio mentre cammina avverte la
sua corretta coordinazione con l’arto sano, ma a volte egli ha la sensazione che l’arto fantasma assuma
posture strane.
Trapianto neuronale. Il tentativo di curare le lesioni del SNC con il trapianto neuronale hanno preso due
strade: il trapianto di tessuto fetale ed il trapianto di cellule staminali. Nel primo caso l’approccio fu
quello di sostituire una struttura danneggiate con del tessuto fetale che si svilupperebbe nella stessa
struttura. In questo senso sono stati eseguiti alcuni tentativi di trattamento del morbo di Parkinson,
prima sulle scimmie e poi sull’uomo, che hanno avuto inizialmente esito positivo. Una tecnica che si è
rivelata efficace utilizzava modelli animali (scimmie) a cui era stato iniettato MPTP e consisteva nel
trapianto bilaterale della sostanza nera di cellule fetali. Il risultato fu che nelle scimmie trattate con MPTP
le cellule trapiantate sopravvissero e riuscirono anche ad innervare il tessuto striatale adiacente e a
rilasciare la dopamina. Inoltre i sintomi di povertà di movimento, tremore e rigidità si alleviarono. I primi
risultati furono molto incoraggianti a circa un anno dall’operazione circa i 15% dei pazienti cominciò a
manifestare una serie di movimenti incrollabili di contorcimento e masticamento. Il trapianto di cellule
staminali consiste nel trapianto appunto di cellule multipotenti in grado di svilupparsi in molti tipi di
neuroni maturi, dette cellule staminali embrionali. Tale tecnica consiste nell’iniettare cellule staminali
embrionali nel sito danneggiato dove tali cellule possono svilupparsi e sostituire le cellule danneggiate
guidate dai tessuti limitrofi. Nonostante i risultati positivi si pensò che comunque fossero necessarie
ulteriori sperimentazioni per mettere punto metodi efficaci di impianto di queste cellule.
Conduzione nervosa e trasmissione sinaptica
Per trasmissione nervosa si intende la trasmissione di un segnale nervoso sia fra neuroni e neuroni sia
entro il neurone stesso. I primi studi sono stati condotti su neuroni semplici, una classe di neuroni detti
motoneuroni. Uno degli aspetti chiave per la comprensione delle funzioni nervose è il potenziale di
membrana di un neurone, cioè la differenza di carica elettrica tra l'esterno e l'interno della cellula. Per
misurarlo è necessario inserire la punta di due elettrodi rispettivamente dentro la cellula e fuori di essa,
nel liquido extracellulare. E' importante però che la punta dell'elettrodo intracellulare sia abbastanza
sottile da perforare la membrana senza danneggiarla. generalmente tali dimensioni sono dell'ordine dei
millesimi di millimetro. Per registrare il potenziale di membrana di un neurone i cavetti degli elettrodi
intra ed extra cellulari vengono collegati ad un oscilloscopio che è uno strumento che mostra le variazioni
di potenziale elettrico nel tempo. Quando entrambi gli elettrodi sono nel liquido extracellulare la
differenza di potenziale fra loro è zero. Quando invece la punta dell'elettrodo intracellulare è inserita
all'interno di un neurone il potenziale misurato è di circa -70mV, ovvero il potenziale all'interno della
cellula a riposo è di circa 70 mV inferiore a quello del liquido extracellulare (=0). Questo potenziale si
chiama potenziale di riposo del neurone. Allo stato di riposo con una differenza di potenziale tra i due lati
della membrana di circa 70mV si dice che il neurone è polarizzato. Come tutti i sali in soluzione anche i
sali presenti nel tessuto neurale si dividono in particelle con carica negativa e positiva dette ioni. Il
potenziale di riposo è dovuto al fatto che il rapporto ioni negativi/ioni positivi è più alto all'interno del
neurone che all'esterno. Questa diversa distribuzione degli ioni si spiga sulla base dell'interazione di 4
fattori. Due fattori tendono a mantenere uguale la distribuzione di carica nei liquidi intra ed extra
cellulari, mentre gli altri due legati alla membrana neuronale, si oppongono al mantenimento di questo
equilibrio. la prima delle due forze che tende a uniformare la distribuzione degli ioni dentro e fuori la
cellula è il movimento casuale. Infatti gli ioni del tessuto neuronale sono in continuo movimento casuale
che tende a distribuirli in modo omogeneo. Ciò avviene perchè è più probabile che gli ioni si muovano
24
seguendo il loro gradiente di concentrazione, ovvero da aree in cui sono maggiormente concentrati
verso aree in cui lo sono meno, piuttosto che in direzione opposta. Il secondo fattore è il potenziale o
gradiente elettrico. Qualsiasi accumulo di cariche negative o positive in un'area tende a ridursi a causa
della repulsione (elettrostatica) tra ioni con carica dello stesso segno e dell'attrazione tra ioni con carica
di segno opposto. Nonostante la continua azione di questi fattori uniformanti, nessun tipo di ione si
distribuisce uniformemente sui due lati della membrana della cellula. Vi sono 4 tipi di ioni che
contribuiscono in modo significativo al potenziale di riposo : ioni sodio, potassio, cloro, e cariche
proteiche con carica negativa. Nel neurone a riposo la concentrazione degli ioni sodio e cloro è maggiore
all'esterno che all'interno, mentre gli ioni potassio sono più concentrati all'interno del neurone. Le
proteine sono sintetizzate nel neurone e per la maggior parte rimangono al suo interno. Sono invece due
le proprietà responsabili della distribuzione non uniforme di ioni sodio potassio e cloro e delle proteine
con carica negativa nel neurone a riposo. Una di queste proprietà è passiva, cioè non richiede apporto di
energia, ed è la permeabilità differenziale della membrana neuronale agli ioni sodio, cloro, potassio e alle
proteine. Infatti nel neurone a riposo gli ioni potassio e cloro passano con facilità attraverso la
membrana, gli ioni sodio penetrano con difficoltà e le proteine non penetrano affatto. Gli ioni transitano
attraverso la membrana attraverso pori detti canali ionici, ciascuno dei quali è selettivo per una
particolare classe di ioni. Gli studiosi scoprirono che ci sono meccanismi attivi di membrana che
compensano l’ingresso passivo di sodio spingendo con la stessa velocità ioni sodio fuori dalla cellula e
compensano l’uscita passiva di potassio spingendo con la stessa velocità ioni potassio all’interno della
cellula. Questo trasporto attivo di ioni sodi e potassio dipende da un meccanismo comune legato alla
membrana cellulare che consuma energia e continuamente scambia tre ioni sodio verso l’esterno con due
potassio verso l’interno: questo meccanismo si chiama pompa sodio potassio. Queste differenze di
concentrazione ionica cui vanno associate le proteine presenti all’interno della cellula sono determinanti
per la genesi del potenziale di riposo. La generazione e trasmissione di potenziali postsinaptici è un
meccanismo che costituisce la base della trasmissione interneuronale. Quando i neuroni scaricano
liberano dai bottoni terminali nello spazio sinaptico delle sostanza chimiche chiamate neurotrasmettitori
che interagiscono con le molecole del recettore posto sulla membrana recettiva del neurone
postsinaptico. Quando i neurotrasmettitori si legano ai recettori postsinaptici possono avvenire due
effetti diversi che dipendono dalla struttura di entrambi, ovvero possono sia depolarizzare, diminuire il
potenziale di riposo, che iperpolarizzare, aumentare il potenziale di riposo, la membrana recettiva. Le
depolarizzazioni postsinaptiche sono chiamate potenziali postsinaptici eccitatori (PPE) poiché
aumentano la probabilità che il neurone scarichi; le iperpolarizzazioni invece sono dette potenziali
postsinaptici inibitori (PPI) poiché riducono tale probabilità. Entrambi i potenziali sono risposte graduate
e si propagano passivamente dal sito da cui generano. L’ampiezza di tali potenziali è proporzionale al
segnale che li evoca : segnali deboli causano piccoli segnali postsinaptici mentre segnali intensi
determinano potenziali postsinaptici elevati. La trasmissione del potenziale postsinaptico presenta due
caratteristiche : è rapida tanto che la si può considerare istantanea ed è decrementale ovvero l’ampiezza
dei potenziali si riduce man mano che essi si muovono lungo il neurone. I potenziali postsinaptici
generati da una singola sinapsi in genere hanno uno scarso effetto sulla scarica del neurone
postsinaptico. La maggior parte dei neuroni sono infatti cosparsi di migliaia di sinapsi il cui effetto
cumulativo determina se il neurone scaricherà o meno. I potenziali postsinaptici eccitatori e inibitori
innescati dall’azione di un neurotrasmettore sono trasmessi istantaneamente e in modo decrementale al
monticolo assonico. Se la somma algebrica dei potenziali di azione eccitatori o inibitori è tale da portare il
potenziale di membrana ad un livello di depolarizzazione detto soglia di eccitazione, in genere pari a -65
Mv, si genera un potenziale di azione (PA), che rappresenta una transitoria inversione (dura circa 1ms)
del potenziale di membrana da -70Mv a +50 Mv. I potenziali d’azione si generano mediante l’azione di
canali ionici voltaggio-dipendenti, ovvero canali che si aprono e chiudono in risposta a variazioni del
potenziale di membrana. Infatti quando quest’ultimo si abbassa fino alla soglia di eccitabilità del neurone,
25
i canali ionici voltaggio dipendenti per il sodio si aprono e una corrente massiva di sodio entra nella
cellula portando rapidamente il potenziale di membrana da -70Mv a +50Mv. La rapida variazione di
potenziale di membrana associata all’ingresso (afflusso) di ioni sodio determina poi l’apertura dei canali
ionici voltaggio dipendenti per il potassio che consente agli ioni potassio di uscire (efflusso) dalla cellula
spinti sia dalla maggiore concentrazione interna che dalla carica positiva interna (+50Mv). Circa dopo
1ms dopo l’inizio del Pa i canali ionici per il sodio si chiudono, successivamente si chiudono i canali ionici
per il potassio ed il neurone torna gradualmente allo stato di riposo. Tale potenziale di azione non è una
risposta graduata poiché la sua ampiezza non è affatto correlata all’intensità dello stimolo che lo genera.
Al contrario essi sono risposte del tipo tutto o nulla poiché, indipendentemente dall’intensità dello
stimolo, o si verificano in tutta la loro ampiezza e velocità oppure non si verificano affatto. Ogni neurone
multipolare somma l’insieme di potenziali eccitatori e inibitori che arrivano all’assone e decide se
scaricare o no sulla base del valore di tale somma. L’operazione di sommare tutti i segnali in uno unico
complessivo viene detta integrazione che può avvenire in due modi: nello spazio e nel tempo. La
sommazione spaziale può avvenire quando potenziali eccitatori o inibitori che si generano
simultaneamente in diverse regioni della membrana recettiva si sommano formando un potenziale
eccitatorio o inibitorio maggiore, oppure potenziali eccitatori e inibitori simultanei si annullano
reciprocamente. La sommazione temporale invece avviene quando potenziali postsinaptici prodotti in
rapida successione a livello della stessa sinapsi si sommano dando origine a un potenziale più elevato. I
segnali che un neurone riceve possono sommarsi nel tempo perché i potenziali postsinaptici generati
perdurano più del segnale che li ha prodotti. Dopo l’inizio di un PA c’è un breve periodo della durata di
1-2 ms in cui non è possibile innescare un secondo PA: questo periodo si chiama periodo refrattario
assoluto; tale periodo è seguito dal periodo refrattario relativo durante il quale è possibile far scaricare
nuovamente un neurone ma solo applicando uno stimolo più intenso della norma. Alla fine del periodo
refrattario relativo l’intensità dello stimolo necessaria per attivare il neurone ritorna al valore di base. Il
periodo refrattario è quindi responsabile del fatto che il PA normalmente si propaga in una sola
direzione, ed è responsabile del fatto che la frequenza di scarica neuronale è correlata all’intensità dello
stimolo, in ogni caso non più di mille volte al secondo. La conduzione del Pa lungo l’assone differisce dalla
trasmissione dei potenziali postsinaptici per due aspetti: non è decrementale ed è più lenta. Tale
differenza sta nel fatto che la conduzione dei potenziali postsinaptici eccitatori e inibitori è passiva,
mentre quella assonale dei PA è attiva; Poiché sulla membrana assonale ci sono tanti canali ionici
ravvicinati si considera la conduzione assonale come un’unica ondata eccitatoria che si diffonde
attivamente a velocità costante lungo l’assone piuttosto che come una serie di eventi discreti. L’onda di
eccitazione scatenata da un Pa che origina vicino al monticolo assonico tende anche a propagarsi indietro
verso i dendriti e il soma (potenziali d’azione retrogradi). Questa trasmissione inversa è detta conduzione
antidromica, mentra la conduzione in direzione naturale è detta conduzione ortodromica. Negli assoni
mielinizzati, ovvero ricoperti da una guaina lipidica detta mielina, il flusso di ioni attraverso la membrana
si realizza solo negli spazi compresi fra segmenti adiacenti di mielina detti nodi di Ranvier, dove sono
concentrati anche i canali di sodio. Quando un Pa si genera sulla membrana di un neurone mielinizzato, il
segnale è trasmesso passivamente ( in modo istantaneo e decrementale) lungo il primo segmento di
mielina fino al successivo nodo di Ranvier. Quando il segnale arriva al nodo anche se attenuato ha ancora
sufficiente intensità per aprire i canali ionici per il sodio del nodo e generare un PA che viene trasmesso
passivamente lungo l’assone al nodo successivo dove verrà generato un altro PA. La mielinizzazione
aumenta la velocità di conduzione, infatti poiché la trasmissione lungo i segmenti di mielina è passiva
cioè istantanea ne risulta che il segnale salta rapidamente da un nodo all’altro. Ovviamente ad ogni nodo
di Ranvier c’è un piccolo ritardo dovuto alla genesi di un nuovo PA, ma in ogni caso la trasmissione del
segnale lungo un assone mielinizzato è comunque più veloce rispetto a quella lungo assoni non
mielinizzati. Questo tipo di trasmissione viene chiamata conduzione saltatoria e consente un notevole
risparmio di energia. La velocità di conduzione assonale dipende da due proprietà dell’assone: infatti è
26
maggiore negli assoni di diametro maggiore e in quelli ricoperti di mielina. La velocità di conduzione nel
motoneurone umano è di circa 60 metri al secondo. I PA sono il mezzo mediante il quale gli assoni
trasmettono per lunghe distanze e fedelmente segnali tutto o nulla. Tuttavia bisogna sottolineare che
molti neuroni nel cervello dei mammiferi sono privi di assoni e non possono generare PA ma sono
coinvolti nel controllo di attività complesse come apprendimento, memoria, motivazione e percezione. La
trasmissione di segnali in questi interneuroni è affidata a capacità dendritiche di generare PA che
possono essere condotti in modo attivo lontano dal luogo di origine e in entrambe le direzioni e alle spine
dendritiche, ovvero piccoli rigonfiamenti di forma diversa che si trovano sulla superficie di molti dendriti,
che sono le sedi delle sinapsi più eccitatorie (in genere una sinapsi ogni spina) nel cervello dei mammiferi
adulti. I potenziali postsinaptici si generano dunque sulla membrana neuronale: sono potenziali graduati
condotti passivamente all’assone, la loro somma innesca il PA, tali segnali tutto o nulla si propagano
attivamente lungo gli assoni fino ai bottoni terminali. La trasmissione neurale avviene di solito attraverso
le sinapsi. La sinapsi ha una sua struttura : un bottone sinapstico terminale, che comprende vescicole
sinaptiche in prossimità della membrana presinaptica, i mitocondri che sono fonti di energia, le cisterne
che sono sedi di impacchettamento di neurotrasmettitori e le fessure sinaptiche che sono gli spazi fra
membrana pre e postsinaptica. I bottoni terminali rilasciano nella fessura intersinaptica molecole di
neurotrasmettitori che si legano a recettori presenti sulla membrana postsinaptica e producono
potenziali postsinaptici eccitatori ed inibitori (EPSP e IPSP) in altri neuroni. Vi sono vari tipi di sinapsi :
le asso-dendritiche ovvero sinapsi tra terminali assonici del neurone presinaptico e dendriti del
neurone postsinaptico(molte sinapsi eccitatorie hanno luogo a livello delle spine dendritiche);
asso-somatiche ovvero tra terminali assonici del neurone presinaptico e il soma del neurone
postsinaptico; dendro-dendritiche, tra dendriti, chiamate sinapsi reciproche, che sono capaci di
trasmettere segnali in tutte e due le direzioni ; le asso-assoniche fra assoni che sono responsabili del
fenomeno di inibizione presinaptica, ovvero quando un assone presinaptico (B) inibisce gli effetti
eccitatori di un altro assone presinaptico (A) su un neurone postsinaptico (C) depolarizzando
parzialmente il bottone terminale di quest’ultimo assone (A). in questo modo il potenziale di azione che si
muove lungo l’assone di A rilascia meno neurotrasmettitore su C. Si noti che l’inibizione presinaptica
avviene senza neurotrasmettitori inibitori. Nella inibizione postsinaptica invece B inibisce gli effetti
eccitatori di A su C mediante l’iperpolarizzazione di C. Le sinapsi possono essere inoltre dirette ovvero
quando il sito di rilascio del neurotrasmettitore è vicino all’area recettiva del neurone postsinaptico. In
questo tipo di sinapsi gli effetti del neurotrasmettitore sono circoscritti e locali. Ma vi sono anche sinapsi
non dirette cioè sinapsi in cui il sito di rilascio del neurotrasmettitore è ad una certa distanza dai recettori
postsinaptici. In queste sinapsi i neurotrasmettitori sono liberati da numerosi rigonfiamenti presenti
sull’assone e sulle sue ramificazioni e agiscono in modo relativamente diffuso su un grande numero di
neuroni bersaglio circostanti. I neuroni più indiretti sono quelli del sistema endocrino che liberano
neurotrasmettitori direttamente nel sangue. A causa del loro aspetto queste sinapsi sono chiamate spesso
sinapsi a filo di perle. Nel sistema nervoso sono presenti due diverse classi di neurotrasmettitori : quello
costituito da trasmettitori a basso peso molecolare e a rapida azione e quello costituito da neuropeptidi
di dimensioni maggiori e ad azione più lenta. I neurotrasmettitori a basso peso molecolare sono di
diverso tipo e tendono a essere liberati nelle sinapsi di tipo diretto e ad attivare sia recettori legati a
canali ionici che quelli legati alla proteina G. I neuro peptidi (ad alto peso molecolare) tendono invece ad
essere liberati nelle sinapsi di tipo indiretto ad agire in modo diffuso e non locale e a controllare
complessi recettori-proteina G che agiscono mediante secondi messaggeri (i neurotrasmettitori sono
considerati primi messaggeri). Quindi la funzione dei neurotrasmettitori a basso peso molecolare sembra
essere quella di trasmettere segnali rapidi, eccitatori o inibitori, ai neuroni immediatamente vicini al sito
di rilascio, mentre i neuropeptidi trasmettono segnali che insorgono lentamente ma tendono a diffondere
in zone più ampie e a persistere più a lungo nel tempo. I neurotrasmettitori a basso peso molecolare sono
solitamente sintetizzati nel citoplasma dei bottoni terminali e contenuti in vescicole sinaptiche a livello
27
delle membrane dell’apparato del Golgi. Tali vescicole una volta riempite di neurotrasmettitori sono
immagazzinate in gruppi posti nelle immediate vicinanze della membrana presinaptica. I
neurotrasmettitori peptidici sono invece sintetizzati dai ribosomi nel citoplasma del soma e poi
depositati in vescicole dalle membrane dell’apparato del Golgi. Le vescicole sono trasportate lungo i
microtubuli situati nell’assone alla velocità di circa 40 cm al giorno e inviate ai bottoni terminali. Le
vescicole che contengono neurotrasmettitori ad alto peso molecolare hanno maggiori dimensioni di
quelle che contengono neurotrasmettitori a basso peso molecolare e inoltre non sono immagazzinate
nelle vicinanze della membrana plasmatica. Secondo il principio di Dale in passato si pensava che ciascun
neurone sintetizzasse un unico tipo di neurotrasmettitore; studi recenti hanno però dimostrato che molti
neuroni contengono due tipi di neurotrasmettitori, un fenomeno che prende il nome di coesistenza, che
finora sono sempre stati un neurotrasmettitore a basso peso molecolare e una ad alto peso molecolare. Il
processo di liberazione di un neurotrasmettitore viene detto esocitosi. Quando un neurone è a riposo le
vescicole sinaptiche che contengono neurotrasmettitori a basso peso molecolare si aggregano nelle
vicinanze della membrana presinaptica una struttura particolarmente ricca di canali ioni voltaggio
dipendenti per il calcio. L’arrivo del PA apre questi canali e consente agli ioni calcio di entrare nei bottoni
terminali. L’ afflusso intracellulare di calcio determina la fusione delle vescicole con la membrana
presinaptica : nel punto di fusione la membrana si apre e il neurotrasmettitore è liberato nella fessura
sinaptica. L’esocitosi dei neurotrasmettitori a basso peso molecolare differisce da quella dei
neurotrasmettitori ad alto peso per un aspetto. Mentre i primi sono rilasciati in quantità discreta e fissa
ogni volta che un PA causa un transitorio passaggio di ioni calcio attraverso la membrana presinaptica, i
secondi sono liberati in quantità proporzionale al progressivo aumento della concentrazione
intracellulare di ioni calcio che si ha quando la frequenza di scarica neuronale aumenta. Una volta liberati
i neurotrasmettitori attraversano la fessura intersinaptica e si legano con le molecole di recettore poste
sulla membrana postsinaptica generando un potenziale postsinaptico. Ciascun recettore è una molecola
proteica che presenta siti di legame specifici solo per un determinato neurotrasmettitore; ne consegue
che ciascun neurotrasmettitore può trasmettere segnali solo a quei neuroni che hanno recettori in grado
di riconoscerlo. Ogni molecola che si lega ad un’altra è definita il suo legante e si dice che il
neurotrasmettitore è il legante del suo recettore. Ricerche attuali hanno dimostrato che ogni
neurotrasmettitore è in grado di interagire con una varietà di recettori. Le diverse classi di recettori
controllate da un singolo neurotrasmettitore sono dette sottotipi recettoriali del neurotrasmettitore. I
vari sottotipi sono di solito localizzati in aree cerebrali diverse e ciascun sottotipo risponde diversamente
all’azione del neurotrasmettitore rendendo flessibile tale azione nel consentirgli di trasmettere segnali
diversi a diverse parti del cervello. Il legame di un neurotrasmettitore con il suo recettore modula
l’attività del neurone postsinaptico in due modi diversi a seconda che il recettore sia ionotropico o
metabotropico. I primi sono associati a canali ionici che si aprono o si chiudono producendo una
immediata variazione del potenziale di membrana (EPSP o IPSP) e sono posti sulla membrana
postsinaptica e attivati chimicamente, i secondi si legano alle proteine segnale e alle proteine G. I
recettori metabotropici invece sono più comuni ed i loro effetti sono a più lenta insorgenza, più durevoli,
diffusi e diversificati. Il recettore metabotropico si lega ad una porzione della proteina segnale esterna al
neurone, mentre la proteina G si lega ad una porzione della proteina segnale all’interno del neurone.
Quando un recettore metabotropico si lega al complesso recettore proteina G una sub unità della proteina
g si rompe. A questo punto possono verificarsi due diversi eventi che dipendono dalla proteina G
presente : 1) la subunità può muoversi lungo la superficie interna della membrana postsinaptica e legarsi
ad un vicino canale ionico generando un EPSP o IPSP; 2) la sub unità può indurre la sintesi di una
sostanza chiamata secondo messaggero che diffonde attraverso il citoplasma e influenza in modi diversi e
con effetti radicali a lungo termine le attività del neurone. In molti neuroni il secondo messaggero è
l’adenosina monofosfato ciclico che si crea quando la combinazione tra neurotrasmettitore e recettore
libera l’enzima adenilciclasi nel citoplasma del neurone postsinaptico. Gli effetti prodotti sono però di
28
breve durata. Altri secondi messaggeri hanno invece effetti di lunga durata. Le proteine G possono anche
attivare direttamente uno o più enzimi intracellulari, che a loro volta possono interferire in molte
funzioni cellulari specifiche, e possono anche attivare la trascrizione genetica che forse è uno degli effetti
più importanti dell’attivazione del sistema del secondo messaggero perché la trascrizione di un gene può
causare nel neurone la formazione di nuove proteine provocando talvolta modificazioni di circuiti
metabolici della cellula o della struttura cellulare stessa. Un tipo particolare di recettori legati alla
proteina G sono gli auto recettori, ovvero recettori metabotropici capaci di legare il neurotrasmettitore
rilasciato dal neurone a cui appartengono e che sono presenti sulla membrana presinaptica e non
postsinaptica. Si ritiene che la loro principale funzione sia quella di regolare attraverso un meccanismo di
feedback negativo la quantità di neurotrasmettitore liberato nella sinapsi riducendone il rilascio quando
la concentrazione sinaptica diventa troppo alta. Vi sono poi due diversi meccanismi che intervengono per
inattivare la molecola di neurotrasmettitore e terminare la trasmissione sinaptica di segnali : la
ricaptazione e la degradazione enzimatica. Nel primo caso dopo il rilascio i neurotrasmettitori sono
ricaptati dai bottoni terminali, depositati nuovamente nelle vescicole dell’apparato del Golgi e liberati
nella sinapsi all’arrivo di un PA. Nel secondo caso, più raro, alcuni neurotrasmettitori sono degradati dagli
enzimi, proteine che stimolano o inibiscono le reazioni biochimiche senza essere influenzate. Ad esempio
l’acetilcolina, uno dei pochi neurotrasmettitori per il quale la degradazione enzimatica rappresenta il
principale meccanismo di inattivazione, è idrolizzata (idrolìsi = reazione chimica in cui le molecole
vengono scisse in due o più parti per effetto dell'acqua) dall’enzima acetilcolinesterasi. Per quanto
riguarda il riciclaggio della membrana vescicolare si osserva che quando la vescicola si fonde con la
membrana presinaptica e riversa il suo contenuto nella fessura sinaptica il bottone terminale si ingrossa
sempre di più. Tale crescita è limitata dal fatto che pezzi di membrana presinaptica si staccano e tornano
nel citoplasma. Questi pezzi possono formare nei bottoni nuove vescicole che vengono riempite da uno
dei neurotrasmettitori non peptidici presenti nel citoplasma. Questa funzione viene svolta dalle cisterne
che si trovano nel corpo cellulare. Altri pezzi della membrana sono trasportati dal citoplasma dal bottone
al corpo cellulare con un meccanismo di trasporto assonico retrogrado. Nel corpo cellulare possono
nuovamente essere riempiti di neurotrasmettitori dall’apparato di golgi oppure possono essere
decomposti o riciclati. I neurotrasmettitori che sono rilasciati nelle sinapsi o i prodotti della loro
interruzione sono riassorbiti dai bottoni terminali e riciclati indipendentemente dal meccanismo di
disattivazione. Anche le vescicole sono riciclate dalla membrana presinaptica. Sempre per quanto
riguarda le sinapsi non tutte sono chimiche ma la trasmissione in alcune sinapsi chiamate giunzioni
comunicanti o Gap junction è elettrica. Le sinapsi elettriche hanno fessure molto strette percorse da
canali chiamati connessioni attraverso cui può scorrere la corrente elettrica. In questo modo il citoplasma
è continuo e permette ai segnali elettrici e alle piccole molecole di passare da un neurone all’altro. La
trasmissione attraverso queste giunzioni è rapida e sempre eccitatoria. Questo tipo di sinapsi è spesso
impiegato nella mediazione di risposte rapide di organismi inferiori, sono quindi rare nel sistema
nervoso del mammifero. Infine non tutti i neuroni sono inattivi quando non sono eccitati : i motoneuroni
rimangono inattivi quando non sono eccitati ma la maggior parte dei neuroni del sistema nervoso
centrale è quasi sempre in attività : alcuni scaricano continuamente a intervalli regolari, altri scaricano a
raffiche separate a intervalli regolari, altri ancora scaricano frequentemente ma ad intervalli irregolari.
Nei circuiti più complessi del sistema nervoso centrale come quelli dei mammiferi non è facile spiegare la
fonte di questa attività neuronale. Alcune ricerche effettuate su sistemi più semplici come quelli degli
invertebrati suggeriscono che molti neuroni possono scaricare senza bisogno di stimolo, il fatto che nel
SNC ci siano molti neuroni continuamente attivi spiega perché vi sia una forte prevalenza di sinapsi
inibitorie. I neuroni attivi spontaneamente hanno un vantaggio rispetto agli altri perché possono
trasmettere l’informazione in due modi : aumentando la frequenza di scarica e diminuendola. Il sistema
nervoso svolge le sue funzioni regolarmente in base al modo in cui i segnali si trasmettono al suo interno.
29
Ci sono 4 classi di neurotrasmettitori a basso peso molecolare: aminoacidi, monoamine, gas solubili e
acetilcolina. C’è poi una classe di neurotrasmettitori ad alto peso molecolare i neuro peptidi. La
maggioranza dei neurotrasmettitori produce o eccitazione o inibizione mai entrambi i fenomeni; tuttavia
alcuni neurotrasmettitori producono eccitazione quando si legano a un sottotipo recettoriale e inibizione
quando si legano con un altro sottotipo. I neurotrasmettitori usati nella maggioranza delle sinapsi dirette
del SNC sono gli aminoacidi, ovvero le molecole che costituiscono le proteine. I più importanti sono : il
glutammato, l’aspartato, la glicina e l’acido gamma-amino-butirrico o GABA. I primi tre sono presenti
nelle proteine alimentari mentre il GABA è sintetizzato a partire dal glutammato. Quest’ultimo è il
neurotrasmettitore eccitatorio più comune nel SNC dei mammiferi, mentre il GABA è il
neurotrasmettitore inibitorio prevalente nel SNC. Le monoamine sono neurotrasmettitori a basso peso
molecolare sintetizzate a partire da un unico aminoacido ( da qui il nome monoamine). Sono leggermente
più grandi degli aminoacidi e i loro effetti tendono ad essere più lenti e diffusi. Le monoamine sono
presenti in neuroni che si trovano in prevalenza nel tronco encefalico. Questi neuroni hanno spesso
assoni a filo di perle lunghi e ramificati da cui le monoamine sono rilasciate in modo diffuso nel liquido
extracellulare. Sono noti 4 tipi di monoamine: dopamina, noradrenalina (norepinefrina), adrenalina
(epinefrina) e serotonina. In base alla loro struttura le monoamine sono suddivise in due gruppi :
catecolamine e indolamine. Le prime sono dopamina, adrenalina e noradrenalina, tutte sintetizzate a
partire dall’aminoacido tirosina; la tirosina viene convertita in L-Dopa che è a sua volta trasformata in
dopamina. I neuroni che liberano norepinefrina, chiamati noradrenergici, contengono un enzima che
converte la dopamina in noradrenalina, mentre i neuroni che rilasciano epinefrina, chiamati adrenergici,
contengono un enzima specifico che converte la noradrenalina in adrenalina. La serotonina è sintetizzata
invece dall’aminoacido triptofano ed è classificata tra le indolamine. Un’altra classe di neurotrasmettitori
a baso peso molecolare sono i gas solubili che comprendono anche l’ossido nitrico e il monossido di
carbonio. I gas solubili non agiscono come gli altri neurotrasmettitori : sono prodotti nel citoplasma
neuronale e poiché sono altamente solubili nel lipidi diffondono immediatamente attraverso la
membrana plasmatica nel liquido extracellulare e quindi nelle cellule adiacenti. Una volta raggiunte le
altre cellule i gas solubili stimolano la produzione di un secondo messaggero e poi sono disattivati in
pochi secondi e convertiti in altre molecole. Poiché hanno breve durata sono difficili da studiare, ma è
stato comunque dimostrato il loro coinvolgimento nella trasmissione retrograda : su alcune sinapsi infatti
trasmettono segnali di feedback dal neurone postsinaptico a quello presinaptico. L’acetilcolina è un
neurotrasmettitore a basso peso molecolare che fa classe a se ed è formata aggiungendo un gruppo
acetilico ad una molecola di colina. E’ il neurotrasmettitore della placca neuromuscolare, della maggior
parte delle sinapsi del SNA, e di molte sinapsi in varie parti del SNC. E’ degradata nella fessura sinaptica
dall’ enzima acetilcolinesterasi. I neuroni che rilasciano acetilcolina sono detti colinergici. I peptidi che
svolgono l’azione di neurotrasmettitori sono detti neuro peptidi. Ne sono stati identificati circa 100 fra
cui i più noti sono le endorfine, appartenenti alla classe degli oppiacei endogeni (sostanze chimiche simili
all’oppio prodotte all’interno dell’organismo). Tale esistenza è stata suggerita prima dal fatto che gli
oppiacei esogeni (morfina, oppio, eroina) si legano a recettori presenti nel cervello, e poi confermata
dalla scoperta di parecchie varietà di endorfine e di numerosi sottotipi recettoriali in grado di
riconoscerle. Le endorfine attivano i sistemi neurali preposti al controllo del dolore (sistemi analgesici) e
implicati nell’esperienza del piacere. Lo studio di farmaci che interferiscono nelle trasmissioni sinaitiche
ha ampliato la comprensione delle basi neuronali dei processi psicologici e ha permesso di sviluppare
efficaci trattamenti terapeutici per una varietà di disturbi psicologici. Fondamentalmente i farmaci
possono avere due effetti sulla trasmissione sinaptica: o la facilitano o la inibiscono. I primi sono detti
agonisti del neurotrasmettitore in quanto per esempio si legano ai recettori postsinaptici attivandoli, i
secondi antagonisti del neurotrasmettitore, o anche bloccanti recettoriali in quanto si legano ai recettori
postsinaptici senza attivarli ostacolando così l’accesso del neurotrasmettitore naturale al suo recettore.
30
Tra i farmaci psicoattivi che hanno effetti psicologici ne possiamo citare due agonisti, cocaina e
benzodiazepine, e tre antagonisti, atropina, curaro e botox.
La cocaina è un potente agonista delle catecolamine e produce una notevole dipendenza fisica in chi
l’assume, oltre ad effetti psicologici come euforia, insonnia e perdita di appetito. Aumenta l’attività sia
della dopamina che della noradrenalina bloccando la ricaptazione di questi neurotrasmettitori dalla
fessura sinaptica al bottone terminale. Pertanto quando ci sono alti livelli di cocaina nel cervello le
molecole di dopamina e noradrenalina continuano ad attivare i recettori postsinaptici perché il principale
meccanismo di inattivazione non funziona. Il clordiazepossido (Librium) e il diazepam (Valium) sono
farmaci noti come benzodiazepine. Hanno proprietà ansiolitiche, antiepilettiche e sedative (induzione del
sonno). Esercitano i loro effetti ansiolitici agendo da agonisti per il GABA : in presenza di benzodiazepine
le molecole di GABA che si legano al recettore, però non nello stesso sito delle molecole di GABA ma in
una zona diversa, sono più efficaci nel causare l’ apertura dei canali ionici per il cloro Questo aumenta
la corrente di ioni cloro verso l’interno della cellula determinando una più intensa iperpolarizzazione del
neurone e favorendo gli effetti inibitori di questo neurotrasmettitore. L’ atropina rappresenta il
principio attivo della belladonna, una pianta il cui estratto veniva usato dai greci per curare disturbi
gastrici o apparire più attraenti. Si tratta di un bloccante recettoriale che svolge un’azione antagonista
legandosi ai recettori colinergici di tipo muscarinico e bloccando così l’azione dell’acetilcolina. Dosi
elevate di atropina determinano gravi deficit di memoria e questo è stato il primo indizio del fatto che i
sistemi colinergici svolgono una importante funzione nella memoria. Il curaro è anch’esso un bloccante
recettoriale a livello delle sinapsi colinergiche come l’atropina. Agisce però sui recettori colinergici
nicotinici; legandosi a quest’ultimi il curaro blocca la trasmissione neuronale in corrispondenza della
placca neuromuscolare producendo paralisi generalizzata e morte per asfissia (paralisi dei muscoli
respiratori). A volte piccole dosi di curaro vengono usate negli interventi chirurgici per evitare che i
muscoli del paziente siano contratti durante l’incisione chirurgica. Quando si usa il curaro il paziente
deve essere mantenuto in vita con un respiratore automatico. Il botox ( tossina botulinica) è una tossina
che agisce sul sistema nervoso ed è rilasciata da un batterio che spesso si trova nel cibo avariato. E’
anch’esso un antagonista nicotinico : blocca il rilascio di acetilcolina nelle giunzioni muscolari e agisce
come veleno mortale. Tuttavia in piccole dosi trova impiego nella cosmetica (riduzione delle rughe) e in
medicina (attenuazione dei tremori).
Recettori muscarinici e nicotinici : Le denominazioni dei tipi di recettore derivano da due sostanze la
muscarina (un veleno derivante da funghi velenosi) e la nicotina ognuna delle quali a differenza
dell'acetilcolina che li attiva entrambi attiva selettivamente un solo tipo di recettore ovvero quello al
quale da il nome senza avere effetti sull'altro.
Linguaggio
Il corpo umano, sia morfologicamente che funzionalmente, è basato sul principio di duplicazione
bilaterale, nel senso che ad eccezione di pochi organi la maggior parte di essi sono doppi, uno a destra e
uno a sinistra, e anche il cervello riflette questo principio generale di strutturazione e funzionamento. Il
cervello umano presenta infatti la cosiddetta lateralizzazione funzionale, ciò significa che gli emisferi
cerebrali sono simili morfologicamente ma non lo sono funzionalmente. Gli studi sulla lateralizzazione
funzionale hanno evidenziato che la funzione cognitiva più lateralizzata è il linguaggio. Gli ambiti di
studio che hanno permesso di approfondire maggiormente il tema della lateralizzazione funzionale
sono gli studi sul linguaggio, sui pazienti split-brain ossia i pazienti sottoposti a commessurotomia. La
scoperta e lo studio della lateralizzazione funzionale è avvenuta nella prima metà dell’800 ed è stata
effettuata da un medico Marc Dax il quale aveva studiato pazienti cerebrolesi che presentavano problemi
di linguaggio evidenziando che nessuno di loro presentava danni esclusivamente nell’emisfero destro.
Negli anni successivi infatti vi è stato un riscontro frequente di danni corticali all’emisfero sinistro
associati ad afasia che è un deficit di comprensione o di produzione del linguaggio o di entrambi e che è
31
imputabile a danni della corteccia frontale inferiore dell’emisfero sinistro detta area di Broca, ma anche
ad aprassia, cioè la difficoltà a svolgere determinati movimenti quando ne viene richiesta l’esecuzione
anche se non mostrano la stessa difficoltà quando li eseguono spontaneamente. Le prove che l’emisfero
sinistro svolgesse un ruolo cruciale sia nel linguaggio che nel movimento volontario portò al concetto di
dominanza cerebrale secondo il quale un emisfero di solito quello sinistro assume un ruolo dominante
nel controllo di tutti processi comportamentali e cognitivi complessi. La dominanza manuale cioè il fatto
di essere destrimani o mancini influisce sulla probabilità che una lesione unilaterale produca afasia.
Questo concetto ha portato all’abitudine di riferirsi all’emisfero sinistro come all’emisfero dominante e al
destro come all’emisfero minore. Due test sono stati utilizzati come prove di dominanza cerebrale : il test
dell’amital sodico e il test dell’ascolto dicotico. Il test dell’amital sodico, o test di Wada, viene utilizzato
spesso per determinare la dominanza linguistica nei pazienti che devono subire un intervento di
neurochirurgia al fine di avere dati che consentano di evitare di danneggiare le aree della corteccia che
sono ritenute responsabili del linguaggio. Il test consiste in una iniezione di una piccola dose di amital
sodico che è un barbiturico in una delle due arterie carotidee del collo per anestetizzare per qualche
minuto l’emisfero ipsilaterale consentendo cosi la valutazione delle capacità linguistiche dell’altro
emisfero. Si chiede infatti al paziente di recitare a voce alta alcune serie ben apprese, alfabeto - giorni
della settimana – ecc , oppure indicare il nome di alcuni oggetti comuni. Dopodiché il test viene ripetuto
per il lato opposto. In genere quando viene anestetizzato l’emisfero dominante il paziente rimane muto
per qualche minuto e quando gli effetti dell’anestesia scompaiono si manifestano errori di ordine nella
serie e di denominazione. Quando invece ad essere anestetizzato è l’emisfero minore non si ha mutismo e
gli errori sono pochi. E’ un test che permette quindi di confrontare le abilità linguistiche dei due emisferi
nello stesso soggetto e si è visto che la maggior parte dei pazienti destrimani hanno l’emisfero sinistro
dominante per il linguaggio, la maggior parte dei mancini e degli ambidestri senza danni emisferici hanno
una dominanza emisferica sinistra per il linguaggio e danni precoci all’emisfero sinistro riducono. Il test
dell’ascolto dicotico invece non è invasivo e per questo motivo può essere somministrato anche a soggetti
sani. Nella versione standard di questo test vengono presentate tre coppie di numeri, simultaneamente a
ciascun orecchio pronunciati a voce alta per mezzo di cuffie. Per cui ad un soggetto che potrebbe quindi
sentire ad un orecchio i numeri 2.4.8 e contemporaneamente all’altro orecchio 1,6,9 viene chiesto di
ripetere i numeri uditi. Kimura ha osservato che la maggior parte delle persone riesce a ripetere una
maggiore percentuale di numeri ascoltati con l’orecchio destro rispetto a quelli ascoltati con il sinistro,
che indica una dominanza dell’emisfero sinistro nel linguaggio. Secondo l’autrice inoltre le informazioni
acustiche di ogni orecchio raggiungono tutti e due gli emisferi ma le connessioni contro laterali sono più
forti di quelle ipsilaterali e prevalgono nel momento in cui due messaggi simultanei arrivano insieme ai
centri corticali uditivi. Utilizzando per questo test una versione melodica si è visto che lì orecchio sinistro
ha una superiorità per il riconoscimento di stimoli musicali; infatti persone che avevano lesioni del lobo
temporale destro avevano una più frequente alterazione della discriminazione musicale essendo il lobo
contro laterale l’orecchio che presentava dominanza. Vi sono altri test per osservare la lateralizzazione
del linguaggio in soggetti normali, fra cui il test che consiste nel porre a confronto le abilità del soggetto,
nell’identificare delle parole presentate nel campo visivo destro o nel campo visivo sinistro. Al soggetto
viene chiesto di fissare un punto al centro di uno schermo su uno dei cui lati comparirà una parola per un
intervallo di tempo inferiore a 0.1 secondi, che è il tempo sufficiente affinché i soggetti riescano a
riconoscere la parola ma non abbastanza lungo per permettere l’inizio dei movimenti oculari, che
avrebbero confuso l’interpretazione dei risultati. Tale limite metodologico viene superato attraverso una
lente, detta lente Z, che limita l’input visivo di un paziente split brain a un emisfero durante
l’osservazione di materiale visivo complesso. E’ una lente a contatto opaca su un lato, che permette
l’entrata dell’input visivo ad un solo emisfero indipendentemente dal movimento oculare. Zaidel,
l’ideatore, ha impiegato tale lente per confrontare appunto le capacità dei due emisferi di pazienti split
brain di svolgere diversi compiti non esclusivamente visivi (ad esempio per esaminare l’abilità
32
dell’emisfero destro di comprendere dei comandi orali, come metti il quadrato verde sotto il cerchio
rosso, veniva impartita l’istruzione e quindi valutata la capacità dell’emisfero destro di comprendere il
comando consentendo solo ad esso di osservare i gettoni colorati mentre veniva svolto il test). Le parole
vengono presentate verticalmente per annullare la tendenza ad esplorare l’immagine da sinistra verso
destra perché in questo modo si avvantaggerebbe la decodifica degli stimoli presentati nell’emicampo
visivo destro. Con questo tipo di test è stata osservata una tendenza a identificare più velocemente le
parole presentate nel campo visivo destro il cui vantaggio per stimoli verbali lateralizzati dipende dal
fatto che l’informazione visiva viene trasmessa più direttamente all’emisfero sinistro che è quello
dominante per il linguaggio. Il campo visivo destro non evidenzia vantaggi nell’identificare invece
materiale non verbale come immagini. Con questo test sono state analizzate le asimmetrie motorie che
accompagnano il linguaggio parlato. La lateralizzazione della gestualità di solito accompagna le attività
orali verbali e non le attività orali non verbali come canticchiare ed è stato osservato che soggetti
destrimani tendono a fare movimenti più ampi con il lato destro della bocca. Ciò indica che l’emisfero
sinistro controlla tutti i movimenti motori complessi di cui il linguaggio è soltanto un esempio. Di recente
la lateralizzazione funzionale è stata osservata con l’uso di tecniche di visualizzazione funzionale del
cervello o brain imaging attraverso il quale l’attività del cervello in un soggetto viene controllata con la
PET o la RMF quando questi è impegnato in qualche compito; si è visto che nei compiti linguistici vi è un
aumento dell’attività dell’emisfero sinistro piuttosto che del destro. Sono state inoltre osservate le
differenze di genere nella lateralizzazione funzionale, e tali studi sono stati effettuati ad opera di Mc
Glone il quale ha mostrato che il cervello è più lateralizzato nei maschi che nelle femmine. Questa ipotesi
si basa su due dati : le lesioni unilaterali a sinistra producono danni al linguaggio più frequentemente nei
maschi che nelle femmine, e che la probabilità che una lesione unilaterale produca afasia è 3 volte
superiore nei maschi che nelle femmine. Tale differenza porta a d un diverso grado di lateralizzazione fra
maschi e femmine che giustificherebbe la tendenza delle donne a dare migliori prestazioni in compiti
verbali mentre i maschi hanno migliori prestazioni in compiti visuo spaziali. Ricerche successive non
hanno però portato conferma alle ipotesi di Mc Glone perché i sono osservati casi in cui lesioni
dell’emisfero sinistro determinavano deficit nei compiti di tipo verbale sia negli uomini che nelle donne e
che l’incidenza di afasia è superiore negli uomini ma di poco e non maggior di 3 volte. Un avanzamento
negli studi della lateralizzazione emisferi si è avuto con lo studio di pazienti spli-brain cioè sottoposti a
commessurotomia. La commessurotomia consiste in una resezione della commessura anteriore, di quella
ippocampale e del corpo calloso, struttura intermedia fra i due emisferi che conduce le informazioni
apprese da un emisfero all’altro, che porta gli emisferi a funzionare indipendentemente (punti base delle
ricerche di Myers e Sperry). La commessurotomia venne usata come terapia per pazienti epilettici con
convulsioni gravi, che vennero detti appunto pazienti spit-brain in quanto sembravano possedere due
cervelli, in quanto si pensava che la gravità delle convulsioni poteva essere ridotta se le scariche potevano
esser circoscritte all’emisfero di origine. I benefici terapeutici si sono mostrati maggiori di quanto si
potesse prevedere. Tali pazienti venivano poi posti ad una valutazione neuropsicologica per osservare il
funzionamento successivo all’intervento. Tale valutazione neuropsicologica evidenziò la lateralizzazione
funzionale, ossia l’emisfero destro è specializzato per comprendere istruzioni brevi e semplici, per la
ricezione di informazioni sensoriali quindi tattili, visive, uditive dall’emicampo sinistro e per il controllo
di risposte motorie effettuate dalla mano sinistra, mentre l’emisfero sinistro presenta un controllo
maggiore del linguaggio, della ricezione di informazioni sensoriali quindi tattili, visive, uditive
dall’emicampo destro, controllo di risposte motorie effettuate dalla mano destra anche se però l’emisfero
sinistro sembra controllare la ricezione di informazioni sensoriali di tipo tattile in modo più efficace
rispetto al destro. Nei pazienti split brain sono stati condotti ulteriori studi per verificare l’indipendenza
funzionale emisferica, come ad esempio se si fa comparire l’immagine di un cucchiaio nel campo visivo
destro di un soggetto split brain l’emisfero sinistro si trova di fronte a due possibilità: essendo
specializzato per il linguaggio può portare il paziente a riferire verbalmente circa l’immagine vista
33
oppure il paziente può scegliere toccando fra una serie di oggetti nascosti da un pannello il cucchiaio con
la mano destra. Analogamente se il cucchiaio viene presentato all’emisfero sinistro ponendolo nella mano
destra del paziente questi può riferire verbalmente circa l’oggetto oppure prendendo con la mano destra
un altro cucchiaio fra gli oggetti posti dietro al pannello Diversamente se viene richiesta all’emisfero
destro di riconoscere verbalmente un oggetto presentato al campo visivo sinistro l’emisfero destro non
potrà svolgere il compito. Pertanto un paziente che ha un oggetto nella mano sinistra è consapevole di
avere qualcosa in mano ma è incapace di dire di cosa si tratta. L’emisfero sinistro può parlare, l’emisfero
destro vede lo stimolo. Oltre che riguardo le esperienze percettive è stato effettuato un test per
dimostrare che nei pazienti split brain anche l’esperienza emotiva può essere circoscritta a un emisfero
soltanto. Il test consiste nel sottoporre un soggetto ad una visione molto rapida tachistoscopica di un
nudo umano nel campo visivo sinistro del paziente stesso chiedendogli di descrivere l’oggetto visto.
L’emisfero sinistro portava il paziente a dire di non aver visto nulla poiché non aveva registrato nulla,
mentre l’emisfero destro che invece aveva registrato l’informazione portava il paziente a sorridere
divertito non riuscendo però a spiegare perché. Sebbene in un paziente split brain le vie neurali dirette di
comunicazione non ci siano più talvolta gli emisferi sembrano comunicare attraverso un processo detto
cross cuing (suggerimenti crociati). Un esempio di cross cruing si è verificato in una serie di esperimenti
per indagare la capacità dell’emisfero sinistro di rispondere a colori presentati nel campo visivo sinistro.
Per fare tale verifica viene presentato uno stimolo rosso o verde nel campo visivo sinistro ed il soggetto
doveva riferirne il colore. Inizialmente il soggetto svolgeva il compito in modo casuale più o meno al 50%,
dopo un certo intervallo di tempo la prestazione migliorava suggerendo che l’informazione relativa al
colore veniva trasferita in qualche modo attraverso dei percorsi neuronali dall’emisfero destro al sinistro.
Questi risultati si rivelarono però legati ad una particolare strategia che il paziente utilizzava, cioè se la
luce presentata era rossa e il paziente diceva rosso confermava la risposta, se invece la luce era rossa ed
egli diceva verde il paziente stesso aggrottava le ciglia e diceva di voler correggere la risposta. Ciò
avveniva perché l’emisfero destro che si era accorto che il colore in realtà era rosso ma che aveva sentito
dire verde sapendo che la risposta era sbagliata cominciava a mettere in atto una serie di risposte
motorie tali da suggerire all’emisfero sinistro di correggere la risposta. Con riferimento ai pazienti
spli brain si ritiene che se i due emisferi sono in grado di operare indipendentemente dovrebbero anche
essere capaci di apprendere due cose diverse alo stesso tempo. Un esempio di apprendimento simultaneo
nei due emisferi riguarda il fenomeno del completamento visivo. I soggetti sono spesso inconsapevoli di
essere affetti da scotoma perché il cervello ha la capacità di completarli usando l’informazione che
proviene dalle zone limitrofe del campo visivo. Alcuni studi che utilizzavano il test delle figure chimeriche
(Chimera figura mitica formata da parti di diversi animali) hanno dimostrato che ciascun emisfero di un
paziente split brain è in grado di svolgere indipendentemente il completamento visivo. Per ciò che
riguarda le differenze fra l’emisfero sinistro e destro, bisogna dire innanzitutto che per molte funzioni
non vi sono differenze e che quando ci sono non sono assolute ma implicano solo una maggiore capacità
funzionale dell’uno rispetto all’altro. In ogni caso si può avere una superiorità funzionale dell’emisfero
destro nella cognizione spaziale (neglect contro laterale e aprassia costruttiva tendono ad essere
associati a lesioni dell’emisfero destro), nelle emozioni, le espressioni del volto e gli stati d’animo che
trasmettono, ed in certi esperimenti si è visto che il contenuto emozionale di alcune immagini presentate
all’emisfero destro si rifletteva sia nell’eloquio che nel comportamento non verbale di alcuni pazienti split
brain indicando così che l’informazione emozionale veniva in qualche modo trasferita dall’emisfero
destro al sinistro, l’emisfero destro è inoltre superiore nella cognizione musicale, nella percezione delle
melodie. Entrambi gli emisferi hanno la capacità di ricordare, ma mentre il sinistro predomina nella
memoria del materiale verbale, il destro ha un ruolo più importante nella memoria del materiale non
verbale. Inoltre il sinistro cerca di dare un senso profondo ai propri ricordi, di interpretarli, mentre il
destro si limita all’aspetto percettivo dello stimolo. E’ comunque importante sottolineare che queste
differenze non sono assolute ma per esempio mentre l’emisfero sinistro è dominante nei giudizi spaziali
34
categorici come sopra e sotto, il destro lo è per i giudizi spaziali coordinati come distanze e angoli. Sono
state sviluppate diverse teorie per spiegare l’asimmetria cerebrale, e ciascuna di esse si basa sul
vantaggio rappresentato dal fatto che le aree cerebrali che svolgono funzioni simili sono localizzate nello
stesso emisfero e sulla differenza funzionale fra i due emisferi. In particolare se ne possono citare tre : la
teoria analitico-sintetica di Levy e Sperry che afferma che l’asimmetria cerebrale si basa sull’ esistenza di
due modi di pensare, ossia analitico e sintetico, basati su circuiti neurali diversi che nell’evoluzione
dell’essere umano si sono collocati all’interno rispettivamente dell’emisfero sinistro e destro. Secondo
tale teoria l’emisfero sinistro opera in modo logico, analitico, analizzando informazioni in modo
sequenziale come un computer focalizzandosi sui dettagli rilevanti, mentre l’emisfero destro è
interessato alla configurazione complessiva dello stimolo. Poiché però è difficile stabilire il grado di
elaborazione analitica o sintetica di un determinato compito è difficile sottoporre tale teoria a verifica
empirica. La teoria motoria di Kimura, basata su test dell’ascolto dicotico, si basa invece sull’assunto
che l’emisfero sinistro non è specializzato nella produzione del linguaggio ma nel controllo motorio fine
che include quindi anche movimenti orali volontari. La comunicazione verbale si è poi evoluta da una
prevalenza gestuale ad una prevalenza vocale. A sostegno di tale teoria vi è il fatto che le lesioni che
causano afasia producono anche disturbi motori : ad esempio lesioni frontali causano disturbi nella
capacità di produrr suoni linguistici singoli ma anche movimenti facciali, oppure soggetti con disturbi
della lettura hanno anche difficoltà ad eseguire test nel quale si richiede di tamburellare con le dita
(finger-tapping test). Infine abbiamo la teoria linguistica secondo cui il ruolo primario dell’emisfero
sinistro è legato al linguaggio a differenza delle altre due teorie che invece considerano il linguaggio una
specializzazione secondaria. Tale teoria è basata sullo studio di soggetti sordi che usano il linguaggio dei
segni americano e soffrono di un danno cerebrale unilaterale attraverso i quali si è visto che il fatto che
l’emisfero sinistro possa bloccare l’uso dei gesti linguistici ma non di quelli non linguistici suggerisce che
la specializzazione dell’emisfero sinistro sia il linguaggio. Dal punto di vista neuro anatomico ci sono delle
asimmetrie che portano ad affermare che l’emisfero sinistro sia strutturalmente specializzato per attività
linguistiche; infatti nell’emisfero sinistro sono più estesi il planum temporale, che si trova nel lobo
temporale posteriormente al solco laterale e a cui spesso si fa riferimento con il termine area di Wernicke
la cui funzione si ritiene sia legata alla comprensione del linguaggio, il giro di Heschl (Escl) che si trova
anteriormente al planum temporale e che costituisce la corteccia uditiva primaria, e l’opercolo frontale
che si trova di fronte all’area anteriore della corteccia motoria primaria e che rappresenta l’area di Broca.
Per quanto riguarda la localizzazione corticale del linguaggio si parla di localizzazione di centri del
linguaggio intraemisferica e in questo ambito sono state individuate due aree : l’area di Broca localizzata
nella corteccia prefrontale inferiore e che è considerata il centro della produzione del linguaggio come
risultato dell’attivazione di programmi articolatori e di centri di controllo dei muscoli facciali e della
cavità oro-faringea. Invece successivamente gi studi di Wernicke e di Geschwind hanno portato ad
individuare un’altra area del linguaggio posta nel lobo temporale sinistro posteriormente alla corteccia
uditiva primaria che venne chiamata area di Wernicke e alla quale si attribuì il ruolo della comprensione
linguistica. L’osservazione di soggetti con danni a queste aree hanno confermato il ruolo di tali aree come
centri del linguaggio. Infatti danni all’area di Broca producono afasia espressiva (afasia di Broca)
caratterizzata da una comprensione normale sia del linguaggio parlato che scritto e da un’emissione che
mantiene il significato ma che è lenta laboriosa frammentata e disarticolata. Una lesione all’area di
Wernicke producono invece un’afasia ricettiva (afasia di Wernicke) caratterizzata da un deficit nella
comprensione del linguaggio sia scritto che parlato e da una produzione priva di significato (detta
insalata di parole) che conserva ritmo e intonazione dell’eloquio normale. Un danno al fascicolo arcuato
sinistro che è un fascio di fibre che connette l’area di Broca e di Wernicke produce un altro tipo di afasia
detta afasia di conduzione in cui la comprensione e produzione spontanea del linguaggio sono intatte ma
c’è un deficit nel momento in cui si chiede al paziente di ripetere parole che gli vengono dette. Infine
Dejerine individuò un’altra sede corticale del linguaggio attraverso esami post mortem che è il giro
35
angolare sinistro, un’area di confine fra corteccia parietale e temporale sinistra, implicata nella
produzione e comprensione del linguaggio scritto. Lesioni a quest’area determinano alessia (deficit di
lettura) e agrafia (deficit di scrittura) pur non essendoci deficit visivi e motori. Il modello che identifica
queste aree corticali ad eccezione dell’area di Broca che era stata appunto identificata da Broca è
chiamato modello di Wernicke-Gershwind che rappresenta la teoria principale e più influente della
localizzazione del linguaggio. Tale modello individua sette elementi anatomo-funzionali come base
corticale del linguaggio, ossia corteccia visiva primaria, giro angolare, corteccia uditiva primaria, area di
Wernicke, fascicolo arcuato, corteccia motoria primaria e area di Broca, tutti collocati nell’emisfero
sinistro. Secondo tale modello il processo del linguaggio avviene nel seguente modo : quando si ascolta
una conversazione i segnali uditivi emessi dall’altra persona sono inviati alla corteccia uditiva primaria e
convogliati nell’area di Wernicke dove vengono interpretati. Se deve essere data una risposta l’area di
Wernicke genera la rappresentazione neurale del pensiero che tramite il fascicolo arcuato viene
trasmessa all’area di Broca dove il segnale in ingresso attiva il programma di articolazione appropriato
che a sua volta attiva i neuroni appropriati della corteccia motoria primaria e infine i muscoli articolatori.
Quando invece si legge ad alta voce il segnale ricevuto dalla corteccia visiva primaria viene trasmesso al
giro angolare sinistro che traduce la forma visiva delle parole nel codice uditivo e lo trasmette all’area di
Werniche per la comprensione. A questo punto l’area di Wernicke genera la risposta appropriata e la
invia tramite il fascicolo arcuato all’area di Broca e da qui alla corteccia motoria per produrre i suoni
linguistici appropriati. Tale modello è quindi un modello seriale che implica una serie di risposte secondo
una sequenza lineare attraverso diversi moduli di elaborazione. Gli altri modelli paralleli prevedono
invece elaborazioni di informazioni su più canali contemporanei. Il modello di Wernicke-Gershwind è
stato più volte criticato per il suo modo troppo semplice di trattare processi cognitivi superiori, cioè per
mezzo di centri localizzati a livello della neocorteccia e connessi da relazioni lineari. Va detto che queste
teorie sia quella di Broca che di Wernicke-Gershwind sono state confermate osservando le conseguenze
di danni e lesioni emisferiche in pazienti cerebrolesi riscontrando le afasie. Bisogna però sottolineare che
l’afasia di Broca e di Wernicke non esistono in forma pura, infatti quasi tutti i pazienti afasici presentano
un insieme di sintomi sia a livello di espressione del linguaggio che a livello di ricezione, e quindi termini
come afasia di Broca e afasia di Wernicke sono usati per indicare disturbi del linguaggio che sono
principalmente ma non esclusivamente espressivi o recettivi. Questo rivelerebbe anche il fatto che tali
sintomi non dipendono esclusivamente dall’area di Broca o di Wernicke. Sono stati osservati poi casi
particolari che influiscono sulle competenze linguistiche, come rimozione chirurgica di tessuti corticali,
danno cerebrale accidentale o conseguente a una patologia, TAC e RM dei pazienti afasici ed è stato
osservato cosa succede in caso di stimolazione corticale dei centri indicati come sedi corticali del
linguaggio. Nel caso di rimozione del tessuto corticale si è osservato che la rimozione dell’area di Broca
porta deficit temporanei sull’eloquio che però sembrano essere dovuti più ad edema post operatorio che
non alla rimozione stessa. Anche nel caso di rimozione dell’area di Wernicke ci sono soltanto dei deficit
temporanei di ricezione. Così anche la rimozione chirurgica del tessuto corticale del giro angolare o del
fascicolo arcuato non da luogo a nessun deficit. In caso di lesioni cerebrali da incidente o malattia gli
esami post mortem hanno portato ad osservare che i disturbi linguistici prevalentemente articolatori che
le persone presentavano erano disturbi articolatori temporanei dovuti fondamentalmente a lesioni
piccole e medie dell’area di Broca, mentre lesioni piccole dell’area di Wernicke non producono alcun
deficit, e lesioni più estese portano a forme di afasia però non pure. Per quanto riguarda i risultati della
TAC o della RM ciò che si è evidenziato è che pazienti che presentavano lesioni sottocorticali
specialmente nell’emisfero sinistro avevano disturbi di produzione se la lesione era nella parte anteriore,
disturbi di comprensione se la lesione era nella parte posteriore e afasia globale, quindi deficit di
produzione e comprensione, se le lesioni erano sia anteriori che posteriori coinvolgendo anche porzioni
importanti di sostanza bianca sottocorticale. Infine la stimolazione corticale veniva effettuata per definire
una mappa dei centri corticali impiegati nel linguaggio al fine di non danneggiarli durante le operazioni
36
chirurgiche. Tale mappa veniva costruita registrando le risposte coscienti dei pazienti in anestesia locale,
a stimolazioni in vari punti della corteccia. Ciò che è stato osservato è che stimolazioni della corteccia
dell’emisfero sinistro determinano fondamentale disturbi o cessazione del linguaggio, mentre
stimolazioni della corteccia dell’emisfero destro non ne determinano. In particolare le aree della corteccia
la cui stimolazione disturba il linguaggio si estendono ben oltre le aree del modello Wernicke-Gershwind,
ogni test linguistico era compromesso dalla stimolazione di siti ampiamente distribuiti, ed esistono
grandi differenze tra soggetti per quanto riguarda l’organizzazione delle abilità linguistiche. Applicati al
linguaggio vi sono anche studi di neuropsicologia cognitiva, che studia le basi neurali dei processi
cognitivi, studi basati su determinate ipotesi; innanzitutto sull’ assunto della modularità, secondo il quale
i processi cognitivi sono il risultato dell’attività combinata di sottosistemi neurali specializzati per
specifiche funzioni che si chiamano moduli. Per i processi cognitivi implicati nella lettura a voce alta è
stato proposto il modello del doppio accesso cioè un modello secondo cui vi sono due sistemi di accesso e
due vie neurali che mediano i processi cognitivi implicati nella lettura ad alta voce e che sono l’accesso
lessicale, che si basa su informazioni contenute nella memoria a lungo termine che riguardano la
pronuncia di specifiche parole del vocabolario della lingua di appartenenza, e non lessicale, o fonetico,
che si basa su regole generali di pronuncia che consentono di pronunciare parole non familiari o non
parole, ossia insiemi di sillabe che non hanno significato. Utilizzando questo modello si è visto che
pazienti neurologici con danni all’emisfero sinistro soffrono di due diverse forme di dislessia :
superficiale e profonda. La dislessia superficiale è un disturbo in cui l’accesso non lessicale rimane intatto
ma viene persa la capacità di pronunciare parole che nella lingua di appartenenza sono irregolari, cioè
non seguono le regole comuni della pronuncia. Nella nostra lingua ci sono poche parole irregolari e
quindi la dislessia superficiale non si evidenzia. Questi pazienti sono però incapaci di distinguere parole
omofone, ad esempio le parole lago e l’ago che si pronunciano allo stesso modo vengono poi scritte
commettendo degli errori. Nel caso della dislessia profonda il paziente ha perso la capacità di applicare le
regole della pronuncia durante la lettura (accesso fonetico) ma è in grado di pronunciare parole concrete
sulla base della memoria specifica di esse (accesso lessicale). Di conseguenza questa pazienti sono
incapaci di leggere le non parole e hanno difficoltà a pronunciare parole poco comuni o il cui significato è
astratto. In genere usano diverse strategie per leggere come considerare l’aspetto globale della parola
(velo-vela), il suo significato (soldato-bersagliere) o una derivazione della parola stessa (vero-verità). Il
modello del doppio accesso è un modello di elaborazione in parallelo che rappresenta una
contestazione al modello seriale di Wernicke-Gershwind secondo cui le informazioni percorrono in
successione un’ unica via. Sono state effettuate delle osservazioni anche per quanto riguarda la
misurazione del flusso ematico corticale nel corso di attività linguistiche per stimare l’attività di varie
aree corticali partendo dal presupposto che le aree corticali più attive hanno bisogno di un maggior
apporto di ossigeno e sangue. Sono state utilizzate diverse tecniche : le prime, che restituivano una
mappa bidimensionale, come la scintigrafia, consistevano nell’iniettare un gas inerte radioattivo nella
carotide e poi veniva misurata la dispersione di questo gas nella corteccia ipsilaterale tramite scintigrafia,
che serve a misurare la radioattività tramite un banco di contatori di scintillazione posti vicino al cranio.
Queste misure venivano effettuate mentre il paziente era impegnato in compiti verbali e avevano già
dato risultati interessanti, che sono stati successivamente confermati attraverso prove più sofisticate che
utilizzano la tomografia a emissione di positroni PET che restituisce una immagine tridimensionale del
flusso ematico in tutta la corteccia. Si basa sull’iniezione di acqua radioattiva che si distribuisce molto
rapidamente rendendo possibile somministrare diversi test a 10 minuti di distanza l’uno dall’altro. La
sostanza radioattiva viene iniettata per endovena e non attraverso la carotide distribuendosi cosi
equamente in tutti e due gli emisferi che possono essere studiati contemporaneamente. Si utilizza inoltre
un metodo computerizzato di sottrazione delle variazioni di flusso ematico durante attività di tipo
diverso. Il flusso ematico viene studiato in soggetti sottoposti a stimoli visivi e uditivi per i quali
venivano proposte 4 prove di complessità crescente. Nel caso di stimolo visivo al soggetto veniva chiesto
37
di mantenere lo sguardo fisso su una crocetta al centro di uno schermo; nella seconda prova il soggetto
doveva mantenere lo sguardo su questa crocetta anche quando sullo schermo veniva presentato un
nome; nella terza prova il soggetto doveva ripetere il nome continuando a tenere lo sguardo fisso sulla
crocetta al centro dello schermo e nella quarta prova doveva dire un verbo appropriato al nome
proiettato sullo schermo, per esempio musica-ascoltare, sempre tenendo lo sguardo fisso sulla crocetta.
Le condizioni uditive erano uguali a quelle visive ad eccezione del fatto che i nomi erano presentati per
via acustica. Durante la fissazione l’attività cerebrale veniva sottratta al livello di attivazione registrato
durante la presentazione, l’attivazione durante l’osservazione passiva veniva sottratta a quella registrata
durante la ripetizione e l’attivazione durante la verbalizzazione di parole veniva sottratta a quella rilevata
durante l’attività di associazione del verbo con la parola. Quello che si è visto è che nella fase di
rilevazione di nomi c’è maggiore flusso ematico e quindi maggiore attivazione della corteccia uditiva
primaria, della corteccia visiva secondaria e della corteccia associativa. Durante la ripetizione a voce alta
c’è un maggiore flusso ematico nella scissura centrale e laterale solo a destra, e nell’associazione
verbo-nome c’è un maggiore flusso ematico della corteccia prefrontale sinistra e della corteccia mediale.
Questo sembra confermare quali siano le sedi corticali del linguaggio ma non il fatto che il processo
cognitivo linguistico sia in termini di produzione che di ricezione segua un modello lineare e seriale come
quello proposto da Wernicke-Gershwind, ma aprì la strada a modelli di elaborazione dell’informazione su
canali paralleli come poteva essere il modello del doppio accesso.
La dislessia
La dislessia è una difficoltà patologica di lettura che non risulta da deficit generali visivi, motori o
intellettivi. Può essere di due tipi : evolutiva che si manifesta quando il bambino impara a leggere, e
acquisita provocata da danni al cervello in individui già capaci di leggere. Fra le due la dislessia evolutiva
ha cause meno evidenti. Nonostante molte anomalie strutturali siano state evidenziate nel cervello di
pazienti che soffrono di dislessia evolutiva, come asimmetria nelle dimensioni del planum temporale e
anomalie del cervelletto, vi sono tre problemi che hanno ostacolato la scoperta delle basi nervose di
questo disturbo . le anomalie strutturali riscontrate non hanno un ruolo essenziale, ci sono molti tipi di
dislessia evolutiva che hanno cause diverse, è difficile escludere la possibilità che anomalie cerebrali nei
dislessici evolutivi siano i sintomi e non la causa. Alcuni esperti credono che i deficit sensoriali e motori
siano primari e che la dislessia evolutiva ne sia la conseguenza, altri credono che tali deficit siano troppo
inconsistenti per provocare difficoltà di lettura e che il deficit primario nella dislessia evolutiva sia legato
al linguaggio. In ogni caso c’è una componente genetica della dislessia evolutiva, la percentuale di
ereditarietà è di circa il 50%. Sebbene sia stato accertato che la dislessia evolutiva è influenzata da fattori
genetici ed è associata ad anomalie della funzione cerebrale, per molto tempo la si considerava come un
disturbo psicologico piuttosto che neurologico ma studi sul cervello di studenti universitari normali e
dislessici di varie culture ha mostrato che anche se la dislessia può presentarsi in modi diversi nelle
persone che parlano lingue diverse (ad esempio fra gli inglesi vi è una percentuale di dislessici più alta
rispetto agli italiani), la patologia nervosa che sottende a questo disturbi sembra essere la stessa.
Disturbi neuropsicologici
Per quanto riguarda i disturbi neuropsicologici è importante ottenere più dati possibili attraverso una
diagnosi accurata affinché più accurate possano essere sia le diagnosi successive sia il trattamento di quel
paziente specifico. Fra i principali disturbi neuropsicologici abbiamo :
EPILESSIA
38
Il sintomo principale dell’epilessia è rappresentato da crisi epilettiche spontanee ricorrenti che sono
determinate da una patologia cerebrale cronica. Infatti non tutti coloro che soffrono di crisi epilettiche
sono affetti da epilessia. Le crisi epilettiche più conosciute prendono il nome di convulsioni (crisi
motorie) caratterizzate da tremori (clono), rigidità (ipertono), perdita dell’equilibrio e della coscienza.
Molte crisi epilettiche non presentano però queste manifestazioni ma comportano sottili alterazioni del
pensiero, dell’umore, o del comportamento che sono facilmente distinguibili dalle normali attività
fisiologiche. Molte sono le cause delle crisi epilettiche, come virus, traumi cranici, neurotossine, tumori
ma anche errori delle sinapsi inibitrici ce innescano simultaneamente l’attivazione di un gran numero di
neuroni. La diagnosi di epilessia si basa per lo più sui risultati dell’elettroencefalografia nella quale le crisi
epilettiche si associano a scariche EEG fasiche dette punte di notevole ampiezza spesso evidenti durante
un attacco della malattia e in cui scariche isolate sono presenti nei soggetti epilettici anche negli intervalli
fra attacchi. L’assenza di queste scariche epilettiche spontanee nell’EEG non sta però sempre a significare
che il paziente non sia epilettico. Può darsi che lo sia ma che durante l’esame non abbia avuto scariche o
che le stesse non siano state registrate dagli elettrodi. Alcuni pazienti epilettici possono manifestare
alcune alterazioni psicologiche particolari, dette aure, prima di una crisi convulsiva, come ad esempio
avvertire un cattivo odore, avere un pensiero particolare, un’allucinazione o un senso di costrizione
toracica. Le aure epilettiche sono importanti perché la natura dell’aura fornisce importanti informazioni
sulla localizzazione del focolaio epilettico e perchè le aure epilettiche tendono ad essere sempre uguali e
quindi avvertono il paziente di un imminente attacco. L’epilessia diagnosticata ad un individuo può
appartenere ad una di due categorie generali : epilessia parziale o generalizzata. Le crisi parziali sono
crisi epilettiche che non coinvolgono l’intero cervello. I neuroni del focolaio epilettico cominciano a
scaricare insieme e questa attività sincrona può rimanere confinata al focolaio epilettico fino alla fine
della crisi oppure estendersi ad atre regioni cerebrali ma mai a tutto il cervello e pertanto non sono mai
accompagnate da perdita totale di coscienza o di equilibrio. Ci sono due tipi principali di crisi parziali:
semplici e complesse. Nelle prime prevalgono sintomi sensoriali e/o motori e a volte sono denominate
crisi jacksoniane dal nome del famoso neurologo Jackson; si verificano in questo modo: man mano che le
scariche si propagano attraverso le strutture sensoriali e motorie del cervello i sintomi si diffondono
sistematicamente lungo le varie parti del corpo. Le crisi parziali complesse invece sono di solito limitate
al lobo temporale, particolarmente suscettibile alle scariche epilettiche, e sono dette epilessia del lobo
temporale. Durante questa crisi il paziente appare impegnato in comportamenti ripetitivi e compulsivi
semplici detti automatismi, come allacciarsi e slacciarsi un bottone o in comportamenti più complessi che
sembrano quasi normali ma di cui il paziente ricorderà poco o nulla. Circa metà dei casi di epilessia
parziale sono di tipo complesso. Le crisi generalizzate invece coinvolgono l’intero cervello. Alcune crisi
iniziano come scariche che si propagano gradualmente all’intero cervello, in altri casi invece la scarica
sembra iniziare simultaneamente in tutto il cervello. Queste forme di epilessia generalizzata possono
essere la conseguenza di patologie cerebrali diffuse o iniziare da strutture come il talamo che proiettano
ad ampie zone corticali. Anche le crisi generalizzate assumono forme diverse. Possono essere crisi di
grande male i cui principali sintomi sono perdita di coscienza associata a violente convulsioni
tonico-cloniche, e a manifestazioni come la morsicatura della lingua, incontinenza urinaria e cianosi
(colorito bluastro della cute dovuto all’eccessivo consumo di ossigeno durante la crisi). L’ipossia ovvero
la riduzione di ossigeno ad un tessuto, che accompagna la crisi di grande male può essere essa stessa la
causa di danni cerebrali che si sviluppano gradualmente dopo la crisi, mediati probabilmente
dall’eccessivo rilascio di aminoacidi eccitatori. Vi sono poi le crisi di piccolo male che non si associano a
convulsioni e il cui principale sintomo comportamentale è l’assenza cioè l’interruzione di qualsiasi
attività comportamentale associata ad alterazione dello stato di coscienza, sguardo vuoto e a volte
ammiccamenti palpebrali ripetuti. L’EEG del piccolo male è caratterizzato da complessi punta-onda
bilaterali e simmetrici alla frequenza di 3 cicli al secondo. Il piccolo male è comune nei bambini e di solito
cessa alla pubertà, ma poiché spesso sfugge alla diagnosi i bambini che ne sono affetti vengono
39
considerati dei sognatori. La terapia farmacologia può ridurre l’intensità e la frequenza delle crisi
epilettiche mentre la terapia chirurgica diviene necessaria solo in quei casi in cui la crisi può essere
pericolosa per il paziente.
MORBO DI PARKINSON
Il morbo di Parkinson è un disturbo del movimento che colpisce circa lo 0,5% degli adulti ed è più
frequente nei maschi. I sintomi iniziali sono lievi, leggero aumento del tono muscolare o tremore delle
dita, ma rapidamente si aggravano con il passare degli anni. I sintomi più comuni sono il tremore, più
evidente a riposo che nello svolgimento di azioni volontarie o durante il sonno, la rigidità muscolare, la
difficoltà ad iniziare movimenti volontari (acinesia), la lentezza dei movimenti (bradicinesia) e animia
facciale. Talvolta si presenta quella che viene chiamata "festinazione", cioè il paziente tende a strascicare i
piedi a terra e ad accelerare il passo, come se inseguisse il proprio baricentro, per evitare la caduta. In
questo modo la camminata diventa simile ad una corsa a passo molto breve. Per il paziente con
festinazione diviene difficile arrestare il cammino una volta che è arrivato a destinazione. Prima che i
sintomi diventino gravi spesso compaiono dolori e una tendenza alla depressione ma in genere la
demenza non fa parte del disturbo. Anche il morbo di P. come l’epilessia non ha una causa singola, fattori
scatenanti possono essere alterazioni genetiche, neurotossine, traumi cranici, umori, infezioni cerebrali,
disturbi vascolari, ma spesso la causa è ignota ed è assente una predisposizione familiare per la malattia.
E’ associato alla degenerazione della sostanza nera i cui neuroni, che rilasciano dopamina, proiettano al
nucleo striato dei gangli della base. Nei paziente affetti dal morbo di P. vi è una quasi totale assenza di
dopamina nella sostanza nera e nel nucleo striato. I sintomi del morbo di P possono essere alleviati con la
somministrazione di L-Dopa, il precursore chimico della dopamina, che non rappresenta però una
soluzione definitiva perché con l’uso diventa sempre meno efficace. Circa 10 mutazioni genetiche sono
associate al morbo di P. ma ognuna di queste mutazioni è stata individuata in famiglie diverse in ognuna
delle quali ci sono membri che soffrono di una forma rarissima di morbo di P. ad esordio precoce che non
sembrano essere quindi i fattori causali delle forme classiche della malattia. Sono state effettuati anche
autotrapianti della midollare del surrene, anch’essa fonte di dopamina, ovvero si sostituisce il tessuto
danneggiato con tessuto della midollare del surrene del medesimo paziente, e i risultati ottenuti a livello
di miglioramento comportamentale o remissione dei sintomi del Parkinson sono considerati interessanti,
anche se modesti, per eventuali ulteriori autotrapianti e di sviluppo del trattamento.
MALATTIA DI HUNTINGTON
E’ un disturbo progressivo delle funzioni motorie della mezza età e della vecchiaia per il quale non esiste
cura, e a differenza del morbo del P. è rara, ha una forte base genetica ed è associata a grave demenza.
All’inizio i sintomi sono rappresentati da una irrequietezza progressiva, poi con il passare del tempo essi
peggiorano fino a che il paziente è dominato dall’incessante esecuzione di una varietà di movimenti
involontari rapidi, complessi e a scatti che interessano tutti gli arti e che somigliano ad una danza e per
questo tale malattia viene chiamata anche Corea di Huntigton, dal termine greco corea che significa
appunto danza. Alla fine il deterioramento intellettivo e motorio è cosi grave che il malato è incapace di
nutrirsi da solo, di controllare l’intestino e di riconoscere i propri figli. Questa malattia si trasmette da
una generazione all’altra attraverso un singolo gene dominante (tutti i portatori del gene sviluppano la
malattia) e la facilità di trasmissione dipende dal fatto che i primi sintomi della malattia non compaiono
fino a che il genitore non abbia superato di molto il picco del suo periodo fertile cioè i 40 anni. Il gene
dominante anomalo che provoca la malattia è stato identificato e descritto nel 1993 cosi come è stata
individuata e descritta anche la proteina anormale prodotta dal gene di Huntigton. Non è ancora chiaro
però l’effetto specifico di questa proteina detta huntigtina; tale proteina è prodotta in tutte le parti del
cervello dei pazienti, ma il danno cerebrale è limitato allo striato e alla corteccia cerebrale. La probabilità
di un figlio di contrarre la malattia da un genitore malato è del 50%. Gli studiosi di genetica medica hanno
40
scoperto la localizzazione cromosomica del gene della malattia di H. e messo a punto un test che permette
di stabilire se i familiari dei pazienti affetti dalla malattia di H. sono o meno portatori del gene patologico.
Il vantaggio di tale test è che permette ai soggetti a rischio che non hanno ereditato il gene di avere figli
senza timore di trasmettere loro la malattia.
SCLEROSI MULTIPLA
E’ una malattia progressiva che colpisce la mielina del sistema nervoso centrale e che solitamente inizia
nei primi anni della vita adulta. All’inizio vi sono piccole aree di necrosi delle guaine mieliniche ma pian
piano si assiste ad una distruzione completa sia della mielina che degli assoni e al formarsi di numerose
aree di tessuto cicatriziale duro (sclerosi = indurimento). La diagnosi della sclerosi multipla è difficile
perché le manifestazioni della malattia dipendono dalla dimensione, dal numero e dalla sede delle lesioni
sclerotiche. Sintomi comuni nei casi più avanzati della malattia sono disturbi visivi, perdita di forza, la
sensazione di intorpidimento, formicolio, punture (parestesie sensoriali), i tremori e la perdita di
coordinazione motoria (atassia). Studi sulla sclerosi multipla hanno dimostrato che sia fattori ambientali
che genetici sono causa della malattia. Ambientali perché si è visto che l’incidenza della malattia è più alta
nei soggetti che passano l’infanzia in climi freddi anche se poi si spostano in paesi con climi più caldi.
Genetici perché invece si è visto che è più rara in certi gruppi etnici come zingari e asiatici anche quando
vivono in ambienti dove la malattia è diffusa. La ricerca dimostra che c’è una forte predisposizione
genetica alla sclerosi multipla che comporta un gran numero di geni diversi ognuno dei quali da il suo
contributo. La sclerosi m. è un disturbo autoimmune, ovvero un disturbo in cui il sistema immunitario
attacca una parte del corpo come se si trattasse di un elemento estraneo. La mielina è il centro della
reazione immune anomala. Un modello animale di sclerosi multipla, detto encefalite autoimmune
sperimentale, può essere sviluppato negli animali da laboratorio mediante l’iniezione di un preparato che
stimola la reazione immunitaria dell’organismo. Ci sono molti farmaci che ritardano la progressione della
sclerosi multipla o bloccano qualcuno dei sintomi ma non esiste una cura; anche la riemielinizzazione,
applicata agli animali e ai primi stadi della malattia nell’essere umano, alla fine fallisce.
MORBO DI ALZHEIMER
Il morbo di A. è una patologia terminale ed è la causa più frequente di demenza. In alcuni casi la malattia
inizia verso i 40 anni, ma la probabilità che si manifesti aumenta con il progredire dell’età. Ne sono affetti
circa il 10% sopra i 65 anni e tale percentuale sale fino al 35% oltre gli 85 anni. I primi sintomi sono
rappresentati da un declino selettivo della memoria, gli stadi intermedi sono caratterizzati da confusione,
irritabilità, ansia e alterazioni del linguaggio. Negli stadi avanzati il soggetto ha difficoltà anche a svolgere
compiti semplici come deglutire o controllare la vescica. La diagnosi definitiva viene effettuata con
l’esame autoptico. Le caratteristiche neuropatologiche principali della malattia sono i fasci neurofibrillari,
strutture filamentose proteiche presenti nel citoplasma del neurone, e le placche di amiloide, che sono
accumuli di tessuto cicatriziale composto da neuroni degenerati immersi in una matrice proteica detta
amiloide che è presente nei cervelli normali in piccolissime quantità. Inoltre si osserva anche una
sostanziale morte neuronale. Queste caratteristiche tendono comunque a prevalere in alcune strutture
cerebrali, come ad esempio nell’amigdala e nell’ippocampo, che sono strutture cerebrali implicate in vari
aspetti della memoria. Oppure possiamo trovarle maggiormente nella corteccia temporale inferiore,
parietale posteriore e prefrontale che mediano funzioni cognitive più complesse. C’è però una difficoltà
nello studio di questa malattia ed è rappresentata dal fatto che i pazienti spesso muoiono per cause
naturali prima che si presentino i sintomi; è comunque noto che il morbo di A. ha una forte componente
genetica, infatti i familiari di coloro ce ne sono affetti hanno il 50% di possibilità di contrarre la malattia
se vivono fino a 80-90 anni. La ricerca sulle basi genetiche del morbo si concentra sulle rare forme
familiari di malattia a esordio precoce in cui tutti i geni associai all’A. sono coinvolti nella sintesi
dell’amiloide o della proteina tau che è presente nei fasci neurofibrillari. La ricerca di una cura per l’A. è
41
alimentata dalla gravità del problema e dal fatto che essendo il morbo di A. una malattia della vecchiaia il
numero dei casi potrebbe essere ridotto mediante un trattamento che ne ritardi la comparsa di 5 anni. Ma
un fattore che complica la ricerca di una cura è che non è ben chiaro quale sia il sintomo principale. Il
sintomo primario sembra essere rappresentato dalle placche di amiloide che una volta sviluppatesi
provocherebbero poi gli altri sintomi. Ci sono invece altri ricercatori che ritengono che il sintomo
primario sia rappresentato dalle proteine tau e dai fasci neurofibrillari, mentre altri ipotizzano come
possibile causa un blocco nella regolazione del calcio. Fra i primi approcci terapeutici al morbo di A. vi fu
la prescrizione di agonisti colinergici per limitare l’abbassamento del livello di acetilcolina che era uno
dei primi cambiamenti neurochimici che si verifica nei pazienti. Ma risultò comunque inefficace. Un altro
approccio terapeutico è l’approccio immunoterapeutico applicato ad un modello di topo transgenico che
si è servito di un vaccino di amiloide per ridurre i depositi sulla placca e migliorare le prestazioni di
memoria. Gli stessi tentativi sull’uomo hanno evidenziato risultati diversi : si sono avuti effetti terapeutici
ma anche pericolose infiammazioni del SNC nel 5% dei casi.
Nella ricerca neuropsicologica, poiché la sperimentazione di laboratorio è raramente possibile sull’uomo,
svolgono un ruolo molto importante i modelli animali delle malattie che vanno comunque usati con
cautela perché in genere manifestano solo alcuni tratti della malattia che prendono come modello.
Ciascun modello dovrà essere esplorato completamente per poterlo valutare e per poterne capire
l’effettiva utilità, e solo alcuni consentiranno di comprendere e prevenire alcuni disturbi neuropsicolgici.
Fra i modelli animali più usati vi sono : il modello del kindling dell’epilessia, il modello del topo
transgenico affetto da morbo di A., il modello di MPTP del morbo di Parkinson, e il modello anfetaminico
della schizofrenia.
Modello del kindling o innesco delle crisi epilettiche. Nel 1969 alcuni studiosi (Goddard, McIntyre e
Leech) somministrarono ogni giorno una debole scarica elettrica ad alcuni ratti mediante elettrodi
impiantati nell’amigdala. Alle prime stimolazioni non seguirono risposte comportamentali ma presto si
osservarono risposte convulsive che man mano si diffusero dal muso a tutto al corpo. Il progressivo
sviluppo ed intensificarsi delle convulsioni a seguito delle stimolazioni cerebrali successive è noto come
fenomeno dell’accensione (kindling). Tale fenomeno è stato studiato anche su topi, gatti, cani, conigli, ed è
stato prodotto sia dalla stimolazione di molti siti cerebrali diversi dall’amigdala ma anche dalla
somministrazione ripetuta di dosi inizialmente sottosoglia di farmaci convulsivanti. Il fenomeno presenta
due aspetti importanti: il primo è che le modificazioni neuronali responsabili del fenomeno sono
permanenti (il soggetto anche se lasciato per diversi mesi senza stimolazione reagisce a stimolazioni di
basa intensità con convulsioni generalizzate); il secondo è che il fenomeno è prodotto meglio da
somministrazioni distribuite nel tempo piuttosto che concentrate ( in circostanze normale il fenomeno
del kindling non si verifica se l’intervallo fra una stimolazione e l’altra è inferiore a 20 minuti). L’interesse
per il kindling è dovuto al fatto che le convulsioni provocate negli animali sono molto simili a quelle
osservate in alcuni tipi di epilessia nell’uomo e che tale fenomeno è paragonabile all’epilettogenesi
(sviluppo dell’epilessia) che può seguire ad un trama cranico, ovvero convulsioni che si verificano solo
dopo alcune settimane dal trauma e che possono intensificarsi con il passare del tempo. Il modello del
kindling applicato in laboratorio non è isomorfo, in quanto le convulsioni sono indotte, ma le differenze
tra le crisi epilettiche spontanee e quelle indotte sono state superate con un modello in cui i soggetti
vengono sottoposti a stimolazioni per un periodo molto lungo inducendo una sindrome epilettica simile a
quella umana, nel senso che i soggetti manifestano crisi spontanee anche quando le stimolazioni sono
interrotte. Uno studio molto interessante ed utile è lo studio del kindling applicato al comportamento che
si verifica negli epilettici fra una crisi e l’altra (comportamento intercritico o interictale), i cui
cambiamenti patologici sono più devastanti e difficili da curare delle crisi stesse.
Modello del topo transgenico affetto da morbo di A. Il problema nello studio del morbo di A. è che solo
l’uomo e alcuni primati sviluppano le placche di amiloide che molti considerano il sintomo primario
anche se i loro ruolo causale non stato ancora chiarito. Alcuni ricercatori pensano che il deposito di
42
amiloide provochi una degenerazione dei neuroni che provoca i sintomi comportamentali, altri pensano
invece che le placche di amiloide siano il risultato e non la causa della degenerazione nervosa. Nella
ricerca delle possibili cause importante è il ruolo del modello del topo transgenico. Il termine transgenico
si riferisce ad animali a cui sono stati iniettati geni di un’altra specie. In uno di questi modelli i geni che
accelerano la sintesi di amiloide umana sono iniettati negli ovuli fecondati del topo che vengono poi
iniettati nella madre portatrice. Quando i topi transgenici si sviluppano i loro cervelli contengono placche
di amiloide concentrate soprattutto in strutture come amigdala, ippocampo e corteccia entorinale. Questo
modello presenta comunque dei problemi come ad esempio il fatto che i topi non hanno fasci
neurofibrillari e la compromissione della memoria varia poco quando il topo cresce e presenta un
numero maggiore di placche. Un modello animale tuttavia per essere utile non deve riprodurre tutte le
caratteristiche del disturbo umano.
Modello MPTP del morbo di Parkinson. Il principale modello del morbo di Parkinson ha avuto origine da
uno sfortunato incidente accaduto ad un gruppo di giovani tossicodipendenti che dopo aver assunto un
tipo di eroina sintetica, in cui l’agente patogeno ipoteticamente identificato fu l’MPTP, presentavano
praticamente sia tutti i sintomi motori tipici del morbo sia anche sintomi più sottili come seborrea e
micrografia. Partendo da questo sfortunato episodio si stabili che diversi primati rispondevano all’MPTP
come l’uomo: i loro cervelli mostravano danni selettivi della sostanza nera analoghi a quelli dei pazienti
parkinsoniani ed in entrambi i casi era stata dunque rilevata una riduzione di dopamina. In alcune
scimmie tuttavia è stato riscontrato che una deplezione cerebrale di dopamina non sempre induce la
comparsa di gravi deficit motori. Lo sviluppo del modello animale MPTP, considerato attualmente il
migliore, ha già prodotto effetti benefici sui pazienti, infatti si è trovato che il deprenyl, un agonista
monoaminergico, blocca gli effetti dell’ MPTP negli animali e che la sua somministrazione in pazienti con
Parkinson iniziale ritarda notevolmente la progressione della malattia.
Disturbi psichiatrici
Vi è anche un rapporto fra stress e malattie mentali dove per malattie mentali si intendono i disturbi
psichiatrici. Un disturbo psichiatrico è un disturbo della funzione psicologica sufficientemente grave da
richiedere un trattamento con uno psichiatra o uno psicologo clinico. I disturbi psichiatrici sono
influenzati da fattori legati all’esperienza come lo stress, sono il risultato di forme più sottili di patologie
cerebrali e tendono ad essere difficilmente compresi. Vi sono disturbi psichiatrici più gravi che
richiedono ospedalizzazione, chiamati psicosi, e disturbi psichiatrici meno gravi chiamati nevrosi. Fra i
disturbi psichiatrici rientrano la schizofrenia, i disturbi affettivi della sfera delle emozioni, i disturbi
d’ansia e sindrome di Tourette. La schizofrenia, che è un disturbo psicotico, è un termine che significa
separazione delle funzioni psichiche e il sintomo primario è rappresentato dal venir meno
dell’integrazione fra emozione, pensiero e azione. Spesso è associato al concetto di follia. E’ una patologia
che presenta diverse forme, infatti vi sono forme con sintomi diversi e complessi che si possono
sovrapporre fra loro o si possono sovrapporre ad altri disturbi psichiatrici e spesso si modificano durante
l’evoluzione del disturbo. In genere la ricorrenza di uno dei sintomi della schizofrenia rappresenta la base
per una diagnosi di questo disturbo. I sintomi della schizofrenia, che non è detto che si manifestino in
tutti i casi, sono : fissazioni bizzarre, ossia la convinzione di essere controllati, manie di persecuzione, di
grandezza, manifestazioni affettive non appropriate, ossia l’incapacità di reagire con livelli appropriati di
emotività ad eventi positivi o negativi, allucinazioni cioè voci immaginarie che istruiscono la persona su
quello che deve fare o che commentano in modo negativo il suo comportamento, pensiero incoerente cioè
pensieri illogici, associazioni bizzarre fra idee, credenza in forze sovrannaturali, e comportamento
bizzarro, ossia lunghi periodi di assenza di movimento, mancanza di igiene personale, eloquio in rima,
evitamento dell’interazione sociale. Sono stati effettuati diversi studi circa i fattori causali della
schizofrenia per identificare ad esempio una possibile base genetica o comunque ereditaria familiare. In
questo senso l’ipotesi attuale è che alcune persone ereditano un potenziale sviluppo della schizofrenia
43
che può essere o meno attivato dall’esperienza. A favore di questa ipotesi si può citare un confronto dei
discendenti di un grande campione di gemelli omozigoti che erano essi stessi discordanti rispetto alla
schizofrenia, cioè uno ne era affetto e l’altro no. L’incidenza della schizofrenia era ripartita in modo
uguale tra i discendenti dei gemelli affetti da schizofrenia e quelli non affetti dal disturbo. Molti fattori
legati all’esperienza precoce sono coinvolti nello sviluppo della schizofrenia come infezioni precoci,
tossine, reazioni autoimmuni,episodi di ordine traumatico e stress. Per quanto riguarda la relazione con
lo stress si è visto che eventi stressanti precedono spesso gli attacchi schizofrenici e che c’è spesso una
correlazione fra intensità dello stressor e l’attacco. In generale ciò che queste ricerche permettono di
ipotizzare è che negli schizofrenici è evidente un eccessivo sviluppo della corteccia prefrontale e poiché
lo stress attiva le proiezioni dopaminergiche alla corteccia prefrontale e questa è appunto molto
sviluppata negli schizofrenici questo può probabilmente determinare una risposta esagerata allo
stressor. La schizofrenia in genere viene curata con farmaci fra cui il primo ad essere stato individuato
negli anni 50 è stata la clorpromazina. Inizialmente si notò che questo farmaco somministrato prima di
interventi per limitare il gonfiore, aveva effetti calmanti su alcuni pazienti portando alla scoperta che la
clorpromazina allevia i sintomi schizofrenici anche se non porta alla guarigione. Analogamente sono stati
riscontrati effetti antischizofrenici anche nella reserpina, un componente vegetale, che però non viene più
somministrata poiché provoca un pericoloso abbassamento della pressione sanguigna alle dosi
necessarie per sortire gli effetti benefici. Nonostante la struttura chimica diversa i due farmaci sono simili
per il fatto che cominciano ad agire dopo un trattamento di almeno due o tre settimane, e inoltre
entrambi determinano la comparsa di effetti motori simili a quelli del morbo di Parkinson come tremore
a riposo, rigidità muscolare, diminuzione del movimento volontario. Diverse ricerche sulla schizofrenia
basate sugli studi del morbo di Parkinson hanno portato all’elaborazione di una teoria, chiamata teoria
dopaminergica, secondo cui poiché la schizofrenia sarebbe causata da un eccesso di dopamina , i farmaci
antischizofrenici (neurolettici) esercitano i loro effetti diminuendo i livelli di dopamina. Studi successivi
hanno poi portato a delle revisioni di questa teoria : inizialmente si ipotizzò che il fattore principale non
fosse un alto livello di dopamina cerebrale ma piuttosto un livello elevato di attività dei recettori
dopaminergici, per arrivare poi a dimostrare che la schizofrenia è causata dall’iperattività selettiva di un
certo tipo di recettori dopaminergici, il tipo D2, e non ai recettori dopaminergici in generale, tant’è che i
farmaci antischizofrenici efficaci, come l’aloperidolo, hanno un’alta affinità per i recettori dopaminergici
di tipo D2. Allo stato attuali i risultati delle ricerche effettuate in quest’ambito hanno portato a sostenere
che sebbene una attività eccessiva dei recettori dopaminergici D2 sia uno dei fattori del disturbo, in realtà
non è sicuramente l’unico, ma vi sono altri fattori causali che vanno ancora individuati. Le 4 scoperte alla
base di quest’ultima affermazione sono : 1) che i recettori D2 non sono i soli ad essere coinvolti nella
schizofrenia ma ve ne sarebbero altri come i recettori del glutammato, del GABA e della serotonina che
hanno portato allo sviluppo di farmaci neurolettici atipici che risultano anche più efficaci; 2) che
occorrono più settimane di trattamento per avere effetti riduttivi del disturbo mentre in realtà la
trasmissione dopaminergica viene bloccata dopo poche ore; 3) che la schizofrenia è associata ad un
danno cerebrale diffuso e non a specifici danni di circuiti dopaminergici; 4) che i neurolettici sono efficaci
solo nei confronti di alcuni schizofrenici, mostrando maggior efficacia nel trattamento dei sintomi positivi
come incoerenza, allucinazioni, manie, la cui causa si ritiene sia un aumento dell’attività neuronale,
rispetto a quelli negativi come impoverimento affettivo e riduzione dell’eloquio, la cui causa si ritiene
essere una diminuzione dell’attività neuronale. Vi sono poi studi sul rapporto fra disturbi affettivi e lo
stress. Fra i disturbi affettivi o disturbi dell’umore rientra la depressione che è una reazione normale a
perdite dolorose come la perdita di una persona cara, di beni o della salute. Vi sono però persone in cui la
depressione è sproporzionata, che spesso cadono in una disperazione estrema spesso senza una ragione
apparente e per i quali diviene impossibile far fronte a qualsiasi necessità come mantenere un lavoro,
livelli decenti di igiene personale, o avere contatti sociali, sono persone che appaiono con un tono di
umore basso, fanno fatica ad addormentarsi, sono apatiche. Tale depressione prende il nome di
44
depressione clinica.
La depressione viene spesso divisa in due categorie : la depressione reattiva che è
la reazione ad una esperienza molto negativa, la depressione endogena che invece non lo è. Oltre alla
depressione un altro grave disturbo è la mania che è un disturbo affettivo caratterizzato da eccessiva
fiducia in se, impulsività frequenti distrazioni ed eccesso di energia. Durante i periodi di media entità le
persone sono impulsive positive piene di energia e possono risultare molto efficaci in alcuni lavori; ma
quando la mania diventa estrema si presenta un problema clinico serio. In questi casi il soggetto passa
senza sosta da un argomento all’altro, ritiene che nulla sia impossibile, nessun compito per lui è difficile,
si sente esageratamente fiducioso, potente, lasciando dietro di se una scia di progetti incompiuti,
relazioni interrotte, conti non saldati. Molti pazienti depressi vanno incontro a periodi di mania e in
questo caso si parla di disturbi affettivi bipolari. Nel caso invece in cui i pazienti sono affetti solo da
depressione e non da mania si avrà un disturbo affettivo unipolare. Per quanto riguarda i fattori causali
dei disturbi affettivi si è visto innanzitutto che i fattori genetici contribuiscono a differenziare gli individui
rispetto allo sviluppo di questa malattia. Ma anche lo stress rientra fra le cause di questi disturbi, ossia le
esperienze stressanti possono provocare attacchi di depressione in individui già depressi. E’ stato
comunque difficile confermare l’ipotesi che esperienze stressanti infantili aumentino la probabilità di
sviluppare depressione in età adulta. Sono state sviluppate 4 categorie di farmaci per il trattamento dei
disturbi affettivi : 1) gli inibitori delle monoaminossidasi come l’iproniazide che inizialmente venne
sviluppato come farmaco per il trattamento della tubercolosi per il quale risultò inefficace. Si vide invece
che i pazienti affetti da tubercolosi a cui veniva somministrato questo farmaco risultavano meno
preoccupati per la loro malattia e questo spinse a provare il farmaco in pazienti depressi. Gli inibitori
delle MAO hanno molti effetti collaterali il più pericoloso dei quali è noto come effetto formaggio. Accade
infatti che gli individui che assumono gli inibitori delle Mao e consumano alimenti, come formaggio,
sottaceti e vino, ricchi di tiramina che agisce in modo potente sull’innalzamento della pressione del
sangue corrono il rischio di essere colpiti da un infarto cerebrale provocato dallo sbalzo di pressione. Gli
inibitori delle MAO aumentano 2) gli antidepressivi triclici come l’imipramina, che inizialmente era un
farmaco antischizofrenico; gli antidepressivi triciclici bloccano il riassorbimento della serotonina e della
noradrenalina aumentandone il livello cerebrale.3) il litio che è un metallo ionico semplice e che si
considera essere uno stabilizzante dell’umore ossia un farmaco che blocca la rapida transizione tra la
depressione e la mania. 4) gli inibitori selettivi della ricaptazione delle monoamine fra cui il Prozac,
fluoxetina, che è stato il primo inibitore selettivo della ricaptazione della serotonina. Il Prozac non è più
efficace dell’imipramina nel trattamento della depressione ma oltre ad avere pochi effetti collaterali si è
dimostrato efficace anche nel trattamento di una varietà più ampia di disturbi psicologici. Nel
trattamento della depressione si sono rilevati efficaci anche gli inibitori selettivi della ricaptazione di
norepinefrina cosi come altri farmaci che inibiscono la ricaptazione di numerosi neurotrasmettitori di
monoamine. La ricerca dei meccanismi nervosi dei disturbi affettivi si è focalizzata sulla depressione. La
teoria dominante della depressione è la teoria monoaminergica che sostiene che al depressione è
associata a un basso livello delle sinapsi serotoninergiche e noradrenergiche, implicando un deficit nel
rilascio di monoamine, pertanto quando in una sinapsi vi è il rilascio di una quantità insufficiente di
neurotrasmettitore di solito c’è un aumento compensatorio nel numero dei recettori di queso
neurotrasmettitore. Questo processo di proliferazione di recettori è chiamato regolazione per eccesso.
Una seconda teoria della depressione è il modello di diatesi-stress secondo la quale alcuni individui
ereditano una diatesi ossia una predisposizione genetica che di per se è incapace di dare inizio al
disturbo. L’idea centrale di questo modello è che i soggetti predisposti vengono a contatto con lo stress in
stadi precoci della vita o che i loro sistemi si sensibilizzano in modo permanente e reagiscono in modo
abnorme ad agenti di stress anche poco significativi nel corso di tutta la loro vita. Una scoperta
sorprendente e sconcertante è che più del 50% dei pazienti depressi manifestano miglioramenti
straordinari dopo una notte di deprivazione di sonno, pur riapparendo al ritorno al normale modello di
sonno. I soggetti con una diagnosi di depressione mostrano danni in molte parti del cervello ma più
45
frequentemente in tre aree. Due di esse sono l’amigdala e la corteccia prefrontale la terza comprende
molte sezioni terminali del sistema mesotelencefalico della dopamina. Infine l’ansia invece viene definita
come una paura cronica persistente in assenza di minacce reali ed è un correlato psicologico comune
dello stress; l’ansia ha una funzione adattiva quando mette in atto comportamenti reattivi efficaci di
fronte alla percezione di un pericolo, quando invece incide negativamente sul proprio normale
funzionamento diventa un disturbo d’ansia. Generalmente l’ansia presenta sintomi evidenti come nausea,
disturbi del sonno, difficoltà respiratorie, tachicardia, ipertensione ed elevati livelli di glucocorticoidi e si
accompagna a sensazioni angosciose come paura, sconforto e preoccupazione. Le cinque classi principali
dei disturbi ansiosi sono : i disturbi d’ansia generalizzata caratterizzati da risposte allo stress e da
sensazioni di estrema ansia che si manifestano in assenza di qualsiasi stimolo scatenante evidente, i
disturbi fobici d’ansia, come l’agorafobia – paura patologica dei luoghi affollati, che sono scatenati
dall’esposizione ad oggetti particolari, come uccelli o ragni, o a situazioni particolari come l’oscurità, i
disturbi di panico caratterizzati da attacchi di paura estrema che si instaurano rapidamente
accompagnati da gravi sintomi di stress come soffocamento, palpitazioni, i disturbi ossessivo compulsivi
caratterizzati dalla ricorrenza frequente e incontrollabile di pensieri ansiogeni (ossessivi) e impulsi
(compulsivi) ed è la risposta a questi pensieri che porta a dissipare l’ansia associata, i disturbi post
traumatici da stress che è un modello persistente di disagio psicologico conseguente a un forte stress.
Come altri disturbi psichiatrici anche i disturbi ansiosi hanno una componente genetica significativa, ma
importante nel provocare il disturbo è anche il ruolo dell’esperienza. Esistono due categorie di farmaci
efficaci contro i disturbi ansiosi : le benzodiazepine e gli agonisti della serotonina. Le benzodiazepine
come il diazepam sono prescritti per il trattamento dell’ansia, ma anche come ipnotici, anticonvulsivanti e
miorilassanti. Hanno diversi effetti collaterali come sedazione, tremore, nausea, compromissione
dell’attività motoria e dipendenza. Gli effetti comportamentali delle benzodiazepine sono mediati dalla
loro azione agonista sui recettori GABA a. Gli agonisti della serotonina invece come il buspirone agiscono
selettivamente su un sottotipo di recettori della serotonina il 5-HT1a. Il buspirone ha un effetto
ansiolitico senza provocare rilassamento muscolare ne sedazione, ma ha altri effetti collaterali come
nausea, capogiri, emicrania e insonnia. I modelli animali dell’ansia hanno svolto un ruolo importante
nello studio dell’ansia e nella valutazione del potenziale ansiolitico di nuovi farmaci. I tre comportamenti
animali che servono da modello per lo studio dell’ansia sono: la prestazione nel labirinto sopraelevato
dove la misura dell’ansia deriva dalla proporzione di tempo che i ratti trascorrono nei due corridoi
provvisti di pareti rispetto a quelli aperti cioè senza pareti; lo scavo difensivo in cui la misura dell’ansia
corrisponde alla quantità di tempo che il ratto passa a scavare e a gettare il materiale del fondo della
gabbia contro un cilindro di legno fissato ad una corda che o colpisce; la valutazione del rischio in cui la
misura dell’ansia dipende dal tempo che il ratto trascorre nell’immobilità e nei comportamenti di
valutazione del rischio. Questi modelli animali sono però modelli di quell’ansia che può essere trattata
con le benzodiazepine e perciò potrebbero non essere validi per farmaci ansiolitici che agiscono tramite
un meccanismo diverso, come ad esempio il buspirone. La sindrome di Tourette rappresenta un altro
disturbo psichiatrico costituito da tic, ossia movimenti o vocalizzi involontari ripetitivi e stereotipati. Di
solito si sviluppa durante l’infanzia per divenire più complessa e grave in età adulta. I tic motori più
comuni comprendono gesti osceni, picchiare e toccare oggetti vari, accovacciarsi, saltare e roteare. I tic
verbali più comuni includono suoni inarticolati come abbaiare tossire grugnire, esprimere oscenità
(coprolalia), ripetizione delle parole degli altri (ecolalia), e ripetizione delle proprie parole (palilalia).
Alcuni pazienti con la sindrome di Tourette manifestano anche disturbi da deficit di attenzione e
iperattività, disturbi ossessivo compulsivi. Anche se i sintomi sono involontari possono essere attenuati o
eliminati per brevi periodi con lo sforzo e la concentrazione del paziente. Tuttavia se sono repressi
inducono disagi e tensioni che alla fine sfociano in attacchi frequenti e intensi. Nei pazienti con sindrome
di Tourette che hanno represso i loro sintomi sono state osservate molte anomalie con la visualizzazione
funzionale del cervello, ma sono state per lo più osservate nei gangli delle base e nella corteccia
46
associativa e nel sistema limbico. I risultati di questi studi suggeriscono che la sindrome di Tourette ha
sede nel circuito di feedback gangli della base-talamo-corteccia. I sintomi di questo disturbo di solito
vengono trattati con neurolettici anche se ci sono scarsi studi che ne dimostrano l’efficacia.
Un discorso particolare da affrontare è quello del rapporto fra stress e condizioni di lavoro, includendo
sia le mansioni da svolgere che l’ambiente fisico ed emotivo e come questo possa determinare due
patologie abbastanza attuali che sono la sindrome di burn out e il mobbing. Per sindrome di burn out si
intende un disturbo dell’adattamento come indicato dal DSM IV, manuale diagnostico statistico delle
sindromi psichiatriche ed è un disturbo che coplisce molto spesso i professionisti impegnati nelle helping
profession, cioè le professioni di aiuto in ambiente sociosanitario, come medici, psicologi, operatori
sociali, educatori, insegnanti. Quindi figure professionali che si trovano a sopportare carichi eccessivi
stress che si ripete e che non riesce ad essere scaricato. Per cui cominciano a manifestarsi alcuni
sintomi come l’affaticamento fisico ed emotivo, un atteggiamento distaccato e apatico verso colleghi e
pazienti/allievi ma anche nei rapporti privati, frustrazione e non realizzazione delle sue aspirazioni
professionali, manifesta una diminuzione o una perdita della sua capacità di autocontrollo, ha quindi
delle reazioni emotive violente, difficoltà a staccarsi mentalmente dal pensiero del lavoro che diventa
ossessivo. Il mobbing non è tanto una patologia quanto un meccanismo particolare che determina una
lesione dell’integrità psicofisica dell’individuo, si parla infatti di danno biologico. Il mobbing è un termine
di origine latina mobile vulgus che significa movimento della plebe ma anche inglese dal verbo to mob
che significa aggredire violentemente. Il termine mobbing è stato coniato agli inizi degli anni settanta
dall'etologo Konrad Lorenz per descrivere un particolare comportamento aggressivo tra individui della
stessa specie con l'obbiettivo di escludere un membro dello stesso gruppo. In etologia, particolarmente in
ornitologia, mobbing indica anche il comportamento di gruppi di uccelli di piccola taglia nell'atto di
respingere un rapace loro predatore. Quando questa sequenza comportamentale è stata messa in atto
anche dagli esseri umani ha ripreso la stessa denominazione; oggi si parla di mobbing quando il soggetto,
detto mobbato, viene isolato, deriso, snobbato, dequalificato, reso inutile sul lavoro da altri soggetti
presenti nello stesso ambiente di lavoro, detti mobbers. Il mobber può essere un superiore e quindi in
questo caso si parlerà di mobbing gerarchico o bossing, oppure può essere effettuato da colleghi e in
questo caso parliamo di mobbing aziendale o orizzontale perché effettuato da individui che
professionalmente parlando si trovano allo stesso livello. I sintomi sono generalmente cefalea, tremori,
tachicardia, sudorazione fredda, gastrite, dermatosi, insonnia ma anche sviluppo di disturbi come nevrosi
e depressione. Il danno psicosociale e psicofisico determinato dal mobbing viene definito danno
biologico, ossia una lesione dell’integrità psicofisica che va ricondotta ad un tipo di rischio ampio che
viene individuato nella costrittività organizzativa insita nell’attività che la persona svolge e quindi
nell’ambiente di lavoro. Non si può quindi parlare di una malattia del lavoro equiparabile a quelle
malattie legate all’esposizione sul luogo di lavoro al pericolo o al contatto con sostanze tossiche ma si
tratta di essere esposti ad agenti stressanti di tipo sociale relazionale che però vanno a ledere l’integrità
psicofisica della persona quindi un ambiente di lavoro che produce un danno sia psicologico che
biologico. Le leggi vigenti in materia qualora il mobbing venga accertato e trattato in sede giuridica
prevedono un risarcimento inerente solo al danno biologico e non morale.
Sperimentazione clinica.
La sperimentazione clinica consiste in ricerche condotte su soggetti umani al fine di valutare l’efficacia
terapeutica di un farmaco o di un altro trattamento non ancora sperimentato. La sperimentazione dei
farmaci nuovi sull’uomo e l’autorizzazione al commercio sono rigorosamente regolate dagli stati. Il
processo per ottenere l’autorizzazione al commercio di uno psicofarmaco nuovo comincia con la
scoperta del farmaco, con lo sviluppo delle procedure di sintesi efficaci, e con la raccolta dei dati
tramite test su modelli animali che dimostrino, attraverso la ricerca comparata, che il farmaco è sicuro
per il consumo da parte dell’uomo e ha vantaggi terapeutici potenziali. Queste fasi iniziali durano almeno
5 anni; dopodiché si richiede l’autorizzazione per iniziare la sperimentazione clinica che è posta sotto il
47
controllo da parte del governo. La sperimentazione poi ha inizio e dura all’incirca 7 anni; si divide in
genere in tre fasi : controllo di sicurezza e ricerca delle dosi massimali alle quali il farmaco può essere
tollerato, definizione delle dosi efficaci e programma del trattamento attraverso modelli a doppio cieco in
cui ne soggetti ne medici sono a conoscenza del trattamento subito dal paziente, dimostrazione evidente
che il farmaco è terapeutico attraverso test finali. Dopodichè vi è la richiesta di autorizzazione per la
commercializzazione e il controllo dei risultati della sperimentazione da parte degli organi di governo e
infine la vendita al pubblico affiancata da continui controlli sulla sicurezza del farmaco. La
sperimentazione presenta però delle controversie derivanti da : necessità del modello a doppio cieco con
placebo di controllo fondamentale nella valutazione di qualsiasi psicofarmaco poiché i disturbi
psichiatrici spesso migliorano dopo la somministrazione di un placebo; necessità di placebo attivi ossia di
un farmaco di controllo che non è terapeutico ma provoca effetti collaterali simili al farmaco sotto
controllo; lentezza dei tempi di realizzazione, problemi economici derivanti dal fatto che le spese da
sostenere sono molto alte e in genere solo il 20% dei farmaci potenzialmente efficaci ottengono
l’autorizzazione definitiva. A causa della pressione economica che si sviluppa da questo fatto spesso si
mette in dubbio l’imparzialità di coloro che portano avanti la ricerca. Le case farmaceutiche impediscono
a scienziati e ricercatori di pubblicare o discutere in pubblico i risultati negativi senza l’autorizzazione
delle compagnie, e raramente vengono messi a punto farmaci che curano patologie rare perché non
procurano profitto. I farmaci per i quali il mercato è troppo limitato per cosituire fonte di guadagno sono
chiamati farmaci orfani.
Tra i principali disturbi mentali possiamo citare la schizofrenia che è un disturbo caratterizzato da deliri,
allucinazioni, pensiero incoerente, appiattimento dell’affettività e comportamenti bizzarri. I principali
farmaci usati sono la cloropromazina e la reserpina. La cloropromazina era inizialmente usata come
antistaminico e sedativo e produce sui sintomi schizofrenici una remissione. La resepina invece è un
antagonista dopaminico e i suoi effetti su pazienti schizofrenici hanno portato a formulare la teoria
dopaminergica della schizofrenia secondo cui la schizofrenia sarebbe causata da un eccesso di attività
dopaminergica soprattutto a livello del mesencefalo e del sistema limbico. Per quanto riguarda il ruolo
della dopamina nella schizofrenia sono stati fatti degli studi per accertare tali meccanismi. Innanzitutto si
è visto che la reserpina che è un antagonista della dopamina è capace di vuotare il cervello della
dopamina mentre i farmaci che possono scatenare episodi schizofrenici come le anfetamine e la cocaina
fanno aumentare l’attività della dopamina facilitandone il rilascio e bloccando il riassorbimento. Sono
stati fatti poi degli studi per individuare i recettori dopaminici specifici per legami con farmaci
antischizofrenici. Quindi è stata valutata la capacità di questi farmaci di bloccare i legami con la dopamina
e valutare quindi il grado in cui essi si legano ai recettori dopaminici. I farmaci che hanno efficacia per i
sintomi schizofrenici hanno anche un’alta affinità per i recettori della dopamina, tranne un’eccezione che
è costituita dall’aloperidolo che ha un effetto potente come antischizofrenico ma ha una bassa affinità
per i recettori dopaminici. Si è visto che esistono due tipi recettoriali per la dopamina : D1 e D2. Ai
recettori D2 si legano l’aloperidolo e altri antischizofrenici, quindi si ipotizza che la schizofrenia sia
dovuta ad una iperattività dei recettori D2 e non dei recettori dopaminici in generale. Sono stati usati
anche farmaci antischizofrenici di potenza diversa più potenti se efficaci a dosi basse e si è visto che la
potenza dei farmaci come antischizofrenici è sempre legata alla potenza del legame fra questi farmaci e
i recettori D2. Si è cercato di identificare la sede neurali di queste sinapsi D2 impiegate nella schizofrenia
che sono collocate a livello della via mesolimbica dopaminergica. I corpi cellulari di questa via
dopaminica si trovano nel mesencefalo vicino alla sostanza nera e proiettano alla corteccia frontale e a
molte strutture limbiche coinvolte nella memoria e nelle emozioni. Si è cercato poi di capire perché alcuni
pazienti schizofrenici reagiscono positivamente ad alcune terapie farmacologiche invece altri traggono
giovamento da altre terapie farmacologiche. Sono stati distinti due tipi di schizofrenia : schizofrenia con
sintomi positivi, come incoerenza, allucinazione, deliri dovuti probabilmente ad iperattività dei neuroni a
cui si accompagna quindi l’ iperattività dei recettori D2 per cui questi pazienti traggono maggiore
48
beneficio da quei farmaci che bloccano i recettori dopaminici D2., e schizofrenia con sintomi negativi,
affettività spenta, catatonia, povertà di linguaggio che implicano una attività neurale diminuita. Infine si è
cercato di capire come mai gli effetti terapeutici di terapie farmacologiche antischizofreniche si verificano
solo dopo lunghi intervalli. E’ stato dimostrato che i neurolettici non hanno effetti in quanto bloccano
direttamente i recettori D2 ma il blocco di questi recettori D2 innesca nel cervello dei cambiamenti
compensatori a lento sviluppo che mediano gli effetti della terapia. Un'altra patologia mentale importante
è la depressione nel caso della depressione si distinguono disturbi di umore unipolare e bipolare. Nel
disturbo bipolare la depressione è associata alla mania ossia vi è una alternanza di episodi depressivi ed
episodi maniacali che si trovano ai due estremi opposti della scala dell’umore, nel senso che nell’episodio
depressivo la persona si dimostra triste apatica con disturbi del sonno, dell’alimentazione, tendenza al
ritiro dai contatti sociali, poca cura della propria persona arrivando anche a perdere aspetti essenziali
della vita quotidiana come il lavoro e lo studio. Nel caso della mania i pazienti sono invece loquaci,
energici, impulsivi, positivi, hanno una fiducia in se stessi che arriva a sfiorare il delirio di onnipotenza.
Per quanto riguarda i farmaci antidepressivi si conoscono la iproniàzide, gli antidepressivi triciclici, e il
litio. L’iproniazide rientra nel gruppo degli inibitori della monoaminossidasi, ossia inibiscono questo
enzima che scinde i neurotrasmettitori monoaminici nel citoplasma neurale. E’ un farmaco usato
inizialmente per la tubercolosi e poi per la depressione. Gli antidepressivi triciclici hanno una struttura
chimica a tre anelli e sono agonisti delle monoamine : ne inattivano il riassorbimento nel neurone
presinaptico. L’ipotesi monoaminica della depressione si è basata proprio sullo studio di questi farmaci
triciclici che hanno un effetto antidepressivo ma non sono inibitori della monoaminossidasi, non
aumentano il rilascio di neurotrasmettitori monoaminici, sono agonisti delle monoamine : ne inattivano il
riassorbimento nel neurone presinaptico con un meccanismo di inattivazione insieme alla degradazione
enzimatica. Inibiscono il riassorbimento della serotonina e noradrenalina ma non della dopamina : per
cui la depressione è considerata un disturbo che non si ricollega al sistema dopaminergico. Prove a favore
della teoria monoaminica sono quelle per cui l’assunzione di un antagonista monoaminico come la
reserpina per curare la tensione arteriosa porta poi alla depressione; per cui le persone che assumono
questo farmaco per curare la tensione arteriosa hanno poi sintomi di depressione e nei soggetti depressi
sono stati riscontrati molti metaboliti della serotonina nel liquido cerebrospinale. Tuttavia la teoria
monoaminergica delle depressione ha presentato anche dei punti critici ancora studiati : la debole
correlazione fra la capacità dei triciclici di bloccare il riassorbimento e la loro efficacia antidepressiva, gli
effetti agonistici sulla trasmissione della serotonina e della noradrenalina sono immediati mentre gli
effetti terapeutici sono invece lenti, la spiegazione che è stata data è che l’azione di questi farmaci
consiste nell’aumentare il livello di serotonina e noradrenalina e ridurre alcuni sottotipi recettoriali con
un meccanismo che è definito down regulation. E’ una terapia che non rende conto tra l’altro degli effetti
terapeutici del litio, uno ione metallico che ha un effetto calmante sui sintomi di ipereccitazione della
mania. E’attualmente considerato potenzialmente terapeutico perché la remissione dei sintomi maniacali
è accertata ma è anche considerato uno ione metallico non brevettabile perché non è stato individuato
ancora il meccanismo su cui si basa.
I sistemi sensoriali esterocettivi
La percezione è quel processo mediante il quale l’organismo raccoglie informazioni dall’esterno e
dall’interno tramite specifici sistemi sensoriali. In psicobiologia si tende a suddividere il concetto di
percezione in due fasi distinte : la sensazione e la percezione. Il termine sensazione sta ad indicare il
processo di rilevazione della presenza di uno stimolo semplice e il termine percezione invece ad un
processo di ordine superiore di integrazione, riconoscimento e interpretazione di organizzazioni
complesse di sensazioni. I sistemi sensoriali rispondono a dei principi di organizzazione generale comuni
che sono 6:
49
1) sono sistemi gerarchici. Ciascun livello di una gerarchia sensoriale riceve i suoi input dal livello
inferiore, in cui predomina la componente sensoriale, e dopo averli elaborati li trasferisce al livello
gerarchico superiore, che ha una componente percettiva maggiore. Tale organizzazione risulta evidente
confrontando gli effetti delle lesioni a diversi livelli di un sistema di senso : più alto è il livello colpito dalla
lesione maggiore è la complessità e selettività dei deficit che ne risultano. Segregazione funzionale.
L’organizzazione dei sistemi sensoriali è caratterizzata dalla segregazione funzionale e non dalla
omogeneità funzionale delle diverse aree corticali di un dato sistema. Quindi ciascuno dei tre livelli del
sistema sensoriale contiene aree funzionalmente distinte ciascuna delle quali è specializzata per un
diverso tipo di analisi.
2) sono sistemi in parallelo. ovvero l’informazione è trasmessa da un componente all’altro attraverso una
molteplicità di vie che elaborano simultaneamente i diversi attributi di un segnale. Nei nostri sistemi
sensoriali esistono due modalità parallele diverse per l’analisi : una influenza il comportamento senza che
ne siamo consapevoli e l’altra lo influenza con la nostra partecipazione cosciente.
3) proiettano tutti alla neocorteccia attraverso il talamo, infatti al di la delle differenze per quanto
riguarda i percorsi compiuti dai segnali per ascendere attraverso i vari livelli del sistema nervoso, in tutti
i sistemi sensoriali vi è una via principale che collega il talamo e i nuclei di relè talamici alla neocorteccia.
4) la corteccia sensoriale è organizzata in colonne, in cui i neuroni di una data colonna di tessuto corticale
sono sensibili allo stesso tipo di informazioni sensoriali.
5) la superficie della corteccia sensoriale è disposta in modo sistematico, ossia la corteccia del sistema
visivo, uditivo e somatosensoriale sono organizzate rispettivamente in modo retinotopico, tonotopico e
somatotopico. Il vantaggio di questa organizzazione è che viene facilitata l’interazione fra le colonne
adiacenti, per esempio questo facilita l’aumento di contrasto fra aree adiacenti del campo visivo.
6) nella corteccia ogni sistema sensoriale ha una rappresentazione multipla, cioè vi sono più aree
sensoriali rispetto a quelle individuate inizialmente e che aree considerate parti di una singola area
comprendono invece mappe corticali diverse.
Uno stimolo complesso è normalmente percepito come unico e non come la somma di attributi
indipendenti. Questo genera il cosiddetto binding (bainding) problem (problema dell’integrazione), in
riferimento al quale una possibile soluzione può essere l’ipotesi dell’esistenza di un’area corticale in cima
alla gerarchia sensoriale che riceve i segnali provenienti da tutte le altre aree sensoriali e li combina
insieme dando origine a una percezione unica. I neuroni trasmettono per lo più informazioni dai livelli
inferiori a quelli superiori ma a volte ciò avviene anche in senso inverso. In quest’ultimo caso tali gruppi
di neuroni vengono chiamati vie corticofugali che rappresentano uno dei modi con cui i processi cognitivi
come l’attenzione influiscono sulla percezione (dall’alto verso il basso).
I sistemi sensoriali esterocettivi sono quei sistemi sensoriali deputati all’analisi degli stimoli sensoriali
provenienti dall’ esterno. L’olfatto e il gusto sono detti sensi chimici in quanto la loro funzione primaria è
quella di tenere sotto controllo le componenti chimiche dell’ambiente esterno. Infatti attraverso le
risposte del sistema olfattivo alle molecole che si liberano nell’aria si riesce a percepire l’odore di una
determinata sostanza. Ugualmente il gusto di una sostanza dipende dalla risposta del sistema gustativo
alle molecole che si sciolgono nella bocca attraverso la saliva e che vanno a stimolare recettori che si
trovano nella lingua e nel cavo orale. Il gusto e l’olfatto sono sensi chimici che agiscono sinergicamente
infatti in genere le molecole di cibo eccitano sia i recettori del gusto che quelli dell’olfatto producendo la
sensazione integrata che conosciamo come sapore. L’ incapacità di sentire il gusto, un deficit molto raro
probabilmente perché l’input sensoriale è portato da tre vie distinte, viene detta ageusia. In genere
comunque un’ageusia nella parte anteriore della lingua può derivare da un danno all’orecchio dello
stesso lato rispetto alla zona dove si riscontra un deficit della funzione. Pazienti affetti da ageusia si
rilevano poi anche affetti da anosmia cioè incapacità di percepire odori, e la causa più frequente è il
50
trauma cranico che provoca uno spostamento del cervello entro il cranio tale da strappare i nervi che
passano attraverso la lamina cribrosa prima di entrare nel bulbo olfattivo. Altre cause che determinano
deficit dell’olfatto meno importanti sono il morbo di Alzheimer, di Parkinson, la sindrome di Down e la
malattia di Korsakoff. Il gusto e l’olfatto sono meno conosciuti rispetto agli altri sistemi esterocettivi
perché essendo attivati da stimoli chimici sono più difficili da studiare con disegni di ricerca sperimentale
perché è più difficile controllare o somministrare uno stimolo chimico rispetto ad uno stimolo non
chimico come la luce o il suono. Inoltre si è sempre ritenuto che la perdita della percezione gustativa o
olfattiva non fosse tanto invalidante per la vita quotidiana come la perdita della vista o dell’udito o del
tatto. Tuttavia è stato scoperto che questi sistemi hanno un ruolo importante nella determinazione del
comportamento sociale; infatti è stato osservato tramite ricerche che i membri di molte specie rilasciano i
feromoni che sono agenti chimici che hanno effetti notevoli sul comportamento di membri della stessa
specie, come ad esempio il comportamento sessuale ed aggressivo del criceto. Si è ipotizzata la possibilità
che anche l’uomo possa rilasciare feromoni e in quest’ambito vi sono state scoperte interessanti come il
fatto che le donne hanno una sensibilità olfattiva maggiore nel periodo ovulatorio o che i cicli mestruali
delle donne che vivono insieme tendono a sincronizzarsi. Non ci sono invece prove che gli odori
rappresentino un fattore di attrazione sessuale nell’uomo. Un’ altra caratteristica di interesse dei sensi
chimici riguarda il loro ruolo in alcun forme di apprendimento: ad esempio è stato dimostrato che i ratti
sviluppano delle preferenze per i sapori che hanno trovato nel latte della madre o nell’alito di altri ratti.
Inoltre il sistema olfattivo ha una particolarità poiché è l’unico sistema sensoriale in cui le informazioni
sono trasmesse prima alla paleo corteccia e poi al talamo mentre negli altri sistemi avviene il contrario.
Oggi è accreditata una teoria secondo cui la percezione dell’olfatto si basa su codifiche di elementi
componenti. Si ritiene che vi sia la combinazione dell’attività di 7 tipi di recettori ognuno sensibile a
molecole di una particolare dimensione e forma. Nel sistema olfattivo i recettori sono localizzati,
apparentemente senza organizzazione, nella parte superiore della cavità nasale all’interno di uno strato
di tessuto ricoperto di muco chiamato mucosa olfattiva. Gli assoni di questi recettori passano attraverso
un’area porosa del cranio (lamina cribrosa) ed entrano nel bulbo olfattivo (primo dei nervi cranici) dove
fanno sinapsi con neuroni che proiettano nella paleo corteccia olfattiva (o meglio alla corteccia piriforme
che si trova nel lobo temporale adiacente all’amigdala) attraverso il tratto olfattivo. Da questa regione
partono due vie olfattive principali: una proietta alle strutture del sistema limbico per mediare la
componente emotiva della risposta agli odori, mentre l’altra proietta attraverso il talamo alla corteccia
olfattiva primaria per mediare la percezione cosciente degli odori. Le cellule dei recettori olfattivi sono
però diverse da quelle degli altri sistemi sensoriali per un aspetto: nel corso della vita di individuo le
cellule olfattive deteriorate vengono sostituite con cellule olfattive nuove che crescono sviluppando
assoni che raggiungono i siti appropriati nel bulbo olfattivo.
Nel sistema gustativo i recettori sono situati sulla lingua e in alcune parti della cavità orale in gruppi di
circa 50 a formare strutture dette bottoni gustativi. Sulla lingua i bottoni gustativi sono disposti intorno a
piccole protuberanze dette papille gustative. I recettori gustativi non hanno un loro assone e ciascuno dei
neuroni che trasmettono impulsi da un bottone gustativo riceve input a numerosi recettori. Anche per la
codifica del gusto vale il principio della codifica per componenti, quindi tutti i sapori sono prodotti dalla
combinazione di 4 gusti primari (dolce, amaro, aspro, salato) i bottoni gustativi rispondono a tutti e 4 i
sapori su tutti i lati della lingua ma alcune aree della lingua sono più sensibili ad alcuni sapori rispetto ad
altri : la parte anteriore della lingua è sensibile al salato e al dolce, le parte laterali all’aspro la parte
posteriore all’amaro. I segnali generati dai recettori del gusto tramite le molecole che si legano ad essi
vanno a stimolare i neuroni sensoriali che li innervano: le afferenze gustative lasciano la bocca tramite i
nervi cranici facciale glossofaringeo e vago che trasportano le informazioni dalla parte anteriore della
lingua, dalla parte posteriore e dal retro della cavità orale. Queste fibre terminano nel nucleo del tratto
solitario del midollo allungato dove fanno sinapsi con neuroni che proiettano al talamo. Da qui i neuroni
proiettano alla corteccia gustativa primaria e secondaria. Anche il sistema gustativo proietta ad alcune
51
parti del sistema limbico che è implicato nella regolazione emotiva. A differenza delle proiezioni di altri
sistemi sensoriali le proiezioni del sistema gustativo e olfattivo sono principalmente ipsilaterali. Oltre ai
gusti primari si è scoperto un ulteriore gusto, l’unami, che è il gusto piccante o saporito.
UDITO
La funzione del sistema uditivo consiste nella percezione dei suoni, o meglio nella percezione di oggetti
ed eventi attraverso il suono che essi producono. I suoni sono vibrazioni delle molecole d’aria che
stimolano il sistema uditivo ; gli esseri umani possono udire solo vibrazioni comprese fra 30 e 20.000
hertz o cicli al secondo. L’ ampiezza, la frequenza e la complessità delle vibrazioni delle molecole d’aria
sono percepiti come potenza sonora, tono e timbro. Nella vita reale il suono è dato sempre dalla
combinazione di numerose onde sinusoidali diverse, mentre il suono puro può essere prodotto solo in
laboratorio. Secondo alcuni studiosi il sistema uditivo trasformerebbe gli stimoli sonori in onde
sinusoidali semplici mediante un’analisi analoga a quella di Fourier.
L’organo dell’udito è formato dall’orecchio suddiviso in tre parti: orecchio esterno, medio ed interno. Il
suono arriva dunque all’orecchio esterno per poi passare all’orecchio medio che amplifica i suoni e
successivamente all’orecchio interno che trasduce i suoni in stimoli nervosi. L’orecchio esterno consiste
di un padiglione auricolare che è un sistema protettivo e di un condotto uditivo detto meato esterno che
incanala le onde sonore che provocano la vibrazione della membrana timpanica o timpano, una
membrana circolare, di tessuto fibroso, coperta da un sottile strato di pelle che vibra in risposta ai
mutamenti di pressione dell’aria dando origine ai suoni interagendo con altre strutture dell’orecchio
medio. (L’orecchio medio è collegato anche mediante un canale interno di ventilazione la tromba di
Eustachio che conduce alla parte posteriore del naso). Le vibrazioni vengono poi trasmesse a tre ossicini
dell’orecchio medio : il martello, l’incudine e la staffa che trasmette le vibrazioni ad una membrana detta
finestra ovale che a sua volta le trasmette al liquido contenuto nella coclèa (dal greco chiocciola) facente
parte dell’orecchio interno. La coclea è un lungo tubo a spirale con al centro una struttura membranosa
sede dell’organo recettivo uditivo, l’organo del Corti formato da due membrane : la membrana basilare,
sulla quale vi sono i recettori uditivi formate dalle cellule ciliate, e la membrana tettoria che poggia sulle
cellule ciliate. Le cellule ciliate sono formate da stereo ciglia immerse in un liquido e sono deputate a
registrare la posizione e la direzione nello spazio fino a portare le informazioni verso le strutture centrali.
Dalle cellule ciliate si originano le fibre nervose che si uniscono formando il nervo cocleare che è il
secondo ramo del nervo acustico (ottavo nervo cranico). Le vibrazioni quindi dopo essere passate nella
scala vestibolare attraverso l’elicotrema ripercorrono indietro i giri cocleari per essere poi disperse
dalla finestra rotonda. Queste onde viaggiando avanti e indietro lungo la coclea deformano la membrana
interna in particolari punti in base alla frequenza delle vibrazioni; tale deformazione stimola l’organo del
Corti che è contenuto al’interno. Il principio più importante del funzionamento della coclea è che
frequenze diverse di un’ onda sonora producono la massima deformazione in punti diversi della
membrana basilare, frequenze più alte producono piegamenti vicino alle finestre e frequenze più basse
verso l’apice della coclea, quindi suoni di frequenze differenti attivano cellule ciliate differenti e i segnali
cosi prodotti vengono portati dall’orecchio al cervello attraverso neuroni diversi. Inoltre all’interno
dell’orecchio ci sono i canali semicircolari che sono gli organi recettori del sistema vestibolare. Il sistema
vestibolare non ha una funzione uditiva ma è deputato al mantenimento dell’equilibrio mediante
informazioni sulla intensità e direzione dei movimenti della testa fornite al sistema motorio (utricolo=
equilibrio verticale e sacculo= equilibrio orizzontale). E’ quindi un sistema sensoriale interocettivo e non
esterocettivo come vista, olfatto, udito, gusto e tatto. L’organizzazione del sistema uditivo è tono topica, al
contrario di quella visiva che è retino topica, cioè a tutti i livelli del sistema i neuroni che compongono
ogni struttura sono organizzati sulla base delle frequenze a cui sono sensibili. I segnali che provengono da
ciascun orecchio sono trasmessi sia alla corteccia uditiva ipsilaterale sia a quella controlaterale per vie
diverse, ma prima passano una serie di centri specializzati come i nuclei cocleari, il complesso dell’oliva
52
superiore, il collicolo inferiore, e il nucleo genicolato mediale. Essendo questo il modo di funzionalità del
sistema uditivo è difficile dire se un suono è equidistante dalle due orecchie o se è difronte o dietro di noi.
Nell’uomo la corteccia uditiva primaria è localizzata nel lobo temporale, all’interno della scissura di Silvio,
nelle vicinanze vi è un’altra area, che si estende alla corteccia posteriore o associativa che appartiene alla
corteccia uditiva secondaria. Le porzioni frontali della corteccia uditiva primaria rispondono a toni ad
alta frequenza mentre quelle posteriori rispondono a toni progressivamente sempre più bassi. Vi sono
due importanti principi su cui è basata l’organizzazione della corteccia uditiva primaria: la corteccia
uditiva primaria è organizzata in colonne funzionali (i neuroni che penetrano verticalmente la corteccia
rispondono a suoni appartenenti allo stesso intervallo di frequenze) ed è organizzata tonotopicamente
(neuroni che compongono ogni struttura sono organizzate sulla base delle frequenze a cui sono sensibili).
La localizzazione dei suoni nello spazio è mediata dall’oliva superiore laterale e da quella mediale, ma la
prima risponde al suo massimo se vi sono deboli differenze di ampiezza nei suoni ricevuti dalle due
orecchie mentre la seconda è sensibile alle minime differenze nel tempo di arrivo dei segnali alle due
orecchie. La funzione generale dei collicoli superiori sembra essere invece quella di localizzare le fonti
dei segnali sensoriali nello spazio. L’individuazione dei danni alla corteccia uditiva è resa difficile dalla
sua collocazione nella profondità della scissura laterale, che ne impedisce anche facili danneggiamenti e
che comunque li mantiene circoscritti, e per questo molti degli studi sugli effetti delle lesioni alla
corteccia uditiva sono basati su lesioni sperimentali prodotte nelle cavie. In ogni caso in situazioni di
ampie lesioni bilaterali della corteccia uditiva possono produrre comunque un danno pur non
producendo sordità. Un danno può essere l’ag-nosia acustica cioè un deficit nella capacità di riconoscere i
suoni non verbali in assenza di una perdita significativa di udito, di un deterioramento intellettivo, o di
difficoltà legate al linguaggio. I casi di ag-nosia acustica sono pochi ed è difficile valutare se questo fatto
indichi che se si tratti o meno di una patologia rara oppure che in realtà pochi pazienti sono stati
sottoposti ad una valutazione sistematica e adeguata delle loro capacità uditive. I due tipi più comuni di
ag-nosia acustica sono amusia, ossia compromissione di una delle capacità implicate nel riconoscimento
della musica (tono, ritmo, ecc) e ag-nosia per i suoni, cioè difficoltà nel riconoscere i suoni non verbali
(suono delle campane). In numerose specie di mammiferi le lesioni complete della corteccia uditiva
primaria alterano la capacità di localizzare suoni di breve durata e di riconoscere sequenze complesse e
rapide di suoni.
Il sistema visivo
La visione è un processo che dipende dall’esperienza visiva e le informazioni dall’esterno arrivano
attraverso i recettori sensoriale neuroni specializzati nella recezione di stimoli fisici che traducono tali
stimoli in potenziali graduati lenti. Il sistema visivo è costituito dai globi oculari, dal nervo ottico, dal
chiasma ottico e dalle vie corticali. Gli occhi compiono diversi tipi di movimento : i movimenti di
vergenza, ovvero movimenti coordinati di entrambi gli occhi che permettono di mantenere lo sguardo
fisso su un oggetto, movimenti saccadici, ovvero movimenti rapidi e improvvisi per osservare più punti di
una scena visiva, i movimenti di inseguimento, ovvero movimenti più lenti che servono a mantenere sulla
fòvea l’immagine di un oggetto in movimento e l’accomodamento, che è un processo compiuto per
mettere a fuoco sulla retina oggetti vicini e lontani. Gli occhi, che si trovano nelle orbite, sono distanti
circa 7-8 cm fra loro e forniscono indicazioni diverse sulla realtà che percepiscono, che viene definita
visione stereoscopica. Sono tenuti insieme da sei muscoli extra oculari mascherati dalla congiuntiva e
attaccati alla sclera, che è un rivestimento biancastro opaco che riveste l’occhio e non permette alla luce
di entrare; vi è poi la cornea che è uno strato trasparente sulla parte anteriore dell’occhio che lascia
passare la luce, la pupilla cioè un’apertura sull’iride posta dietro la cornea che filtra la luce, il cristallino
cioè una lente naturale trasparente e biconvessa del’occhio, l’umor vitreo che è la massa gelatinosa e
trasparente che riempie i 4/5 posteriori del globo oculare, la retina che è un tessuto composto da neuroni
53
e fotorecettori che si trova sulla superficie interna e posteriore dell’occhio, la fòvea che è la regione
centrale della retina che consente una visione precisa ed accurata e contiene solo coni, il disco ottico che
è il punto di uscita dalla retina delle fibre delle cellule gangliari che formano il nervo ottico,
responsabile della macchia cieca, punto privo di fotorecettori. Ciò che ci consente di vedere gli oggetti
circostanti è la luce che tali oggetti riflettono, infatti neanche gli animali definiti notturni riescono a
vedere nella completa oscurità. Le due principali proprietà della luce sono la lunghezza d’onda,
importante nella percezione dei colori, e l’intensità importante per la percezione della luminosità. La
quantità di luce che arriva alla retina, passa prima attraverso la cornea, l’umor vitreo, la pupilla e il
cristallino, ed è regolata da bande contrattili circolari dette iride che conferiscono all’occhio il suo colore
e all’interno del quale vi è un foro detto pupilla attraverso il quale passa la luce. Le variazioni di
dimensione della pupilla in risposta a cambiamenti di luminosità rappresentano un compromesso tra
sensibilità (capacità di rilevare oggetti poco illuminati) e acuità (capacità di vedere i dettagli più fini degli
oggetti). Quando il livello di illuminazione è elevato le pupille sono costrette, le immagini sulla retina
sono più nitide e si ha una maggiore profondità focale, quando invece il livello di illuminazione è più
basso le pupille si dilatano per far entrare più luce anche se l’acuità e la profondità focale delle immagini
si riducono. Dietro ciascuna pupilla vi è una lente, chiamata cristallino, il cui compito è mettere a fuoco la
luce sulla retina attraverso un processo detto accomodazione. Attraverso questo processo quando
guardiamo un oggetto vicino i muscoli ciliari si contraggono e la lente mantiene la sua naturale posizione
cilindrica, quando invece guardiamo qualcosa in lontananza i muscoli ciliari si rilassano e la lente si
appiattisce. I movimenti dei nostri occhi sono coordinati attraverso movimenti di convergenza degli occhi
stessi, ma la posizione delle immagini retiniche nei due occhi non è mai la stessa poiché i due occhi non
guardano il mondo dalla stessa posizione. Tale differenza di posizione della stessa immagine visiva sulle
due retine viene detta disparità binoculare ed è maggiore per gli oggetti vicini più che per quelli lontani. Il
sistema visivo è in grado di utilizzare i diversi gradi di disparità binoculare per costruire una percezione
tridimensionale partendo da due immagini retiniche bidimensionali.
La struttura cellulare della retina è formata da 5 diversi strati di cellule : i recettori, le cellule orizzontali,
le cellule bipolari, le cellule amàcrine e le cellule retiniche gangliari. Il funzionamento del sistema visivo
viene osservato mediante diversi test di verifica fra cui uno è il test della perimetria o esame perimetrico
o campimetria. E’ un test in cui la testa del paziente viene sostenuta da un appoggio in modo che non si
muova, il paziente deve fissare con un solo occhio un punto su uno schermo e un piccolo punto luminoso
viene fatto lampeggiare in diversi punti dello schermo. Il paziente ogni volta che vede questo punto
luminoso deve premere un pulsante. La stessa procedura si effettua con entrambi gli occhi e si ottiene
come risultato una mappa del campo visivo in grado di indicare anche la presenza di eventuali aree
cieche. Quando si verifica un danno in una regione della corteccia visiva primaria si parla di scotoma cioè
un’area di cecità nel campo visivo contro laterale. Generalmente l’area intorno al centro del campo visivo
viene risparmiata per un fenomeno detto preservazione della macula cosicchè le informazioni fornite dai
recettori che circondano la macula possono riempire il vuoto dell’immagine retinica. L macula è la parte
centrale della retina, che comprende la fovèa e contiene un pigmento giallastro e che essendo priva di
recettori è detta per questo motivo macchia cieca. Numerosi pazienti con scotomi sono inconsapevoli di
questo disturbo e ciò è dovuto al fenomeno del completamento che si basa su capacità residue visive
nello scotoma. Questo fenomeno è stato studiato osservano pazienti che avevano scotomi estesi ma che
non erano assolutamente consapevoli di questo deficit. Uno dei fattori che permetteva questa mancanza
di consapevolezza era appunto questo fenomeno di completamento Alcuni pazienti con scotomi che
erano sottoposti alla visione di una figura complessa che aveva una parte che si trovava nel loro scotoma
riferivano di vedere l’immagine completa. Ciò era appunto dovuto a capacità residue visive nello scotoma
ma anche quando questa ipotesi veniva esclusa il completamento si verificava ugualmente. Pazienti che
hanno perso la totalità della corteccia visiva primaria riferiscono di essere completamente ciechi però
alcuni di essi che hanno una cecità corticale possono eseguire compiti che richiedono la vista, per
54
esempio indicare la traiettoria di un oggetto anche se non lo vedono. Questa capacità viene chiamata
visione cieca. Il blindsight o visione cieca è un fenomeno presente in pazienti affetti da scotoma ed è la
capacità di questi pazienti di rispondere a stimoli visivi nello scotoma anche se non hanno alcuna
consapevolezza dello stimolo : per esempio il soggetto può tendere le mani e afferrare un oggetto in
movimento pur affermando di non vederlo.
I recettori retinici sono di due tipi: i coni, deputati alla visione diurna o fotopica che prevale in condizioni
di buona illuminazione e che consente una percezione visiva del mondo ad alta acuità e a colori, e i
bastoncelli, deputati alla visione notturna o scotopica che prevale in condizioni di scarsa illuminazione e
che è molto più sensibile anche se consente una percezione priva di colore e meno dettagliata. L’essere
umano presenta circa 130 milioni di bastoncelli e circa 6 milioni di coni. La differenza fra visione diurna e
notturna dipende in parte dalle connessioni dei due tipi di recettori. Infatti mentre parecchie centinaia di
bastoncelli possono convergere su un’unica cellula gangliare non è insolito che solo alcuni coni
convergano su una stessa cellula gangliare. Di conseguenza gli effetti di una luce poco intensa che stimola
simultaneamente molti bastoncelli possono sommarsi ed influenzare la frequenza di scarica della cellula
gangliare retinica connessa con i bastoncelli stimolati, mentre la stessa debole luce proiettata su una serie
di coni non può dare luogo allo stesso grado di sommazione e la cellula gangliare potrebbe non
rispondere affatto alla luce. Coni e bastoncelli differiscono anche nella loro distribuzione sulla retina.
Infatti la fovea contiene solo coni la cui distribuzione diminuisce a favore dei bastoncelli man mano che ci
si allontana dal centro della fovea. Nella periferia retinica ci sono più bastoncelli vicino al naso che vicino
alle tempie. La percezione della luminosità è influenzata non solo dall’intensità ma anche dalla lunghezza
d’onda; infatti poiché il nostro sistema visivo non è ugualmente sensibile a tutte le lunghezze d’onda, luci
di uguale intensità ma di differenti lunghezze d’onda possono differire in luminosità. Il grafico della
luminosità relativa di luci di uguale intensità ma di differente lunghezza d’onda si chiama curva di
sensibilità spettrale. La maggior parte dei neuroni del sistema visivo risponde a stimoli dinamici piuttosto
che statici, ovvero rispondono vigorosamente a stimoli che appaiono si muovono scompaiono ma
rispondono debolmente a stimoli continui che non variano mai. Una delle funzioni dei movimenti oculari
è appunto quella di modificare continuamente la posizione dell’immagine sui recettori retinici in modo
tale che recettori e neuroni ricevano una stimolazione che varia continuamente. Quando l’immagine si
stabilizza una parte del sistema visivo smette di rispondere allo stimolo visivo che quindi scompare. La
visione scotopica è mediata dalla presenza di una molecola proteica sensibile alla luce contenuta nei
bastoncelli, la rodopsina, che assorbe luce in varie condizioni. La perdita di colore e di assorbimento
rappresentano il primo momento di passaggio alla visione scotopica. A favore di questa ipotesi vi è il
risultato di alcuni esperimenti che mostrano come la percezione visiva nell’uomo sia correlata al grado
con cui la rodopsina. In condizioni di bassa illuminazione la nostra sensibilità a luci di diverse lunghezze
d’onda è conseguenza della capacità della rodopsina di assorbirle. La trasduzione della luce da parte dei
bastoncelli mette in risalto un aspetto importante del sistema nervoso : i segnali nervosi sono spesso
trasmessi mediante un processo di inibizione. Sul pigmento dei coni si conosce meno ma la sua struttura
e la sua funzione sono simili a quelli della rodopsina. Ad esempio quando sono stimolati i coni si
iperpolarizzano e riducono il rilascio di glutammato. Le informazioni visive vengono trasmesse al
cervello attraverso molte vie. La principale è la via retino-genicolo-striata, che trasmette i segnali visivi
dalla retina alla corteccia visiva primaria mediante i nervi ottici passando per i nuclei genicolati laterali
del talamo. Tutti i segnali visivi che originano nel campo visivo sinistro raggiungono la corteccia striata
destra sia dallo stesso lato che dal lato opposto, Al contrario i segnali visivi del campo visivo destro
raggiungono la corteccia visiva sinistro. Il sistema retino-genicolo-striato è retinotopico, ovvero ciascun
livello del sistema è organizzato secondo una mappa retinica , cioè stimoli presentati in aree retiniche
adiacenti eccitano neuroni adiacenti nei vari livelli del sistema visivo. Tale mappa ha però una
rappresentazione sproporzionata della regione foveale, sebbene la fovea occupi in realtà solo una piccola
55
parte della zona retinica. Il sistema retino genicolo striato comprende due canali di comunicazione
indipendenti : uno passa attraverso gli strati parvocellulari o strati P, e uno attraverso gli strati
magnocellulari o strati M. I neuroni parvocellulari sono più numerosi e rispondono in particolare al
colore e a dettagli fini di stimoli statici o che si muovono lentamente. Al contrario i neuroni
magnocellulari rispondono selettivamente e stimoli in movimento. La maggioranza degli input del
sistema P è fornita da coni mentre i bastoncelli forniscono l’input principale del sistema M. I bordi
rappresentano l’informazione più significativa di una scena visiva poichè definiscono la dimensione e la
posizione dei vari oggetti. Ogni margini che vediamo viene accentuato da meccanismi del nostro
sistema nervoso che ne aumentano il contrasto rendendo la percezione dei contrasti stessi migliore di
quanto non lo sia in realtà. Il fenomeno dell’aumento di contrasto può essere osservato attraverso le
cosiddette bande di Mach ovvero una serie di bande omogenee di diversa intensità che vengono percepite
in maniera diversa dalla realtà. In corrispondenza dei margini la banda più luminosa sembra più chiara e
quella meno luminosa sembra più scura. Le strisce illusorie più chiara e più scura aumentano il contrasto
in corrispondenza di ciascun margine rendendone più semplice la visione. Ogni cellula gangliare riceve
informazioni da una specifica zona della retina, detta campo recettivo, costituita da due zone: la zona
on e la zona off in ognuna delle quali sono collocati i coni e i bastoncelli. Il campo recettivo di un neurone
è quella regione entro cui uno stimolo visivo è in grado di influenzare la frequenza di scarica di quel
neurone. I neuroni visivi tendono ad esser sempre attivi anche in assenza di input visivi. Alcuni studi
hanno mostrato che : i campi recettivi nell’area della fovea della retina sono più piccoli di quelli nella
periferia, che tutti i neuroni hanno campi recettivi circolari, che tutti i neuroni sono monoculari cioè
hanno un campo recettivo in un occhio ma non nell’altro, e che molti neuroni hanno campi recettivi che
comprendono sia una zona di eccitazione che di inibizione, ovvero a seconda della posizione dello stimolo
nel campo recettivo il neurone può mostrare un aumento di scarica quando a luce è proiettata al centro
del campo recettivo (scarica all’on) oppure un aumento di scarica quando la luce viene proiettata alla
periferia (scarica all’off). Nella corteccia visiva primaria vi sono specifiche aree deputate all’analisi delle
caratteristiche salienti come colore e orientamento e le cellule si dividono in due tipi: cellule semplici e
complesse. Le cellule semplici hanno campi recettivi rettangolari e non circolari e rispondono meglio ad
esempio a barre luminose in un campo scuro o viceversa. Le cellule complesse sono più numerose di
quelle semplici, hanno campi recettivi rettangolari ma più grandi, e rispondono a stimoli lineari con un
preciso orientamento e non alla luce diffusa e sono binoculari, cioè rispondono a stimoli provenienti da
entrambi gli occhi. In alcuni esperimenti con delle scimmie si è notato che molte cellule binoculari
manifestano un certo grado di dominanza oculare, cioè rispondono più intensamente alla stimolazione di
un occhio rispetto alla stimolazione dell’altro svolgendo un ruolo fondamentale nella percezione della
tridimensionalità e profondità degli stimoli visivi. Lo studio dei campi recettivi della corteccia visiva
primaria ha condotto a due conclusioni: 1) il flusso di segnali va da neuroni con campi recettivi semplici a
quelli con campi più complessi; 2) la corteccia visiva primaria è organizzata in una serie di colonne
funzionali verticali, in cui le cellule di ciascuna colonna rispondono a stimoli lineari con il medesimo
orientamento in cui metà delle colonne di un gruppo è dominata da stimoli provenienti dall’occhio destro
e l’altra metà dallo occhio sinistro (bande alternate di dominanza oculare). Un’altra teoria importante è
quella della frequenza spaziale secondo cui la corteccia visiva primaria analizza frequenze spaziali e non
margini e linee. A favore di questa teoria vi è l’osservazione che i neuroni corticali visivi rispondono più
intensamente a grate sinusoidali piuttosto che a margini e linee. Una grata sinusoidale è un insieme di
bande parallele di uguale ampiezza in cui bande chiare e scure si alternano regolarmente secondo una
sequenza sinusoidale.
Per quanto riguarda la visione dei colori, il nero viene percepito quando c’è assenza di luce, il bianco è
percepito sulla base di una miscela di numerose lunghezze d’onda in uguale proporzione, il grigio è
prodotto dalla medesima miscela di lunghezze d’onda ma di minore intensità. La percezione dei colori
cromatici, o tinte, dipende in larga parte dalla lunghezza d’onda, o meglio dalla complessa miscela di
56
lunghezze d’onda, della luce che esso riflette nei nostri occhi. Secondo la teoria dei componenti della
visione dei colori, o teoria tricromatica, proposta da Young e perfezionata da Von Helmholtz, vi sono tre
tipi di recettori per il colore (coni), ciascuno con una diversa sensibilità spettrale, la cui attivazione
determina la codifica del colore dello stimolo. Secondo gli studiosi qualunque colore dello spettro visibile
può essere ottenuto mescolando insieme, in proporzioni differenti, tre diverse lunghezze d’onda. Un’ altra
teoria fu quella dell’opponenza cromatica proposta da Hering secondo cui nel sistema visivo ci sono tre
classi di cellule, due per la codifica del colore e una per la codifica della luminosità. Hering ipotizzo che
ciascun tipo di cellula codificasse la percezione di due colori complementari ( ad esempio una classe di
cellule segnalava il rosso quando la sua attività cambiava in una direzione (es:depolarizzazione), oppure
segnalava il verde, colore complementare al rosso, quando la sua attività cambiava in direzione opposta
(es:iperpolarizzazione). Vengono definiti colori complementari quelle coppie di colori che, quando sono
combinati in ugual misura, producono il grigio o il bianco (es: rosso e verde). Hering basava la sua teoria
sul fatto che i colori complementari non possono trovarsi contemporaneamente nella stessa tinta e che
l’immagine postuma dopo aver fissato per esempio il verde è il rosso. Esistono tre diverse classi di coni :
quelli sensibili alle lunghezze d’onda corte, sensibili a quelle medie e sensibili a quelle lunghe. Ci sono
inoltre cellule che rispondono in una direzione a lunghezze d’onda di un colore, e che rispondono in
direzione opposta quando si presentano lunghezze d’onda del color complementare.
La costanza del colore è la tendenza di un oggetto a restare dello stesso colore nonostante le ampie
variazioni nelle lunghezza d’onda che esso riflette; il colore percepito di un oggetto non è dunque
semplice funzione della lunghezza d’onda che esso riflette. La costanza del colore accresce la nostra
capacità di riconoscere gli oggetti in modo da poter interagire con loro adeguatamente. Se il loro colore
cambiasse ad ogni variazione delle condizioni di illuminazione sarebbe per noi molto difficile riconoscerli
ogni volta e la visione del colore avrebbe uno scarso valore per la sopravvivenza. Secondo la teoria
retinex di Land il colore di un oggetto è determinato dalla sua reflettanza, cioè la proporzione delle
diverse lunghezze d’onda riflesse da una superficie. Nella visione dei colori è implicato un tipo particolare
di neurone corticale che risponde al contrasto di colore, le cosiddette cellule a opponenza doppia della
corteccia visiva, che rispondono al contrasto di colore tra aree adiacenti del campo visivo. La visione è
dunque un sistema creativo, dove il sistema retino genicolo striato non fornisce immagini visive intatte
ma fornisce informazioni su alcuni tratti decisivi come posizione, movimento, contrasto del colore e da
queste crea una percezione migliore dell’immagine retinica sotto ogni aspetto e migliore anche della
realtà esterna.
Il sistema visivo comprende l’intera corteccia occipitale, dove è posta la corteccia visiva primaria e parte
di quella secondaria (corteccia prestriata), parte di quella parietale, dove troviamo le aree associative che
ricevono input visivi (corteccia parietale posteriore) e temporale dove è collocata parte della corteccia
visiva secondaria (corteccia inferotemporale). Anche il sistema visivo è organizzato gerarchicamente:
l’informazione viene analizzata prima dalla corteccia visiva primaria e poi inviata alle aree secondarie ed
associative.
Tra i deficit della funzione visiva possiamo parlare di ag-nosia visiva, che è un deficit nel riconoscimento
di stimoli visivi, ovvero si è in grado di percepire gli stimoli ma non si sa di cosa si tratta. Le agnosie visive
a volte sono specifiche per una categoria di stimoli visivi o per un aspetto dell’input visivo, e vengono
denominate in base al tipo di stimolo che non viene riconosciuto (ag-nosia per il movimento, per i colori,
ecc…). Si ritiene che ogni forma specifica di ag-nosia visiva derivi dalla lesione di una determinata area
della corteccia visiva secondaria. La prosopag-nosia nello specifico è la difficoltà a riconoscere i volti,
ovvero riconoscono un volto in quanto tale ma hanno problemi a capire di che volto si tratti. Ma un’analisi
accurata dei prosopag-nosici ha rivelato però che il loro deficit di riconoscimento a volte non si limita ai
volti ma essi hanno un problema generale di riconoscimento specifico rispetto ad oggetti appartenenti a
57
categorie complesse. La diagnosi di prosopoagnosia è di solito associata a danni nella parte ventrale
dell’area di giunzione fra i lobi occipitale e temporale. Tale deficit sembra comunque confermare la teoria
“controllo del comportamento vs. percezione consapevole” in quanto sembra da alcuni test che questi
pazienti siano comunque in grado di riconoscere inconsciamente i volti familiari, il che indicherebbe che
la funzione della via dorsale sia intatta. La corteccia parietale posteriore sembra essere implicata
nell’individuazione degli oggetti nello spazio indipendentemente dalla modalità sensoriale attraverso cui
vengono percepiti. Alcune parti della corteccia associativa sono composte da aree diverse ognuna
specializzata in un tipo particolare di analisi visiva, alcune per esempio rispondono più efficacemente
al colore, altre al movimento o alla forma, sono diverse anatomicamente, e lesioni selettive in aree
diverse producono disturbi visivi diversi. Queste aree presentano inoltre un alto numero di connessioni
attraverso le quali il flusso delle informazioni procede dalle aree più semplici a quelle più complesse.
Le informazioni visive raggiungono la corteccia visiva che poi proietta alle diverse aree funzionali della
corteccia visiva secondaria attraverso due sistemi principali: la via ventrale e dorsale. La via dorsale
origina dalla corteccia visiva primaria e termina nella regione parietale posteriore; la via ventrale origina
dalla corteccia visiva primaria e termina nella corteccia infero temporale. Si ritiene che queste due vie
svolgano funzioni differenti : mentre la via dorsale è importante nell’analisi della posizione dello stimolo
(via del dove) la via ventrale sarebbe implicata nel riconoscimento dello stimolo (via del cosa). Lesioni
che colpiscono la via dorsale determinano difficoltà a raggiungere gli oggetti ma non a riconoscerli
mentre lesioni che colpiscono la via ventrale determinano la situazione opposta. Altri studiosi sostengono
invece che la differenza fra la via dorsale e frontale non è tanto nel diverso tipo di informazione
analizzata quanto nel diverso uso che ne fa il cervello. Secondo questo punto di vista la funzione del
sistema dorsale è quella di dirigere e controllare le interazioni comportamentali con gli oggetti, mentre la
funzione del sistema ventrale è quella di mediare la percezione consapevole degli stimoli visivi (controllo
del comportamento vs. percezione consapevole anziché dove vs cosa). Pertanto pazienti con lesioni alla
via ventrale sono in grado di interagire visivamente con gli oggetti anche se non riescono a vederli,
mentre pazienti con lesioni alla via dorsale sono coscienti di vedere gli oggetti ma non sono in grado di
interagire con essi.
Sensazioni somatiche : tatto e dolore
Le sensazioni che provengono dal nostro corpo sono chiamate somato sensazioni. Il sistema
somatosensoriale è composto da tre sistemi distinti ma interconnessi : un sistema esterocettivo, che
rileva stimoli esterni applicati alla cute, un sistema propriocettivo che controlla le informazioni che
riguardano la posizione delle varie parti del corpo e provengono dai recettori muscolari e articolatori, e
un sistema introcettivo che dirige le informazioni sulle condizioni interne al corpo come temperatura e
pressione sanguigna. Il sistema esterocettivo comprende a sua volta un sistema per la percezione degli
stimoli meccanici (tatto) un sistema per gli stimoli termici (caldo e freddo) e un sistema per gli stimoli
nocicettivi (dolore). Nella pelle ci sono 6 tipi di recettori presenti sia nella pelle con peli che glabra, come
il palmo della mano, fra cui i recettori cutanei più semplici sono le terminazioni nervose libere, cioè prive
di recettori specializzati, che appaiono particolarmente sensibili al tatto e al dolore. La pelle glabra
contiene 4 tipi di recettori : due ad adattamento rapido che si adattano rapidamente e rispondono meglio
a stimoli tattili di breve durata come i corpuscoli di Pacini più grandi e profondi e i corpuscoli di Meissner
che invece si trovano subito sotto lo strato superficiale della pelle, e due ad adattamento lento come I
recettori di Merkel e i corpuscoli di Ruffini che non presentano adattamento e rispondono in modo tonico
agli stimoli tattili lunghi ed invarianti come rispettivamente la pressione e la trazione prolungata della
cute. La pelle con peli comprende invece corpuscoli di Pacini, di Ruffini e recettori di Merkel e i recettori
piliferi che sono recettori ad adattamento rapido che si trovano vicino alla base del pelo. La differenza fra
adattamento rapido e lento può essere rappresentata dall’esempio in cui un oggetto appuntito preme
sulla pelle in modo prolungato e costante. Tale stimolo all’inizio produce un incremento di scarica in tutti
58
i recettori che evoca la sensazione di essere stati toccati e dopo pochi millisecondi rimangono attivi solo i
recettori ad adattamento lento e quindi cambia il tipo di sensazione che si produce. Di solito non siamo
consapevoli di stimoli meccanici costanti finchè non vi poniamo attenzione, e quando dobbiamo
identificare degli oggetti mediante il tatto li manipoliamo con le mani in modo che la configurazione degli
stimoli vari continuamente nel tempo. L’identificazione degli oggetti mediante il tatto è detta
stereog-nosi. Le fibre nervose che trasportano le informazioni dai recettori somatosensoriali si
raccolgono nei nervi periferici ed entrano nel midollo spinale attraverso le radici dorsali. L’area del corpo
innervata dalle radici dorsali di un dato segmento del midollo spinale è chiamato dermatoma; data la
sovrapposizione tra dermatomi adiacenti la distruzione di una singola radice dorsale produce in genere
solo la parziale perdita dell’ informazione diretta alla corteccia somatosensoriale. le informazioni
somatosensoriali sono trasmesse al SNC attraverso due vie principali ascendenti : il sistema colonna
dorsale-lemnisco mediale, che
trasporta alla corteccia informazioni che riguardano tatto e
propriocezione, e il sistema anterolaterale, che veicola informazioni concernenti dolore e temperatura.
Nel sistema colonna dorsale lemnisco mediale i neuroni sensoriali entrano nel midollo spinale attraverso
le radici dorsali salgono dallo stesso lato costituendo le colonne dorsali del midollo e fanno sinapsi nei
nuclei delle colonne dorsali del midollo allungato. A questo punto passano controlateralmente e salgono
mediante il lemnisco mediale verso il talamo che proietta alla corteccia somatosensoriale primaria e
secondaria. Il nucleo ventrale posteriore riceve input anche dai nervi facciali in particolare il trigemino.
La maggior parte dei neuroni del sistema anterolaterale fa sinapsi nella sostanza grigia delle corna
dorsali non appena entra nel midollo. Da qui gli assoni della maggior parte dei neuroni sale contro
lateralmente verso il cervello viaggiando nella regione anterolaterale del midollo; alcuni neuroni invece
non decussano e salgono dallo stesso lato. Il sistema anterolaterale comprende tre tratti: il tratto spino
talamico che proietta ai nuclei ventrali posteriori del talamo, il tratto spino reticolare, che proietta alla
formazione reticolare e poi al talamo, e il tratto spinotettale che proietta al tetto del mesencefalo. I tre
rami del trigemino che portano informazioni sul dolore e sulla temperatura della pelle della faccia
proiettano agli stessi siti talamici. Da qui l’informazione è poi distribuita alle varie parti del cervello.
L'informazione che deve essere trasmessa rapidamente e con un'alta fedeltà spaziale e temporale prende
la via del sistema colonne dorsali-lemnisco mediale, mentre quella che non necessita di una trasmissione
veloce ne di una grande fedeltà spaziale è affidata al sistema anterolaterale. Attraverso alcuni
esperimenti effettuati applicando stimolazioni elettriche sulla superficie corticale di pazienti coscienti
prima di un intervento neurochirurgico, Penfield analizzò la relazioni fra siti corticali stimolati e le parti
del corpo in cui era evocata una sensazione tattile e scoprì che la corteccia somatosensoriale primaria
dell’uomo è organizzata in modo somatotopico cioè le diverse parti del corpo inviano proiezioni a diverse
parti della corteccia somatosensoriale. In tale mappa, che è comunemente detta homunculus
somatosensoriale, le regioni più estese sono quelle relative alle parti del corpo deputate alle
discriminazioni tattili fini come mani, lingua labbra. Al di sotto dell’area somatosensitiva primaria si
estende quella secondaria, riceve molti dei suoi input dall’area primaria e a differenza dell’area primaria
che riceve input prevalentemente contro laterali la secondaria riceve input da entrambi le parti del corpo.
Vi sono prove che anche la corteccia primaria somatosensitiva sia organizzata gerarchicamente in 4 aree
disposte parallelamente e tramite colonne, cioè ogni neurone di una particolare colonna risponde allo
stesso tipo di stimoli e ha il proprio campo recettivo nella stessa parte del corpo. I campi recettivi di molti
neuroni della corteccia somatosensoriale primaria possono essere suddivisi in aree eccitatorie e
inibitorie in antagonismo tra loro.
I deficit che si presentano dopo una lesione alla corteccia somatosensitiva primaria sono comunque
modesti e sono bilaterali solo se tale lesione coinvolge anche la corteccia somatosensoriale secondaria.
Uno dei deficit più ricorrenti derivanti da lesioni della corteccia somatosensoriale sono le ag-nosie. Ad
esempio dopo la rimozione unilaterale della corteccia somatosensoriale primaria in pazienti epilettici si è
riscontrata una ridotta abilita nel rilevare una lieve stimolazione tattile e nell’identificare gli oggetti
59
mediante il tatto, detta astereoag-nosia. Oltre all’astereoag-nosia vi è anche un altro tipo di agnosia
somatosensoriale detta asomatoag-nosia, cioè l’incapacità di riconoscere parti del proprio corpo. Di solito
interessa il lato sinistro del corpo e si associa comunemente ad ampie lesioni del lobo parietale
posteriore destro. Spesso è accompagnata anche da anosoag-nosia cioè l’incapacità di rendersi conto dei
propri sintomi neurologici, e a volte anche da negligenza controlaterale (neglect) ovvero la tendenza a
non rispondere a stimoli posti nello spazio controlaterale alla lesione dell’emisfero destro.
La percezione del dolore, benché negativa, è molto importante per la nostra sopravvivenza, quindi ha una
funzione adattiva. Non ha una rappresentazione corticale; gli stimoli dolorosi provocano attivazione sia
della corteccia somatosensoriale primaria che secondaria ma l’asportazione di entrambi queste aree non
determina alcuna modificazione nella soglia del dolore. L’area corticale più frequentemente associata ala
dolore è la corteccia cingolata anteriore che risulta da alcuni studi essere associata più alle reazioni
emotive al dolore che alla percezione del dolore stesso. Generalmente è dovuto ad un danno somatico e
la percezione del dolore infine può essere soppressa da vie discendenti di controllo. In questo senso è
stata proposta la teoria della barriera di controllo o teoria del gate control di Melzac e Wall che per primi
hanno sviluppato una teoria delle basi neurali del dolore che poteva spiegare come fattori emotivi e
cognitivi potessero bloccarne la percezione; tale teoria implica che segnali discendenti del cervello
potessero attivare dei circuiti di soglia nel midollo spinale che potevano bloccare l’ingresso dei segnali
del dolore prima che essi raggiungessero il cervello. Viene però contrastata da quei ricercatori che
ritengono che il dolore sia funzione diretta dei danni dei tessuti e che quindi fattori cognitivi ed emotivi
non possono avere potere analgesico. Attraverso il contributo di Reinolds sono state fatte scoperte che
hanno condotto alla scoperta dei circuiti di controllo del dolore: si è visto che la stimolazione elettrica in
particolare del grigio periacqueduttale (PAG) ha effetti analgesici; si dimostrò poi che il PAG ed altre aree
cerebrali presentano recettori specializzati per gli analgesici oppiacei come la morfina; e vennero isolati
diversi oppiacei endogeni come le endorfine. Queste tre scoperte portarono ad ipotizzare che farmaci
analgesici e fattori psicologici riducano la percezione de dolore attraverso circuiti discendenti
dell’analgesia sensibili alle endorfine che scendono dal PAG, nei quali neuroni serotoninergici dei nuclei
del rafe proiettano lungo le colonne dorsali del midollo ed eccitano interneuroni midollari sensibili agli
oppiacei bloccando cosi l’ingresso dei segnali dolorifici.
ATTENZIONE SELETTIVA.
Rispetto alla moltitudine di stimoli che arrivano ai nostri organi sensoriali noi ne percepiamo solo una
piccola parte attraverso quel processo denominato attenzione selettiva. Mentre da un lato l’attenzione
selettiva migliora la percezione degli stimoli selezionati dall’altra riduce la percezione di quelli che non
rientrano nel nostro fuoco di attenzione. Essa infatti funziona rinforzando gli attributi a cui si presta
attenzione e indebolendo gli altri. In generale l’anticipazione di uno stimolo aumenta l’attività nervosa
dei circuiti utilizzati dallo stimolo stesso. Ci sono due modi di attivare l’attenzione: con processi cognitivi
interni in cui l’attenzione endogena è mediata da meccanismi nervosi che agiscono dall’alto verso il basso
e con avvenimenti esterni in cui l’attenzione esogena è mediata da meccanismi nervosi che agiscono dal
basso verso l’alto. (attenzione ad un tavolo per cercare le chiavi – endogena, o perché il gatto ha
rovesciato qualcosa – esogena). L’attenzione è un aspetto molto importante della percezione e possiamo
averne un’idea attraverso il fenomeno della change blindness (cecità al cambiamento). Per studiare tale
fenomeno si mostra al soggetto una fotografia sullo schermo di un computer e gli si chiede di riferire ogni
variazione percepita dell’immagine. In realtà l’immagine è composta da due immagini che si alternano
con un intervallo di meno di 0,1 secondo e che differiscono solo per un dettaglio grossolano. In genere i
pazienti ci mettono un po’ prima di capire che l’immagine compare e ricompare e questo avviene
perchè non hanno assolutamente ricordi delle parti della scena che non attirano la loro attenzione e ciò li
rende inconsapevoli del cambiamento. Il fenomeno della change blindness non avviene però senza i brevi
intervalli tra le immagini, perché senza di essi non è richiesta memorizzazione e i cambiamenti sono
percepiti immediatamente. Sono stati effettuati diversi esperimenti per dimostrare gli effetti
60
dell’attenzione sull’attività nervosa del sistema visivo sia sulle scimmie che sull’uomo. In quest’ultimo
caso, utilizzando tecniche di visualizzazione funzionale del cervello, è stato chiesto ai soggetti di
differenziare gli stimoli presentati in base alla forma, al colore e al movimento e si è visto che l’attenzione
alla forma e al colore provocava un aumento dell’attività nelle aree della via ventrale, mentre l’attenzione
al movimento provocava un aumento dell’attività in un’area della via dorsale. Lo stesso avveniva se a
soggetti venivano mostrati dei volti, quando prestavano attenzione all’identità si attivavano aree della via
ventrale mentre quando prestavano attenzione alla posizione del volto rispetto alla cornice erano più
attive le aree della via dorsale. Un altro aspetto dell’attenzione selettiva è messo in evidenza dal
fenomeno del cocktail party che si riferisce al fatto che anche quando siamo intensamente concentrati su
una conversazione tanto da non sapere cosa accade intorno a noi, la nostra attenzione può essere
improvvisamente catturata da qualcuno che grida il nostro nome. Ciò indica che il nostro cervello esclude
dalla coscienza gli stimoli irrilevanti tenendo comunque inconsciamente sotto controllo gli stimoli esclusi
nel caso si presentasse qualcosa a cui è necessario porre attenzione. La simultag-nosia è la difficoltà di
prestare attenzione a più di uno stimolo per volta ed è un danno bilaterale associato alla via dorsale
responsabile della localizzazione degli oggetti nello spazio. I movimenti oculari hanno un ruolo
importante nell’attenzione visiva che può essere modificata anche senza spostare la direzione dello
sguardo. In questo caso ci si riferisce ad una covert attention o attenzione implicita in cui lo spostamento
dell’attenzione visiva non corrisponde a un movimento oculare, mentre in caso contrario ci si riferisca ad
una overt attention o attenzione esplicita.
Sistema senso motorio
Il sistema sensori motorio è il sistema che rileva input sensoriali che vengono poi integrati per pianificare
programmare organizzare ed eseguire una sequenza motoria. I principi su cui si basa sono tre: è
organizzato in modo gerarchico, l’output motorio è guidato dall’input sensoriale, l’apprendimento può
modificare la natura e il locus del controllo sensori motorio. Nell’organizzazione gerarchica gli ordini, che
riguardano scopi generali più che specifici piani d’azione, partono dal livello più alto, cioè la corteccia
associativa, per proseguire verso i livelli più bassi, cioè i muscoli. Il sistema sensori motorio è un
sistema gerarchico che opera in parallelo, cioè il fluire delle informazioni segue percorsi molteplici tra i
diversi livelli. Un’altra caratteristica della gerarchia sensori motoria è la segregazione funzionale, cioè
ognuno dei livelli gerarchici tende a essere costituito da diverse unità ognuna con una funzione diversa.
La differenza fra i sistemi sensoriali ed il sistema sensori motorio consiste nel fatto che nei sistemi
sensoriali l’informazione fluisce principalmente verso l’alto mentre nel sensori motorio fluisce
principalmente verso il basso. Per quanto riguarda l’output motorio Il sistema sensori motorio monitora
continuamente l’esecuzione delle nostre risposte corporee attraverso gli occhi, gli organi dell’equilibrio,
insieme ai recettori che si trovano nella pelle nei muscoli e nelle articolazioni; le informazioni raccolte
vengono poi mandate di nuovo ai circuiti sensori motori attraverso il cosiddetto feedback sensoriale
importante per portare a termine le risposte che l’hanno provocato. Le sole risposte normalmente non
influenzate da un feedback sensoriale sono i movimenti balistici cioè movimenti brevi, ad elevata
velocità, con un’esecuzione del tipo tutto o nulla. (scacciare una mosca). L’output motorio in assenza di
un feedback sensoriale può indicare problemi senso motori e portare a difficoltà nel fornire risposte
complesse perché non essendoci il feedback c’è una difficoltà ad adattare il gesto motorio ad eventuali
disturbi esterni imprevisti. Molte correzioni dell’output motorio in risposta al feedback sensoriale sono
controllate dai livelli inferiori della gerarchia senza il coinvolgimento dei livelli più alti. Molte delle abilità
sensori motorie dipendono da un apprendimento durante le cui fasi iniziali ogni risposta è sotto il
controllo cosciente, ma con la pratica queste risposte singole sono organizzate in sequenze di azioni
integrate, continue e armoniose, modulate da feedback sensoriali che non richiedono una regolazione
cosciente. Il sistema sensomotorio è sistema organizzato in base ad una gerarchia di programmi senso
motori centrali, la cui combinazione produce i cosiddetti movimenti complessi. E’costituito dalla corteccia
61
associativa o parietale posteriore, dalla corteccia motoria secondaria e primaria, dai nuclei motori del
tronco encefalico e dai circuiti motori spinali. La corteccia associativa svolge un ruolo importante
nell’integrazione delle informazioni spaziali per compiere un movimento volontario e nel dirigere
l’attenzione. Infatti per poter iniziare un movimento il sistema nervoso deve conoscere la posizione di
partenza delle parti del corpo che devono essere mosse e le posizioni degli oggetti esterni con cui si deve
interagire. Quest’area riceve input da tre diversi sistemi sensoriali deputati alla localizzazione del corpo e
degli oggetti esterni nello spazio : visivo, uditivo e somatosensoriale, invia una gran parte degli output ad
aree della corteccia motoria. Una lesione della corteccia parietale posteriore può produrre deficit sensori
motori legati a disturbi della percezione e della memoria di relazioni spaziali, della precisione di gesti di
avvicinamento e prensione, del controllo dei movimenti oculari e dell’attenzione. Le conseguenze più
importanti sono comunque l’aprassia, il neglect o eminattenzione contro laterale e la astereog-nosia.
L’astereog-nosia è la difficoltà nel riconoscimento di oggetti posti nella mano controlaterale alla lesione.
L’aprassia è un disturbo del movimento volontario : I pazienti affetti da aprassia hanno difficoltà ad
eseguire movimenti specifici quando viene loro espressamente richiesto, in particolare quando tali
movimenti sono estrapolati dal loro contesto naturale. In condizioni naturali invece sono in grado di
effettuare gli stessi movimenti senza difficoltà. Sebbene i sintomi siano bilaterali, questo deficit è spesso
causato da un danno cerebrale unilaterale del lobo parietale posteriore sinistro, mentre le lesioni di
quello destro provocano invece aprassia costruttiva ovvero una disorganizzazione dei movimenti
finalizzati alla costruzione di un oggetto unico attraverso più elementi. Per rilevare la aprassia esistono
due test che sono il Kimura box test e il Serial arm movement and coping test. Può essere anche utilizzato
il sub test del disegno a cubetti della scala Weschler versione adulti ed il subtest della ricostruzione di
figure sempre della scala Weschler versione adulti che però rilevano aprassia costruttiva. Il neglect
controlaterale invece è un disturbo nella capacità di rispondere a stimoli visivi, uditivi e somatosensoriali
somministrati nella parte del corpo contro laterale al lato della lesione cerebrale. Il disturbo è spesso
associato a lesioni importanti del lobo parietale posteriore destro infatti molti dei pazienti affetti da
neglect contro laterale hanno difficoltà a reagire agli stimoli che provengono dalla sinistra del loro corpo,
detta sinistra egocentrica (parzialmente definita dal campo gravitazionale). L’incapacità di percepire
coscientemente un oggetto non significa necessariamente che tale oggetto non sia stato effettivamente
percepito. Nei pazienti affetti da neglect contro laterale ci sono due fatti che dimostrano che gli oggetti
anche se non coscientemente sono stati in realtà percepiti :1) quando gli oggetti sono presentati a sinistra
del paziente in modo ripetuto e sempre nello stesso punto sebbene non vengano percepiti in modo
cosciente i pazienti mostrano di guardare in quello stesso punto nelle prove successive; 2) i pazienti
possono identificare più prontamente frammenti di immagini visti a destra se la versione completa delle
immagini è stata presentata prima a sinistra dove non potevano essere percepiti cosciamente.
Poi vi è la corteccia associativa prefrontale dorso laterale che sembra rivestire un certo ruolo nella
valutazione degli stimoli e nell’inizio della risposta volontaria ad essi. L’attività di alcuni neuroni dipende
dalle caratteristiche dell’oggetto, quella di altri dalla loro posizione. Le proprietà dei neuroni di
quest’area ed i modelli di connessione con le altre aree suggeriscono che sia proprio qui che ha inizio la
decisione di dare inizio ad un movimento volontario. Riceve proiezioni dalla corteccia parietale
posteriore e proietta a sua volta alla corteccia motoria secondaria.
La corteccia motoria secondaria ha il ruolo di pianificare l’azione motoria specificando le sequenze di
contrazione muscolare necessarie per ottenere lo scopo desiderato. Alcuni studi che si avvalgono della
visualizzazione funzionale del cervello hanno mostrato che l’attività del cervello è stata rilevata mentre il
soggetto immaginava di realizzare una serie di movimenti oppure progettava la loro realizzazione. Riceve
la maggior parte dei segnali dalla corteccia associativa e invia la maggior parte dei segnali alla corteccia
motoria primaria. La corteccia motoria secondaria si divide in due parti : l’area motoria supplementare e
la corteccia premotoria. L’area motoria supplementare ha la funzione di programmare e coordinare i
movimenti volontari. La corteccia premotoria ha invece una funzione di programmazione visuomotoria
62
complessa e i suoi neuroni rispondono sia a stimoli tattili che visivi e per questo vengono detti neuroni
bimodali (attivati da stimoli in due diverse modalità), in cui il campo recettivo visivo è sempre adiacente
al suo campo recettivo somatosensoriale. Qualora vi siano lesioni a questi livelli il deficit che
maggiormente si può rilevare fa riferimento ad un riflesso di prensione esagerato.
La corteccia motoria primaria è posta nel lobo frontale e rappresenta il maggiore centro di convergenza e
partenza dei segnali corticali sensorimotori. Riceve input sensoriali e motori indiretti dalla corteccia
parietale, dalla corteccia motoria secondaria, mentre riceve input diretti dalla corteccia somatosensoriale
e a sua volta invia segnali ai livelli bassi del sistema senso motorio. La corteccia motoria primaria ha una
organizzazione somatotopica e la mappa somatotopica di quest’area è chiamata homunculus motorio.
Tale mappa è stata individuata attraverso la stimolazione di vari siti della corteccia motoria primaria che
determinava la produzione di movimenti nelle parti del corpo corrispondenti alle aree corticali stimolate.
La maggior parte della corteccia motoria primaria è deputata al controllo di parti del corpo che svolgono
movimenti complessi, come mani e bocca. Ricerche effettuate alle aree della mano sulla mappa
somatotopica delle scimmie hanno rivelato che molti dei neuroni della corteccia motoria primaria
corrispondenti alle dita non controllano un singolo dito ma sono implicati nel movimento di diverse dita,
rivelando così una notevole sovrapposizione spaziale tra questi neuroni. Lesioni ridotte della zona della
mano della corteccia motoria primaria non interrompono mai selettivamente l’attività di un singolo dito.
Ciascuna area della corteccia motoria primaria controlla i movimenti di uno specifico gruppo di muscoli e
attraverso la corteccia somatosensoriale riceve informazioni di feedback dai recettori di questi muscoli e
delle articolazioni sulle quali essi operano. Ad esempio I neuroni della corteccia motoria primaria che si
trovano nell’area corrispondente al braccio raggiungono la massima attivazione quando il braccio esegue
movimenti di raggiungimento (reaching) in una particolare direzione, ovvero tali neuroni hanno una
selettività direzionale specifica. Una lesione estesa della corteccia motoria primaria rende il paziente
incapace di muovere una parte del corpo, per esempio un dito, indipendentemente dalle altre, e inoltre
riduce la velocità, l’accuratezza e la forza dei movimenti. Può provocare astereog-nosia , ma non causa la
perdita del movimento volontario. Sono stati effettuati inoltre studi sul flusso sanguigno corticale e si è
scoperto che il flusso sanguigno aumenta in quelle regioni del sistema nervoso che divengono più attive
nell’esecuzione di una attività senso motoria. Per misurare il flusso sanguigno in soggetti umani coscienti
veniva iniettata nella carotide una sostanza chimica inerte leggermente radioattiva, lo xenun 133,
dopodichè si misurava l’accumulo di radioattività in varie zone della corteccia ipsilaterale a quella dove
era stata fatta l’iniezione utilizzando i contatori di scintillazione posti vicino al cranio. Per ogni soggetto il
flusso sanguigno corticale di area veniva misurato dopo un periodo di 45 secondi di rilassamento ad
occhi chiusi poi dopo 20 minuti veniva effettuata e la misurazione questa volta veniva fatta dopo 45
secondi in cui il soggetto era impegnato in qualche attività. L’output di ogni scintillatore veniva inviato ad
un computer che calcolava le variazioni di flusso sanguigno fra la condizione di riposo e la condizione di
attività. Ciò che si è visto è che vi era un incremento di flusso sanguigno nell’emisfero sinistro durante
l’esecuzione di sequenze motorie con le dita della mano destra. E’ stato anche misurato il flusso
sanguigno in cui i soggetti rimanevano immobili ma immaginavano di eseguire la sequenza motoria
precedentemente effettuata e gli incrementi in questo caso erano circoscritti all’area motoria
supplementare perché la sequenza motoria era svolta su un attività di ideazione.
I livelli subcorticali del funzionamento senso motorio includono il cervelletto, i gangli della base e le vie
motorie discendenti.
Le vie motorie discendenti sono vie costituite da gruppi di assoni attraverso i quali i segnali nervosi
sono trasmessi dalla corteccia motoria primaria ai motoneuroni del midollo spinale attraverso 4 vie
differenti, che concorrono al controllo del movimento volontario: due vie dorso-laterali, implicate nel
controllo della prensione svolta dagli arti, e due vie ventro-mediali, implicate nel controllo della postura e
nel controllo motorio globale. Una delle vie dorso-laterali, diretta, è il tratto cortico spinale dorsolaterale i
cui neuroni più importanti sono le cellule di Betz , neuroni piramidali molto grandi della corteccia
63
motoria primaria, i cui assoni terminano nelle regioni inferiori del midollo spinale su motoneuroni che
proiettano ai muscoli delle gambe. La maggior parte degli assoni di questo tratto fanno sinapsi con piccoli
interneuroni della sostanza grigia che a loro volta sono in contatto sinaptico con i motoneuroni dei
muscoli distali del polso, della mano e delle dita della mano e del piede. La seconda via dorsolaterale,
indiretta, è il tratto cortico rubro spinale dorsolaterale (dove rubro fa riferimento al nucleo rosso) in
cui gli assoni fanno sinapsi con interneuroni che terminano sui motoneuroni che innervano i muscoli
distali delle braccia e delle gambe. Per quanto riguarda le due vie ventro-mediali, anch’esse una diretta e
una indiretta, la prima è il tratto corticospinale ventromediale in cui nella loro discesa gli assoni
innervano molti circuiti interneuronali di segmenti spinali differenti da ambo le parti della materia grigia
spinale. Il tratto cortico tronco encefalo spinale ventromediale è costituito da neuroni in connessione
sinaptica con interneuroni di segmenti spinali diversi che controllano i muscoli prossimali del tronco e
degli arti. Le strutture del tronco encefalico coinvolte in questo tratto sono 4 : il tetto che riceve
informazioni spaziali uditive e visive, il nucleo vestibolare che riceve informazioni relative all’equilibrio
dai recettori dei canali semicircolari dell’orecchio interno, la formazione reticolare che contiene tra l’altro
i programmi motori per movimenti complessi come camminare, nuotare o saltare, e i nuclei motori dei
nervi cranici che controllano i muscoli della faccia. Le vie dorsolaterali e ventromediali si differenziano
per due aspetti: 1) i tratti ventromediali sono molto più diffusi e innervano bilateralmente diversi
segmenti del midollo spinale, mentre i tratti dorsolaterali hanno terminazioni controlaterali su un solo
segmento spinale e talvolta innervano direttamente un motoneurone. 2) i motoneuroni attivati dai
tratti ventromediali proiettano ai muscoli prossimali del tronco e degli arti (es:spalle), mentre quelli
attivati dai tratti dorsolaterali proiettano ai muscoli distali (es:dita).
Il cervelletto costituisce solo il 10% del cervello ma contiene più della metà dei suoi neuroni ed è
organizzato in lobi, colonne e strati. Si pensa che il cervelletto riceva informazioni riguardanti i piani di
azione dalla corteccia motoria primaria e secondaria, informazioni riguardo i segnali motori provenienti
dai nuclei motori del tronco encefalico e informazioni di feedback sulle risposte motorie attraverso i
sistemi somatosensoriale e vestibolare. Si ritiene che il cervelletto metta a confronto questi tre tipi di
informazioni e corregga i movimenti in corso di esecuzione che deviano rispetto quanto pianificato. Si
ritiene inoltre che il cervelletto svolga un ruolo importante nell’attività cognitiva e nell’apprendimento
soprattutto di sequenze di movimento in cui la sincronizzazione è un elemento importante. Un soggetto
con un danno cerebellare perde l’abilità di controllare in maniera accurata la direzione, la forza, la
velocità , l’ampiezza dei movimenti e la capacità di variare le risposte motorie al variare delle condizioni
esterne. Il paziente ha difficoltà a mantenere una postura per esempio stare in piedi e gli sfori che fa per
riuscirci portano tremore;vi sono anche gravi disturbi dell’equilibrio, della deambulazione,
dell’articolazione della parola e del controllo dei movimenti oculari. Inoltre l’apprendimento di nuove
sequenze motorie è molto difficoltoso.
I gangli della base non contengono tanti neuroni come il cervelletto ma per alcuni versi sono più
complessi. Sono costituiti da un’organizzazione labirintica di corpi cellulari, assoni e dendriti. Ciò
suggerisce che essi abbiano una attività modulatoria dei movimenti lenti. Una prova di questo è stata
ottenuta attraverso studi sul morbo di Parkinson, in cui i gangli della base sono implicati, in cui si è visto
che sono difficili i movimenti lenti e finalizzati mentre quelli di rapida risposta semplici sono possibili.
Anche studi sulle scimmie hanno portato a queste evidenze, in questi studi le scimmie sane venivano
portate a spingere velocemente una leva in risposta ad una luce, e a spingerne un'altra più lentamente in
risposta ad un altra luce, e si è visto che i gangli della base erano più attivi durante i movimenti lenti
mentre quelli del cervelletto erano più attivi durante i movimenti rapidi. Ricevono informazioni da varie
aree della corteccia e le ritrasmettono attraverso il talamo alle diverse aree della corteccia motoria.
Inizialmente si pensava che i gangli della base avessero un ruolo nella modulazione delle risposte
motorie, ma oggi si pensa che come il cervelletto siano coinvolte anche in attività cognitive.
I muscoli
64
I circuiti spinali senso motori sono costituiti dai muscoli, dai loro componenti e dalle loro funzioni. La
prima componente da definire è l’unità motoria, cioè l’ unità più piccola di tutto il sistema motorio
formata da un singolo motoneurone e da tutte le fibre dei muscoli scheletrici da esso innervati. Quando il
motoneurone scarica, tutte le fibre muscolari di quella unità si contraggono contemporaneamente. Ogni
unità motoria ha un diverso numero di fibre muscolari: le dita e la faccia ne contengono il minor numero
consentendo che il controllo motorio venga esercitato con il più alto grado di selettività. Un muscolo
scheletrico è formato da centinaia di migliaia di fibre muscolari molto sottili raccolte da una membrana
resistente e fissate all’osso da un tendine. L’insieme dei motoneuroni che innervano le fibre di un
muscolo è denominato pool motorio. L’acetilcolina che viene rilasciata dai motoneuroni nella giunzione
neuromuscolare attiva la placca motoria di ciascuna fibra muscolare provocando la contrazione. La placca
motoria è l’area recettiva sulla fibra muscolare della giunzione neuromuscolare. Le fibre muscolari si
dividono in due categorie : rapide e lente. Le prime si contraggono e si rilasciano velocemente, sono in
grado di generare una notevole forza ma si affaticano velocemente poiché sono caratterizzate da una
bassa vascolarizzazione che conferisce loro un colore pallido. Le fibre lente invece sono più deboli ma in
grado di contrarsi più a lungo perché maggiormente vascolarizzate e da qui il loro colore rosso. A
seconda della loro funzione i muscoli sono costituiti da un diverso numero di fibre rapide e lente. Molti
muscoli scheletrici si dividono in flessori, che agiscono per piegare o flettere un’articolazione, ed
estensori che agiscono per stirarla o estenderla. Due muscoli la cui contrazione produca lo stesso
movimento vengono detti muscoli agonisti o sinergici mentre quelli che agiscono in opposizione come il
bicipite ed il tricipite sono detti muscoli antagonisti. La contrazione di due muscoli può essere di due tipi:
isometrica o statica quando il muscolo sviluppa tensione quindi si contrae ma non modifica la propria
lunghezza e non produce lavoro, dinamica quando invece il muscolo varia la propria lunghezza senza che
la tensione si modifichi, come nel caso della contrazione isotonica. Quando singole scosse ripetute
aumentano la forza di contrazione di un muscolo si verifica quello che viene definito un fenomeno di
sommazione, che può essere sommazione spaziale quando aumenta il numero di unità motorie che si
contraggono simultaneamente, o sommazione temporale quando aumenta la frequenza delle contrazioni,
che se ripetuta ad intervalli sempre più brevi può causare una contrazione tetanica, in cui la contrazione
del muscolo nel suo insieme appare priva di oscillazioni e continua. L’attività dei muscoli scheletrici è
controllata da due tipi di recettori : gli organi tendinei del Golgi, che si trovano all’interno dei tendini che
collegano ciascun muscolo scheletrico all’osso, e i fusi neuromuscolari, che sono posti all’interno dello
stesso tessuto muscolare. Gli organi tendinei del Golgi rispondono all’aumento della tensione del
muscolo, ma sono insensibili alle variazioni della sua lunghezza, mentre i fusi neuromuscolari rispondono
alle variazioni di lunghezza senza rispondere a quelle di tensione. Il ruolo degli organi tendinei del Golgi
è, oltre a quello di fornire al sistema nervoso informazione relative alla tensione muscolare, anche quello
di avere una funzione protettiva. Quando infatti la tensione di un muscolo è cosi esagerata da costituire
un rischio di danneggiamento, gli organi tendinei eccitano gli interneuroni inibitori nel midollo spinale
che provocano la decontrazione dl muscolo. Il fuso neuromuscolare, che si basa su un circuito a feedback,
è formato invece da un muscolo intrafusale innervato da un proprio motoneurone intrafusale, ed ha il
compito di rispondere ad ogni piccola variazione di lunghezza del muscolo extrafusale (muscolo
scheletrico); il motoneurone intrafusale ha la funzione di correggere la lunghezza del muscolo intrafusale
mantenendo in questo modo un grado appropriato di tensione del fuso neuromuscolare
indipendentemente dalla lunghezza del muscolo scheletrico. I fusi neuromuscolari sono agganciati in
parallelo rispetto ai muscoli mentre gli organi tendinei del Golgi sono agganciati in serie. La funzione più
esemplare del fuso neuromuscolare è il riflesso di stiramento o miotatico del muscolo, un riflesso evocato
da una forza esterna improvvisa che stira un muscolo, come ad esempio il riflesso tendineo patellare che
avviene quando il medico percuote il ginocchio di un paziente seduto su un lettino con un martelletto di
gomma. In questo caso il muscolo estensore lungo il femore viene stirato, ciò distende i recettori di
65
stiramento dei fusi neuromuscolari che a loro volta inviano una serie di potenziali di azione al midollo
spinale attraverso i neuroni che passano nelle radici dorsali. Questi potenziali di azione eccitano i
motoneuroni delle corna anteriori del midollo i quali rispondono inviando potenziali d’azione al muscolo
il cui stiramento li aveva originariamente eccitati. Il ritorno di questi impulsi al punto di partenza si
traduce in una contrazione muscolare di compensazione e in una estensione della gamba. Nella vita di
tutti i giorni la funzione del riflesso di stiramento è quella di mantenere la stabilità degli arti, come ad
esempio se si tiene in mano un bicchiere e il bicipite ha un livello di contrazione moderato considerando
l’ipotesi in cui una mano possa premere inaspettatamente sul braccio c’è in questo caso uno stiramento
del bicipite e quindi un aumento dell’eccitazione del fuso muscolare afferente che porta ad un eccitazione
del neurone motorio che aumenta la tensione nel bicipite controbilanciando così la forza esercitata dalla
pressione della mano per poter mantenere il braccio nella posizione originaria. Il meccanismo attraverso
cui ciò avviene si basa su due importanti principi: il feedback sensoriale nella regolazione dell’output
motorio e la capacità dei circuiti inferiori della gerarchia motoria di assolvere autonomamente compiti
inferiori. Un altro riflesso tipico è il riflesso di ritrazione che si ha quando si tocca qualcosa che provoca
dolore. Quando si applica ad esempio uno stimolo doloroso ad una mano le prime risposte sono registrate
nei motoneuroni dei muscoli flessori del braccio dopo circa 1.6 millisecondi, che è il tempo necessario per
attraversare due sinapsi. A differenza del riflesso di stiramento non è monosinaptico, poiché coinvolge
diverse vie multisinaptiche, alcune delle quali coinvolgono la corteccia, che portano all’eccitazione di
interneuroni eccitatori ed inibitori che a loro volta eccitano ed inibiscono i motoneuroni del bicipite e del
tricipite del gomito per indurre una rapida flessione dello stesso. Quindi un singolo input sensoriale
produce un pattern coordinato di risposte motorie attraverso i circuiti posti all’interno del midollo
spinale. Principio importante del sistema di circuiti del midollo spinale è l’innervazione reciproca, che
si riferisce al fatto che i muscoli antagonisti sono innervati in modo tale che quando uno viene contratto
l’altro si rilascia per consentire una risposta armoniosa. I movimenti sono più veloci quando c’è
un’eccitazione simultanea di tutti i muscoli agonisti e un’inibizione completa di tutti gli antagonisti.
Normalmente comunque la maggior parte dei muscoli ha sempre un certo grado di contrazione e i
movimenti vengono effettuati correggendo il livello di cocontrazione relativa tra i muscoli antagonisti,
che previene anche gli effetti derivanti dall’insorgere improvviso di una forza esterna. La maggior parte
dei riflessi sono comunque molto più complessi basti pensare al programma di riflessi deputato al
controllo della deambulazione che prevede una integrazione di informazioni visive provenienti dagli
occhi e somatosensoriali provenienti da piedi, ginocchia braccia ecc… e che deve essere altamente
flessibile per potersi adeguare alla variazioni esterne ( pendenza del terreno, forze esterne). Al riguardo è
stato dimostrato che negli animali la deambulazione è controllata ampiamente dal midollo spinale
(esperimento sui gatti in cui cervello e midollo sono separati chirurgicamente ma che una volta ricevuto il
feedback sensoriale iniziano a camminare opportuno), mentre negli esseri umani un ruolo importante è
rivestito dalle vie motorie discendenti Le fibre muscolari e i motoneuroni che le innervano hanno
comunque bisogno di momenti di riposo. Affinchè ciò avvenga ogni motoneurone prima di abbandonare
il midollo spinale di dirama inviando un ramo collaterale a contrarre sinapsi con un interneurone
inibitorio che inibisce lo stesso motoneurone che ha inviato il segnale, e in quel momento la contrazione
del muscolo viene affidata ad altri motoneuroni del pool motorio. L’inibizione prodotta da questi circuiti
a feedback viene detta inibizione collaterale ricorrente e i piccoli interneuroni inibitori sono chiamati
cellule di Renshaw.
**La teoria dei programmi sensori motori centrali suggerisce che tutti i livelli del sistema sensori motorio
tranne i più alti contengano programmi di attività e che i movimenti complessi derivino dall’attivazione
dell’appropriata combinazione di questi programmi. Se la corteccia associativa decide di svolgere
un’azione attiva dei programmi di alto livello che a loro volta attivano programmi motori spinali specifici
che controllano i vari elementi della sequenza di movimenti e portano i muscoli al raggiungimento
dell’obiettivo. Una volta attivato ogni livello del sistema sensori motorio è in grado di operare sulla base
66
del feedback sensoriale del momento senza il controllo dei livelli superiori. La maggior parte delle
risposte che vengono eseguite sono svolte senza il coinvolgimento corticale e senza esserne consapevoli.
Il sistema sensori motorio mediante cervelletto e gangli della base si assicura che i programmi di azione
siano ben coordinati ed efficaci nei diversi livelli gerarchici. Uno stesso movimento non sempre viene
però svolto nello stesso modo, ma può essere realizzato mediante modi diversi e muscoli diversi : ciò
prende il nome di equivalenza motoria. Ad esempio si impara a scrivere il proprio nome con determinati
movimenti della mano ma se si prova a scriverlo con il piede la firma manterrà comunque alcune delle
sue principali caratteristiche; ciò avviene perché i programmi sensori motori centrali utilizzati sono
immagazzinati nei livelli alti della gerarchia sensori motoria e cioè nella corteccia motoria secondaria
che controlla la mano più usata e che viene attivata anche quando ad essere usato per la firma è il piede.
L’informazione sensoriale che controlla i programmi sensori motori centrali non è necessariamente
cosciente è ciò è dimostrato in primis dal fatto che vi sono pazienti che rispondono agli stimoli visivi
senza che ne siano coscienti e pazienti che non sono in grado di interagire con oggetti di cui invece hanno
coscienza. Ma una dimostrazione della separazione della percezione cosciente e del controllo sensoriale
del comportamento in soggetti sani è stata data attraverso un esperimento in cui è stata mostrata a
soggetti sani una versione tridimensionale di un’illusione visiva che mostra i1 disco circondato da 5
dischi più grandi e un disco uguale al precedente circondato da altri dischi più piccoli. Quando ai soggetti
veniva chiesto di indicare con il pollice e l’indice destri le dimensioni dei due dischi, in realtà uguali,
posizionati al centro delle due figure, i soggetti indicavano come più grande il disco circondato da dischi
più piccoli, ma se si chiede loro di prendere i dischi con le stesse dita l’apertura delle dita stesse
rispecchia le dimensioni reali e non quelle percepite. Alcuni dei programmi senso motori centrali basilari
non sono appresi e ciò è stato dimostrato attraverso un esperimento su ratti ai quali erano stati amputati
gli avambracci sin dalla nascita, e che esibivano ugualmente i movimenti delle spalle, coordinato
correttamente con lingua, testa e occhi, tipico della tolettatura. Nonostante questo però la pratica
permette di creare o modificare alcuni di questi programmi. Sono due i processi che influenzano i
programmi senso motori centrali : il raggruppamento delle risposte, ovvero l’esercizio raggruppa il
controllo centrale delle singole componenti della risposta in programmi singoli che controllano lunghe
sequenze dette chunks comportamentali. Tali chunks possono essere combinati a loro volta in chunks di
ordine superiore, Vi è poi lo spostamento del controllo a livelli inferiori del sistema sensori motorio che
può condurre a due vantaggi : i livelli superiori vengono resi più liberi di dedicarsi ad aspetti più creativi
della prestazione, e vi è un aumento della velocità di esecuzione in quanto diversi circuiti dei livelli
inferiori possono operare simultaneamente senza interferire fra loro. Attraverso le tecniche di
visualizzazione funzionale del cervello sono state elaborate ipotesi sui ruoli delle diverse strutture
dell’apprendimento sensori motorio. Risultati interessanti sono stati raggiunti con la registrazione
mediante PET dell’attività cerebrale mediante di soggetti che compivano due diverse sequenze di
risposte, ognuna delle quali implicava 4 diversi tipi di risposte, in cui dovevano premere 4 diversi tasti. Le
risposte erano eseguite con la mano destra, una ogni 3 secondi, e un suono indicava quando premere o se
la risposta era corretta. Le condizioni erano tre : condizione di controllo a risposo, condizione in cui il
soggetto eseguiva un sequenza appena appresa, e condizione in cui il soggetto eseguiva una sequenza
nota. I risultati della ricerca furono i seguenti: 1) la corteccia parietale posteriore è attiva sia durante
l’esecuzione della sequenza appena appresa che di quella nota, anche se nel primo caso è più attiva ( la
corteccia parietale posteriore è più attiva quando i soggetti sono più attenti agli stimoli come avviene
nelle prime fasi di un apprendimento motorio); 2) la corteccia prefrontale dorso laterale è attiva durante
l’esecuzione di una sequenza appena appresa ma non nel caso di una sequenza nota, ha quindi un ruolo
fondamentale nell’esecuzione di sequenze motorie sotto il controllo cosciente; 3) la corteccia premotoria
contro laterale è più attiva durante sequenze appena apprese (ruolo prevalente quando l’esecuzione è
guidata da stimoli sensoriali), mentre l’area motoria supplementare è più attiva bilateralmente durante
una sequenza ben nota (ruolo prevalente quando l’esecuzione è indipendente da stimoli sensoriali ed è
67
automatica); 4) le cortecce primaria contro laterale e somatosensoriale sono ugualmente attivate sia nel
caso di sequenze apprese da poco che note ( gli elementi motori sono gli stessi); 5) I gangli della base
contro laterali sono attivati in entrambe le esecuzioni; 6) il cervelletto è attivato bilateralmente in
entrambe le esecuzioni ma è più attivo nel caso di sequenze apprese da poco (ruolo fondamentale
nell’apprendimento motorio).
Cause delle lesioni cerebrali
Fra le possibili cause di lesioni cerebrali troviamo: tumori, disturbi cerebrovascolari, traumi cranici
chiusi, infezioni cerebrali , neurotossine e fattori genetici.
TUMORE.
Un tumore o neoplasia è una massa cellulare che cresce indipendentemente dal resto del corpo. Circa il
20% dei tumori sono meningiomi, ovvero tumori che originano dalle meningi, le tre membrane che
ricoprono il SNC. Tutti i meningiomi sono tumori incapsulati, cioè dotati di un guscio esterno di tessuto
fibroso. Sono particolarmente facili da rilevare con la TAC e possono disturbare le funzioni del cervello
solo mediante la pressione che esercitano sul tessuto cerebrale circostante. Si tratta di tumori benigni che
possono cioè essere rimossi chirurgicamente con scarso rischio di una loro ulteriore crescita. I tumori
incapsulati che si sviluppano sull’VIII nervo cranico si chiamano neurinomi acustici ( un neurinoma è un
tumore che si sviluppa s un nervo o su un fascio di fibre nervose). La maggior parte dei tumori cerebrali
sono però infiltranti, che crescono diffusamente entro il tessuto nervoso e sono solitamente maligni. E’
difficile eliminarli o rimuoverli in modo completo e ogni frammento di tessuto canceroso che rimane nel
corpo dopo l’intervento chirurgico può essere fonte di una nuova crescita tumorale. Circa il 10% dei
tumori sono poi metastatici (il termine metastasi si riferisce alla trasmissione di tumori maligni da un
organo all’altro), ovvero tumori cerebrali che non originano nel cervello ma da cellule cancerose che
provengono da altri organi del corpo e che raggiungono il cervello attraverso il flusso ematico. La gran
parte dei tumori cerebrali metastatici ha origine da tumori maligni del polmone; è ovvio che un tumore
maligno che ha già interessato due o più organi non ha una probabilità alta di guarire.
ICTUS.
Il termine ictus, che significa colpo, attacco grave ed improvviso, è riferito alla comparsa improvvisa di
disturbi cerebrovascolari che sono causa di lesioni cerebrali, e che negli Stati Uniti costituisce la terza
causa più frequente di morte. Tuttavia non tutte le patologie ad attacco ed esordio grave ed improvviso
sono di natura vascolare ne tutte le patologie cerebrovascolari hanno un esordio grave e improvviso. I
principali disturbi circolatori responsabili dell’ictus sono l’ emorragia cerebrale e l’ischemia cerebrale.
Le frequenti conseguenze dell’ictus cerebrale sono l’amnesia, i disturbi del linguaggio o afasie, la perdita
di forza o paralisi e il coma. L’area costituita da tessuto morto o in necrosi in seguito ad un ictus si chiama
infarto cerebrale.
Emorragia cerebrale letteralmente significa sangue nel cervello ed è dovuto alla rottura di un vaso
cerebrale con conseguente fuoriuscita di sangue che invade e danneggia il tessuto cerebrale. La rottura di
aneurismi rappresenta la causa più frequente di emorragia cerebrale. Un aneurisma è un rigonfiamento
sferico della parete di un vaso sanguino che si crea in regioni dove l’elasticità della parete vascolare è
difettosa. Gli aneurismi possono essere congeniti ovvero presenti alla nascita oppure derivare
dall’esposizione ad agenti tossici o infettivi. I soggetti a cui è stata diagnosticata la presenza di aneurismi
dovrebbero mantenere la pressione arteriosa entro livelli normali.
L’ ischemia cerebrale invece è il venir meno dell’apporto di sangue ad un’area cerebrale con
conseguente interruzione dell’apporto di glucosio e ossigeno e morte dei tessuti. L’area danneggiata
dall’ischemia viene chiamata infarto e le tre cause dell’ischemia cerebrale sono la trombosi, che è dovuta
68
al formarsi di un coagulo di sangue, ma anche da tessuto adiposo, bolle d’aria, da cellule metastatiche o da
ogni loro combinazione, detto trombo che ostacola o impedisce il flusso di sangue verso una regione
cerebrale, l’embolia, che è simile alla trombosi tranne che per il fatto che il coagulo, detto embolo, si
forma in un grande vaso e viene condotto dal flusso ematico in un vaso più piccolo dove si ferma, si tratta
essenzialmente di un trombo mobile, e l’arteriosclerosi, che si ha quando la parete dei vasi sanguigni
affetti si ispessisce, di solito a causa del deposito di grassi, producendo un restringimento del diametro
dei vasi che a volte può condurre ad una ostruzione completa e si può rilevare con una angiografia. Prima
che una lesione cerebrale provocata da ischemia si manifesti ci vogliono almeno un giorno o due e si
ritiene che il danno cerebrale sia legato soprattutto all’eccessivo rilascio di alcuni neurotrasmettitori del
cervello, in particolare gli aminoacidi eccitatori come il glutammato. Infatti a causa dell’ostruzione
vascolare numerosi neuroni ischemici diventano iperattivi e rilasciano una maggiore quantità di
glutammato, che a sua volta determina una aumentata attività dei recettori presenti sulla membrana
postsinaptica, con conseguente aumento del flusso di sodio e calcio nel neurone postsinaptico. I recettori
per il glutammato maggiormente coinvolti sono i recettori NMDA (N-metil-D-aspartato). L’aumento della
concentrazione intracellulare di sodio e calcio agisce in due modi : da un lato determina l’aumento del
rilascio di glutammato dai neuroni postsinaptici, cha ha l’effetto di amplificare e diffondere gli eventi
tossici, e dall’altro induce la morte dei neuroni postsinaptici attraverso una serie di reazioni interne
alla cellula. La scoperta del ruolo del glutammato nell’ictus cerebrale induce a pensare che sia possibile
ridurre il danno cerebrale bloccando la cascata glutamminergica Si sta infatti cercando di individuare un
antagonista del glutammato ed alcune sostanze si sono rivelate utili nelle cavie ma finora nessuna di esse
sembra ridurre i danni cerebrali provocati da ictus.Le lesioni cerebrali provocate da ischemia hanno tre
caratteristiche principali: impiegano un certo lasso di tempo a svilupparsi, non si distribuiscono in modo
uniforme in tutto il cervello ma particolarmente vulnerabili sono i neuroni di alcune aree dell’ippocampo,
i meccanismi delle lesioni provocate da ischemia variano da una struttura cerebrale all’altra.
TRAUMI CRANICI CHIUSI.
I traumi più gravi sono prodotti da proiettili, frammenti di granate che penetrano nelle ossa craniche e
quindi nel tessuto nervoso. Affinché si crei un danno cerebrale serio non è necessario che ci sia una
lesione penetrante delle ossa craniche ma bisogna sempre porre estrema attenzione alla presenza di
segni neurologici come confusione, deficit sensomotori o perdita di coscienza. Le contusioni sono
traumi cranici chiusi che determinano danni al sistema circolatorio cerebrale provocando emorragie che
evolvono in ematoma. Per ematoma si intende una raccolta localizzata di sangue coagulato all’interno di
un organo o in un tessuto. Le contusioni si verificano quando il cervello urta contro le dure pareti interne
del cranio; in queste lesione il sangue può accumularsi nello spazio subdurale, incluso tra la dura madre e
la membrana aracnoidea, provocando una grave compressione del circostante tessuto nervoso. Le
contusioni solitamente si verificano nel lato opposto alla sede del trauma; la causa di queste lesioni da
contraccolpo è che il trauma spinge il cervello contro la parete cranica opposta. Quando a seguito del
trauma si verifica un disturbo dello stato di coscienza senza che vi siano segni di contusione o di altro
danno strutturale si parla di concussione. Si ritiene che la concussione causi una temporanea alterazione
del normale funzionamento cerebrale senza che si instaurino lesioni neurologiche, ma non bisogna mai
prenderla in considerazione con leggerezza. La sindrome della demenza pugilistica infatti sembra
indicare il contrario. Questa sindrome si riferisce allo stato di demenza (deterioramento intellettivo
cerebrale) e di lesioni cerebrali cicatriziali che si verificano nei pugili e in altri soggetti che hanno subito
ripetute concussioni, che sommandosi possono produrre gravi danni neurologici.
INFEZIONI CEREBRALI.
Si definisce infezione cerebrale l’invasione del cervello da parte di microrganismi, mentre lo stato
infiammatorio associato all’infezione è detto encefalite. Le forme più comuni di infezioni cerebrali sono
quelle batteriche e quelle virali. Le infezioni batteriche spesso conducono alla formazione di ascessi
cerebrali (formazione di pus nel cervello). I batteri possono anche invadere le meningi causando malattie
69
note come meningiti, che sono letali nel 25% degli adulti. La penicillina e gli altri antibiotici eliminano i
microrganismi ma non fanno regredire il danno cerebrale dovuto all’infezione. La sifilide è una delle più
note infezioni cerebrali in cui i batteri sono trasmessi da un soggetto all’altro attraverso il contatto
sessuale. Dopo uno stato di inattività di molti anni i batteri diventano infettivi colpendo diverse parti del
corpo compreso il cervello. La sindrome di demenza e deficit neurologici dovuta all’infezione sifilitica è
detta paralisi generale o demenza paralitica. La sifilide è una malattia arrivata dall’America dopo che i
primi europei sbarcarono in quel continente, depredarono i nativi di tutto il loro oro a proprio attraverso
questo bottino riportarono indietro i batteri di questa malattia. Le infezioni virali del sistema nervoso, la
cui funzione è spesso difficile da individuare nella causa del disturbo poichè possono rimanere latenti per
molti anni prima di provocare sintomi, sono d due tipi : le infezioni neurotròpiche prodotte da virus
particolarmente affini per il tessuto nervoso, come ad esempio la rabbia trasmessa dal morso di un
animale infetto; nonostante gli effetti cerebrali del virus siano letali c’è da dire che il virus non invade il
cervello per almeno un mese dal contagio permettendo così di intervenire con una vaccinazione
preventiva, e infezioni pantròpiche che colpiscono tutti gli organi senza una particolare selettività per il
sistema nervoso, come ad esempio il virus della parotite e dell’herpes che di solito interessano altri
organi ma quando si diffondono nel cervello hanno effetti devastanti.
NEUROTOSSINE.
Il sistema nervoso può essere danneggiato dall’esposizione a numerosi agenti tossici che penetrano nel
sistema circolatorio generale dal tratto gastrointestinale, dal polmone o attraverso la cute. Ad esempio i
metalli pesanti come il mercurio o il piombo possono provocare danni strutturali responsabili di psicosi
tossiche (Cappellaio matto) A volte anche i farmaci che vengono usati per la cura di malattie neurologiche
si rivelano neurotossici. Ad esempio alcuni farmaci antipsicotici introdotti nei primi anni 50 portavano a
disturbi motori noti come dis-cinesie tardive i cui sintomi principali consistono in movimenti involontari
delle labbra, protusione e retroazione della lingua, movimenti laterali della mandibola e delle guance.
Attualmente non sono ancora disponibili farmaci antipsicotici che non abbiano effetti collaterali. I danni
cerebrali dovuti alle cosiddette droghe ricreative (recreational drugs) rappresentano un problema molto
serio, come ad esempio l’alcol che provoca danni cerebrali in particolare disturbi di memoria identificati
come sindrome di Korsakoff, con una combinazione dei suoi effetti neurotossici diretti e dei suoi effetti
sul metabolismo della tiamina. Alcune sostanze neurotossiche sono endogene cioè prodotte
dall’organismo, come alcuni anticorpi prodotti dal sistema immunitario del corpo che poi attaccano il suo
stesso sistema nervoso come nel caso della sclerosi multipla..
FATTORI GENETICI.
Le cellule umane normali hanno 23 coppie di cromosomi : 22 coppie comuni ad ambo i sessi mentre il
23imo è costituito dai cromosomi sessuali diversi a livello morfologico dovendo determinare il sesso
dell’individuo. Nella donna c’è una coppia di cromosomi a forma di X, nell’uomo c’è una coppia di
cromosomi uno a forma di X e l’altro a forma di Y. Durante la divisione cellulare possono però verificarsi
errori che portano l’uovo fecondato ad avere un cromosoma anormale o un numero anormale di
cromosomi normali. In seguito alle ripetute divisione a cui va incontro l’uovo fecondato durante lo
sviluppo questa anomalia si duplica in ogni cellula del corpo. La maggior parte dei disturbi di origine
genetica è provocata da geni recessivi anormali che sono trasmessi dai genitori ai figli. I disturbi
neuropsicologici ereditari sono difficilmente associati ai geni dominanti perché quelli che
compromettono la funzione neuropsicologica tendono ad essere eliminati dal patrimonio genetico poichè
qualsiasi soggetto che ne possiede uno ha gravi rischi di sopravvivenza e riproduzione; invece i soggetti
che ereditano un gene recessivo anormale non manifestano il disturbo e dunque il gene si trasmette alla
generazione successiva. Ci sono comunque due situazioni in cui i disturbi neuropsicologici possono
essere associati a geni dominanti : quando il gene dominante anormale si manifesta solo in alcune rare
circostanze ambientali, e quando il gene dominante anormale non si esprime finchè il soggetto non
supera la pubertà. Un esempio comune di malattia causata da incidente genetico e non da un gene
70
anormale è la sindrome di Down (0,15% dei neonati che aumenta con l’avanzare dell’età della madre)).
La causa più comune di questa anomalia è la mancata disgiunzione dei cromosomi che si verifica durante
la divisione meiotica nell’ovulo, per cui si viene ad avere un cromosoma supplementare, il cromosoma 21.
In questo modo quando l’ovulo viene fecondato nello zigote si avranno re cromosomi 21 anzichè 2. Le
conseguenze di un cromosoma 21 in più sono disastrose: oltre alle tipiche alterazioni dell’aspetto fisico
(dita corte, naso e cranio appiattiti) il bambino presenta ritardo mentale e gravi patologie di altri organi e
a elevata probabilità che la persona muoia prima di aver raggiunto l’età adulta. La probabilità che nasca
un bambino down è correlata all’avanzare dell’età della mamma. Alcune malattie neurologiche sono
legate invece ad una ereditarietà mediata dai geni. I geni controllano la fabbricazione delle proteine che
sono la base strutturale e funzionale del sistema nervoso. Ogni coppia di geni ha un gene dominante e un
gene recessivo; qualora il bambino erediti due geni recessivi da entrambi i genitori può sviluppare può
sviluppare la patologia di cui essi sono portatori. E’ il caso della fenilchetonuria che viene trasmessa con
un gene recessivo e che porta l’individuo ad essere privo di un enzima che metabolizza l’aminoacido
fenilalanina che se si accumula nell’organismo provoca un danno delle funzioni neurologiche. Bisogna
sempre distinguere se la patologia è ereditaria o è legata alla familiarità, che vuol dire che tutti i membri
di una famiglia vivendo nello stesso ambiente sono esposti alle stesse carenze dietetiche, alle stesse
sostanze inquinanti, allo stesso ambiente e alle sue influenze ma non necessariamente c’è una base
ereditaria genetica. Sono stati compiuti rapidi progressi nel localizzare e caratterizzare i geni patologici
responsabili di alcuni disturbi neuropsicologici. I neuroni e le altre cellule sono programmati
geneticamente per l’autodistruzione, questo processo si chiama apoptosi. L’apoptosi ha un ruolo
importante nello sviluppo precoce poiché elimina i neuroni in eccesso inizialmente creati. Ha anche una
funzione nelle lesioni cerebrali, infatti ciascuna delle cause di queste lesioni sembrano produrre i propri
effetti anche attivando in parte programmi di autodistruzione. In passato si credeva che la morte dei
neuroni in seguito ad una lesione cerebrale fosse solo necrotica (necrosi = morte passiva delle cellule che
risulta da una lesione), invece è stato osservato che se le cellule non sono gravemente compromesse
tenteranno di raccogliere tutte le forze per autodistruggersi. L’apoptosi è più adattiva della necrosi ed è
per questo che i meccanismi apoptotici si sono sempre più evoluti. Nella necrosi i neuroni si gonfiano e si
spezzano, cominciando dagli assoni e dai dendriti e finendo al soma. Questa frammentazione provoca
infiammazioni che possono danneggiare le cellule vicine. La morte cellulare necrotica è rapida e di solito
si completa in poche ore mentre quella apoptotica lenta e richiede un giorno o due. L’apoptosi del
neurone procede gradualmente cominciando con il restringimento del corpo cellulare, poi mentre parti
del neurone cominciano a morire, i residui sono immagazzinati in vescicole; non vi è quindi
infiammazione e il danno alle cellule vicine è limitato.
Circuiti della gratificazione
L’abuso di droga costituisce un problema grave legato a criminalità, decessi, sforzi legislativi, crescenti
spese mediche e calo della produttività a danno della società. Gli esperti considerano inefficace l’attuale
sistema di controllo del fenomeno della droga e propongono alcune raccomandazioni come: cercare di
diminuirne la richiesta, porre maggiore attenzione alla cura dei tossicodipendenti invece che perseguirli,
rafforzare le leggi che controllano l’uso delle droghe in base al rischio ad esse connesso, maggiore
discrezionalità nelle sentenze, divieto di qualsiasi pubblicità per sigarette o alcol, legalizzare l’uso di
piccoli quantitativi di droga, creare cliniche sperimentali.
Il fenomeno della tossicodipendenza inizialmente è stato attribuito alla dipendenza fisica. Le teorie
basate sulla dipendenza fisica sono quelle teorie secondo cui l’assunzione di droga serve a prevenire o
a bloccare i sintomi dell’astinenza. L’idea di base è quella per cui quando le persone assumono quantità di
droga tali da indurre dipendenza fisica i sintomi di astinenza li portano a ricorrere alla droga ogni volta
che cercano di diminuirne l’uso. Come terapia si usava l’ospedalizzazione e l’astinenza coatta in modo da
portare la persona a ridurre gradualmente l’assunzione di droga e quindi ad avere sintomi di astinenza
71
meno gravi. Però una volta dimessi quasi tutti i tossicodipendenti disintossicati tornavano al loro vizio
iniziale. In merito a queste ricadute sono state formulate delle teorie secondo cui i sintomi dell’astinenza
possono essere condizionati, ossia se il tossicodipendente dopo un lungo periodo di lontananza dalla
droga, si ritrova in una situazione nella quale in precedenza si era drogato si verificano degli effetti
d’astinenza condizionati opposti a quelli della droga. (risposta condizionata di Siegel). L’insuccesso delle
teorie basate sulla dipendenza fisica hanno portato allo sviluppo di teorie basate sull’incentivo positivo,
ossia sulla ricerca degli effetti piacevoli della droga. Queste teorie sostengono infatti che il fattore
principale nella maggior parte dei casi di tossicodipendenza sia il desiderio irrefrenabile della capacità di
produrre piacere (proprietà di incentivo positivo). Un altro assunto su cui si basano le teorie
dell’incentivo positivo è che il valore incentivante delle droghe che danno dipendenza aumenta con l’uso
della droga che sensibilizza il loro valore incentivante motivando all’uso di droga il consumatore e
spingendolo a ricercare stimoli associati ad essa. Secondo la teoria incentivo-sensibilizzazione di
Robinson e Berridge non è il piacere della droga in se a provocare dipendenza ma il piacere anticipato
connesso alla sua assunzione ossia il valore incentivante della droga. Sono stati formulati modelli sulla
tossicomania basati sulla teoria dell’incentivo positivo fondati sullo studio del fenomeno
dell’autostimolazione intracranica e dei siti del cervello che mediano questo fenomeno che spesso
vengono chiamati circuiti cerebrali della gratificazione. Per comprendere le basi neurali della teoria
dell’incentivo positivo, secondo cui appunto le persone si drogano non per sfuggire alle spiacevoli
conseguenze dell’astinenza, sia voluta che obbligata, ma per gli effetti piacevoli della droga, Olds e Milner
hanno effettuato uno studio sulla auto stimolazione intracranica da cui si è visto che animali premevano
ripetutamente una leva per provocarsi brevi scariche di corrente elettrica attraverso elettrodi impianti in
punti particolari del cervello. Ne dedussero che i circuiti cerebrali alla base dell’autostimolazione
intracranica sono gli stessi che mediano gli effetti piacevoli degli stimoli incentivanti come il cibo, l’acqua
e il sesso. I primi studi sull’autostimolazione intracranica partivano dal presupposto che tale fenomeno
fosse unitario, ossia che le sue proprietà fondamentali fossero le stesse indipendentemente dal sito di
stimolazione. Attraverso ripetute ricerche vennero individuate le strutture cerebrali implicate ossia il
fascicolo mediale pro encefalico ed il sistema dopaminergico mesotelencefalico. Il fascicolo mediale pro
encefalico è un fascio di fibre che decorre attraverso l’ipotalamo laterale e innervano il setto, includendo
molti assoni ascendenti, discendenti e interneuroni. Regola solo alcune auto stimolazioni intracraniche
nelle sessioni sperimentali, e cosi è stato attribuito un ruolo preponderante solo ad una delle sue
componenti cioè il sistema dopaminergico mesotelencefalico. Questo sistema è un insieme di neuroni
che rilasciano dopamina e che proiettano dal mesencefalo a varie regione del telencefalo. Decorre
attraverso l’ipotalamo mediale e i neuroni che lo compongono hanno i corpi cellulari in due nuclei
mesencefalici : la sostanza nera e l’area tegmentale ventrale. I loro assoni proiettano a diverse zone
telencefaliche incluse la corteccia limbica, il tubercolo olfattivo, l’amigdala, il setto, lo striato, alcune
regioni della corteccia prefrontale e il nucleo accumbens. Attraverso alcune ricerche sperimentali si è
visto che le soglie di auto stimolazione in queste zone neurali erano più basse e le frequenze di risposta
più elevate. I risultati di diverse ricerche hanno dato sostegno all’ipotesi che il sistema dopaminergico
mesotelencefalico sia implicato nell’autostimolazione intracranica fra cui il fatto che molte aree del
cervello dove avviene l’autostimolazione fanno parte di questo sistema, che l’autostimolazione
intracranica è spesso associata al rilascio di dopamina nella via mesolimbica (proiezione da area
tegmentale a siti limbici) che gli agonisti della dopamina aumentano l’autostimolazione e gli
antagonisti la riducono, e che le lesioni del sistema dopaminergico la bloccano. La maggior parte delle
ricerche sui meccanismi neurali della dipendenza è stata portata avanti su cavie utilizzando due
paradigmi comportamentali : il paradigma di auto somministrazione di droga e il paradigma della
posizione preferita condizionata. Negli esperimenti che usano il paradigma di auto somministrazione di
droga, la cavia è indotta a somministrarsi piccole quantità della sostanza in aree cerebrali specifiche
attraverso una cannula impiantata premendo una leva imparando rapidamente a somministrarsi
72
iniezioni endovenose. Una volta imparato ad assumere droga in questo modo assumono lo stesso
comportamento del tossicodipendente umano. Ciò ha mostrato che i substrati neurali della gratificazione
legata alla tossicodipendenza sono rappresentati dal sistema dopaminergico mesotelencefalico. Negli
esperimenti che impiegano invece il paradigma della posizione preferita condizionata le cavie ricevono
ripetutamente droga all’interno di uno dei due compartimenti di una gabbia. In seguito vengono posti di
nuovo nella gabbia senza essere invece sotto l’effetto della droga. A questo punto viene misurata la
percentuale di tempo che trascorrono nel compartimento associato alla somministrazione di droga
rispetto al tempo che passano nell’altro compartimento che funge da controllo. Di solito i ratti
preferiscono il primo invece del secondo. Il vantaggio principale di questo paradigma è che i soggetti
sono valutati quando non sono sotto l’effetto della droga e quindi la misura del valore incentivante della
droga non viene confuso con altri effetti che la droga potrebbe avere sul comportamento. Una grande
quantità di dati sostiene il coinvolgimento della dopamine e del nucleo accumbens nella gratificazione e
nella dipendenza, ma diverse ricerche successive suggeriscono che la dopamina sia coinvolta
nell’aspettitativa di una gratificazione più che nella gratificazione stessa.
Per quanto riguarda le condotte tossicomaniche nell’infanzia e nell’adolescenza. Per quanto riguarda
l’infanzia dati epidemiologici di evidenze cliniche portano ad affermare che si verifica un consumo di
droghe alcol e tabacco e inalazione di solventi solitamente iin gruppi che assumono le caratteristiche
della banda in una età compresa fra i 9 e gli 11 anni. Il primo contatto con l’alto spesso avviene n famiglia
in occasioni di feste e i bambini che assumono droghe tabacco alcol ecc sembrano avere nella loro storia
personale passata dei fattori predisponenti ad esempio il sesso di appartenenza, i maschi tendono più
facilmente ad assumere droghe rispetto alle femmine, in genere in famiglia vi è un alcolista o un
tossicodipendente, c’è alle spalle una situazione di disagio familiare e sociale, molti di questi bambini
appartengono alla classe media ed hanno una struttura familiare non solo caratterizzata da disagi ma
anche molto rigida nelle relazioni personale e nel modo di affrontare questi disagi. Questi bambini
sviluppano dipendenza nei confronti di queste sostanze e presentano problemi di salute, complicanze
renali, epatiche, cardiache, polmonari ed ematiche e a livello comportamentale vi è una interruzione e
abbandono degli studi (drop out scolastico). Per quanto riguarda l’adolescenza dati epidemiologici di
evidenze cliniche portano ad affermare che tra gli 11 e i 19 anni si verifica abuso di alcol di tabacco di
farmaci contro l’insonnia e nervosismo, di sostanze illegali come hashis anfetamine eroina e cocaina, Si
riscontra l’uso consecutivo o associato di sostanze diverse e un incremento progressivo di assunzione
della droga. Il consumo di droga e alcol inizia spesso in gruppo per integrarsi ed essere accettati dagli
altri, paradossalmente l’assunzione di droghe e alcol porta spesso il soggetto si allontana dal gruppo. Si
riscontrano nella vita di questi adolescenti anche delle difficoltà nel gestire situazioni problematiche,
come famiglie allargate ricomposte o disperse, e quindi assenza o alternanza delle figure genitoriali,
presenza di condotte tossicomani nelle famiglie e inserimenti culturali multipli, quindi adolescenti che si
sono trovati ad affrontare l’integrazione in una cultura diversa o che si trovano in conflitto tra la cultura
della famiglia di provenienza e la cultura del gruppo di adolescenti a cui appartengono che spesso sono
appartenenti al nuovo contesto culturale i cui l’adolescente si trova ad esempio per fenomeni di
immigrazione ed emigrazione della famiglia di origine. Molti adolescenti raccontano della loro esperienza
di tossicodipendenza un desiderio di ricerca di sensazioni che sembra essere il fattore motivante, quindi
la ricerca della sensazione di pericolo, di avventura, di trasgressione, di esperienze, di fuga dalla noia e di
gratificazione rapida molto spesso compensatoria di fallimenti o frustrazioni che l’adolescente può
sperimentare nel suo primo confrontarsi con il mondo e con una serie di esperienze. Gli adolescenti
manifestano un iper investimento sulla droga, cioè tutta la giornata viene organizzata intorno all’acquisto
e all’assunzione della droga, che quindi assume connotazioni del tipo ossessivo compulsivo. I tossicomani
adolescenti si possono dividere in impulsivi e compulsivi appunto, gli impulsivi sono quelli che sia
nell’assunzione di droga che nei comportamenti successivi manifestano un passaggio all’atto, quindi la
tossicodipendenza e assunzione di droga è per loro un modo per liberarsi da una forma di emozione che
73
non riescono a tollerare, i compulsivi sono invece quelli che assumono la droga ma che poi sperimentano
un senso di colpa e incompetenza perché essendo il meccanismo diventato compulsivo non sono più
loro a gestirlo ma è il meccanismo a gestire loro e quindi si sentono incapaci di uscirne fuori e di gestirlo,
ogni assunzione di droga è un ammissione di fallimento. Per molti adolescenti la droga sembra avere la
funzione di colmare vuoti nell’ interazione emotiva fra l‘individuo e l’ambiente nel corso dello sviluppo.
Sia nel caso di bambini che di adolescenti le misure che si propongono sono di tre tipi : misure di
intervento preventive, che prevedono interventi di educazione alla salute nelle scuole o in luoghi di
aggregazione per diffondere informazioni sui rischi legasti all’assunzione della droga e sulle possibili
strategie per gestire problematiche tipiche dell’adolescenza senza ricorrere alla droga, di intervento
terapeutiche e misure di intervento immediate, che sono fondamentalmente quelle ospedaliere cioè di
trattamenti d’urgenza per far fronte a sintomi di intossicazione acute, come depressione respiratoria,
reazioni psicotiche acute, crisi di astinenza, stato confusionale e coma, setticemie, epatiti, ascessi,
tetano o AIDS, o misure di intervento specifiche sono misure che prevedono la sostituzione della sostanza
tossica con farmaci antidolorifici, spasmolitici, con tranquillanti o sedativi a dosaggi decrescenti, si può
usare il metadone che è una terapia detta terapia di svezzamento, ma comunque misure più articolate che
includono specialisti non solo di tipo medico ma anche psicologico e in cui trattandosi di minori venga
coinvolta anche la famiglia in un percorso terapeutico attento ed adeguato.
Psicologia fisiologica, emozioni e stress
La psicologia fisiologica e la psicobiologia si sono occupate di studiare anche le emozioni , soprattutto
quelle negative, per l’impatto che esse hanno sulla salute sul benessere psicofisico. Infatti sia eventi che
pensieri che anticipano o rievocano tali eventi possono determinare un impatto emotivo. Infatti diverse
ricerche hanno evidenziato che lo stress associato alla paura o all’ansia aumentano la predisposizione a
disturbi fisici, come ulcera e infezioni, e psicologici. Vi sono diversi approcci teorici alle emozioni, in
particolare la teoria evoluzionistica di Darwin, la teoria di James e Lange e la teoria di Cannon e Bard. La
teoria evoluzionistica di Darwin afferma che in tutti i membri di una specie le medesime risposte emotive
sono associate ai medesimi stati emotivi e che l’espressione delle emozioni è un prodotto dell’evoluzione
e quindi va compreso confrontando le diverse specie. Nel 1872 Darwin pubblicò un testo dal titolo
L’espressione delle emozioni nell’uomo e negli animali nel quale l’autore sviluppò tali presupposti teorici.
Egli infatti suggeriva che certe risposte emotive come le espressioni facciali dell’uomo possono essere
associate agli stessi stati emotivi in tutti i membri di una specie. La sua teoria sull’evoluzione delle
espressioni emotive si basa su tre principi fondamentali : 1) l’espressione delle emozioni si sviluppa da
comportamenti che indicano l’azione che un animale sta per compiere, 2) se i segnali forniti da tali
comportamenti costituiscono un vantaggio per l’animale che li esibisce essi evolveranno in modo da
sottolineare la loro funzione comunicativa mentre la loro funzione iniziale si perderà, 3) i messaggi
opposti vengono spesso comunicati da movimenti e da posture opposti (principio dell’antitesi), per
esempio osservando i cani si può vedere che la postura aggressiva prevede le orecchie orientate in avanti
il dorso eretto la piloerezione e la coda alzata, invece il cane che esibisce sottomissione avrà le orecchie
piegate all’indietro, il dorso piegato verso il basso e pelo e coda sono abbassati. Darwin per spiegare
l’evoluzione delle espressioni emotive si è basato sulla spiegazione del comportamento dell’esibizione
della minaccia. Inizialmente le componenti del combattimento implicavano il porsi di fronte al nemico
ergersi di fronte a lui e mostrargli le proprie armi. Quando i nemici iniziano a riconoscere in questi
comportamenti i segnali di un imminente attacco, l’animale che attacca raggiunge un vantaggio evolutivo
potendo comunicare in modo efficace e intimidatorio l’aggressione senza giungere necessariamente al
combattimento. Quindi le modalità di esibizione della minaccia e non di attuazione della minaccia si sono
evolute in modo sempre più sofisticato e sono diminuiti i combattimenti. Per essere veramente efficaci i
segnali di aggressione e di sottomissione devono essere riconoscibili, per questo motivo tali segnali
hanno subito un’evoluzione tendente verso due direzioni opposte: ad esempio i primati per comunicare
74
aggressione fissano con lo sguardo, per esprimere invece sottomissione lo distolgono. Un altro approccio
teorico alle emozioni è rappresentato dalla teoria fisiologica delle emozioni è quella proposta da James e
Lange nel 1884 secondo cui gli stimoli sensoriali emotigeni vengono interpretati dalla corteccia che
provoca variazioni negli organi viscerali attraverso il SNA e nei muscoli scheletrici attraverso il SNS. Le
risposte del SNA e del SNS provocano l’esperienza emotiva nel cervello. Questa teoria in realtà ribaltava
la concezione comune di emozione, in quanto secondo gli autori l’attività del SNA e il comportamento
provocati dallo stimolo emotigeno, ad esempio aumento della frequenza cardiaca, producono la
sensazione dell’emozione e non il contrario. Nel 1915 Cannon e Bard proposero una teoria alternativa a
quella di James e Lange secondo cui gli stimoli emotigeni hanno due effetti eccitatori indipendenti, ossia
eccitano sia la sensazione dell’ emozione sia l’espressione comportamentale dell’emozione nel SNA e
nel SNS, che sono per gli autori due processi paralleli, senza relazione causale di nessun tipo. Da queste
teorie derivano poi previsioni diverse sul ruolo svolto dal feedback del sistema nervoso autonomo e
somatico nell’emozione. La teoria di James e Lange prevede che l’esperienza emotiva dipenda
completamente dal feedback proveniente dall’attività del SNA e SNS, mentre la teoria di Cannon Bard
prevede che l’esperienza emotiva sia totalmente indipendente da questo tipo di feedback. Si tratta di due
posizioni antitetiche che attraverso ricerche successive non sono state confermate. Tali ricerche infatti
affermano che nell’esperienza emotiva vi è la partecipazione di tre fattori che si influenzano fra loro : la
percezione dello stimolo emotigeno, le reazioni autonome e somatiche allo stimolo e l’esperienza dell’
emozione. Sono state studiate le basi psicofisiologiche dell’emozione e per quanto riguarda il ruolo delle
strutture neurali della esperienza emotiva Bard, sulla base di esperimenti condotti su gatti ai quali erano
stati asportati gli emisferi cerebrali le cui reazioni aggressive, identificate sotto il termine di falsa rabbia,
erano esagerate e generalizzate, concluse che l’ipotalamo è la struttura cruciale per l’espressione delle
condotte aggressive e che il ruolo della corteccia consiste nell’ inibire e direzionare tali risposte
aggressive. Ulteriori ricerche hanno sottolineato il ruolo del sistema limbico, affermato da Papez (papè)
nel 1937. L’autore suggerì che l’espressione emotiva è controllata da diverse strutture neuronali
interconnesse che egli chiamò appunto sistema limbico, cioè un insieme di nuclei e di fibre poste al
confine con il talamo (limbico significa confine). Alcune di queste strutture chiave sono l’amigdala, che
sembra avere una funzione nella regolazione nella percezione del pericolo, nell’espressione della paura e
nella attivazione ed espressione dell’aggressività, i corpi mammillari, l’ippocampo, il fornice, la corteccia
cingolata, il setto, il bulbo olfattivo e l’ipotalamo, che sembra avere un ruolo regolatore nell’espressione
delle risposte aggressive. Papez riteneva che gli stati emozionali venissero espressi attraverso l’azione
esercitata dalle altre strutture limbiche sull’ipotalamo e che venissero esperiti grazie all’azione esercitata
dalle strutture limbiche sulla corteccia. Un’ altra struttura neurale coinvolta nella regolazione delle
emozioni è il SNA che ha una attività associata alle diverse emozioni che però non è ne totalmente
generalizzata ne totalmente specifica. Questo vuol dire che il sistema nervoso autonomo presenta dei
pattern di attività quando si sperimentano degli eventi emotivi però non c’è ne una attività specifica per
ogni emozione ne un unico pattern di attività generico valido per tutte le emozioni. C’è una specificità
relativa maggiore per alcune emozioni e minore per altre. Nell’ambito della ricerca sul ruolo del SNA
nelle emozioni assume importanza il principio di specificità su cui si differenziano le teorie di
James-Lange e Cannon-Bard. Infatti la prima sostiene che stimoli emotigeni diversi inducono diversi
pattern di attività del SNA che a loro volta producono diverse esperienze emotive. La seconda invece
sostiene che tutti gli stimoli emotigeni producono lo stesso pattern generale di attivazione simpatica che
prepara l’organismo all’azione, ad esempio aumento della frequenza cardiaca, respiratoria, della
pressione sanguigna, ecc... In ogni caso le prove sperimentali suggeriscono che il ruolo del SNA nelle
emozioni rientra tra una specificità totale ed una generalità totale, ossia non sembrerebbe esserci ne
un unico pattern ne diversi pattern di attività. Sul principio di specificità ad ogni modo si fondano due
tecniche che vengono utilizzate principalmente in ambito giuridico - criminologico : la poligrafia e la
conoscenza della colpevolezza. La poligrafia è un metodo che utilizza gli indici emotivi del SNA per trarre
75
conclusioni sulla sincerità della risposta del soggetto sottoposto a interrogatorio. Il test del poligrafo può
essere un utile supporto alla procedura dell’interrogatorio ma non è comunque infallibile. Un fattore
critico nella valutazione dell’efficacia della poligrafia è che nella vita quotidiana raramente si sa con
certezza se un soggetto è colpevole o innocente, per questo motivo negli studi della poligrafia si usa
quella che viene chiamata procedura del falso crimine, la cui frequenza di successo è di circa l’80%, ossia
alcuni soggetti volontari partecipano ad un falso crimine e vengono poi sottoposti ad un test poligrafico
da uno sperimentatore che non è a conoscenza della loro colpevolezza o innocenza. Il metodo
investigativo classico consiste nella tecnica della domanda di controllo in cui viene confrontata la risposta
fisiologica alla domanda cruciale tipo “lei ha rubato la borsetta?”con quelle ad alcune domande di
controllo le cui risposte sono note come “lei è mai stato in prigione?”. L’assunto alla base di questa tecnica
è che la menzogna sarà associata ad una maggiore attivazione del sistema nervoso simpatico. Nonostante
venga spesso chiamata macchina della verità, in realtà la poligrafia rileva le emozioni e non la verità ed è
per questo motivo che nella vita reale domande del tipo Ha rubato lei la borsa possono provocare
reazioni in tutti i sospetti sia che siano innocenti sia che siano colpevoli rendendo difficile individuare la
menzogna. Al fine di evitare questo problema Likken ha sviluppato la tecnica per la conoscenza della
colpevolezza. Per usare questa tecnica l’esaminatore dovrebbe conoscere un’informazione legata al
crimine che è nota solo a chi ha commesso il crimine stesso. A questo punto l’esaminatore valuta la
reazione del sospettato a una lista di dettagli veri o falsi del crimine. Una persona innocente reagisce allo
stesso modo a tutti i dettagli poiché non ne conosce nessuno, il colpevole reagisce in modo differenziato.
In uno studio che utilizzava questa tecnica i soggetti aspettavano che l’impiegata si recasse in bagno per
entrare nella stanza e rubare la borsetta dalla scrivania togliere da essa i soldi e poi buttarla
nell’armadietto. La domanda cruciale dell’interrogatorio era del tipo Dove pensa che abbiamo trovato la
borsetta sulla scrivania, nell’armadietto, nella toilette?. Con l’uso di questa tecnica venne individuato
l’88% dei falsi criminali e nessun innocente venne giudicato colpevole. Questa tecnica non è solo
importante nel confermare il ruolo del SNA nelle emozioni ma può avere anche una certa utilità per
rendere efficaci le procedure in ambito giuridico. Per quanto riguarda le espressioni facciali delle
emozioni gli studi più noti sono quelli di Ekman e dei suoi colleghi di ricerca che già dagli anni 60
avevano cominciato ad analizzare film e fotografie di persone che stavano provando emozioni reali e
avevano compilato un atlante delle espressioni facciali associate alle diverse emozioni. Le espressioni
facciali incluse nella loro raccolta sono fotografie di modelli che erano stati istruiti a contrarre specifici
muscoli della faccia sulla base dei risultati della loro analisi. Per esempio per riprodurre l’espressione
della sorpresa i modelli erano stati istruiti a inarcare le sopracciglia in modo da spalancare gli occhi e
corrugare la fronte e a distendere i muscoli intorno alla bocca. Da questi studi Ekman ha estrapolato
alcuni principi di base che sono l’universalità delle espressioni facciali, le espressioni facciali primarie e
l’ipotesi del feedback facciale. Per universalità delle espressioni facciali, tesi sostenuta anche da Darwin,
si intende il fatto che persone appartenenti a culture diverse mostrano espressioni facciali simili in
situazioni analoghe e che è possibile identificare in modo corretto il significato emotivo di una
espressione facciale di persone di culture diverse. Il più convincente fra questi studi è stato condotto sui
membri di una tribù della Nuova Guinea che non aveva avuto nessun contatto con il resto del mondo e
quindi non potevano aver appreso le espressioni facciali collegate alle diverse emozioni. I risultati di
questi studi confermarono la tesi darwiniana di universalità delle espressioni facciali, anche se questo
non implica escludere che esistano lievi differenze dovute alla cultura. Nell’ambito degli studi sulle
espressioni facciali vennero individuate 6 espressioni facciali primarie associate alle emozioni della
sorpresa, rabbia, paura, tristezza, disgusto e gioia. Tutte le altre espressioni facciali di emozioni reali sono
il risultato di una combinazione in proporzioni diverse delle sei espressioni primarie. Inoltre, alla fine
degli anni 80, è stata formulata anche l’ipotesi che le nostre espressioni facciali influenzino la nostra
esperienza emozionale, tale ipotesi è detta ipotesi del feedback facciale. In uno studio teso a verificare
questa ipotesi i soggetti sono stati istruiti ad assumere inconsapevolmente uno di due pattern di
76
contrazione facciale, uno corrispondente alla rabbia e uno alla felicità, mentre osservavano una serie di
diapositive . Quando il pattern prodotto era quello corrispondente alla felicità i soggetti riferivano di
sentirsi più felici e meno arrabbiati, al contrario riferivano di sentirsi più arrabbiati e meno felici. Se dopo
qualche secondo durante il quale si contraggono i muscoli che attivano il pattern dell’espressione facciale
della rabbia capita di sentirsi leggermente arrabbiati significa che si è provato su se stessi l’effetto del
feedback facciale. Poiché è possibile esercitare un controllo volontario sui muscoli facciali è possibile
inibire espressioni facciali genuine e sostituirle con espressioni false. Vi sono molte ragioni che possono
indurre ad assumere espressioni facciali false, alcune sono positive come un sorriso falso per
tranquillizzare un amico preoccupato, o negative come un sorriso falso per mascherare una bugia.
Esistono due modi per distinguere le espressioni vere da quelle fasulle : primo può accadere che
microespressioni, cioè espressioni facciali di breve durata, dell’emozione reale si presentino
nell’espressione falsa; tali microespressioni durano al massimo 0.05 secondi ma con l’esercizio possono
essere individuate senza l’aiuto di strumenti specifici (fotografia temporizzata); secondo ci sono spesso
sottili differenze tra una espressione facciale autentica e una simulata che possono essere individuate da
un osservatore esperto. L’anatomista francese Duchenne (diuscenn) è stato colui che maggiormente ha
studiato queste differenze fra espressioni autentiche e simulate. Egli affermava che un sorriso di gioia
può essere distinto da un sorriso volontario esaminando i due muscoli facciali che vengono contratti
durante il sorriso autentico : l’orbicularis oculi che circonda l’occhio ed esercita una trazione della pelle
dalle guance e dalla fronte verso il bulbo oculare, e lo zigomatico principale che solleva gli angoli della
bocca. Secondo Duchenne l’orbicularis oculi può essere contratto solo da una gioia autentica per cui
l’inerzia di questo muscolo smaschera una espressione falsa. A questo proposito Ekman ha chiamato il
sorriso autentico sorriso di Duchenne. Non tutte le emozioni sono accompagnate da espressioni facciali.
Tuttavia l’elettromiografia facciale può rilevare piccole variazione dell’input motorio ai muscoli del volto
che non potrebbero essere osservate nella contrazione muscolare. In uno studio di Cacioppo e colleghi è
stata registrata l’attività EMG di molti muscoli facciali mentre i soggetti guardavano delle diapositive che
veniva correlata al grado di piacevolezza che i soggetti associavano a ciascuna diapositiva. Per esempio i
muscoli del sorriso tendevano ad essere maggiormente attivi quando i soggetti osservavano delle
diapositive per loro piacevoli. Sono stati condotti anche studi per valutare l’effetto dell’osservazione delle
espressioni facciali altrui sui muscoli facciali dell’osservatore. E’ stato notato che le persone tendono a
mimare le espressioni facciali che vedono negli altri persino se non sono consapevoli di quel che vedono.
Sono stati effettuati degli studi su soggetti che avevano avuto danni corticali per comprendere il ruolo
della corteccia e per individuare possibili lateralizzazioni e localizzazioni specifiche nella espressione
facciale delle emozioni. E’ stata individuata una dominanza emisferica destra, in particolare del lobo
temporale e frontale, nella percezione delle espressioni emotive facciali degli altri e nella sensibilità alla
prosodia cioè la componente emozionale del tono della voce. E’ stata invece individuata una dominanza
emisferica sinistra, in particolare del lobo frontale, per quanto riguarda la frequenza nella
verbalizzazione delle emozioni ossia nell’esprimere a parole le emozioni esperite. Inoltre è stata rilevata
una specificità del lobo frontale nella regolazione dell’espressione emotiva facciale spontanea. Tra le
emozioni maggiormente studiate vi è la paura, questo perché la paura che è la reazione emotiva alla
minaccia ed è una forza motivazionale nell’attivare comportamenti difensivi, che sono quei
comportamenti la cui funzione primaria è quella di proteggere l’organismo dalla minaccia o dal dolore. Al
contrario i comportamenti aggressivi la cui funzione primaria consiste nel minacciare o procurare danno.
La paura si può cronicizzare e può indurre dei disturbi. Per lo studio del comportamento aggressivo e
difensivo è stato utilizzato, nell’ambito di una ricerca etosperimentale, il modello di aggressività e difesa
all’interno di una colonia di ratti che ha permesso di raccogliere ricche descrizioni dei comportamenti
intraspecific aggressivi e difensivi nel ratto osservando le interazioni fra il maschio dominante alpha e un
piccolo maschio intruso in una colonia ben strutturata composta da entrambi i sessi. Una ricerca
etosperimentale è un ricerca che descrive in maniera sistematica delle sequenze comportamentali
77
minime osservate in laboratorio quindi in condizioni controllate e si tratta di sequenze strutturate per
simulare eventi cruciali dell’ambiente naturale dei soggetti. In questo modo vengono estrapolati dei
principi che permettono di comprendere il comportamento osservato. Nella ricerca basata sul modello di
aggressività e difesa all’interno di una colonia sono stati osservati i comportamenti condotti da questi
animali e si è visto che il maschio alpha annusa l’estraneo per vedere se è un maschio o una femmina, e
quando si accorge che è un maschio ciò induce pilo erezione che è una forma di segnale di espressione
aggressiva. Dopodichè il maschio dominante morde l’intruso, lo insegue, lo morde di nuovo, finchè
l’intruso si ferma e si pone davanti al suo aggressore si erge sulle zampe posteriori e con quelle anteriori
cerca di allontanarlo. A questo punto il maschio dominante comincia a muoversi lateralmente per far
perdere l’equilibrio all’intruso e cerca di morderlo alla schiena. L’intruso che è stato attaccato più volte
abbandona la posizione eretta e giace sulla schiena mentre il maschio alpha cerca di morderlo ancora.
Attraverso questa alternanza di morsicature, fuga, inseguimento, confronto frontale, attacchi laterali e
posizione supina alla fine l’intruso viene espulso. Questi comportamenti sono stati riscontrati anche in
altre specie quindi comportamenti di attacco e difesa si manifestano in forma abbastanza stereotipata e
comune a molte specie. L’analisi dei comportamenti di attacco e difesa ha portato allo sviluppo del
concetto della zona dell’obiettivo, ovvero dell’idea che i comportamenti aggressivi e difensivi di un
animale sono spesso pianificati per attaccare zone specifiche del corpo di un altro animale proteggendo
contemporaneamente specifiche parti del proprio corpo. Ad esempio l’attacco laterale sembra essere
messo in atto per mordere la schiena e contemporaneamente proteggere il proprio muso. Nell’essere
umano sono state fatte ipotesi di correlazione fra aggressività e testosterone che però non sono state
confermate infatti nella pubertà il comportamento aggressivo non aumenta parallelamente all’aumento
dei livelli di testosterone, non viene eliminato dalla castrazione e non aumenta con iniezioni di
testosterone. Tuttavia alcuni studi hanno evidenziati che criminali violenti e atleti maschi aggressivi
tendono ad aver livelli di testosterone leggermente più alti della norma. Questa debole correlazione
riflette probabilmente il fatto che gli scontri aggressivi aumentano il livello di testosterone piuttosto che
il contrario. Il fatto che l’aggressività umana sembra essere indipendente dal livello di testosterone
ematico potrebbe significare che la sua regolazione ormonale e neuronale sia diversa da quella di altri
mammiferi, ad esclusione dei primati che sembrano avere caratteristiche simili a noi. Tuttavia la
confusione potrebbe nascere dal fatto che i ricercatori studiano l’aggressività dell’uomo non riuscendo
spesso a distinguere tra aggressività sociale, legata a livelli di testosterone in molte specie, da quella
difensiva, che invece non lo è. Nell’essere umano la maggior parte delle reazioni aggressive sono reattive
cioè sono reazioni ad una minaccia reale e quindi sono reazioni difensive e non di aggressività sociale.
Quindi in realtà non c’è mancanza di correlazione fra aggressività e livello ematico di testosterone ma
mancanza di correlazione fra attacco difensivo e livello di testosterone perché nella maggior parte dei
mammiferi quando si parla di aggressività si parla di aggressione sociale e non difensiva. In particolare
per individuare i meccanismi neuronali alla base della paura sono state fatte delle ricerche fra cui quella
sulla paura condizionata, ossia sull’induzione della paura in risposta ad uno stimolo precedentemente
neutro (stimolo condizionato) presentandolo più volte prima di uno stimolo negativo (stimolo
incondizionato). E’ una ricerca che ha evidenziato come la paura condizionata sia mediata dall’amigdala e
possa essere estinta dal ruolo inibitore della corteccia cerebrale. Indurre la paura in modo condizionato
significa applicare il modello di condizionamento classico di Palvov stimolo-risposta; il soggetto, in
genere un ratto, sente un suono e poi riceve una leggera scossa elettrica alle zampe e dopo diverse
associazioni fra il suono che è lo stimolo condizionato e la scossa elettrica che è lo stimolo incondizionato,
il semplice suono evoca dei comportamenti difensivi, per esempio immobilità o maggiore suscettibilità
alla paura, e risposte correlate del sistema nervoso simpatico, come aumento delle frequenza cardiaca e
della pressione sanguigna. Attraverso alcune ricerche è stato studiato il circuito neuronale che media
questa forma di condizionamento uditivo della paura, e si è visto per esempio che lesioni delle vie uditive
come il nucleo genicolato mediale impediscono l’instaurarsi della paura condizionata mentre una lesione
78
della corteccia uditiva non produce lo stesso effetto. Anche lesioni dell’amigdala impediscono
l’instaurarsi della paura condizionata. L’amigdala, che è composta da una decina di aree distinte e per
questo è chiamata complesso dell’amigdala, riceve afferenze da tutti i sistemi sensoriali ed è ritenuta
essere la struttura nella quale viene appreso e mantenuto il significato emozionale dei segnali sensoriali.
Nel circuito cerebrale ritenuto responsabile del controllo del condizionamento della paura a stimoli
uditivi i segnali sonori raggiungono l’amigdala dal nucleo genicolato mediale del talamo sia direttamente
che attraverso la corteccia uditiva. L’amigdala valuta il significato emozionale del suono sulla base delle
precedenti esperienze e in seguito attiva i circuiti per le risposte comportamentali e simpatiche
appropriate rispettivamente nel grigio periacqueduttale e nell’ipotalamo. Per un periodo di tempo sono
stati effettuati interventi di psicochirurgia che prevedevano l’amigdalectomia, cioè la distruzione
chirurgica dell’amigdala, per effettuare una sorta di trattamento terapeutico della violenza nell’essere
umano; in alcuni pazienti tale interventi ha avuto efficacia nel ridurre il comportamento violento, però
oltre a non essere efficace in tutti i casi non è comunque etico rimuove parti del cervello di una persona
fintanto che la parte è sana e comunque a meno che la terapia non sia efficace nel 100% dei casi.
L’asportazione dell’amigdala comunque non porta solo ad una riduzione del comportamento aggressivo
ma anche ad un appiattimento delle reazioni emotive per cui la persona vive come se fosse sempre sotto
sedativo. Lesioni dell’amigdala sembrano essere la causa della sindrome di Kluver-Bucy, osservata in
diverse specie, che si manifesta con ingestione di qualsiasi cosa che risulti commestibile, tendenza ad
esplorare ripetutamente oggetti noti spesso con la bocca, accresciuta attività sessuale diretta spesso
verso oggetti non appropriati, assenza di paura. L’ambiente o contesto in cui si viene a contatto con
stimoli che inducono paura può di per se provocare paura. Il processo con cui i contesti vengono associati
a stimoli che provocano paura prende il nome di paura condizionata contestuale. Poiché l’ippocampo ha
un ruolo importante nella memoria della localizzazione spaziale sembra che sia implicato nella paura
condizionata contestuale. Tale ipotesi sembra essere stata confermata da esperimenti in cui lesioni
bilaterali dell’ippocampo prima del condizionamento hanno bloccato lo sviluppo di una risposta di paura
allo stimolo condizionato esplicito, es il suono, mentre lesioni bilaterali dell’ippocampo dopo il
condizionamento hanno bloccato il mantenimento della risposta di paura senza compromettere il
mantenimento della risposta di paura allo stimolo condizionato esplicito. Parlando delle basi fisiologiche
e biologiche della emotività e del suo impatto sulla salute ci si può riferire al concetto di stress, ovvero
variazioni fisiologiche reattive ad agenti che minacciano l’organismo. Tutti gli agenti stressanti o
stressors, di natura sia psicologica (perdita lavoro) che fisica (esposizione prolungata al freddo),
producono essenzialmente lo stesso pattern di variazioni fisiologiche, anche se lo stress cronico
determina più frequentemente conseguenze sulla salute. Il primo a descrivere la risposta allo stress fu
Selye (Sili) negli anni 50. L’intensità della risposta allo stress non dipende solo dagli agenti stressanti e
dall’individuo ma anche dalle strategie che gli individui adottano per affrontare lo stress e che vengono
generalmente sono note con il termine di coping. Le reazioni allo stress possono essere di due tipi: a
breve termine in cui vengono prodotte variazioni adattive che aiutano l’animale a rispondere allo
stressor come l’inibizione dei processi infiammatori, e a lungo termine in cui però lo stress produce
variazioni antiadattive come ulcera gastrica e aumento di suscettibilità all’infezione. La risposta allo
stress è regolata dall’attivazione deI sistema della corteccia adrenergica, nella porzione anteriore
dell’ipofisi. Gli agenti stressanti infatti stimolano il rilascio dell’ormone adrenocorticotropo
dell’adenoipofisi il quale a sua volta stimola il rilascio dei glucocorticoidi della corteccia surrenale che
producono gran parte degli effetti della risposta allo stress. Gli agenti stressanti attivano anche il sistema
nervoso simpatico che aumenta il rilascio di adrenalina e noradrenalina dalla midollare del surrene. Tutte
le più comuni forme di stress si associano a un livello elevato di sostanze circolanti come appunto
glucocorticoidi, adrenalina e noradrenalina che a loro volta sono implicati in molti disturbi fisici come
l’ictus, il diabete e l’ipertensione. Il rapporto fra paura cronica, stress e disturbi della salute è evidente
negli animali sottoposti a stress da sottomissione, ossia quella forma di stress derivante da una minaccia
79
durevole nella vita quotidiana d parte dei membri della propria specie. Molte ricerche hanno mostrato
che animali, appartenenti soprattutto a specie che formano gerarchie di gruppo, sottoposti a stress da
sottomissione hanno maggiore tendenza ad aggredire i più giovani, ad avere testicoli di dimensioni
ridotte, una vita più breve, livelli di testosterone più bassi e livelli di corticosterone più alti. Il modello di
Selye sullo stress ha portato ad approfondire lo studio sui disturbi psicosomatici cioè quei disturbi che
hanno sintomi principalmente fisici ma con cause parzialmente fisiche e parzialmente psicologiche. Fra
questi disturbi psicosomatici la patologia derivante dallo stress maggiormente studiata è l’ulcera gastrica.
Consiste in lesioni dolorose alla mucosa dello stomaco e del duodeno (ulcera duodenale) che in alcuni
casi può essere letale. E’ una patologia che ha un’incidenza abbastanza elevata ed è prevalente in persone
che vivono in situazioni stressanti. Per cui soggetti sani se sottoposti ad alti livelli di stress possono
sviluppare ulcera. L’ulcera gastrica è dovuta a secrezioni gastriche, ossia quotidianamente ogni individuo
adulto produce da due a tre litri di succhi gastrici che sono i costituenti dell’acido cloridrico il quale ha la
funzione di frantumare il cibo durante la digestione e in condizioni normali ha una concentrazione tale da
riuscire a dissolvere alcuni metalli. I casi di ulcera gastrica sono invece associati a concentrazioni a
normali, ossia troppo elevate, di acido cloridrico. Infatti la maggior parte dei farmaci per curare l’ulcera
gastrica sono antagonisti dell’ istamina che inibiscono la secrezione acida gastrica. Vi sono però anche
individui affetti da ulcera gastrica che non hanno concentrazioni elevate di acido cloridrico;
osservando questi casi si è visto che lo stress facilita l’ulcera gastrica sia incrementando la produzione di
acido cloridrico sia indebolendo le difese del tratto gastrointestinale. Tali difese includono una
membrana mucosa che impedisce la penetrazione dell’acido cloridrico nella parete gastrointestinale e la
vascolarizzazione della membrana che rimuove ogni molecola di acido che riesce a passare la parete
gastrointestinale. Quando però si verifica un evento stressante e quindi c’è una attivazione del sistema
nervoso simpatico questo indebolisce le difese del tratto gastrointestinale nei confronti dell’acido
cloridrico richiamando il sangue dal tratto gastrointestinale verso i muscoli scheletrici e quindi
diminuendo l’efficienza della barriera della mucosa. Pertanto la reazione del sistema parasimpatico che è
conseguenza dello stress aumenta la secrezione dell’acido cloridrico. Si è visto che è fondamentalmente
l’amigdala ad avere un ruolo di influenza nel rilascio di acido cloridrico e nella riduzione di livello ematico
nella mucosa gastrica. Dal punto di vista psicosomatico la sequenza che porta all’ulcera gastrica è la
seguente: lo stress attiva l’amigdala che determina l’aumento di rilascio dell’acido cloridrico e
diminuzione del livello ematico nella mucosa gastrica che porta all’ulcera gastrica. Alcuni studi che hanno
scoperto che l’ulcera gastrica è provocata da batteri hanno messo in discussione la concezione che
l’ulcera gastrica sia un disturbo psicosomatico. Si è visto che tali batteri, chiamati helicobacter pylori,
sono responsabili di tutti i casi di ulcera tranne che di quelli provocati da sostanze antinfiammatorie non
steroidee come l’aspirina. Ciò escluderebbe lo stress come causa dell’ulcera ma ulteriori studi hanno
dimostrato che nonostante l’infezione da helicobacter pylori danneggi le pareti dello stomaco e
nonostante il trattamento antibiotico dell’ulcera sia una terapia efficace, tale infezione da sola non è
sufficiente a provocare il disturbo in molti soggetti. In molti pazienti affetti da ulcera le condizioni
migliorano anche a seguito di terapie psicologiche e questo senza ridurre le infezioni da helicobacter
pylori. Pertanto deve esistere un altro fattore che aumenta la vulnerabilità delle pareti dello stomaco, e
questo fattore sembra essere lo stress. Le interazioni tra fattori psicologici, sistema nervoso e sistema
immunitario, sono state studiate nell’ambito della psiconeuroimmunologia che attraverso ricerche su
cavie e studi correlaionali sull’essere umano, ha evidenziato come lo stress possa ridurre la resistenza di
un individuo alle infezioni, disturbi che fino ad allora erano stati considerati solo fisici, ossia possa
ridurre sia l’ immunità cellulo-mediata che quella anticorpale. Le basi fisiologiche sono le seguenti : lo
stress determina una attivazione del sistema nervoso simpatico (attività nervosa) e del sistema
adenoipofisario (attività ormonale) che induce una depressione immunitaria. Il sistema immunitario
impedisce che il corpo venga invaso dai microrganismi che sono presenti generalmente nel corpo stesso e
che riescono a proliferare perché trovano un clima adeguato che abbia cioè una certa temperatura e un
80
certo livello nutritivo. Il sistema immunitario come prima cosa deve poter distinguere le cellule estranee
da quelle del corpo. Questa funzione essenziale nelle reazioni immunitarie specifiche è svolta dagli
antigeni, ossia molecole proteiche poste sulla superficie di una cellula che la identificano come estranea o
propria dell’organismo. Le barriere del sistema immunitario contro le infezioni sono di due tipi : barriere
non specifiche, come le membrane mucose e i fagociti (cellule specializzate nella distruzione degli
organismi estranei e dei prodotti di scarto), che agiscono in modo generale contro la maggior parte
degli organismi estranei, barriere specifiche che agiscono in modo selettivo contro alcune famiglie
particolari di microrganismi invasori. Possono essere di due tipi, cellulo-mediata e anticorpale, ciascuna
delle quali è difesa da una diversa categoria di linfociti che sono globuli bianchi specializzati del sangue
che vengono prodotti nel midollo osseo e che sono immagazzinati nel sistema linfatico. L’immunità
cellulo-mediata dipende dai linfociti T, quella anticorpale dipende dai linfociti B. Le reazioni immunitarie
cellulo-mediate si hanno quando un macrofago, ossia un grande fagocita, ingloba un microrganismo
estraneo. Il macrofago espone gli antigeni di questo microrganismo sulla superficie della sua membrana
cellulare e quindi attira i linfociti T. I linfociti T possiedono due tipi di recettori sulla loro superficie, uno
per le molecole che si trovano normalmente sulla superficie dei macrofagi e degli altri corpi cellulari e un
altro per un antigene specifico estraneo. Sui linfociti T esistono milioni di recettori diversi per gli antigeni
estranei ma ne esiste uno solo su ogni tipo di cellula T ed esistono solo poche cellule T per ogni tipo di
recettore. Dopo la fagocitosi del microrganismo e dell’esposizione del suo corredo antigenico una cellula
T provvista di un recettore per l’antigene estraneo, si lega alla superficie del macrofago infetto dando
inizio ad una serie di reazioni. Tra queste vi è la moltiplicazione della cellula T legata che crea numerose
altre cellule T dotate del recettore specifico necessario alla distruzione di tutti i microrganismi estranei e
di tutti i corpi cellulari infettati dagli estranei. Vengono inoltre prodotte delle cellule T di lunga durata che
sono i linfociti T della memoria che rendono il sistema immunitario in grado di reagire più rapidamente a
quello stesso antigene se dovesse introdursi di nuovo nell’organismo. Invece la reazione immunitaria
anticorpale comincia quando una cellula B si lega a un antigene estraneo per il quale possiede un
recettore specifico. Ciò provoca una moltiplicazione delle cellule B e la sintesi di una forma letale delle
sue molecole recettoriali, dette anticorpi, che vengono rilasciate nel liquido intracellulare dove si legano
agli antigeni estranei e distruggono o disattivano i microrganismi estranei. Durante questo processo
vengono prodotte anche cellule B di memoria per l’antigene specifico che hanno una vita lunga ed
accelerano l’immunità anticorpale se in seguito si verifica una infezione ad opera dello stesso
microrganismo. La prima volta in cui un antigene estraneo viene riconosciuto entrambi i processi durano
per molti giorni ma le risposte immunitarie ad una successiva invasione di microrganismi con lo stesso
antigene sono molto più veloci grazie alle cellule T e B di memoria. Questo è il motivo per cui spesso la
vaccinazione (l’iniezione di un piccolo campione di un microrganismo infettivo in individui sani) è una
misura preventiva efficace contro gli effetti di un’ulteriore infezione. Sono stati effettuati molti studi,
alcuni dei quali basati su una meta analisi di Segerstrom e Miller cioè uno studio che analizza e correla i
risultati di un gruppo di studi già pubblicati, per verificare la relazione fra stress e difese immunitarie e si
è visto che fattori stressanti acuti brevi, che durano per esempio meno di 100 minuti come il fatto di
parlare in pubblico o le competizioni atletiche in realtà provocano un miglioramento della funzione
immunitaria; gli agenti stressanti cronici come l’isolamento sociale, la sovrappopolazione, la separazione
da un genitore, la deprivazione di sonno, il divorzio, curare una persona affetta da una malattia grave,
l’esame finale di un percorso formativo, e in particolare il lutto sono gli eventi stressanti che
maggiormente determinano quelle reazioni di attivazione nervosa e ormonale che possono determinare
una depressione delle reazioni immunitarie determinando una maggiore suscettibilità alle infezioni. Ci
sono però alcune situazioni in cui l’indebolimento del sistema immunitario può non provocare un
aumento delle infezioni : il sistema immunitario infatti ha molte componenti ridondanti per cui la
compromissione di una di esse ha effetto scarso o nullo sulla vulnerabilità alle infezioni, inoltre nei
giovani di buona salute i cambiamenti prodotti dallo stress nella funzione immunitaria possono essere
81
troppo brevi per avere effetti su una probabilità di infezione, infine il declino di alcuni aspetti della
funzione immunitaria può indurre un aumento compensatorio di altri. L’esperienza precoce allo stress,
che comincia anche prima della nascita e che viene chiamato stress prenatale, può avere molti effetti
negativi sullo sviluppo. Per esempio bambini sottoposti a maltrattamenti o ad altre forme di stress grave
manifestano una serie di anomalie al cervello ed al sistema endocrino. Lo stress precoce aumenta
l’intensità delle risposte allo stress e presumibilmente amplifica gli effetti negativi degli agenti stressanti.
Si pensa inoltre che la comparsa di alcuni disturbi psichiatrici dipenda dall’interazione tra
predisposizione genetica al disturbo ed esperienza precoce ad una forma grave di stress. Alcuni studi
hanno evidenziato che la carenza di cure materne ha effetti negativi duraturi sulle risposte allo stress
della prole. La ricerca sugli effetti negativi dello stress sul cervello è agli inizi ma alcuni risultati
suggeriscono che l’ippocampo sia coinvolto in questi effetti. La ragione di questo coinvolgimento sembra
essere l’alta concentrazione di dei recettori di glucocorticoidi nell’ippocampo.
Gli studi sui meccanismi cerebrali dell’emozione negli esseri umani sono di due tipi : studi
neuropsicologici dei cambiamenti emotivi nei pazienti con lesioni al cervello, e gli studi di visualizzazione
funzionale del cervello. Anche se tali studi sono all’inizio bisogna notare come risulti sempre il
coinvolgimento dell’amigdala e della corteccia prefrontale nelle emozioni. Va anche detto comunque che
sembra che particolari strutture del cervello siano coinvolte solo in alcune emozioni, ad esempio
l’amigdala pare si coinvolta particolarmente nell’emozione della paura e in altre emozioni negative. Ad
esempio la malattia di Urbach-Wiethe è un disturbo genetico che deriva dalla calcificazione dell’amigdala
e di altre strutture della parte mediale del lobo temporale. I pazienti affetti da questa malattia non hanno
la capacità di riconoscere l’espressione facciale della paura, di descrivere situazioni che provocano paura
o disegnare espressioni di paura. Anche se la ricerca recente si è focalizzata sul ruolo dell’amigdala nel
riconoscimento di espressioni facciali negative, soggetti con danno all’amigdala hanno anche difficoltà a
riconoscere altri stimoli (forme, paesaggi) soprattutto quelli che dicono di amare meno. Anche la
corteccia prefrontale è coinvolta nelle emozioni. La RMF indica per esempio che le emozioni negative
producono una forte attivazione mediale prefrontale, mentre emozioni positive producono una forte
attivazione laterale prefrontale. Nell’ambito degli studi sulla lateralizzazione cerebrale delle emozioni, vi
sono dati che evidenziano una dominanza dell’emisfero destro nella percezione dell’emozione, sia per
quanto riguarda l’espressione facciale che la prosodia (tono emotivo della voce). Ciò tuttavia non significa
che l’emisfero sinistro non sia affatto coinvolto. Tale dominanza sembra essere suggerita anche dal fatto
che le emozioni sembrano comparire prima e con maggiore intensità sul lato sinistro del viso che è
controllato dall’emisfero destro. Bisogna comunque sottolineare che vi sono differenze individuali
nell’organizzazione dei meccanismi nervosi dell’emozione.
Sonno e sogni
Il sonno viene definito come stato di riposo opposto alla veglia. Non significa però che il sonno sia uno
stato di totale inattività ma si tratta di un processo fisiologico attiva che coinvolge l’interazione di
strutture multiple del SNC e SNA. Le tre misurazioni psico-fisiologiche standard per definire gli stadi del
sonno e per evidenziare la loro regolarità o meno sono l’elettrooculogramma, cioè la misurazione dei
movimenti oculari, l’elettroencefalogramma, cioè la misurazione dell’ attività neurale, e
l’elettromiogramma, cioè la misurazione dell’attività muscolare ( contrazione e rilassamento). La prima
notte in un laboratorio è spesso caratterizzata da variabilità e i disturbi del sonno ch si osservano durante
la prima notte vengono denominati effetto prima notte. Il sonno sulla base di queste misurazioni viene
diviso in 4 stadi : quando il soggetto chiude gli occhi prima di addormentarsi si ha un tracciato EEG con
onde a bassa ampiezza e ad alta frequenza tipiche della veglia attiva che però comincia ad essere
interrotto da onde alpha che sono onde lente, con ampiezza elevata e frequenza bassa. Quando il
soggetto comincia ad addormentarsi si ha il passaggio allo stadio 1 che presenta ancora onde alpha
piccole e frequenti; nel passaggio dallo stadio 1 allo stadio 2 si hanno onde più ampie e meno frequenti e
82
la comparsa dei cosiddetti complessi K, che sono formati da una singola ampia onda negativa, ovvero una
deflessione verso l’altro, seguita da una singola ampia onda positiva, ovvero una deflessione verso il
basso; gruppi di onde intermittenti che durano 1 o 2 secondi sono chiamati fusi del sonno.
Successivamente vi è il passaggio allo stadio 3 che corrisponde ad un tracciato EEG caratterizzato da onde
ampie e lente, onde delta, che costituiscono dal 20 al 50 % del tracciato EEG. Lo stadio successivo è lo
stadio 4 che è caratterizzato da onde delta che costituiscono più del 50% del tracciato EEG. Dopo la stadio
4, nel quale rimane per un certo periodo, il soggetto sembra tornare allo stadio 1 anche se questa volta
tale stadio è molto diverso da quello iniziale. Si può distinguere quindi uno stadio 1 iniziale, che non è
caratterizzato da alcuna attività elettrooculografica o elettromiografia di rilievo, e uno stadio 1
emergente caratterizzato invece da attività REM e perdita del tono muscolare. Per attività REM durante il
sonno si intende quell’attività caratterizzata da rapidi movimenti degli occhi sotto le palpebre chiuse.
Ogni ciclo completo di sonno va dal 1 stadio iniziale al 1 stadio emergente e dura in media circa 90
minuti, e una normale notte di sonno presenta circa 5 cicli completi di sonno. Con il progredire dello stato
di sonno sempre più tempo è impiegato nello stadio 1 emergente rispetto agli altri stadi., in particolare 4
e 3; durante il sonno possono anche presentarsi brevi stati di veglia che al mattino difficilmente sono
però ricordati. Il sonno associato allo stadio 1 emergente è chiamato sonno REM, ma anche sonno
paradosso o desincronizzato o attivo. Questo perché, nonostante il corpo sia addormentato, ci sono però
delle misure elettroencefalografiche e elettrofisiologiche che rivelano tratti di attività tipica della veglia in
concomitanza con i rapidi movimenti oculari, un incremento del flusso ematico, un incremento del
consumo di ossigeno cerebrale legato al fatto che il cervello è attivo, un incremento della pressione
sanguigna e del ritmo respiratorio, una irregolarità del battito cardiaco, l’erezione del pene nell’uomo e
del clitoride nella donna. Mentre gli altri stadi del sonno sono definiti sonno NonREM, o sincronizzato o a
onde lente delta. Si è verificata una correlazione fra le fasi REM e NREM del sonno ed la presenza dei
sogni. L’80% dei soggetti che vengono svegliati durante la fase REM ricordano il sogno. Questo loro
ricordo viene definito dreaming report perché i soggetti ricordano un sogno vivace a carattere
allucinatorio, drammatizzato, con coinvolgimento emotivo-affettivo e distorsioni spazio temporali,
quindi eventi che si realizzano in contesti diversi da quelli che ci si aspetterebbe, vengono quindi riferiti
contenuti tipicamente onirici cioè contenuti tipici dell’attività di sogno. Se invece i soggetti vengono
svegliati nella fase del sonno NREM il 7% ricorda un sogno che in questo caso viene chiamato thinking
report in quanto perché il sogno viene ricordato sotto forma di evento astratto e legato ad episodi di
vita quotidiana. Freud credeva che i sogni fossero scatenati da desideri inaccettabili repressi, l’alternativa
moderna a questa teoria è la teoria dell’attivazione-sintesi di Hobson che si basa sull’osservazione che
durante i periodi di sonno REM molti circuiti del tronco cerebrale si attivano e bombardano la corteccia
cerebrale con segnali nervosi. Il fulcro di questa teoria è che l’informazione che giunge alla corteccia
durante il sonno REM è in gran parte causale e che i sogni sarebbero il risultato dello sforzo della
corteccia di dare un senso a questi segnali causali. Secondo questa teoria chi sogna aggiunge qualcosa di
se alla confusione dei segnali nervosi per creare una storia coerente e non perché vi sia un doloroso
messaggio nascosto. Esistono anche dei sogni detti sogni lucidi in cui la distinzione fra sogno e realtà e
meno netta di quanto lo sia in genere. Sembrerebbe che durante questi sogni colui che sogna è
consapevole che sta sognando e può influenzare il corso del sogno. Diverse ricerche sull’attività onirica
hanno permesso di focalizzare diverse caratteristiche: ad esempio che sensazioni provocate da stimoli
esterni sono incorporate nel sogno (es. dell’acqua), che i sogni si svolgono in tempo reale anche se
sembra durare molto poco, che vi sono persone che dicono di non sognare mai, persone not recorders,
ma in realtà tutti sognano solo che alcuni non riescono a ricordare i sogni e a raccontarli, ciò che
sperimentano sono le cosiddette esperienze ipnopompiche simile al thinking report ed hanno la stessa
quantità di attività REM di coloro che sognano, e che il sonnambulismo ed il parlare nel sonno
(sonniloquio) non sono necessariamente legati al contenuto del sogno tant’è che si verificano meno
frequentemente nel sonno REM e più nello stadio 4. Altre ricerche hanno invece provato a sviluppare
83
teorie sulla funzione del sonno a livello biologico. Le teorie sono due : la teoria ristorativa e la teoria
circadiana. La teoria ristorativa del sonno si basa sul fatto che le attività svolte nel periodo di veglia
determinano uno squilibrio dell’omeostasi (stabilità fisiologica interna) del corpo e che il sonno ne
consente il recupero. La teoria circadiana sostiene che il sonno non sia una reazione agli effetti
disturbanti dello stato di veglia ma è regolato da un meccanismo neurale interno che fa dormire il
soggetto nei periodi in cui non è impegnato in attività fondamentali per la sopravvivenza. Si ipotizza
quindi l’esistenza di un orologio interno biologico che spinge a dormire in determinate ore per
conservare energia ed evitare incidenti quando l’organismo è al di sotto del livello di risorse energetiche
necessarie e si è più vulnerabili. Entrambi le teorie hanno dovuto affrontare l’esigenza di spiegare le
differenze nella quantità di sonno fra le varie specie, si passa ad esempio dalle 20 ore di sonno del
bradipo gigante, alle 8 ore dell’uomo, del maiale o del coniglio, alle due ore del daino o del cavallo. E
quindi sono state sviluppate diverse ricerche, in particolare sui cicli circadiani e sulla deprivazione del
sonno, per cercare di capire se il sonno ha una funzione circadiana o ristorativa. Per quanto riguarda lo
studio dei cicli circadiani del sonno viene osservato che nel nostro habitat naturale c’è una oscillazione
continua tra luce e buio con un ciclo di 24 ore. La maggior parte degli esseri viventi si sono adattati a
questo cambiamento regolare del loro ambiente sviluppando una varietà di ritmi circadiani, cioè che
durano circa 1 giorno, ad esempio molte specie mostrano un regolare ciclo sonno-veglia : gli uomini
sfruttano il giorno per soddisfare i loro bisogni biologici e dormono la notte, gli animali notturni invece
come i ratti dormono quasi tutto il giorno e stanno svegli la notte. L’analisi comparata del sonno ha
permesso di trarre alcune conclusioni interessanti : il fatto che tutti i mammiferi e gli uccelli dormano
suggerisce che il sonno abbia altre funzioni oltre quella di proteggere gli animali da incidenti e di
conservare l’energia e che non sia una prerogativa dell’uomo; il fatto che per quanto essenziale alla
sopravvivenza il sonno non è obbligatoriamente necessario in grandi quantità; il fatto che non sembrano
esserci correlazioni tra il periodo di sonno di una specie e il suo livello di attività, le dimensioni del corpo
e la temperatura corporea. La maggior parte dei processi fisiologici, comportamentali o biochimici hanno
tutti una qualche ritmicità circadiana, quindi tutti gli organismi cercano di adeguarsi in modi diversi per
soddisfare le richieste dell’ambiente in condizioni di luce e buio. Tuttavia il fatto che ci siano dei cicli
sonno-veglia regolari non è di per se una prova del fatto che ci sia un orologio interno fisiologico che
regoli questo ciclo. Sonno e veglia secondo alcuni potrebbero essere regolati da stimoli ambientali come
l’alba e il tramonto, o l’ora di assunzione dei pasti. A tal fine i ricercatori hanno studiati animali che
vivono in condizioni costanti isolati da stimoli ambientali, come uomini che vivono in grotte sotterranee o
in laboratori isolati acusticamente o privi di finestre. I soggetti sperimentali in queste condizioni di
isolamento, quindi privi di inizi temporali, mantengono tutti i loro i ritmi circadiani. Tali ritmi in ambienti
costanti sono detti ritmi free running e la loro durata viene definita periodo free running. I periodi free
running hanno 3 caratteristiche importanti : 1) hanno lunghezza variabile da soggetto a soggetto
all’interno di una data specie; 2) hanno durata relativamente costante in ogni dato soggetto, 3) sono
normalmente più lunghi di 24 ore - 25 ore nella maggior parte degli uomini. Ciò che sembra evidenziarsi
quindi è che tutti gli uomini abbiano tutti un orologio biologico interno che va più lentamente quando
non è trascinato o sincronizzato da indicatori temporali forniti dall’ambiente. I nostri cicli circadiani
mantengono il loro ciclo di 24 ore grazie ad alcuni elementi ambientali. Gli indicatori ambientali che in
qualche modo riescono a controllare la temporizzazione, cioè a sincronizzare (trascinare) i ritmi
circadiani sono chiamati Zeitgebers (Zaitghebers) che in tedesco significa “che dà il tempo”. Un esempio
di Zeitgeber può essere quindi dato dalla luce. La caratteristica più importante dei cicli circadiani free
running è che sono endogeni. Osservando ad esempio il ciclo circadiano sonno veglia possiamo vedere
che la relazione fra la durata di un periodo di sonno e la durata di un periodo di veglia precedente
presenta una correlazione negativa anche in condizioni free running, quindi quando un soggetto rimane
sveglio più a lungo del solito la durata del sonno successivo tende a d essere più breve. Sembrerebbe
quindi che gli individui siano programmati per avere cicli sonno veglia di una certa lunghezza. Ciò è
84
contrario però alla teoria ristorativa secondo cui un prolungato ritmo di veglia altera l’omeostasi e quindi
richiede un sonno più prolungato. In condizioni naturali quando c’è una varietà di riferimenti temporali
esterni elevata per indicare le ore del giorno i ritmi circadiani delle varie funzioni biologiche hanno una
durata di 24 ore. La maggior parte dei soggetti dorme durante la fase discendente del ciclo circadiano
della temperatura corporea e si sveglia durante la fase ascendente. Questo suggerisce l’esistenza di una
connessione causale tra il ciclo sonno veglia e il ciclo della temperatura corporea. Tuttavia quando i
soggetti si trovano i un ambiente costante i due cicli possono anche dissociarsi, cioè svilupparsi a
velocità diverse, e quindi i due cicli perdono questa loro correlazione chiamata relazione di fase. Questo
fenomeno viene detto anche desincronizzazione interna. Il fenomeno della desincronizzazione fa
pensare che ci siano oscillazioni biologiche circadiane diverse per i diversi cicli circadiani legati a
differenti funzioni biologiche. Nelle città industrializzate per il tipo di ritmo di vita che viene sostenuto
sono state individuate due fonti di desincronizzazione delle ritmicità circadiane : una è il jet lag, o
sfasamento da volo transmeridiano, in cui gli indicatori di tempo o Zeitgebers che controllano le fasi di
diversi ritmi circadiani sono accelerati dopo i voli verso oriente (avanzamento di fase) o decelerati dopo
voli verso occidente (ritardo di fase), e l’altra sono i turni di lavoro in cui gli indicatori del tempo
rimangono invariati ma gli operai sono costretti a modificare il loro naturale ciclo sonno veglia in modo
da potersi adattare a orari di lavoro che cambiano. Entrambe queste condizioni producono disturbi del
sonno, fatica, malessere generale e deficit riscontrabili in test fisici e cognitivi. Il disturbo può durare
diversi giorni: ad esempio ci vogliono di solito 10 giorni per riadattarsi completamente dopo un volo
Tokyo-Boston (avanzamento di fuso di circa 10 ore e mezza). E’ più difficile adattarsi ad un avanzamento
di fase piuttosto che a un ritardo di fase, è anche più difficile riadattarsi dopo voli diretti verso est e
cambiamenti nei turni di lavoro che richiedono un anticipo di fase. Sono stati proposti diversi approcci
per ridurre i disturbi provocati da jet lag e turni di lavoro. Nel primo caso sono stati proposti due
approcci; Uno consiste nello spostare gradualmente il proprio ciclo di sonno veglia nei giorni precedenti
il volo, mentre l’altro si basa sull’applicazione di alcuni trattamenti da seguire dopo il volo per agevolare
lo spostamento del ritmo circadiano, ad esempio l’esposizione ad una luce intensa durante la mattina
presto dopo voli verso est o l’assunzione di benzodiazepine si sono dimostrati utili nell’anticipo del
ciclo sonno veglia se vengono somministrate appena prima del periodo di sonno oppure possono
ritardarlo se la loro somministrazione avviene subito dopo il sonno. Nell’ambito delle teorie della
ristorazione e dei ritmi circadiani sono stati studiati anche gli effetti della deprivazione di sonno. Dal
momento che le teorie ristorative si basano sull’ipotesi che il sonno sia una risposta agli effetti debilitanti
della veglia esse ipotizzano che prolungati periodi di veglia dovrebbero produrre rilevanti disturbi
fisiologici e comportamentali, che questi disturbi peggioreranno con l’aumento della deprivazione di
sonno e che dopo la fine del periodo di deprivazione verrà recuperata gran parte del sonno perso. Invece
secondo la teoria circadiana la deprivazione di sonno non ha effetti particolarmente debilitanti ma causa
un incremento della tendenza a dormire, che sarà maggiore in quelle fasi di ciclo circadiano in cui il
soggetto dorme e ci dovrebbe essere una scarsa o addirittura assente compensazione per la perdita di
sonno dopo il periodo di deprivazione. La maggior parte delle ricerche fatte confermano la teoria
circadiana. Un soggetto che per stabilire un record si sottopose alla deprivazione di sonno andò a dormire
264 ore e 12 minuti dopo la fine della sua ultima notte di sonno e si osservò che dopo 11 giorni di veglia
la prima notte dormi solo 14 ore per tornare nei giorni successivi alle sue normali 8 ore di sonno. Lo
stress e l’alterazione dei ritmi circadiani potrebbero contribuire o essere comunque responsabili di molti
effetti nocivi comunemente attribuiti alla mancanza di sonno. Osservando gli studi che prendono in
considerazione le misure elettrofisiologiche standard, come battito cardiaco, pressione sanguigna ecc..
hanno portato ad evidenziare che ci sono scarse prove sul fatto che la deprivazione di sonno anche per
periodi che sperano le 200 ore produca alterazioni fisiologiche marcate. Un’altra aspettativa che si
potrebbe avere in relazione alla deprivazione di sonno è che le abilità cognitive complesse degli esseri
umani possano essere sensibili alla deprivazione : si è visto ad esempio che dopo una deprivazione di
85
sonno i test sulle capacità mentali più semplici specie quelli che richiedono attenzione continua danno
cattivi risultati, mentre test che prevedono prove di ragionamento astratto, logico o su relazioni spaziali
non mostrano deficit. Tuttavia si è detto che il soggetto tende ad avere periodi di predisposizione
all’addormentamento, infatti dopo 2-3 giorni di deprivazione di sonno si avranno i cosiddetti micro sonni,
periodi di 2-3 secondi durante i quali le palpebre si abbassano e i soggetti diventano meno reattivi agli
stimoli esterni anche se restano seduti o addirittura in piedi. I micro sonni compromettono le prestazioni
nei test passivi come test di vigilanza ma non sono necessariamente associati a basse prestazioni. Alcuni
studi di laboratorio sono stati condotti utilizzando apparati a dischi rotanti per deprivare di sonno dei
ratti; questi studi suggeriscono che questa deprivazione potrebbe non comportare conseguenze cosi lievi
come evidenziavano ricerche su soggetti umani. In questo esperimento due ratti , uno sperimentale e uno
di controllo, venivano posti in due stanze separate di questo apparato e ogni volta che l’attività
elettroencefalografica del ratto sperimentale evidenziava che questo stava dormendo il disco che
fungeva da pavimento per entrambi gli scompartimenti iniziava a ruotare lentamente facendo cadere in
una vasca d’acqua sottostante il ratto sperimentale che dormiva se questo non aveva la prontezza di
svegliarsi subito. Il ratto di controllo è nelle stesse condizioni ma se non sta dormendo può evitare il tuffo
camminando nella direzione opposta a quella di rotazione del disco, mentre i ratti sperimentali non
riuscivano ad avere questa prontezza nella gestione della situazione e quindi morirono dopo alcuni giorni
mentre invece i ratti di controllo continuavano a stare abbastanza bene. Tuttavia la morte dei ratti
sperimentali potrebbe comunque non essere un effetto della deprivazione di sonno bensì dallo stress e
dai danni fisici riportati durante l’esperimento. Quindi sicuramente è una ricerca che contrasta con l’
affermazione che la deprivazione di sonno non comporta pericolo per il soggetto, soprattutto in relazione
alla sua reattività agli stimoli ambientali come si evidenzia ad esempio nell’essere umano in caso di
incidenti automobilistici dovuti a stanchezza marcata. Tuttavia ricerche sull’essere umano hanno dato
quasi sempre almeno in termini di parametri elettrofisiologici e in termini di risultato a test di
performance dei risultati differenti. E’ stata studiata anche la deprivazione selettiva di sonno attraverso
esperimenti in cui si consentiva ai soggetti di dormire quanto volevano ma che venivano sottoposti a
deprivazione di sonno solo in uno stadio di sonno particolare. Nella maggior parte degli esperimenti
questo stadio corrispondeva alla fase REM, una fase che ha destato molto interesse per il suo aspetto
paradossale e per la collocazione in questa fase dell’ attività onirica. Vi sono 3 teorie per quanto riguarda
la deprivazione di sonno nella fase REM : una teoria è quella che ipotizza che il sonno REM sia necessario
per il mantenimento della salute mentale dell’essere umano, un’altra teoria ipotizza che il sonno REM sia
necessario per mantenere adeguati livelli di motivazione e un’altra che ipotizza che il sonno REM sia
necessario per l’elaborazione dei ricordi . La deprivazione di sonno REM ha 2 effetti stabili: il primo è che
se un soggetto viene deprivato di sonno REM ad ogni notte successiva ci sarà una maggiore tendenza del
soggetto ad entrare in fase REM, il secondo invece è che dopo le prime due o tre notti dopo la fine della
deprivazione vi è una sorta di effetto rimbalzo cioè i soggetti trascorrono più tempo del solito in sonno
REM. Non hanno però ricevuto conferma le ipotesi secondo cui la deprivazione di sonno REM causerebbe
disturbi della personalità, motivazionali e di memoria. Sono stati osservati pazienti che assumono farmaci
antidepressivi triciclici : nonostante questi farmaci sopprimano il sonno REM, non sono stati riscontrati
effetti collaterali attribuibili alla perdita di sonno REM. Una teoria recente sul sonno REM, detta teoria per
difetto del sonno REM, si basa sull’assunzione che questo tipo di sonno non abbia alcuna funzione
fondamentale, ma in realtà poichè è difficile rimanere costantemente nel sonno NREM il cervello
periodicamente passa da uno stato all’altro. Se c’è un immediato bisogno fisiologico il cervello passa allo
stato di veglia altrimenti passa ad uno stato per difetto, ovvero il sonno REM. Una conferma indiretta di
questa teoria deriva dalle numerose analogie tra sonno REM e stato di veglia. Al fine di confermare la
teoria ristorativa o la teoria circadiana è stata formulata anche una ipotesi di integrazione del modello
ristorativo e di quello circadiano, quindi un modello di come i fattori circadiani e la lunghezza della veglia
possano interagire per determinare la propensione al sonno. Borbely è colui che ha proposto un modello
86
di regolazione del sonno che integra gli effetti dei fattori circadiani e di deprivazione del sonno. Viene
ipotizzato un fattore circadiano che assume la forma di una sinusoide con punta minima o bradi fase in
una determinata ora della giornata e punta massima o profase esattamente 12 ore dopo. Le variazioni
della sonnolenza provate dal soggetto sono funzioni della somma della sonnolenza regolata dal fattore
circadiano e sonnolenza dovuta al perdurare della veglia, considerando che questo soggetto doveva fare
una normale notte di sonno e poi essere sveglio per due giorni consecutivi. Uno dei risultati più
importanti della ricerca sulla deprivazione del sonno nell’uomo è che quando gli individui sono privati di
sonno hanno poi un sonno più efficace, in particolare il loro sonno ha una proporzione maggiore di sonno
ad onde lente delta, proprio delle fasi 3 e 4, che ha la funzione ristorativa principale. Questa ipotesi è
confermata da una serie di riscontri ad esempio il fatto che dopo un periodo di deprivazione il soggetto
recupera solo una piccola quantità del sonno perduto soprattutto dello stadio 4, che i soggetti a cui è
imposta una riduzione del tempo totale di sonno riducono soprattutto gli stadi 1 e 2 ma non il 3 e il 4,
quelli in cui prevalgono appunto le onde lente, dopo una deprivazione l’elettroencefalogramma del sonno
ad onde lente è caratterizzato da una proporzione persino maggiore del normale sonno ad onde lente,
che coloro che dormono poco di solito manifestano più sonno ad onde lente dei forti dormitori, che se i
soggetti fanno un sonnellino supplementare la mattina dopo una notte completa di sonno l’EEG durante il
sonnellino mostra una minore quantità di onde lente e non riduce la durata del sonno della notte
successiva, che i soggetti che si svegliano più volte durante il sonno REM non manifestano maggiore
sonnolenza durante il giorno successivo mentre i soggetti che si svegliano ripetutamente durante il sonno
ad onde lente manifestano maggiori effetti collaterali. Le conseguenze negative della mancanza di sonno
non indicano se i soggetti hanno veramente bisogno del sonno perduto, ma solo quando i soggetti
dormono con la massima efficacia è possibile determinare di quanto sonno hanno effettivamente bisogno.
Dal punto di vista psicobiologico dello studio del sonno è importante stabilire quali sono le basi
fisiologiche e neurochimiche del sonno. Tali basi sono state identificate nel sistema reticolare attivante,
nei nuclei del rafe, nella regione basale del proencefalo, nella formazione reticolare caudale e nei nuclei
soprachiasmatici. La prima scoperta importante sulle basi fisiologiche del sonno è stata effettuata da
Bremer il quale ipotizzò che il sonno fosse legato ad una mancanza di input sensoriali che arrivavano al
cervello. Egli tagliò il tronco encefalico di alcuni gatti tra i collicoli superiori e inferiori allo scopo di
separare il diencefalo dagli input sensoriali ascendenti. Questo preparato chirurgico fu detto
preparazione cerveau isolè (servò isolè) o cervello isolato. Osservando l’elettroencefalogramma corticale
del cervello isolato Bremer vide che indicava la presenza quasi continuativa di sonno. Solo quando
venivano somministrati stimoli visivi o olfattivi forti le onde lente di grossa ampiezza potevano essere
desincronizzate cioè diventavano onde di bassa ampiezza e alta frequenza. Questa attivazione però
durava solo poco oltre la somministrazione dello stimolo. Questa teoria formulata da Bremer fu detta
teoria passiva del sonno poiché non si basa sulla ipotesi di un meccanismo attivo di mediazione e
regolazione del sonno ma vede il sonno come conseguenza passiva del fatto che gli input sensoriali non
possono accedere al cervello. Successivamente venne formulata un’altra teoria che prevede invece un
meccanismo attivo di regolazione del sonno e che è il meccanismo di arousal della formazione
reticolare, cioè attribuisce un ruolo importante al sistema reticolare attivante. Questa teoria si basa su tre
scoperte : la prima deriva da uno studio in cui il preparato servò isolè venne sostituito dal preparato
encèphale isolè (ensefal isole) in cui il cervello fu separato dal resto del sistema nervoso attraverso una
sezione caudale del tronco encefalico quindi interrompeva le stesse fibre sensoriali che erano state
interrotte con il preparato cerveau isolè. Tale resezione non mostrò alcuna compromissione del ciclo
sonno veglia, suggerendo che la struttura in grado di mantenere la veglia era localizzata in una posizione
compresa fra le due sezioni. Inoltre si scoprì che la sezione parziale a livello del cerveau isolè alterava il
ciclo sonno veglia dell’EEG corticale solo quando il taglio interessava la formazione reticolare al centro
del tronco mentre invece aree più laterali non avevano effetti sull’EEG corticale. Infine si vide che
stimolando elettricamente la formazione reticolare il soggetto che dormiva si svegliava. Da ciò si propose
87
il ruolo del sistema reticolare attivante nella regolazione del sonno, cioè che bassi livelli di attività nella
formazione reticolare producono sonno, mentre alti livelli di attività producono veglia. Sulla base di
questa teoria sono state effettuate altre 3 scoperte importanti : il fatto che il sonno non è uno stato di
calma neurale nel senso che non c’è una totale inattività, che ci sono circuiti che promuovono il sonno nel
cervello che deriva da una riduzione dei livelli di attività di questi circuiti che hanno il ruolo primario di
mantenere lo stato di veglia, e che i diversi correlati del sonno sono dissociabili, ad esempio il sonno REM
e il sonno ad ode lente possono essere trattati separatamente e non come una condizione unitaria.
Successivamente la ricerca si è spinta ad individuare non solo quelle strutture cerebrali che mediano la
veglia e il sonno ma anche quelle strutture che mediano il sonno e i sogni. Queste strutture sono state
individuate nei nuclei del rafe, nella regione basale del proencefalo, la formazione caudale del tronco e i
nuclei sopraschiasmatici. I nuclei del rafe sono un gruppo di nuclei serotoninergici che si trovano in una
strisca caudale della formazione reticolare e che se vengono distrutti in una percentuale fra il 9 e l’80%
provocano insonnia totale per 3-4-giorni con un recupero parziale di circa 2 ore e mezzo caratterizzato
sempre da sonno a onde lente. Inoltre una singola iniezione di paraclorofenilalanina nei nuclei del rafe
blocca la sintesi di serotonina portando insonnia. Se questa iniezione viene effettuata ogni giorno sia il
sonno REM che il sonno ad onde lente tornano all’80% del livello normale anche se i livelli di serotonina
rimangono bassi. Per quanto riguarda la regione basale del proencefalo che si trova di fronte
all’ipotalamo, anche se è stata oggetto di ricerche minori, alcune di esse hanno mostrato che lesioni
bilaterali in quest’area portano ad una riduzione del tempo di sonno giornaliero, mentre una
stimolazione elettrica di quest’area porta ad una sincronizzazione dell’ EEG corticale con sonnolenza e
sonno. Il sonno REM sembra essere controllato da aree sparse nella formazione reticolare ognuna
responsabile del controllo di uno dei diversi indici che controllano il sonno REM, un sito per il controllo
del tono della muscolatura, un sito per il controllo dei movimenti oculari rapidi e cosi via. Gli studi dei
nuclei soprachiasmatici sono nati dall’osservazione del fatto persiste in assenza di segnali ambientali e
ciò indica che il sistema fisiologico che regola il sonno è controllato da un meccanismo di
temporizzazione interno, il cosiddetto orologio circadiano. Tale orologio circadiano endogeno è stato
individuato attraverso gli studi Richter i quali hanno messo in luce che ampie lesioni dell’ipotalamo
mediale compromettono i cicli circadiani del mangiare del bere e dell’attività. Successivamente fu
dimostrato che lesioni specifiche dei nuclei soprachiasmatici dell’ipotalamo mediale alteravano diversi
ritmi circadiani compresi quelli sonno veglia. Lesioni dei NSC non portano ad una riduzione della durata
totale del sonno ma ne alterano la ritmicità circadiana. Ciò suggerisce che vi sia più di un meccanismo di
regolazione circadiana nel cervello. L’interesse per questi nuclei è legato anche alla loro posizione
rispetto al chiasma ottico. Infatti l’interesse per il chiasma ottico e per gli occhi è legato al fatto che gli
occhi sono il punto di partenza per capire come il ciclo luce-buio di 24 ore può sincronizzare il ciclo
sonno veglia e gli altri cicli circadiani. Gli occhi sono infatti quegli organi di senso che ci permettono di
avere informazioni sulla luce e sul buio per inviarle all’orologio biologico. La recisione dei nervi ottici nel
punto in cui lasciano gli occhi elimina la capacità del ciclo luce-buio di trascinare i ritmi circadiani.
Quando invece i nervi sono recisi nel punto in cui lasciano il chiasma ottico questa capacità non viene
alterata. Da un esame accurato delle proiezioni del nervo ottico si sono scoperti due piccoli fasci di
neuroni visivi che lasciano il chiasma ottico e proiettano all’ipotalamo. Questi tratti detti
retino-ipotalamici terminano ai nuclei soprachiasmatici. Alcuni esperimenti hanno mostrato ratti
transgenici che mancano di coni e bastoncelli mostrano cicli circadiani ancora sincronizzati alla luce.
Queste scoperte suggeriscono che il SNC possa ottenere informazioni sulla luce e sul buio da altri
recettori. Recenti ricerche hanno rivelato che questi recettori sono neuroni con specifiche proprietà
funzionali che nel corso dell’evoluzione hanno sacrificato la loro capacità di rispondere immediatamente
a cambiamenti di illuminazione in favore della capacità di reagire a cambiamenti lenti di illuminazione
dello sfondo e di adattare le dimensioni pupillari a tali cambiamenti. Il loro foto pigmento si chiama
melanopsina. Nello studio della genetica dei ritmi circadiani importante fu anche la scoperta di geni
88
circadiani fra cui i primi ad essi identificati furono il gene tau e clock. In specie di tempi evolutivi diversi
si sono trovati gli stessi geni circadiani o almeno molto simili e inoltre l’identificazione dei geni circadiani
ha fornito un metodo più diretto per esplorare le capacità di temporizzazione circadiana di parti del
corpo diverse dal SNC. Diversi problemi legati al sonno hanno portato allo sviluppo di farmaci ipnotici, in
grado di aumentare il sonno, e anti ipnotici, in grado di ridurlo. Un’altra categoria di farmaci che
agiscono sul sonno comprende quelli che influenzano la ritmicità circadiana, fra cui il principale è la
melatonina. Per molto tempo come farmaci ipnotici sono stati prescritti i barbiturici che però avevano
molti effetti collaterali pericolosi. Tali farmaci sono stati sostituiti dalle benzodiazepine. A breve termine
essi aumentano la sonnolenza, diminuiscono il tempo per addormentarsi, riducono il numero dei risvegli
durante una notte di sonnoe aumentano il tempo totale di sonno. La loro prescrizione per il trattamento
cronico non è consigliata perché vi è un possibile sviluppo di tolleranza al loro effetto, perché
l’interruzione di una prolungata terapia con benzodiazepine produce insonnia, perchè il loro uso
prolungato produce dipendenza e perché disturbano il normale andamento del sonno (aumentano la fase
2 ma riducono la fase 3, 4 e del sonno REM. La possibilità di utilizzare farmaci serotoninergici per uso
ipnotico fu permessa dalla teoria secondo cui i nuclei del rafe che sono serotoninergici promuovono il
sonno. Per quanto riguarda i farmaci antipnotici vi sono due classi : gli stimolanti (x es. cocainea e
anfetamina) e gli antidepressivi triciclici. Tali farmaci riducono il sonno incrementando l’attività delle
catecolamine (noradrenalina, adrenalina e dopamina) aumentandone la secrezione o inibendone
l’assorbimento a livello sinaptico. Questi farmaci possono sopprimere il sonno REM anche con dosi che
hanno un effetto minimo sulla durata del sonno. L’uso di farmaci stimolanti produce comunque una forte
dipendenza e una varietà di effetti collaterali come la perdita di appetito, e possono interferire con il
sonno normale se non sono assunti in dosi corrette. La melatonina invece è un ormone sintetizzato dalla
serotonina nella ghiandola pineale situata nella parte posteriore del corpo calloso. E’ stato dimostrato che
la melatonina esogena ha un ruolo nella terapia di due tipi di disturbi del sonno : la somministrazione di
melatonina prima di coricarsi migliora il sonno di chi soffre di insonnia e ha carenze di melatonina
endogena e dei pazienti ciechi che hanno problemi di sonno docuti alla mancanza degli effetti
sincronizzati del ciclo luce-buio. Gli studi sui farmaci antipnotici hanno riavviato anche gli studi sulle
sostanze chimiche endogene che inducono sonno e che sono chiamati appunto fattori endogeni del sonno.
Sono state isolate due sostanze nell’ambito di questi studi : il fattore S, estratto da animali deprivati di
sonno, e il DSIP peptide ipno inducente delta, estratto da animali durante il sonno, e si è visto che
iniezioni di queste sostanze inducono il sonno in numerose specie. Per quanto riguarda i disturbi del
sonno, molti di essi sono stati definiti iatrogeni, cioè causati dal medico, ad esempio se vengono prescritti
dei farmaci per trattare l’insonnia e questi farmaci portano inizialmente un effettivo incremento del
sonno può accadere che il paziente sviluppi assuefazione, a causa della quale il paziente può avere
difficoltà a smettere di assumere questo farmaco e arrivare addirittura ad avere crisi di astinenza. Poiché
il principale effetto della crisi di astinenza è appunto l’insonnia si riproduce il sintomo per cui il farmaco
era stato prescritto. Questi disturbi possono essere classificati in due categorie complementari :
l’insonnia, che comprende i disturbi dell’addormentamento e del mantenimento del sonno, e
l’ipersonnia, che include i disturbi in cui vi è tendenza a dormire troppo o eccessiva sonnolenza. Un terzo
gruppo di disturbi include quelli legati al sonno REM. Fra i disturbi legati all’insonnia abbiamo l’apnea del
sonno durante la quale il paziente smette di respirare molte volte durante ogni notte, può avere collasso
o spasmi dei muscoli della gola e l’inspirazione viene bloccata per 500 volte a notte. Ogni volta il paziente
si sveglia ricomincia a respirare e si rimette a dormire con la conseguente sensazione di aver dormito
molto male e poco e quindi può inizialmente essere diagnosticata come insonnia. Ma può essere anche
diagnosticata come ipersonnia perché i pazienti, inconsapevoli dei continui risvegli, lamentano una
eccessiva sonnolenza diurna. Le apnee del sonno possono essere di due tipi : quelle che derivano da una
ostruzione delle vie respiratorie dovuta allo spasmo muscolare o assenza di tono muscolare, e quelle che
derivano da uno scorretto funzionamento dei centri del SNC deputati alla stimolazione del respiro. Si
89
ritiene che questo disturbo possa essere causa di morti infantili. Altri tipi di disturbo legati all’ insonnia,
che coinvolgono entrambi le gambe, sono il mioclòno notturno e la sindrome delle gambe senza riposo.
Il mioclono notturno è una periodica contrazione spasmodica dei muscoli durante il sonno localizzata
principalmente alle gambe; i pazienti di solito sono ignari di questo disturbo e lamentano spesso di aver
dormito male e di avere sonnolenza diurna. La sindrome delle gambe senza riposo presenta una tensione
o dei fastidi alle gambe che il paziente, consapevole, ha difficoltà a descrivere e che non gli consentono di
dormire. Per trattare questi disturbi in genere sono prescritte le benzodiazepine per il loro effetto
ipnotico, ansiolitico, miorilassante e anticonvulsivante anche se la loro azione raramente è efficace. Molte
persone che soffrono di insonnia in realtà dormono più di quanto sembra loro di dormire. Queste persone
riferiscono infatti di impiegare circa un’ora per addormentarsi e di dormire più o meno 4 ore e mezzo a
notte , invece registrando in laboratorio le loro notti di sonno si è visto che il tempo di addormentamento
era di 15 minuti circa e che la durata media del loro sonno era di circa 6 ore e mezza per notte. L’insonnia
in realtà non è necessariamente dovuta al dormire poco ma al troppo poco sonno tranquillo a causa per
esempio di mioclono o apnea del sonno. Uno dei più efficaci trattamenti dell’insonnia è la terapia di
limitazione del sonno, che consiste inizialmente nel ridurre il tempo trascorso a letto da parte di colui che
soffre di insonnia dopodiché, dopo un periodo di limitazione del sonno, si aumenta gradualmente il
tempo trascorso a letto in piccole quantità fin quando la latenza di inizio del sonno non raggiunge la
media. Per quanto riguarda i disturbi legati all’ ipersonnia il più studiato è la narcolessia, che è
caratterizzata da ripetuti e brevi (10-15 minuti) attacchi di sonno diurno. I narcolettici dormono in
genere 1 o 2 ore in più rispetto alla media, ma è l’inappropriatezza dei loro episodi di sonno che
determina la condizione poiché i narcolettici si addormentano mentre mangiano, parlano, o sono
coinvolti in diverse attività e hanno come sintomo prevalente la catalessi. La catalessi è una perdita
improvvisa di tono muscolare innescata da eventi emozionali che nella forma più leggera obbliga il
paziente a sedersi finchè non passa, mentre nella forma più estrema il paziente cade a terra di colpo e ci
rimane 1 o 2 minuti pienamente cosciente. I narcolettici a differenza dei soggetti normali quando si
addormentano entrano subito in fase REM, e ciò a portato a supporre che la narcolessia sia una anomalia
del meccanismo che provoca il sonno REM (intromissione di sonno REM nella veglia). Quindi si ha una
catalessi quando la perdita di tono muscolare tipica del sonno REM si manifesta durante la veglia. La
narcolessia viene trattata con stimolanti somministrati la mattina mentre la catalessi viene trattata con
antidepressivi triciclici somministrati la sera che sopprimono la fase di sonno REM. Attraverso studi
sistematici sulla riduzione di sonno a lungo termine in cui ai soggetti veniv chiesto di dormire molto poco
circa 5 ore e mezzo per notte per almeno due mesi e venivano poi sottoposti a batterie di test di
performance, test medici e per la valutazione dell’umore dimostrando solo lievi deficit in una prova di
vigilanza acustica. Per quanto però riguarda le condizioni e i ritmi abituali facendo riferimento al valore
incentivante del sonno più si ha la possibilità di dormire più ne viene fatto uso rispetto alla reale
necessità. Infine possiamo dire che quasi tutti i lattanti e i mammiferi manifestano cicli di sonno
polibasici, cioè dormono regolarmente più di una volta al giorno, mentre la maggior parte degli esseri
umani adulti manifesta cicli di sonno monobasico cioè dormono una volta al giorno.
Comportamento sessuale
Gli ormoni influenzano il sesso in due modi : 1) regolando dal concepimento all’inizio della maturità
sessuale lo sviluppo delle caratteristiche anatomiche, fisiologiche, comportamentali che differenziano
uomo e donna, 2) attivando negli adulti sessualmente maturi i comportamenti necessari alla
riproduzione. (il principio secondo cui gli uomini sono uomini e le donne sono donne è
fondamentalmente sbagliato).
Si distinguono due tipi di ghiandole: le ghiandole esocrine, come quelle sudoripare, che secernono
sostanze all’interno dei dotti e le trasportano all’esterno, e le ghiandole endocrine, che secernono i loro
90
prodotti chimici, detti ormoni, nel sistema circolatorio all’interno del quale viaggiano fino a raggiungere i
proprio obiettivo dove esercitano i loro effetto. Gli ormoni sono rilasciati anche da stomaco, fegato e
intestino. Gli ormoni si possono dividere in tre categorie : derivati degli aminoacidi, peptidi e proteine,
steroidi. Gli ormoni derivati dagli aminoacidi sono ormoni sintetizzati con poche trasformazioni a partire
dalle molecole di aminoacidi, come l’epinefrina che è secreta dalla midollare del surrene ed è sintetizzata
a partire dalla tirosina. Gli ormoni peptidici (ormoni tropici e stimolanti) e proteici sono catene di
aminoacidi, rispettivamente corte e lunghe. Gli ormoni steroidei sono sintetizzati a partire dal
colesterolo, un tipo di grasso ed hanno un ruolo fondamentale nel comportamento e nello sviluppo
sessuale. Poiché gli ormoni steroidei possono attraversare la membrana cellulare possono influenzare
l’espressione dei geni in modo più diretto rispetto agli altri ormoni che invece non passano attraverso la
membrana cellulare. Di conseguenza possono avere effetti più vari e di lunga durata sulla funzione
cellulare. Gli ormoni si distinguono in neurormoni, ormoni gonadali, ormoni della corteccia surrenale,
ormoni tropici. I neurormoni sono ormoni che interessano il sistema nervoso, sono simili ai
neurotrasmettitori nel senso che sono sostanze chimiche che influenzano l’attività neurale. In ugni caso i
neurormoni vengono rilasciati nel sistema circolatorio generale e solo raramente nelle sinapsi, quindi
l’effetto che esercitano sul sistema nervoso è lento, più duraturo nel tempo, e si esercita su lunghe
distanze rispetto alla provenienza. Per ogni neurormone esistono recettori in siti diversi del SN quindi i
suoi effetti sono più diffusi. Le differenze fra neurormoni e neurotrasmettitori sono abbastanza sfumate,
tutti gli ormoni sintetizzati e prodotti dal sistema neuroendocrino sono gli stessi che sono sintetizzati e
prodotti dal cervello, l’unica differenza è la modalità di raggiungimento del sito bersaglio e quindi
l’influenza che si esercita su di esso.
Fra le ghiandole endocrine troviamo le gonadi, che sono i testicoli nell’uomo e le ovaie nella donna, la cui
funzione principale è la produzione rispettivamente di spermatozoi e ovuli. Dopo il rapporto sessuale uno
spermatozoo si può unire ad un ovulo dando vita ad una cellula detta zigote che contiene tutte le
informazioni necessarie per la crescita di un organismo adulto completo. L’unione di spermatozoi e ovuli
è chiamata fertilizzazione. Ogni cellula del corpo ha 23 paia di cromosomi, ad eccezione degli spermatozoi
e degli ovuli che ne hanno la metà. Cosi quando spermatozoo e ovulo si uniscono lo zigote risultante avrà
23 paia di cromosomi completi, di cui per ogni paio un cromosoma sarà fornito dal padre e uno dalla
madre. Nello specifico i cromosomi che contengono i programmi genetici che regolano la differenziazione
sessuale sono detti cromosomi sessuali. Le cellule delle femmine hanno due grandi cromosomi a forma di
ics maiuscola detti cromosomi X mentre quelle dei maschi hanno un cromosoma X e uno più piccolo a
forma di ics minuscola detto cromosoma Y. Di conseguenza il cromosoma sessuale di ogni ovulo è un
cromosoma X, mentre metà degli spermatozoi hanno cromosomi X e metà cromosomi Y. Il sesso del
nuovo individuo è determinato dal cromosoma dello spermatozoo che è riuscito a fecondare l’ovulo : X
femmina, Y maschio. Le gonadi non producono comunque solo spermatozoi e ovuli ma secernono anche
gli stessi ormoni steroidei. Le due classi principali di ormoni secreti dalle gonadi sono gli androgeni e gli
estrogeni. Fra i più comuni citiamo il testosterone fra gli androgeni e l’estradiolo fra gli estrogeni. Le
ovaie in genere producono più estrogeni che androgeni e viceversa avviene per i testicoli a ciò non deve
assolutamente far pensare che l’estrogeno debba essere definito come ormone sessuale femminile e
l’androgeno come ormone sessuale maschile. Le gonadi producono anche un’altra classe di ormoni detti
progestinici, fra cui il più comune è il progesterone che nelle femmine prepara l’utero e il seno per la
gravidanza, mentre resta sconosciuta la sua funzione per l’uomo. Piccole quantità degli steroidi sessuali
prodotti dalle gonadi vengono secreti anche dalla midollare del surrene, che comunque non è considerata
una vera e propria ghiandola sessuale in quanto la sua funzione principale è quella di regolare i livelli di
sale e zucchero nel sangue. Gli ormoni vengono secreti anche dall’ipofisi, o ghiandola pituitaria, che è
considerata la ghiandola guida del sistema endocrino perché molti dei suoi ormoni, detti ormoni tropici,
hanno la funzione principale di influenzare la secrezione ormonale di altre ghiandole. Ad esempio le
gonadotropine sono ormoni tropici ipofisari che attraverso il sistema circolatorio raggiungono le gonadi
91
e stimolano la secrezione degli ormoni gonadici. L’ipofisi è formata da due ghiandole: l’ipofisi posteriore e
anteriore, che si sono fuse insieme durane lo sviluppo embrionale. L’ipofisi posteriore si origina da una
escrescenza del tessuto dell’ipotalamo che sporge verso il peduncolo ipofisario, che collega l’ipotalamo
all’ipofisi; l’ipofisi anteriore ha origine dal tessuto embrionale da cui si svilupperà poi il palato, da cui si
stacca per posizionarsi vicino all’ipofisi posteriore. Fra le due è comunque l’ipofisi anteriore che libera gli
ormoni tropici e che guida quindi il sistema endocrino. La differenza principale fra la funzione endocrina
degli uomini e delle donne è che nelle donne i livelli degli ormoni sessuali prodotti dalle gonadi e dall’
ipofisi hanno un ciclo che si ripete ogni 28 giorni circa e che controlla quello che è il ciclo mestruale
femminile. Nei maschi invece tali ormoni cambiano poco da un giorno all’altro. Inizialmente si ritenne che
alla base di questa differenza ci doveva essere una diversa organizzazione dell’ipofisi nei due sessi. Ma
tale ipotesi fu smentita da una interessante studio condotto da Harris negli anni 50 il quale asportò una
ipofisi ciclica da una femmina di ratto adulta e la trapiantò in un maschio di ratto adulto e la stessa cosa
fece al contrario. Da questo osservò che l’ipofisi da ciclica diveniva stabile e viceversa. Ciò dimostrò che
l’ipofisi anteriore non sono femminili o maschili, quindi cicliche o stabili a seconda che si trovino in una
donna o in un maschio, ma il differente modo di liberare ormoni doveva essere controllato da qualche
altra parte del corpo. La ricerca di una particolare struttura neurale che controllava l’ipofisi anteriore
si rivolse all’ipotalamo, anche a seguito di esperimenti sul comportamento di uccelli femmina fertili solo
durante specifici periodi della’anno. Si scoprì che erano le variazioni stagionali dei cicli luce-buio ad
influenzare molti dei cambiamenti collegati alla fertilità; in qualche modo l’input visivo al sistema
nervoso controllava il rilascio di ormoni tropici ipofisari. Esperimenti di lesione e stimolazione
dell’ipotalamo dimostrarono che esso regola l’attività dell’ipofisi anteriore anche se non dimostrarono
come lo fa. In seguito si arrivò ad individuare due meccanismi attraverso cui l’ipotalamo regola sia
l’ipofisi anteriore che posteriore. Per ciò che riguarda l’ipofisi posteriore i due ormoni più importanti da
essa secreti sono l’ossitocina che nelle donne stimola la contrazione dell’utero durante il travaglio e la
produzione di latte durante l’allattamento, e la vasopressina o ormone antidiuretico, che facilita il
riassorbimento dell’acqua da parte del rene. Questi due ormoni sono prodotti da cellule dei nuclei
sopraottici e paraventricolari dell’ipotalamo, trasportati verso l’ipofisi posteriore dove vengono
depositati in attesa di un potenziale d’azione che provochi il loro rilascio nel sangue. Il controllo neurale
della secrezione ormonale da parte dell’ipofisi anteriore, che è priva di innervazioni, è regolato da un
sistema detto sistema portale ipotalamo-ipofisario composto da due reti di capillari in serie, la prima che
parte dall’ipotalamo e attraverso vene portali (vene che collegano reti di capillari) porta il flusso
sanguigno verso il peduncolo ipofisario in un’altra rete di capillari situata nell’ipofisi anteriore. Si notò
che recidendo le vene portali del peduncolo ipofisario si interrompeva la secrezione degli ormoni da
parte dell’ipofisi anteriore finchè le vene danneggiate non si rigeneravano. Per quanto riguarda la
regolazione degli ormoni gonadici, il cervello controlla la liberazione dall’ipotalamo di ormone stimolante
le gonadotropine nel sistema portale ipotalamo ipofisario che lo trasporta all’ipofisi anteriore. Da qui
questo ormone stimola la liberazione di gonadotropine che sono trasportate alle gonadi tramite il sistema
circolatorio generale. In risposta alle gonadotropine le gonadi secernono androgeni, estrogeni e
progestinici che producono un feedback positivo o negativo sull’ipofisi e sull’ipotalamo per regolare le
successive secrezioni di ormoni gonadici.
Gli ormoni ipotalamici possono sia favorire il rilascio degli ormoni ipofisari che inibirlo mediante un
meccanismo a feedback negativo: nel primo caso si parlerà di fattori di rilascio o più precisamente di
ormoni liberanti o stimolanti (RF) (ci si riferisce ad un ormone come fattore o sostanza solo fin quando
non sia stato isolato e ne sia stata identificata la struttura chimica), nel secondo caso di fattori inibitori o
più precisamente di ormoni inibenti (IF). Ad esempio l’ormone di rilascio della gonadotropina stimola la
secrezione da parte dell’ipofisi anteriore dell’ormone follicolo stimolante, che stimola la maturazione
delle cellule germinali, e dell’ormone luteinizzante, che stimola per esempio l’ovulazione e la
spermatogenesi. Quando l’ipofisi viene stimolata secerne degli ormoni che agiscono sulle cellule e sulle
92
ghiandole periferiche le cui secrezioni a loro volta limitano o accentuano le secrezione ormonale
ipofisaria tramite un meccanismo a feed back negativo che mantiene stabili i livelli degli ormoni nel
sangue. Tale meccanismo di controllo può anche essere a feed back positivo nel senso che un aumento dei
livelli ematici di un ormone porta ad un ulteriore incremento e viceversa. Si ipotizza che il passaggio da
un meccanismo a feedback negativo ad un meccanismo a feedback positivo possa essere il fattore che
porta ad un aumento rapido dei livelli ematici di progesterone ed estradiolo nelle donne che innesca
l’ovulazione e determina le fluttuazioni ormonali tipiche del ciclo mestruale. Un altro esempio di feedback
positivo si ha nell’aumento degli ormoni gonadali che avviene durante la pubertà. La secrezione degli
ormoni è regolata da tre diversi segnali che provengono dal sistema nervoso, da altri ormoni, e dalle
sostanze chimiche non ormonali del corpo. Tutte le ghiandole endocrine sono regolate dal sistema
nervoso, tranne l’ipofisi anteriore e l’epifisi che sono regolate da neuroni cerebrali. Quelle situate al di
fuori del SNC sono regolate dal SNA, con innervazioni simpatiche e parasimpatiche, che spesso hanno
effetti opposti sulla secrezione ormonale. La secrezione ormonale è comunque mediata anche
dall’esperienza. Anche i segnali provenienti dagli ormoni stessi influenzano la secrezione ormonale, ad
esempio gli ormoni liberati dagli organi bersaglio in genere producono un effetto (feedback) sugli stessi
organi che originariamente avevano innescato il loro rilascio, come ipofisi, ipotalamo, e altre zone del
cervello. La funzione del feedback ormonale è quindi quella di mantenere i livelli ormonali stabili nel
sangue (bassi livelli stimolano il rilascio, alti livelli lo inibiscono). Anche i livelli di glucosio, calcio e sodio
(sostanze non ormonali) nel sangue influenzano il rilascio di ormoni particolari. Ad esempio l’aumento
della glicemia aumenta la secrezione di insulina dal pancreas che a sua volta riduce la glicemia. Gli
ormoni tendono ad essere rilasciati in modo intermittente, cioè sono secreti in grandi quantità più volte
al giorno in episodi che in genere durano pochi minuti. Per cui i livelli ormonali nel sangue sono regolati
dalla frequenza e durata di questi episodi. Una conseguenza della liberazione ormonale intermittente è
che vi sono fluttuazioni considerevoli da un minuto all’altro dei livelli ormonali nel sangue.
Gli ormoni controllano lo sviluppo delle caratteristiche fisiche che distinguono maschi e femmine, proprio
sulla base di questa differenziazioni si dice che l’essere umano è dimorfo. La differenziazione sessuale nei
mammiferi avviene durante la fertilizzazione con la produzione di due zigoti : uno con un paio di
cromosomi XX (femmina) e uno con un paio di cromosomi XY (maschio). L’informazione genetica
disposta sui cromosomi sessuali è ciò che normalmente determina se lo sviluppo sarà maschile o
femminile. In ogni caso noi tutti siamo programmati per sviluppare corpi femminili infatti gli individui
geneticamente maschi sviluppano corpi maschili solo perché il loro programma di sviluppo che è
fondamentalmente femminile viene annullato. A sei settimane dal concepimento nel feto,
indipendentemente dal suo sesso, la struttura delle gonadi è la stessa e sono chiamate gonadi primordiali,
ognuna delle quali ha una corteccia esterna che può trasformarsi in ovaio e una parte interna o midollare
che può trasformarsi in testicolo. Dopo 6 settimane dal concepimento il cromosoma Y del maschio
favorisce la produzione di una proteina chiamata antigene H-Y che fa si che la midollare cresca e si
sviluppi in testicolo. Poiché non esiste un corrisponde femminile dell’antigene H-Y a determinare lo
sviluppo della corteccia delle gonadi in ovaie è l’assenza di questo antigene. Infatti se al momento
appropriato si iniettano l’antigene HY in un feto geneticamente femmina ne risulterà una femmina
genetica con i testicoli. 6 settimane dopo il concepimento sia i maschi che le femmine hanno entrambi
due serie complete di dotti riproduttivi. Vi è l’apparato di Wolff capace di trasformarsi nell’apparato
riproduttivo maschile interno, formato dai vasi deferenti che trasportano gli spermatozoi nelle vescicole
seminali che contengono il liquido seminale, e l’apparato di Muller che ha la capacità di trasformarsi
nell’apparato riproduttivo femminile, cioè l’utero, la parte superiore della vagina e le tube di Falloppio
che portano le uova dalle ovaie all’utero. Nel terzo mese dello sviluppo di un feto maschile i testicoli
secernono testosterone che stimola lo sviluppo dell’apparato di Wolff e la sostanza inibente l’appartato di
Muller che fa in modo che esso degeneri e che i testicoli scendano nello scroto (sacca che contiene i
testicoli all’esterno del corpo). Poiché è il testosterone e non i cromosomi sessuali ad innescare lo
93
sviluppo dell’appartato di Wolff individui geneticamente femmine a cui sia stato iniettato testosterone
nel periodo fetale appropriato svilupperanno sia apparati riproduttivi femminili che maschili. Le ovaie
sono invece quasi completamente inattive durante lo sviluppo fetale, per cui lo sviluppo dell’apparato di
Muller avviene naturalmente in tutti quei feti che non siano stati esposti all’azione degli androgeni. Per
cui i feti femminili normali, quelli a cui sono state asportate le ovaie (ovariectomia) e quelli a cui sono
stati asportati testicoli (orchiectomia) sviluppano tutti apparati riproduttivi interni femminili. La
castrazione o gonadectomia indica la rimozione delle gonadi, sia ovaie che testicoli. Mentre gli organi
riproduttivi interni si sviluppano da precursori diversi (midollare e corteccia, apparato di Wolff e Muller),
gli organi riproduttivi esterni, cioè i genitali, si sviluppano dallo stesso precursore, il precursore bi
potenziale. Nel secondo mese di gravidanza il precursore bi potenziale degli organi riproduttivi esterni è
formato da 4 parti : il tubercolo genitale, le pieghe uretrali, i corpi laterali e le protuberanze labioscrotali.
In seguito poi comincia a differenziarsi : il tubercolo diventa la testa del pene, glande, nel maschio ed il
clitoride nella femmina, le pieghe uretrali si saldano nel maschio e si allargano nella femmina per
divenire le piccole labbra, i corpi laterali formano il corpo del pene nel maschio e il cappuccio della
clitoride nella femmina e le protuberanze labioscrotali formano lo scroto nel maschio e le grandi labbra
nella femmina. Anche lo sviluppo dei genitali esterni è controllato dal testosterone: se nel momento
appropriato delle sviluppo fetale è presente dal precursore si sviluppano gli organi esterni maschili
altrimenti si sviluppano quelli femminili.
Fra uomini e donne vi sono anche differenze cerebrali: il cervello maschile è circa il 15% più grande di
quello femminile, vi sono anche differenze sessuali importanti nel volume dei diversi nuclei e nei tratti
nervosi, nel numero e nel tipo di cellule neurali e gliali che compongono le diverse strutture e nel numero
e tipo di sinapsi che connettono le cellule. Il dimorfismo sessuale del cervello è stato studiato attraverso
diverse ricerche. I primi tentativi si sono concentrati sui fattori che controllano lo sviluppo della
secrezione di gonadotropine dall’ipofisi anteriore, ciclica nelle femmine e stabile nei maschi. I primi
esperimenti su ratti neonati a cui erano stati asportate le gonadi o a cui erano stati trapiantati ovaie o
testicoli portarono a scoprire che l’asportazione delle gonadi in ratti neonati di entrambi i sessi portava al
loro sviluppo in femmine adulte con il rilascio ciclico di gonadotropine, mentre al contrario il trapianto di
testicoli produceva individui adulti con un rilascio maschile stabile di gonadotropine, concludendo che
il rilascio ciclico femminile si sviluppa normalmente a meno che tale ciclicità non sia modificata dal
testosterone nel periodo perinatale. In seguito quando si scoprì che il rilascio di gonadotropine
dall’ipofisi è regolato dall’ipotalamo si ebbe la prima prova del ruolo perinatale degli androgeni nella
differenziazione dell’ipotalamo. Più avanti si scoprì però che tutti gli ormoni prodotti dalle gonadi e dalle
surrenali sono composti steroidei, cioè derivano dal colesterolo, hanno la stessa struttura e sono
facilmente trasformabili da uno all’altro. Sembrerebbe che il processo per la mascolinizzazione del
cervello sia determinato in alcune specie dal testosterone, il quale non mascolinizza direttamente il
cervello che sarebbe invece mascolinizzato dall’estradiolo derivato dal testosterone perinatale attraverso
un processo detto di aromatizzazione. In favore di questa osservazione vi sono diversi dati desunti da
esperimenti con ratti, come il fatto che iniezioni di estradiolo nel periodo neonatale mascolinizzano il
cervello, il diidrotestosterone, un androgeno che non può essere trasformato in estradiolo, non ha effetti
mascolinizzanti sul cervello, gli agenti che bloccano l’aromatizzazione del testosterone e dei recettori per
gli estrogeni interferiscono con gli effetti mascolinizzanti del testosterone sul cervello. Un problema che
si è posto è che se la mascolinizzazione del cervello dipende dall’aromatizzazione del testosterone in
estradiolo allora anche i feti femmina dovrebbero essere mascolinizzati dall’estrogeno circolante della
madre. Il fatto che ciò non avvenga viene legato all’ipotesi dell’azione dell’alfafetoproteina, cioè una
proteina presente nel sangue dei neonati di cavie da laboratorio e che neutralizza l’azione dell’estradiolo
circolante legandosi ad esso. Anche nei maschi potrebbe esserci l’effetto neutralizzante
dell’alfafetoproteina perché anche nelle madri di feti maschi c’è estrogeno circolante nel sistema
sanguigno. La barriera emato encefalica impedisce che questo avvenga. Poiché il testosterone è immune
94
all’alfafetoproteina può viaggiare liberamente dai testicoli al cervello dove entra nelle cellule e li viene
trasformato in estradiolo. L’estradiolo non viene neutralizzato nel cervello perché l’alfafetoproteina non
passa facilmente la barriera emato encefalica. Inizialmente si pensava che il meccanismo generale che
guida la differenziazione degli organi riproduttivi guidasse anche la differenziazione del cervello, ma ci
sono tre punti che giocano a sfavore di questa teoria: non ci sono prove sufficienti che i cromosomi
sessuali contribuiscano direttamente al dimorfismo sessuale, il programma femminile dello sviluppo del
cervello non si presenta automaticamente in assenza di estrogeni, e si ipotizza l’esistenza di un unico
meccanismo che spiega lo sviluppo di tutte le differenze tra cervello maschile e femminile..
L’aromatizzazione del testosterone perinatale in estradiolo sembra essere molto importante sia per la
defemminilizzazione che per la mascolinizzazione del comportamento copulatorio dei roditori. Infatti
alcuni esperimenti hanno dimostrato che iniezioni perinatali di testosterone possono sia mascolinizzare
che defemminilizzare il comportamento copulatorio di un adulto geneticamente femmina (si inietta
testosterone a porcellini d’india in gravidanza, alla nascita della prole si ovariectomizzano le femmine,
quando i porcellini raggiungono la maturità si inietta loro testosterone e si osserva che le femmine
esposte a testosterone nel periodo prenatale avevano un comportamento copulatorio molto più simile ai
maschi rispetto alle femmine non esposte a testosterone nella fase perinatale). Un altro studio
complementare dimostrò invece che l’assenza di un’esposizione precoce al testosterone aveva effetti sia
di femminilizzazione che di demascolinizzazione sul comportamento copulatorio dei maschi adulti. (
maschi castrati alla nascita quando venivano trattati con testosterone e avevano accesso ad una femmina
sessualmente recettiva non riuscivano a produrre la normale sequenza copulatoria maschile. Gli ormoni
perinatali influenzano oltre allo sviluppo del cervello anche lo sviluppo del comportamento. Per quanto
riguarda gli effetti femminilizzanti o demascolinizzanti degli ormoni fetali si è visto anche che una
eccessiva presenza di androgeni nelle femmine porta ad una maggiore aggressività, giochi sociali più
turbolenti e un comportamento alterato al momento della maternità. E’ necessario sottolineare che la
defemminilizzazione e la mascolinizzazione, cosi come la femminilizzazione e la demascolinizzazione,
non sempre vanno di pari passo; inoltre gli effetti delle iniezioni di testosterone si limitano ad un periodo
sensibile rappresentato dai primi 11 giorni dopo l nascita. Dopo tale periodo solo dosi multiple di
testosterone possono avere effetti mascolinizzanti. Si tende anche a sottolineare che la differenziazione
dell’attività sessuale legata alla riproduzione negli esseri umani e in altri primati vicini all’uomo non è
influenzato soltanto dagli ormoni ma anche da fattori sociali. Quindi i risultati riportati per quanto
riguarda la differenziazione cerebrale, la mascolinizzazione cerebrale e l’aromatizzazione benché
interessanti vanno comunque ricondotti ai soggetti su cui sono stati sperimentati e cioè cavie da
laboratorio. Per quanto riguarda quindi l’uomo e primati vicino ad esso bisogna considerare sia la loro
reazione agli androgeni che possono mascolinizzare il comportamento ma non femminilizzarlo, sia la loro
reazione in merito a comportamenti procettivi e comportamenti sociali in generale. Durante l’infanzia
l’aspetto esteriore di maschi e femmine differisce di poco, ed il livello ematico ormonale è basso.. Con
l’inizio della pubertà, che si ha intorno ai dodici anni, invece cominciano a svilupparsi quelli che sono
detti caratteri sessuali secondari, che caratterizzano l’individuo sessualmente maturo: nei maschi
sviluppo della muscolatura, comparsa dei peli su faccia e corpo, comparsa dei peli pubici e ascellari,
crescita degli organi sessuali, scatto di crescita, la laringe si allarga, nelle femmine sviluppo del seno,
comparsa di acne, di peli pubici e ascellari, crescita degli organi riproduttivi, inizio delle mestruazioni,
arrotondamento dei contorni del corpo, scatto di crescita. Durante questo periodo vi è un aumento nella
secrezione degli ormoni ipofisari, come l’ormone della crescita, l’unico ormone ipofisario a non avere una
ghiandola endocrina come bersaglio primario, che agisce direttamente sui tessuti muscolari e ossei
producendo lo scatto di crescita puberale, e l’ormone adrenocorticòtropo e le gonadotropine che
producono un aumento della secrezione di ormoni da parte della corteccia surrenale e delle gonadi che a
loro volta danno il via alla maturazione degli organi genitali e allo sviluppo dei caratteri sessuali
secondari. Nei maschi in età puberale i livelli di androgeno sono più alti rispetto a quelli di estrogeno e
95
questo determina la mascolinizzazione fisica, nelle femmine invece predomina l’estrogeno che determina
la femminilizzazione. E’ bene sottolineare però che ad esempio vi sono androgeni come l’androstendione,
prodotto dalle cortecce surrenali, che è il responsabile della crescita dei peli pubici ed ascellari nelle
femmine. Pertanto ritenere gli androgeni ormoni maschili non è propriamente esatto in quanto essi sono
responsabili anche dello sviluppo di caratteristiche sessuali femminili. Nell’ambito dello sviluppo
sessuale dell’uomo possono presentarsi dei disturbi fra i quali possiamo citare la sindrome da
insensibilità agli androgeni e la sindrome adrenogenitale. Nella sindrome da insensibilità agli androgeni i
problemi derivano dal fatto che al corpo mancano i recettori per gli androgeni. In questo caso durante lo
sviluppo i testicoli liberano normali quantità di androgeni ma in assenza di recettori per gli androgeni lo
sviluppo sessuale avviene come se questi ormoni non fossero liberati. Per cui durante lo sviluppo fetale i
genitali esterni, il cervello ed il comportamento seguono il programma femminile poiché gli androgeni
non possono agire per modificarlo : i testicoli non scendono esternamente al corpo, ma liberano la
sostanza inibente i dotti di Muller non consentendo lo sviluppo degli organi interni riproduttivi
femminili. Nella pubertà i testicoli liberano estrogeni sufficienti a femminilizzare il corpo in assenza degli
effetti degli androgeni. Da un punto di vista comportamentale si è riscontrato che, in assenza dell’effetto
mascolinizzante degli androgeni, i bambini che sembrano femmine e sono cresciuti come femmine
imparano a comportarsi e a pensare come femmine anche se sono geneticamente maschi. La sindrome
adrenogenitale invece è un disturbo dello sviluppo sessuale provocato da un’iperplasia congenita
surrenale, ovvero una diminuzione nel rilascio del cortisolo che causa un’eccessiva secrezione di
androgeni surrenalinici. Ciò ha effetti minimi sullo sviluppo dei maschi in quanto ne accelera la pubertà,
ma ha effetti rilevanti sulle femmine che di solito nascono con un clitoride allargato e con le labbra
parzialmente unite. I loro dotti interni sono invece generalmente normali dato che gli androgeni vengono
rilasciati troppo tardi per stimolare lo sviluppo dei dotti di Wolff. Poiché questo disturbo è identificabile
alla nascita, le anormalità vengono trattate chirurgicamente e con niezioni di cortisolo che riportano alla
normalità i livelli di androgeni surrenalinici circolanti. Le ragazze adolescenti trattate con cortisolo
presentano un alto livello di mascolinità e assenza di interesse per la maternità, giocano con i ragazzi, si
vestono come loro, e i loro sogni per il futuro riguardano più la carriera che i figli. I loro interessi
sessuali sembrano però essere normali, anche se a volte vi è un tendenza verso la bisessualità. Quando un
individuo raggiunge la maturità sessuale gli ormoni delle gonadi cominciano ad avere un ruolo nel
meccanismo della riproduzione. Per quanto riguarda il comportamento riproduttivo maschile il ruolo
importante degli ormoni gonadici è dimostrato dagli effetti della castrazione, che provoca una effettiva
riduzione dell’interesse e del comportamento sessuale, anche se il livello di questa diminuzione è
variabile da soggetto a soggetto. Possono presentarsi anche mutamenti fisici come riduzione dei peli del
tronco, delle estremità e del volto, accumulo adiposo al petto e alle anche, ammorbidimento della pelle,
riduzione della forza. L’orchiectomia è l’asportazione dei testicoli, e poiché il testosterone è il principale
ormone da loro prodotto si è supposto che i sintomi di questa asportazione fossero il risultato della
mancanza di testosterone o di conseguenze chirurgiche non dovute agli ormoni. Iniezioni di sostituzione
del testosterone confermarono questa ipotesi, anche se comunque libido sessuale e livelli di testosterone
circolanti nel sangue in soggetti sani non sono correlati. Pertanto iniezioni di dosi massicce di
testosterone non aumentano la libido. Poiché il diidrotestosterone, un androgeno non aromatizzabile,
sembra non riesca a riattivare il comportamento sessuale maschile, è stato ipotizzato che tale attivazione
da parte del testosterone sia dovuta all’estradiolo derivante dall’aromatizzazione del testosterone. Per
quanto riguarda il comportamento riproduttivo femminile è stato osservato che il controllo ormonale del
loro comportamento sessuale non è strettamente legato al loro ciclo mestruale e che l’asportazione delle
ovaie ha effetti scarsi sul comportamento sessuale, determinando invece oltre che alla sterilità una
riduzione della lubrificazione vaginale. Vi è una teoria secondo cui le ghiandole surrenali umane
producono androgeni in quantità sufficienti a mantenere la motivazione sessuale anche nelle donne che
hanno subito l’asportazione delle ovaie (ovariectomia) e pertanto il desiderio sessuale delle donne è sotto
96
il controllo degli androgeni e non degli estrogeni. A supporto di tale teoria vi sono tre fonti : esperimenti
su femmine di primati non umani in cui iniezioni sostitutive di testosterone ma non quelle di estradiolo
aumentano il comportamento procettivo (comportamenti di sollecitane all’accoppiamento) in scimmie
reshus ovariectomizzate a cui sono state asportate le ghiandole surrenali; studi di correlazione in donne
sane in cui è stato osservato che la motivazione sessuale è correlata a livelli di testosterone e non di
estradiolo; studi clinici su donne isterectomizzate (rimozione organi interni riproduttivi) in cui iniezioni
sostitutive di testosterone, ma non di estradiolo, aumentano la motivazione sessuale. Va inoltre
sottolineato che il comportamento sessuale umano è influenzato sia da fattori ormonali che sociali, e ciò
ha la sua importanza soprattutto per gli studi sulla direzione e a preferenza sessuali. Gli ormoni sono
necessari al mantenimento del comportamento sessuale in un adulto ma non influiscono sulla direzione
del comportamento sessuale. Infatti eterosessuali e omosessuali non differiscono rispetto ai livelli
circolanti di ormoni. Attualmente gli studi di Money in ambito sessuologico affermano che l’orientamento
nei confronti dell’eterosessualità o omosessualità o bisessualità non è influenzato direttamente dagli
ormoni ma da circuiti neurali che si formano dall’interazione di ormoni perinatali e dalle esperienze. In
età adulta i livelli ormonali possono mantenere tali circuiti che si sono ormai strutturati ma non possono
influenzarne la direzione e la preferenza: si è visto per esempio che la castrazione riduce l’attività
sessuale complessiva in eterosessuali omosessuali e bisessuali ma non influisce sui loro orientamenti
sessuali e le iniezioni sostitutive ripristinano le preferenze presenti prima dell’intervento. La ricerca su
individui omosessuali con gemelli ha comunque dimostrato che le differenze nell’orientamento sessuale
hanno una base genetica. Il transessualismo è un disturbo dell’identità sessuale in cui il soggetto si sente
intrappolato nel corpo dell’altro sesso. La disperazione di queste persone non le porta solo a pensare che
la vita sarebbe migliore se il loro genere fosse diverso ma molti richiedono interventi per la
riassegnazione di genere.
Ad esempio nell’intervento per la riassegnazione di genere da maschio a femmina il primo passo è una
valutazione psichiatrica e un colloquio per accertare se il soggetto e un vero transessuale e per
prepararlo agli eventi. Poi si inizia la somministrazione di estrogeni che durerà tutta la vita per
femminilizzare il corpo e mantenere i cambiamenti. Dopo di che si procederà all’asportazione del pene e
dei testicoli e alla costruzione della vagina . Alcuni pazient sono anche sottoposti ad interventi di plastica
facciale per femminilizzare il viso. In genere l’adattamento dei transessuali dopo l’intervento è buono.
Attrazione sessuale, identità sessuale e tipo di corpo a volte non sono correlati.
Assunzione di cibo e acqua
Lo scopo principale dell’alimentazione è quello di introdurre nel corpo l’energia necessaria per lo
svolgimento delle sue funzioni e la sopravvivenza. Con il termine digestione viene definito il processo
gastrointestinale di demolizione e di assorbimento del cibo. Tale processo, che rientra nel
comportamento oro-alimentare, consiste delle seguenti fasi : ingestione del cibo, masticazione del cibo
che viene mescolato alla saliva, deglutizione che spinge il cibo verso lo stomaco attraverso l’esofago,
demolizione del cibo in piccole particelle mediante l’acido cloridrico e scissione delle proteine in
aminoacidi mediante la pepsina, assorbimento dei prodotti dello stomaco da parte del duodeno, scissione
nel duodeno delle proteine in aminoacidi e delle molecole di zucchero in zuccheri semplici, trasmissione
degli aminoacidi e degli zuccheri semplici al fegato, riduzione dei grassi in gocce da parte della bile
prodotta dal fegato, assorbimento degli elettroliti e dell’acqua nel colon (intestino crasso) e espulsione
dei residui dall’ano. Come conseguenza della digestione le sostanze energetiche introdotte nel corpo sono
di tre tipi: lipidi (grassi), aminoacidi (prodotti di scissione delle proteine), glucosio (zucchero semplice =
scissione carboidrati complessi in amidi e zuccheri). Il corpo utilizza energia continuamente ma si
alimenta ad intervalli e pertanto è necessario che conservi tale energia da utilizzare durante questi
intervalli. L’energia è accumulata in tre diverse forme: grassi, una delle principali cause del cambiamento
del peso corporeo di un soggetto adulto, glicogeno e proteine. La maggioranza delle riserve energetiche
97
sono costituite dai grassi perché può conservare il doppio dell’energia rispetto al glicogeno e perché il
glicogeno diversamente dal grasso attrae e trattiene una notevole quantità di acqua. Il metabolismo
energetico include tre fasi : la fase cefalica, la fase di assorbimento e la fase del digiuno. La fase cefalica
che è la fase preparatoria riguarda il periodo che intercorre fra vedere odorare o pensare al cibo e l’inizio
del suo assorbimento nel flusso sanguigno. La fase dell’assorbimento è la fase relativa al periodo di tempo
nel quale le sostanze nutritive vengono impiegate per far fronte agli immediati bisogni energetici del
corpo. La fase del digiuno è lo spazio di tempo durante il quale tutte le calorie introdotte con il pranzo
precedente sono state utilizzate ed il corpo ricava le energie dalle sue riserve energetiche. Termina con
l’inizio della successiva fase cefalica. Il flusso di energia durante le tre fasi metaboliche è controllata da
due ormoni prodotti dal pancreas: l’insulina, che viene rilasciata in gran quantità durante la fase cefalica e
di assorbimento, e il glucagone. L’insulina svolge tre compiti : 1) consente l’utilizzazione del glucosio
come principale fonte di energia per il corpo; 2) favorisce la conversione del glucosio in eccesso in
glicogeno e grasso e degli aminoacidi in proteine; 3) promuove l’accumulo di glicogeno nel fegato e nei
muscoli, di grasso nel tessuto adiposo e di proteine nei muscoli. In particolare l’insulina durante la fase
cefalica abbassa i livelli ematici delle sostanze energetiche, principalmente glucosio, prima
dell’immissione di principi nutritivi nel sangue, mentre nella fase di assorbimento impedisce che
aumentino notevolmente i livelli ematici delle sostanze energetiche favorendo il loro uso e il deposito
delle quantità in eccesso. La fase di digiuno è caratterizzata invece da alti livelli ematici di glucagone e
bassi di insulina. Ciò consente al cervello di utilizzare il glucosio perchè la maggior parte delle cellule del
sistema nervoso centrale non ha bisogno di insulina per assorbire il glucosio. I bassi livelli di insulina
favoriscono anche la gluconeogenesi. Gli alti livelli di glucagone invece promuovono il rilascio di acidi
grassi dal tessuto adiposo e il loro utilizzo come principale fonte di energia per l’organismo. Inoltre
stimola la conversione di glicogeno e proteine in glucosio e degli acidi grassi liberi in chetoni che vengono
utilizzati dai muscoli come energia durante la fase di digiuno. Durante un prolungato periodo di digiuno
anche il cervello utilizza i chetoni consentendo un ulteriore risparmio delle riserve di glucosio.
Molti attribuiscono la fame ad un deficit di energia e considerano l’alimentazione il mezzo per riportare le
risorse energetiche dell’organismi al loro livello ottimale, definito valore di riferimento (set point).
Pertanto dopo un pasto le risorse energetiche sono vicine al valore di riferimento e si riducono
progressivamente a mano a mano che il corpo le usa per lo svolgimento delle proprie funzioni. Quando
l’energia scende al di sotto del valore di set point la fame spinge il soggetto a iniziare un nuovo pasto.
Tutti i sistemi con valori di riferimento includono tre componenti: un meccanismo che definisce il
valore di riferimento, un meccanismo rivelatore in grado di misurare le deviazioni da questo valore e un
meccanismo effettore in grado di correggere tali deviazioni. Tutti i sistemi controllati da un valore di
riferimento sono sistemi a feedback negativo, Tali sistemi sono comuni nei mammiferi perché regolano
l’omeostasi, cioè l’equilibrio interno essenziale per la sopravvivenza. Vi sono anche due teorie che
controllano l’alimentazione interagendo fra loro. La teoria glucostatica si basa sul presupposto che
l’obiettivo dell’alimentazione fosse il mantenimento di un adeguato livello di glucosio ematico dato che
esso costituisce il principale combustibile del cervello. Successivamente questa teoria è stata sottoposta a
diverse critiche è stato infatti dimostrato come il livello di glucosio ematico si mantenga costante durante
le fasi metaboliche associate ad un pasto. La teoria lipostatica si basava invece sull’osservazione che la
quantità di grasso corporeo si mantiene ad un livello relativamente costante nella maggior parte degli
individui. Secondo questa teoria ogni individuo ha un valore critico genetico per il grasso corporeo che si
fissa nel periodo prenatale e deviazioni da questo valore producono variazioni compensatorie nella
quantità di cibo ingerito. Le critiche a tale teoria si basano su ricerche che hanno dimostrato che il corpo
risponde a riduzioni o eccessi di risorse energetiche regolando l’efficienza con cui sfrutta tali risorse. Il
meccanismo con cui l’organismo modifica l’efficienza della spesa energetica in risposta ai livelli di grasso
è detto termogenesi alimentare, che controbilancia gli aumenti di peso con una quantità due volte
maggiore di grasso bruno, che è il principale tessuto non muscolare che può generare calore. Le teorie
98
basate sui valori di riferimento sono però contraddette da fattori come l’epidemia di obesità e di altri
disturbi alimentari; ma sono anche incompatibili con gli stili alimentari e le esigenze dei nostri
progenitori che sopperivano alla mancanza di cibo ingerendone il più possibile quando se ne presentava
l’occasione per conservare calorie sotto forma di grasso corporeo per poter sopravvivere. Inoltre in
alcuni studi si è riscontrato che per stimolare la fame le riduzioni di glucosio e grassi devono essere di
una quantità tale che difficilmente si osservano in condizioni naturali. Infine le teorie dei valori di
riferimento non tengono conto degli effetti sulla fame e sull’alimentazione di fattori come gusto,
l’apprendimento e le influenze sociali. Tutte le difficoltà incontrate dalle teorie dei valori di riferimento
hanno portato alla formulazione di una teoria alternativa, nota come teoria dell’incentivo positivo,
secondo cui l’uomo e gli altri animali non sono normalmente spinti a mangiare da un deficit energetico
interno ma dall’anticipazione degli effetti piacevoli del cibo, cioè dal suo valore incentivante o
appetibilità. Un gran numero di fattori possono influire sul valore incentivante del cibo, come
l’anticipazione del sapore del cibo, la quantità di tempo trascorso dall’ultimo pranzo, la distanza dall’ora
dei pasti, la quantità ed il tipo di cibo presenti nell’intestino, i livelli ematici di glucosio. Il valore
incentivante di un cibo può essere ridotto dal consumo seguito da malessere, dal consumo recente ed
eccessivo e aumentato dagli effetti piacevoli che procura, dalla deprivazione di quel cibo e del cibo in
generale, e dall’attesa del pasto. Alcuni gusti hanno un alto valore incentivante per quasi tutti gli individui
di una specie, come i gusti dolce, grasso e salato. Queste preferenze tipiche hanno un valore adattivo
poiché i gusti dolce e grasso sono associati generalmente ad alimenti ad alto contenuto energetico, ricchi
di vitamine e minerali, mentre il gusto salato si associa ad alimenti ricchi di sodio. Il gusto amaro
invece verso cui generalmente si prova avversione si associa a sostanze tossiche. Oltre a preferenze ed
avversioni condivise vi sono poi quelle apprese da ciascun individuo associando un sapore ad un buon
apporto di calorie o ad malessere, ad una preferenza dei membri della stessa specie, o a preferenze legate
alla cultura, come ad esempio vari tipi di insetti non tossici considerati prelibatezze in alcune culture. Tra
i fattori che influenzano il numero di volte in cui un soggetto si alimenta durante il giorno vi sono le
regole sociali, gli orari di lavoro, le abitudini familiari, le preferenze personali, lo stato sociale, e molti
altri. Anche l’apprendimento è un modulatore del comportamento alimentare attraverso la possibilità di
condizionare le risposte. Le risposte cefaliche come la salivazione possono essere condizionate,
ricordiamo l’esperimento di Pavlov con i cani; è possibile stimolare il senso di fame tramite associazioni
con stimoli esterni, ad esempio l’ora del pasto. Anche le avversioni o le preferenze possono essere
apprese nel senso che gli individui possono avere preferenze nette per sapori associati al benessere e
avversioni nette per sapori associati a malessere. Le carenze dietetiche influiscono molto sulle scelte
alimentari e sono comuni nella nostra società per vari motivi : innanzitutto perché le industrie per
massimizzare i profitti producono e vendono cibi che hanno lo stesso sapore di quelli a noi graditi, ma
che mancano delle principali sostanze nutritive. Inoltre la quantità di sostanze diverse consumate ogni
giorno da un individuo è cosi grande che risulta difficile se non impossibile capire quali cibi fanno bene e
quali no. I meccanismi della sazietà svolgono un ruolo importante nel regolare la quantità di cibo che
ingeriamo. Alcuni segnali di sazietà possono essere provocati dal cibo che entra nello stomaco e dal
glucosio che penetra nel sangue che inibiscono ulteriore assunzione di cibo. Questi segnali dipendono
dalla densità nutritiva, cioè dalla quantità di calorie per unità di volume, Attraverso lo studio
complementare della nutrizione intragastrica si vide che gli animali imparavano a premere la leva in
modo da autosomministrarsi più o meno la stessa quantità di cibo giornaliero, e quando veniva ridotto il
valore nutritivo della dieta diluendo il cibo con acqua gli animali aumentavano il numero di pressioni per
avere più cibo e mantenere costante l’apporto calorico giornaliero. Gli animali inoltre imparavano in base
all’esperienza alimentare precedente quanto cibo consumare e che avevano dei meccanismi per
individuare variazioni nel valore nutritivo della loro dieta e adattarsi. Inoltre era stata fatta l’ipotesi che
la distensione delle pareti dello stomaco avesse un effetto inibitore sull’apporto di calorie. Oltre ai
meccanismi periferici gastrici vi sono anche i meccanismi periferici orali che attribuiscono alla bocca il
99
ruolo di regolatore del comportamento alimentare. L’importanza data alla bocca deriva dal fatto che la
bocca è la prima parte del tratto digerente che rileva i segnali chimici legati al cibo. In questo senso vi è lo
studio sulla falsa alimentazione che prevede esperimenti in cui il cibo masticato e deglutito dal soggetto
non viene inviato all’esofago e allo stomaco, ma viene inviato all’esterno del corpo mediante un tubo che
collega un’estremità dell’esofago alla superficie corporea. Con questa tecnica è stato dimostrato che il
controllo alimentare non è mediato da precedenti esperienze legate al gusto, ne dalla natura o dal volume
del cibo ingerito. Le sensazioni di sazietà dipendono molto anche dal fatto di mangiare soli o in
compagnia, che per esempio ha un effetto inibitorio sulla sazietà, come lo ha anche il cosiddetto effetto
aperitivo, che si ha quando vengono servite piccole porzioni di cibo come aperitivo che hanno l’effetto di
favorire la fame anziché ridurla Ma le influenze sociali possono anche ridurre il consumo di cibo poiché
per esempio molte persone mangiano meno per corrispondere a determinati modelli sociali o perché
ritengono che abbuffarsi in pubblico non sia un comportamento adeguato. La teoria dei valori di
riferimento è anche chiaramente contraddetta dalla presenza di una varietà di gusti diversi a ogni pranzo
che rappresenta un fattore critico per la quantità di cibo assunta nonché per il mantenimento del peso
corporeo (dieta da ristorante). Ciò dipende principalmente dal fatto che la sazietà è in larga misura
specifica per un certo gusto, cioè man mano che si mangia il valore incentivante del cibo si riduce e il
risultato è che si diventa sazi. La sazietà senso specifica ha due tipi di effetti e di conseguenze. Gli effetti
possono essere a breve termine e influenzano la scelta del cibo durante un singolo pasto, e a lungo
termine che spingono scegliere un determinato cibo nel corso di una serie di pasti, anche se alcuni cibi
come riso, pane e dolci sembrano relativamente immuni da questi effetti a lungo termine. Le conseguenze
invece sono che da un lato l’animale è spinto a variare la sua dieta evitando possibili rischi di
malnutrizione (conseguenza adattiva) e dall’altro è spinto, avendo la possibilità di accedere ad una
grande varietà di cibi, di mangiarne in quantità maggiore (conseguenza disattiva).
Meccanismi fisiologici fame e sazietà
Verso gli anni 50 si pensava che il comportamento alimentare fosse controllato da due centri cerebrali, da
due regioni dell’ipotalamo,: un centro della sazietà inibitore dell’assunzione di cibo situato nell’ipotalamo
ventromediale e un centro della fame attivatore di assunzione di cibo situato nell’ipotalamo laterale.
Questa teoria, che in seguito si rivelò falsa, si basava su esperimenti che fornirono i seguenti risultati: le
lesioni bilaterali dell’ipotalamo ventromediale del ratto producevano iperfagia (eccessiva assunzione di
cibo), e obesità. L’iperfagia di divide in due fasi: la fase dinamica che comincia subito dopo la lesione in
cui il ratto mangia per settimane in modo esagerato e aumenta di peso fino al peso asintotico (massimo
raggiungibile), e la fase statica in cui l’assunzione di cibo si riduce fino a consentire il mantenimento di un
livello stabile di obesità, mentre le lesioni bilaterali dell’ipotalamo laterale producevano invece afagia
(completa cessazione dell’assunzione di cibo) e adipsia (scomparsa del bere); da ciò si dedusse che tale
regione doveva contenere i centri della fame. Per quanto riguarda la regolazione del comportamento oro
alimentare i primi studi si sono focalizzati sul ruolo dei meccanismi periferici, ossia meccanismi gastrici e
orali. I meccanismi gastrici prevedono che il ruolo regolatori dei centri della fame e della sazietà si debba
attribuire allo stomaco, e ciò è stato dimostrato da una ricerca condotta da Cannon e Washbourne che ha
portato alla conclusione che la fame è causata dalla contrazione dello stomaco vuoto, mentre la sazietà è
avvertita quando lo stomaco è disteso. L’esperimento di Cannon e Washburn consisteva nel fare ingoiare
ad uno dei due sperimentatori un palloncino legato ad un sondino e riempito successivamente di aria con
una pompetta. L’altra estremità del sondino era posto in un tubo ad U pieno di acqua il cui livello
aumentava ad ogni contrazione dello stomaco. Questa ipotesi venne comunque contraddetta da uno
studio su pazienti ai quali era stato asportato lo stomaco e connesso l’esofago al duodeno. Tali pazienti
continuavano a riferire sensazioni di fame e sazietà e mantenevano il loro peso corporeo mangiando più
spesso ma in minor quantità. In un altro esperimento ad opera di Koopmans ad alcuni ratti furono
trapiantati uno stomaco ad un segmento di intestino aggiuntivi e si notò che l’introduzione di cibo nello
stomaco aggiuntivo la cui progressione era comunque impedita a livello di intestino spingeva il ratto a
100
ridurre l’alimentazione in base al volume e all’apporto calorico del cibo introdotto. Poiché il tratto
gastrointestinale trapiantato era privo di connessioni nervose dovevano esistere segnali di sazietà che
venivano trasmessi al cervello per via ematica e non nervosa. Tali segnali non potevano essere principi
nutritivi perché non vi era assorbimento di cibo ma doveva trattarsi di sostanze chimiche rilasciate dallo
stomaco. In seguito fu scoperto che lo stomaco ed alcune parti del tratto gastrointestinale rilasciano
sostanze chimiche circolanti, i peptidi, che sembrerebbero legarsi a recettori celebrali, per fornire al
cervello informazioni sulla quantità e natura del cibo presente nel tratto gastrointestinale e che tali
informazioni abbiano un ruolo nella soppressione del consumo di cibo e nella sazietà. Sono stati
individuati diversi peptidi intestinali fra i quali alcuni aumentano l’appetito (peptidi della fame),come il
neuro peptide Y, ed altri che diminuiscono la fame e per questo sono detti peptidi della sazietà, tra cui
la più studiata è la colecistochinina. E’ un ormone peptidico che difficilmente penetra la barriera
ematoencefalica e che si ipotizza sia rilasciata dalle pareti del duodeno e che produca sazietà impedendo
lo svuotamento dello stomaco. La scoperta dei peptidi della fame e della sazietà ha indicato innanzitutto
che il sistema nervoso che controlla l’alimentazione reagisce a molti segnali diversi, per esempio non solo
al glucosio e al grasso, e poi ha riacceso l’interesse per il ruolo dell’ipotalamo nel controllo della fame,
dimostrato dal fatto che microiniezioni di particolari peptidi gastrici in alcuni siti dell’ipotalamo hanno
effetti notevoli sul comportamento alimentare. Anche la serotonina ha un ruolo nella sazietà. Nell’uomo è
stato osservato che riduce la fame, l’alimentazione e il peso corporeo in condizioni diverse, tant’è che
viene usata nella cura dell’obesità. Si pensa che la teoria dei valori di riferimento non possa spiegare il
comportamento alimentare ma possa regolare il valore del peso corporeo, sulla base dei livelli di tessuto
adiposo dell’organismo. Secondo questa teoria quando i depositi di grasso scendono al di sotto del valore
critico la fame ed il consumo di cibo aumentano fino a che non vengono ricostituite le riserve adipose. Al
contrario quando gli accumulo di grasso aumentano sia la fame che l’alimentazione si riducono per
favorire il ritorno del grasso corporeo al suo valore di riferimento. L’aumento dei livelli di grasso produce
un aumento della temperatura corporea che richiede un ulteriore costo energetico per poter essere
mantenuta, mentre la riduzione dei livelli di grasso ha effetti opposti, vengono prodotte dunque
variazioni nel ritmo metabolico di base. Un modello rigidamente fondato sui valori di riferimento non
può da solo spiegare i numerosi elementi della regolazione del peso corporeo; ciò rende necessario un
modello più flessibile rappresentato dal cosiddetto modello di assestamento. La teoria basata su questo
modello propone una regolazione non rigida di tipo omeostatico, nel senso che il peso corporeo rimane
stabile finchè non subentrano modificazioni dei fattori che lo influenzano, i cui effetti a questo punto sono
limitati da un meccanismo a feedback negativo che limita ulteriori cambiamenti di peso nella stessa
direzione. Un esempio di valore di assestamento biologico è il potenziale di membrana a riposo. La teoria
dei valori di assestamento può essere rappresentata schematicamente con l’analogia del modello del
barile che perde. La quantità di acqua che dal rubinetto entra nel tubo rappresenta la quantità di cibo a
disposizione del soggetto, la pressione con cui l’acqua esce dal tubo rappresenta il valore incentivante del
cibo, la quantità di acqua che entra nel barile corrisponde alla quantità di energia assimilata, il livello
dell’acqua nel barile rappresenta il livello del grasso corporeo, la quantità di acqua che fuoriesce da un
foro del barile corrisponde alla quantità di energia consumata e il peso del barile che grava sul tratto di
tubo che si trova sotto il barile stesso corrisponde all’intensità dei segnali di sazietà. Attraverso questo
modello si possono spiegare alcuni fenomeni critici della regolazione del peso corporeo. 1) secondo la
teoria dei valori di assestamento un peso corporeo costante non richiede ne implica un valore prefissato;
secondo il modello del barile infatti quando l’acqua comincia a riempire il barile il peso dell’acqua nel
barile aumenta e di conseguenze aumenta anche la quantità di acqua che esce dal foro;
contemporaneamente si riduce l’acqua che entra nel barile perché aumenta la pressione del barile sul
tubo di gomma. Alla fine il sistema si assesta su un valore di equilibrio in cui il livello dell’acqua rimane
costante ma non perché questo livello sia predeterminato o attivamente mantenuto. 2) tale modello
prevede inoltre che al verificarsi di cambiamenti prolungati dei fattori che influenzano il peso, esempio
101
aumento valore incentivante, il peso corporeo si assesta su un nuovo valore. 3) la riduzione dell’
assunzioni di cibo modifica il metabolismo per limitare la perdita di peso, ma non elimina quella già
avvenuta; nel modello del barile ad esempio una riduzione del flusso di acqua riduce il livello dell’acqua
nel barile, tale riduzione è però limitata dalla fuoriuscita ridotta dell’acqua stessa dal foro in seguito
alla diminuzione della pressione del barile sul tubo. Alla fine viene raggiunto un nuovo livello di
assestamento. 4) Dopo che un individuo ha perso una sostanziale quantità di peso c’è tendenza a
recuperare il peso originario appena il soggetto riprende il normale stile alimentare e di attività. Il
modello del barile mostra che riducendo il livello dell’acqua sia tramite una temporanea riduzione del
flusso di acqua in ingresso (dieta) che tramite un aumento dell’efflusso (esercizio) sia prelevando acqua
(liposuzione) si produce come risultato un temporaneo abbassamento del valore di assestamento che
ritorna ai valori soliti appena sono ripristinate le condizioni iniziali. Il modello di assestamento consente
dunque di prevedere meglio le condizioni che possono determinare variazioni di peso e di comprendere i
meccanismi responsabili di tali variazioni.
Obesità e anoressia
Fra i disturbi alimentari più conosciuti possiamo citare l’obesità e l’anoressia. Per quanto riguarda i
criteri diagnostici ci si riferisce ai criteri diagnostici del DSM IV, ossia il manuale diagnostico e statistico
delle sindromi psichiatriche. L’obesità costituisce uno dei maggior problemi di salute in molte parti del
mondo, e sia fattori ambientali che genetici partecipano alle differenze individuali di peso corporeo.
Durante il corso dell’evoluzione la saltuaria disponibilità di cibo ha costituito una delle principali minacce
alla sopravvivenza dell’uomo Di conseguenza avevano più alte possibilità di sopravvivere quegli individui
che preferivano cibi ipercalorici, che riuscivano a conservare elevate quantità di calorie sotto forma di
grasso, e che riuscivano a usare tali riserve energetiche nel modo più efficiente. Ad accrescere questi
effetti evolutivi hanno contribuito anche pratiche culturali e credenze sociali, come ad esempio il ritenere
che si debbano consumare tre pasti al giorno indipendentemente dalla fame. Al giorno d’oggi però il cibo
con il più alto valore incentivante è facilmente e continuamente disponibile, e ciò determina un eccessivo
consumo alimentare. Tuttavia pur vivendo nella stessa società non tutti i soggetti sono obesi e queste
differenze individuali sono determinate per esempio dalla quantità di energia introdotta, che può
dipendere da preferenze alimentari o dall’educazione alimentare, e della quantità di energia spesa, che
può dipendere dall’esercizio fisico svolto o dal metabolismo di base. Un altro fattore nelle differenze
individuali per quanto riguarda l’obesità si chiama NEAT , termogenesi per attività da non-esercizio, che è
generata da attività come per esempio mantenimento della postura o tono muscolare. I programmi
dimagranti spesso non portano ai risultati sperati perché gran parte del peso perso viene riacquistato alla
fine del programma. Affinché ci sia una permanente riduzione di peso infatti è necessario un permanente
cambiamento nello stile di vita. Inoltre contrariamente a quanto si pensa l’esercizio fisico influisce poco
sulla perdita di peso sia perché l’80% dell’energia è utilizzata per il mantenimento dei processi fisiologici
a riposo e per digerire il cibo, sia perché dopo l’attività fisica le persone tendono ad ingerire bevande e
cibo contenenti più calorie di quelle spese. A volte i casi di obesità sono trattati chirurgicamente legando
la mandibola con fili metallici per impedire la masticazione e ridurre ai soli liquidi la dieta, incollando
porzioni dello stomaco per ridurre la capacità gastrica e la dimensione dei pasti, rimuovendo una parte
del duodeno per ridurre l’assorbimento dei cibi. Attraverso degli esperimenti su topi obesi omozigoti,
chiamati ob/ob, è stato scoperto un ormone proteico, chiamato leptina, che diminuisce il senso della fame
(effetti anoressizzanti) ed aumenta la spesa energetica, favorendo la riduzione del peso corporeo e della
massa grassa. Anche l’insulina ha un ruolo come segnale dei depositi di grasso; si riscontrò che iniezioni
di insulina nel cervello, insufficienti per essere dannose e per influire sulla glicemia, riducevano l’impulso
della fame ed il peso corporeo. Anche gli agonisti della serotonina che riducono il consumo di cibo nei
soggetti umani e non umani sono importanti nel trattamento dell’obesità. Gli agonisti della serotonina, a
differenza della leptina e dell’insulina, aumentano i segnali di sazietà a breve termine associati al
consumo di un pasto. Si è scoperto che gli agonisti della serotonina nei pazienti obesi riducono il bisogno
102
di mangiare cibi ad alto potere calorico, il consumo di grassi, l’intensità soggettiva della fame, la
consistenza dei pasti, il numero degli spuntini tra i pasti, e gli eccessi alimentari. Per questi motivi furono
inizialmente utilizzati a scopo clinico ma in seguito furono ritirati dal mercato in quanto un consumo
protratto provocava anche se in un piccolo numero di pazienti dei disturbi cardiaci. Un altro disturbo
legato al consumo di cibo, in quantità però ridotte, è l’anoressia nervosa. I criteri di diagnosi
dell’anoressia sono: rifiuto di mantenere il peso corporeo al di sopra del peso minimo normale per l’età e
la statura, un calo ponderale del 15% rispetto al peso minimo normale per età e statura, paura di
acquistare peso, una percezione corporea alterata, percezione esagerata di avere eccesso di grasso e
quindi necessità di eliminarlo. Un criterio molto importante è che ci deve essere una assenza di tre cicli
mestruali consecutivi o amenorrea per diagnosticare anoressia. Nel soggetto affetto da anoressia si
presentano come conseguenza l’ipotermia cioè abbassamento di temperatura corporea, bradicardia cioè
rallentamento del battito cardiaco e alterazione del metabolismo. Gli anoressici possono mangiare così
poco da mettere a rischio la propria vita, ma vi è un 50% di soggetti anoressici che va incontro a periodi
di un consumo frenetico di cibo, con una media minima di due a settimana per almeno tre mesi, seguito
da purghe lassative o vomito autoindotto. Questo disturbo caratterizzato da cicli di digiuno,
iperalimentazione e vomito autoindotto per evitare che tutto questo cibo venga assorbito e tradotto in
grasso è chiamato bulimia (dal greco fame da bue) nervosa. Al momento non vi sono rimedi efficaci, pochi
pazienti sono guariti del tutto e coloro che reagiscono al trattamento spesso hanno delle ricadute. Il
rapporto degli anoressici con il cibo è ambiguo, poiché durante la fase cefalica manifestano desiderio e
piacere nel preparare il cibo, nell’acquistarlo o anche nel discutere di cibo, ma poi quando si tratta di
mangiarlo spesso sono disgustati dal sapore o stanno male subito dopo aver mangiato. Sono state
elaborate diverse teorie riguardo lo studio delle cause dell’anoressia nervosa. La teoria dell’incentivo
suggerisce che la progressiva rinuncia al cibo è la conseguenza della mancanza di incentivi positivi
associati al cibo, ossia ogni pasto consumato da un anoressico può creare molte diverse avversioni al
gusto che riducono la motivazione a mangiare. Da un punto di vista terapeutico pertanto tali pazienti non
devono essere incoraggiati a consumare pasti o addirittura non bisogna permetterlo, ma anzi devono
essere nutriti con piccole quantità di cibo a brevi intervalli durante l’intera giornata. Sono state formulate
delle ipotesi neuro biologiche e biochimiche sui disturbi alimentari, è stata per esempio evidenziata una
riduzione della secrezione dei neurotrasmettitori coinvolti nella regolazione del comportamento
alimentare, cioè la noradrenalina, la serotonina e la dopamina. Sono state individuate delle alterazioni
nella modalità di interazione fra i sistemi di questi neurotrasmettitori , nonché la disattivazione dei
segnali di sazietà e del meccanismo omeostatico di mantenimento di un peso corporeo equilibrato e
costante, modello set point. L’OMS ha definito la salute con un paradigma biopsicosociale ossia come
equilibrio ed integrazione armoniosa della funzionalità sia a livello biologico che psicologico che sociale
dell’individuo.
Con il termine motivazione si intende un fattore dinamico che è causa o motivo di un comportamento o di
una azione. Questi fattori motivazionali possono essere consci o inconsci, semplici o complessi, transitori
o persistenti e si possono descrivere in termini psicologici o neurobiologici. Più precisamente si
distinguono le motivazioni primarie o viscerogene fisiologiche legate alla sopravvivenza e le motivazioni
secondarie o psicogene che sono invece di natura sociale.
Liquidi corporei. Una fra le principali motivazioni di tipo neurobiologiche è la psicobiologia del bere,
ossia la regolazione del comportamento di assunzione di liquidi corporei. Una delle prime teorie
sviluppate è la teoria della cosiddetta bocca secca secondo cui la sensazione soggettiva di avere la bocca
asciutta stimoli l’individuo a bere; anche se tale sensazione è legata ad un carenza di liquidi corporei e
può indurre a bere, si è visto che non è la bocca secca lo stimolo primario all’assunzione di liquidi. Ad
esempio producendo una secchezza cronica con l’asportazione delle ghiandole salivari si è visto che non
si determina un aumento di assunzione di liquidi a meno che non ci sia un regime dietetico costituito solo
da cibi secchi e molto caldi. Tale teoria è stata poi disconfermata dagli studi sul falso bere, che è una
103
situazione sperimentale che viene creata chirurgicamente tramite una fistola gastrica o duodenale per cui
il liquido che viene ingerito è riversato subito all’esterno del corpo senza essere assorbito quindi il cavo
orale non rimane mai asciutto. Nonostante ciò l’animale deprivato di liquidi continua a bere.
Il 60% dei liquidi del corpo è formato da acqua e circa i due terzi dell’acqua corporea sono contenuti
all’interno delle cellule (liquido intracellulare) e circa un terzo fuori di esse (liquido extracellulare). I
liquidi extracellulari sono costituiti da fluidi interstiziali che circondano le cellule, da sangue e liquido
cerebrospinale. Generalmente i liquidi intra ed extra cellulari hanno la stessa concentrazione di soluti e
per questo sono dette soluzioni isotoniche. Se per qualche motivo la concentrazione dei soluti di uno dei
due liquidi tende a diminuire o aumentare, entra in gioco una forza, detta pressione osmotica, che fa si
che l’acqua, per un processo chiamato osmosi, si sposta dal compartimento a minore concentrazione
(soluzione ipotonica) verso quello a maggiore concentrazione (soluzione ipertonica), per ristabilire le
normali condizioni isotoniche. Per la sopravvivenza dell’individuo è importante che la concentrazione del
liquido intra ed extra cellulare sia sempre regolata e per questo la maggior parte dei meccanismi di
regolazione psicobiologici del bere sono incentrati sul bere in risposta a deficit nel volume dei due liquidi.
L’acqua può essere eliminata attraverso l’urina ma anche attraverso la sudorazione, la respirazione la
defecazione. Gli uomini eliminano una grande quantità di acqua e hanno una limitata capacità di
conservarla all’interno del corpo, tant’è che è possibile vivere per settimane senza cibo ma non senza
bere. Quando le risorse di acqua dell’organismo si riducono notevolmente il corpo conserva la ridotta
quantità di acqua e stimola la sete attraverso due sistemi fisiologici : la disidratazione cellulare, riduzione
del volume del liquido intracellulare, e l’ipovolemia, riduzione del volume ematico. Ad esempio la sete
indotta dai cibi salati è causata da disidratazione cellulare: il sale non passa facilmente all’interno delle
cellule ma si accumula nei liquidi extracellulare rendendoli ipertonici e quindi determinando uno
spostamento dell’acqua dall’interno della cellula all’esterno. La disidratazione cellulare è studiata
principalmente mediante iniezione di soluzione ipertonica di sale, o di altri soluti che non attraversano la
membrana cellulare. Le cellule che rilevano la disidratazione cellulare sono detti osmocettori, che si
ritiene siano situati nell’area preottica laterale dell’ipotalamo. Ci sono due meccanismi attraverso cui gli
osmocettori provocano la sete: diretto e indiretto. Il meccanismo diretto è di tipo nervoso quando gli
osmocettori sensibili alla disidratazione cellulare attivano circuiti neuronali che regolano la sete, il
meccanismo indiretto è di tipo ormonale quando gli osmocettori sensibili alla disidratazione
determinano da parte dell’ipofisi posteriore il rilascio dell’ormone antidiuretico (ADH), denominato
vasopressina, che contribuisce a conservare i liquidi, ad aumentare il riassorbimento di acqua dall’urina
e ad aumentare la sete. L’ipovolemia è un importante stimolo per la sete e sperimentalmente può essere
prodotta prelevando sangue dal soggetto o iniettando colloidi, sostanze simili alla colla che non passano
nella membrana cellulare, all’interno della cavità peritoneale. che producono una riduzione del volume
ematico senza produrre disidratazione cellulare. L’ipovolemia viene rilevata dai barocettori (ricettori di
pressione cardiaci) situati nelle pareti del cuore e da recettori di flusso renali, che misurano il flusso
sanguigno. Quando il volume ematico si riduce sia i barocettori (cardiaci) che i recettori di flusso ematico
(renali) danno inizio ad una serie di risposte renali che favoriscono la conservazione delle risorse idriche.
I barocettori influenzano i reni attraverso l’aumento di ADH dall’ipofisi mentre i recettori di flusso
agiscono sul rene direttamente. Nei casi di deprivazione di acqua sia gli osmocettori ipotalamici che i
barocettori provocano il rilascio dell’ADH ipofisario, il quale influenza i reni in due modi: riducendo il
volume di urina prodotta e aumentando il rilascio di renina. L’aumento di renina stimola la sintesi nel
sangue di angiotensina II che a sua volta produce un aumento di pressione sanguigna sia attraverso la
costrizione dei vasi che mediante il rilascio di aldosterone da parte della corteccia surrenale.
L’aldosterone stimola il rene a riassorbire molto sodio che altrimenti sarebbe eliminato con le urine. Il
mantenimento di livelli ematici di sodio alti è importante per evitare ulteriore cadute di volume ematico,
poiché tanto più alta è la concentrazione di sodio nel sangue tanto più acqua sarà in esso ritenuta.
L’assunzione spontanea di liquidi, che viene definito bere spontaneo, suggerisce che tale comportamento
104
è motivato dalle proprietà incentivanti delle bibite, il cui valore incentivante aumenta in caso di
deprivazione di acqua, e dal sapore. Il bere è spesso associato anche all’assunzione di cibo secco o ricco di
proteine, ma deriva anche da forme di apprendimento che consentono di prevenire carenze di acqua,
come ad esempio bere prima di una corsa. Secondo la teoria dei valori di riferimento il segnale che
elimina la sete ed interrompe l’azione del bere è il ritorno a normali livelli fisiologici delle riserve di
liquidi corporei. La sazietà senso specifica svolge un importante effetto sulla sete : innanzitutto gli
animali mostrano di preferire alle bevande sempre disponibili quelle che sono disponibili solo
periodicamente. Come accade nel fenomeno conosciuto con il nome di effetto stimolante della saccarina,
che si verifica quando ratti che hanno accesso sia ad acqua che ad una soluzione di saccarina hanno sin
dall’inizio preferenze per quest’ultima, ma tale preferenza aumenta se la soluzione viene tolta per un po’
di tempo e poi ripresentata. E’ stato anche dimostrato che il consumo di acqua aumenta quando gli
animali hanno a disposizione una grande varietà di bevande. L’eccesivo consumo di acqua viene definito
polidipsia.
Un’ altra motivazione con fondamenti neurobiologici che si evidenzia in ambito socio relazionale è
l’aggressività. E’ una motivazione importante perché ha avuto un ruolo nell’evoluzione della specie.
Esistono diverse forme di aggressività interpersonale che sono caratterizzate principalmente dal fatto
che producono danno emotivo e/o fisico a chi lo riceve. Esistono tre forme di aggressività che
corrispondono a tre sistemi neurali distinti ma interconnessi fra loro : aggressione difensiva, predatoria e
sociale. L’aggressione difensiva è generalmente rivolta ad oggetti che sono percepiti come pericolosi; è
stata osservata prima negli animali e poi negli esseri umani e si è visto che esistono delle posizioni e dei
comportamenti di aggressività difensiva che inducono a loro volta nell’avversario comportamenti e
posture di difesa, come la postura difensiva dorsale che permette di difendere la parte superiore più
vulnerabile e attuare al tempo stesso comportamenti difensivi reattivi alla aggressività subita.
L’aggressività predatoria è invece rivolta verso membri di altre specie per scopi alimentari, cioè per
difendere il cibo, quindi vengono attaccati e uccisi membri di altre specie che vogliono in qualche modo
competere a livello di scorte alimentari. A livello neurale sia l’aggressività difensiva che predatoria sono
attivate dall’ipotalamo laterale e dall’amigdala, mentre invece vengono inibite dai nuclei dell’ipotalamo
ventro mediale, dal nucleo accumbens, dai nuclei del rafe e dal setto. L’aggressività sociale non è
un’aggressività reattiva ad una azione aggressiva ricevuta ed è diretta a con specifici per stabilire,
modificare o mantenere una gerarchia sociale. Ad esempio la si può notare nelle colonie di animali
formate da maschi e femmine che vivono insieme nel momento in cui arriva un maschio estraneo oppure
si ci sono coppie di maschi che competono nella stessa colonia. Le strutture neurali implicate
nell’attivazione dell’aggressività sociale sono l’ipotalamo ventro mediale, il setto, il nucleo accumbens e
i nuclei del rafe mentre non è chiaro se ci siano e quali siano le strutture neurali che possono inibire tale
aggressività. Vi è stato poi un altro studio basato sulla relazione fra aggressività e testosterone in cui si
è visto che in molte specie il comportamento aggressivo compare più nei maschi che nelle femmine
perché sembra vi siano dei pattern di comportamento aggressivo tipici del maschio che si attivano dopo
la pubertà quando i livelli di testosterone in circolo aumentano. Sembra comunque che il ruolo
organizzativo e attivante del testosterone sul comportamento aggressivo sarebbe minore sull’essere
umano rispetto ad altre specie animali. Sono stati effettuati anche studi di stimolazione cerebrale dei siti
neurali ricondotti al comportamento aggressivo per verificare che questo fosse effettivamente ottenuto.
In particolare si è visto che la stimolazione stimola appunto aggressione sociale ma non spinge ad
attaccare altri obiettivi rispetto a quello iniziale.
Un’altra motivazione fondamentale per la sopravvivenza è la termoregolazione. Sono stati individuati due
sistemi di termoregolazione : uno fondato su risposte comportamentali esplicite volte a regolare la
temperatura corporea sempre intorno al valore critico per la sopravvivenza che per l’essere umano a
riposo è intorno i 37 gradi C medi in un ambiente a temperatura costante, e uno fondato su risposte
termoregolatorie riflesse come iperventilazione, sudorazione e brividi. Generalmente le informazioni
105
inerenti la regolazione della temperatura corporea sono raccolte e inviate dai termocettori che si trovano
in tutto il corpo alle strutture neurali coinvolte che sono indicate l’ Area preottica e ipotalamo anteriore.
Tutte le specie animali pluricellulari sono in grado di svolgere tutte le funzioni vitali entro una gamma
ristretta di temperatura, per cui è necessario che la temperatura rimanga sempre e entro quella gamma.
Nell’essere umano oltre al ritmo circadiano base di temperatura corporea che la mantiene intorno ai 37
gradi una specificità per quanto riguarda le donne è legata al ciclo mensile mestruale. Generalmente dopo
l’ovulazione la temperatura è di 0.5 gradi C maggiore della temperatura prima dell’ovulazione . Si è
inoltre visto che se la nostra temperatura subisce variazioni in eccesso o in difetto di circa 2.5 gradi C la
capacità analitica e creativa cerebrale vengono perdute e si verifica confusione e compromissione del
giudizio. Gli aumenti di temperatura sono molto più pericolosi delle diminuzioni. Rispetto alle variazioni
di temperatura gli esseri viventi pluricellulari sono stati divisi in due categorie: omeotermi e
poichilotermi. I mammiferi e gli uccelli sono classificati come omeotermi cioè animali a sangue caldo
perché riescono a mantenere la temperatura interna ad un valore relativamente costante anche quando
la temperatura esterna varia. I poichilotermi sono invece animali a sangue freddo che non è che non
hanno la capacità di poter mantenere la temperatura corporea in via riflessa. Nei poichilodermi più
complessi come i pesci i rettili e gli anfibi la loro risposta regolatoria è quella di spostarsi in ambienti più
freddi quando il clima diventa troppo caldo e in ambienti più caldi quando diventa troppo freddo. le api
quando l’alveare è troppo caldo o troppo freddo non si spostano invece ma collaborano per realizzare un
sistema di condizionamento d’aria che mantenga l’alveare e le larve ad una temperatura costante. La
termoregolazione nei poichilotermi predomina sulle altre attività perchè se il loro corpo si riscalda o
raffredda troppo devono interrompere ogni attività ed iniziare una azione compensativa. Gli omeotermi
invece rispondono a variazioni di temperatura corporea sia in eccesso che in difetto con azioni
comportamentali esplicite. Hanno meccanismi di termoregolazione più complessi e diversificati, per
esempio se diminuisce la temperatura l’essere umano può muoversi producendo calore con il lavoro
muscolare, può indossare abiti pesanti, può ingerire bevande o cibi caldi, mentre altri mammiferi cercano
il contatto fisico per potersi riscaldare. Gli omeotermi apprendono con facilità i comportamenti necessari
per controllare la temperatura mettendo cosi in atto risposte regolatorie anticipatorie, ad esempio si può
cambiare postura e quindi se ci si trova in un ambiente freddo si tenderà ad assumere una posizione più
chiusa per non disperdere calore. Gli omeotermi riescono a regolare la temperatura anche attraverso
risposte interne di tipo riflesso. Ad esempio i mammiferi hanno tre risposte di raffreddamento : aumento
della respirazione cioè iperventilazione che aumenta l dispersione di calore attraverso i polmoni,
aumento della traspirazione che aumenta la dispersione di calore attraverso l’evaporazione,
vasodilatazione cioè dilazione dei vasi periferici che aumenta l’afflusso di sangue alla superficie del corpo
facilitando la dispersione di calore. Anche i meccanismi di riscaldamento riflessi sono di tre tipi: il brivido
che produce calore perché aumenta l’attività muscolare, la vasocostrizione periferica che riduce la
perdita di calore contenendolo al centro del corpo e il rilascio di tiroxina da parte della tiroide che
accelera la produzione di calore aumentando la velocità del metabolismo generale. Una manifestazione
evidente del freddo è la pilo erezione che è una risposta di termo conservazione ereditata che serviva ai
nostri antenati per aumentare le proprietà termoisolanti perché aumenta lo spessore dello strato del
pelo. Le strutture neurali coinvolte nella termoregolazione sono l’area preottica e l’ipotalamo anteriore
che fondano un meccanismo regolatorio a feedback centrato su un valore critico che è appunto quello di
37 gradi. Ad esempio quando tali strutture vengono raffreddate il soggetto sceglie una temperatura
ambiente più alta e viceversa, come fossero sede di una sorta di termostato. Nell’essere umano fra le
possibili variazioni di temperatura molto interessanti sono due fenomeni : la febbre, aumento di
temperatura corporea, e la ipotermia, cioè l’abbassamento di temperatura. La febbre è in genere
associata a infezioni o ferite, accelera tutti i processi metabolici del corpo per aumentare la velocità dei
processi di riparazione e la capacità del sistema immunitario di affrontare gli agenti che hanno
determinato infezione. Le infezioni che determinano la febbre si chiamano infezioni pirogene che, come le
106
ferite, non agiscono direttamente sul sistema termoregolatore ma inducono i tessuti colpiti a rilasciare un
fattore chiamato fattore pirogeno endogeno che tramite il sangue arriva al cervello il quale induce la
febbre innalzando il valore critico di temperatura. Generalmente la durata della febbre e la sua gravità
dipendono molto dall’agente che ha causato l’infezione o la ferita. C’è quindi una prima fase in cui si
presentano i brividi di freddo e aumento della temperature, poi i brividi scompaiono e la febbre si
stabilizza . La terza e ultima fase è quella del decremento febbrile in cui il valore critico torna ai valori
fisiologici del corpo e il corpo si libera dal calore immagazzinato in eccesso producendo anche una
sudorazione molto profusa. L’ipotermia invece è una condizione in cui la temperatura corporea centrale
scende al di sotto dei 35 gradi C. E’ la principale causa di morte in situazioni come disastri marittimi,
spedizioni montane e polari, e nel caso di persone anziane che vivono in zone fredde o in abitazioni senza
riscaldamento. I principali sintomi associati sono il tremito massimo, il sangue che viene spinto al centro
del corpo, dopodiché vi è la cessazione del tremito la dilatazione della pupilla, l’apatia, confusione
mentale e ridotta capacità di giudizio, subentrano poi allucinazioni, amnesie, diminuzione del tasso di
metabolismo fino ad arrivare a perdita d coscienza diminuzione del battito cardiaco, aumento della
rigidità muscolare, aumento della respirazione fino ad arrivare alla cessazione dell’attività cardiaca ed
elettroencefalografica e quindi alla morte. Gli essere umani possono riaversi anche in seguito ad
abbassamenti di temperatura corporea centrale al di sotto dei 27 gradi C anche se possono sembrare
morti perché come abbiamo detto fra i sintomi c’è anche la mancata rilevazione del battito cardiaco, di
respirazione e di attività elettrica corticale. L’unico segno certo di morte per ipotermia è la mancanza
totale di recupero quando il corpo viene riscaldato e la temperatura viene riportata a livelli normali.
Dipendenza farmaci e circuiti della gratificazione
I farmaci psicoattivi sono farmaci che influiscono sul sistema nervoso e quindi sull’esperienza soggettiva
che l’individuo ha circa gli stimoli ambientali e le situazioni ed influiscono anche sul suo
comportamento. Vi è una differenza importante fra uso e abuso di questi farmaci : l’uso viene studiato
nell’ambito dell’osservazione del sistema nervoso e del trattamento dei suoi disturbi, mentre l’abuso
rientra nel campo di studi della tossicodipendenza e della dipendenza fisica e psicologica da farmaci. Le
tre fasi dell’azione dei farmaci psicoattivi sul SNC sono: la somministrazione, la penetrazione nel sistema
nervoso centrale, metabolismo ed eliminazione dei farmaci. La somministrazione può includere diverse
modalità quali l’ingestione, l’iniezione, l’inalazione e l’assorbimento attraverso le membrane mucose.
L’ingestione è una somministrazione per via orale quindi per bocca e generalmente è il tipo di
somministrazione preferita. Una volta ingoiati i farmaci si dissolvono nei fluidi gastrici e vengono in
questo modo condotti fino all’intestino dove vengono assorbiti nel circolo sanguigno. I farmaci che non
sono subito assorbiti dall’apparato digerente o che prima di essere assorbiti sono scissi in metaboliti
devono essere assunti per altra via. La somministrazione per via orale ha due vantaggi : è più semplice ed
è relativamente più sicura. Il suo svantaggio è invece la sua imprevedibilità, ossia l’assorbimento dal
tratto digestivo al sistema ematico può venire modificato da fattori incontrollabili come ad esempio il
tipo e la quantità di cibo nello stomaco. I farmaci attraversano rapidamente la parete gastrica ed hanno
quindi un effetto rapido perché non devono raggiungere l’intestino per essere assorbiti. La modalità per
iniezione è anch’essa molto praticata in medicina perché ha effetti molto rapidi e più prevedibili rispetto
ai farmaci somministrati per via orale. Generalmente l’iniezione viene effettuata o nel tessuto adiposo
sotto la cute, detta iniezione sottocutanea, oppure nei grandi muscoli, detta iniezione intramuscolare, o
direttamente nelle vene in punti in cui le vene decorrono sotto la cute, detta iniezione per via
endovenosa. Molti tossicodipendenti preferiscono la via endovenosa perché il circolo ematico trasporta la
sostanza iniettata direttamente al cervello. Tuttavia nonostante i vantaggi di una somministrazione
diretta e veloce permessa dall’iniezione intravenosa, vi sono anche svantaggi perché dopo una
iniezione per endovena ci sono poche possibilità di contrastare gli effetti del sovradosaggio quindi si può
verificare facilmente l’overdose oppure non si possono contrastare gli effetti di una reazione allergica con
107
il conseguente shock anafilattico. Inoltre molti tossicodipendenti sviluppano cicatrici cutanee, infezioni e
colassi venosi in corrispondenza dei punti del corpo dove è possibile più facilmente accedere alle vene di
dimensioni maggiore. La somministrazione per inalazione consente l’assorbimento delle sostanze nel
sistema ematico attraverso la fitta rete dei capillari dei polmoni. Vengono assunti per inalazione molti
anestetici come avviene però anche per il tabacco o la marijuna. I due limiti principali di questa via di
somministrazione dipendono dalla difficoltà nella regolazione precisa della dose della sostanza da inalare
e dal fatto che molte sostanze che vengono inalate in modo prolungato danneggiano i polmoni. Infine
l’ultima modalità di somministrazione è l’assorbimento dei farmaci attraverso le membrane mucose del
naso, della bocca e del retto. La cocaina viene ad esempio assunta attraverso la membrana nasale
comportando anche dei danni. Una volta che una sostanza è stata assorbita dal sistema ematico viene
attraverso di esso trasportata ai vasi sanguigni del SNC. Esiste fortunatamente un filtro protettivo che
impedisce il passaggio nel SNC di sostanze chimiche potenzialmente dannose per il
SNC stesso, tale filtro è la barriera ematoencefalica. A questo punto avviene quello che è il fenomeno della
penetrazione nel SNC. I farmaci agiscono sul SNC attraverso due meccanismi di azione : i meccanismi
generalizzati, per esempio l’alcol e gli anestetici agiscono in questo modo cioè agiscono diffusamente
sulle membrane neurali di tutto il sistema nervoso, e i meccanismi specifici in cui il farmaco forma legami
con specifici recettori sinaptici oppure influenza la sintesi, il trasporto, la liberazione o la de attivazione di
specifici neurotrasmettitori oppure esercita influenza su reazioni chimiche nei neuroni postsinaptici
dopo l’attivazione dei recettori. Infine abbiamo il processo del metabolismo e l’eliminazione dei farmaci.
Il metabolismo dei farmaci è un processo che viene stimolato dagli enzimi prodotti dal fegato e attraverso
questo processo i farmaci vengono convertiti in sostanze inattive. Nella maggior parte dei casi il
metabolismo elimina la capacità di una sostanza di passare attraverso le membrane lipidiche in modo da
non poter ulteriormente attraversare la barriera emato encefalica, oppure il farmaco viene inattivato
tramite legami con depositi lipidici e grandi molecole proteiche presenti nel sangue. L’eliminazione dal
corpo invece può avvenire attraverso l’urina, il sudore, le feci, la respirazione e il latte materno.
Nell’ambito dell’influenza dei farmaci psicoattivi sul SNC e quindi di conseguenza sull’esperienza
soggettiva e sul comportamento dell’individuo che li assume sono importanti due processi : la tolleranza
ai farmaci o assuefazione e l’astinenza dai farmaci. La tolleranza ai farmaci o tolleranza farmacologica o
assuefazione è uno stato di ridotta sensibilità ad un farmaco in seguito alla sua assunzione. Questo
comporta che una determinata dose di quel farmaco comincia a divenire meno efficace rispetto alle
precedenti assunzioni tanto che per ottenere i medesimi effetti è necessario aumentare le dosi del
farmaco. La rappresentazione grafica del fenomeno è data da una curva che descrive la relazione
dose-risposta e che nel caso dell’assuefazione è una curva che si sposta verso destra con la conseguenza
che nei soggetti assuefatti la stessa dose ha un effetto minore ed è quindi necessaria una dose maggiore
per ottenere lo stesso effetto. Rispetto alla tolleranza farmacologica bisogna tener presente tre punti
fondamentali : il primo è che l’assunzione di una sostanza può produrre un’assuefazione nei confronti di
altre sostanze che agiscono con lo stesso meccanismo, questo fenomeno viene detto assuefazione
crociata; il secondo punto consiste nel fatto che spesso l’assuefazione si sviluppa nei confronti di alcuni
effetti della sostanza ma non di altri, infatti si può instaurare una tolleranza rispetto ad alcuni effetti di
una sostanza mentre la sensibilità ad altri effetti della stessa sostanza può aumentare, tale incremento di
sensibilità viene detto sensibilizzazione alla droga. Il terzo elemento è che l’assuefazione non è un
fenomeno unitario cioè non esiste un singolo meccanismo responsabile delle diverse manifestazioni
dell’assuefazione. Possiamo infatti distinguere : la tolleranza metabolica, la tolleranza funzionale, la
tolleranza farmacologica contingente e una specificità situazionale della tolleranza. La tolleranza
metabolica deriva dai cambiamenti che riducono la quantità di prodotto che raggiunge i siti di azione,
mentre la tolleranza funzionale deriva da variazioni che riducono la reattività dei siti di azione della
sostanza; in genere la tolleranza ai farmaci psicoattivi è spesso di tipo funzionale e può dipendere da
diversi tipi di modificazioni neuronali. Per esempio l’assunzione protratta di una sostanza psicoattiva può
108
ridurre il numero dei recettori disponibili per quella stessa sostanza, diminuire l’efficienza con la quale si
lega ai recettori esistenti oppure può diminuire l’effetto del legame recettoriale sull’attività della cellula
oppure si producono mutamenti strutturali della membrana neurale. Questi mutamenti sono in genere
studiati da neurochimici tramite esperimenti in cui culture di tessuti nervosi vengono esposte a
concentrazioni precise di farmaco in ambienti chimici controllati strettamente, quindi in vitro,
osservandone poi le conseguenze. Si studiano in questo modo i mutamenti appresi dovuti
all’esposizione diretta al farmaco, oppure si studiano gli effetti comportamentali a seguito dell’assunzione
ripetuta di un farmaco. In quest’ultimo caso oggetto di studio è il fenomeno dell’assuefazione contingente
che fa riferimento al fatto che la tolleranza si sviluppa solo per quelle sostanze i cui effetti sono realmente
esperiti. Nella maggior parte degli studi sull’assuefazione contingente si impiega il paradigma prima e
dopo, in cui si osserva cosa fanno i soggetti prima della somministrazione del farmaco e cosa fanno dopo.
In questo tipo di esperimenti si effettua la stessa serie di iniezioni di droga e la somministrazione di test a
due gruppi di soggetti. Un gruppo però riceve la sostanza prima del test, e l’altro gruppo la riceve dopo.
Alla fine dell’esperimento tutti i soggetti hanno avuto la stessa dose di farmaco e tutti sono stati
sottoposti agli stessi test ma il farmaco agisce solo sul comportamento dei test eseguiti dopo la
somministrazione e quindi il confronto fra i gruppi rivela l’effetto. Per esempio attraverso un
esperimento su cavie si è studiata l’assuefazione contingente agli effetti anticonvulsivanti dell’alcol : due
gruppi di cavie ricevono la stessa sequenza di iniezioni di alcol, una ogni due giorni per la durata
dell’esperimento, durante la fase di sviluppo della tolleranza i ratti di uno dei gruppi riceveranno
un’iniezione di alcol un’ora prima di una leggera stimolazione cerebrale convulsivante in modo da poter
sperimentare l’azione anticonvulsivante dell’alcol. Ai ratti dell’altro gruppo tale iniezione veniva fatta
un’ora dopo la stimolazione non potendo cosi esperire l’azione anticonvulsivante dell’alcol. Alla fine
dell’esperimento tutti i ratti ricevevano una iniezione di alcol seguita un’ora dopo da una stimolazione
convulsivante in modo da poter confrontare nei due gruppi il livello di assuefazione all’effetto
anticonvulsivante dell’alcol. I ratti che durante l’esperimento avevano ricevuto l’iniezione prima della
stimolazione presentavano assuefazione all’effetto anticonvulsivante dell’alcol, mentre i ratti dell’altro
gruppo no. E’ stata sviluppata una teoria per spiegare il fenomeno della tolleranza contingente che è la
teoria della tolleranza all’effetto farmacologico che spiega come in un soggetto possa svilupparsi una
tolleranza ad un effetto di un farmaco ma non agli altri. Un’altra linea di ricerca che ha cercato di
dimostrare l’importanza dell’apprendimento nella tolleranza farmacologica quindi l’importanza
dell’esposizione protratta ad un farmaco per l’acquisizione della tolleranza farmacologica come
meccanismo appreso, è una linea di ricerca che ha considerato gli effetti dell’ambiente in cui vengono
provati gli effetti dei farmaci. Con il termine assuefazione condizionata si fa riferimento al fatto che gli
effetti dell’assuefazione si manifestano maggiormente quando una sostanza viene somministrata nella
stessa situazione nella quale era stata somministrata precedentemente. Un esempio di assuefazione
condizionata è stato presentato in uno studio in cui due gruppi di ratti ricevevano venti iniezioni di alcol e
di soluzione salina tutti i giorni in sequenza alternata. L’unico aspetto che differenziava i due gruppi era
l’ambiente in cui avvenivano le somministrazioni: un gruppo riceveva le iniezioni di alcol in una stanza di
laboratorio e le iniezioni di soluzione salina nella loro stanza abituale, mentre per l’altro gruppo
avveniva il contrario. Alla fine dell’esperimento è stata valutata nei due ambienti l’assuefazione dei ratti
agli effetti ipotermici dell’alcol, in quanto producono abbassamento di temperatura. L’assuefazione è
stata rilevata solo nei ratti la cui temperatura in risposta all’alcol è stata misurata nello stesso ambiente
dove avevano ricevuto le iniezioni di alcol, mostrando una selettività dell’assuefazione per una situazione
particolare. E’ stata proposta una teoria da Siegel e colleghi abbastanza simile per soggetti tossicomani
che sembrano essere suscettibili agli effetti letali di un sovradosaggio quando la droga viene assunta in
un contesto nuovo. L’ipotesi è che i tossicodipendenti sviluppano un’assuefazione quando si
autosomministrano la droga ripetutamente nello stesso contesto e sono portati ad assumere dosi sempre
maggiori per controbilanciare
la diminuzione dell’effetto della sostanza. Quindi se un
109
tossicodipendente assume la dose forte abituale in una situazione non abituale gli effetti
dell’assuefazione non sono presenti e non controbilanciano quelli della sostanza, di conseguenza il rischio
di morte per overdose aumenta. Secondo Siegel ogni assunzione di una sostanza corrisponde a una
prova di condizionamento pavloviano nella quale diversi elementi ambientali, che predicono
l’assunzione della droga, come bar, toilette, altri tossicodipendenti, costituiscono gli stimoli condizionati
mentre gli effetti della sostanza sono gli stimoli incondizionati. L’assunto fondamentale su cui si basa la
teoria di Siegel è che gli stimoli condizionati che predicono l’assunzione della sostanza sono in grado di
evocare le risposte condizionate opposte agli effetti incondizionati della sostanza. Questa risposta
condizionata viene detta da Siegel risposta condizionata compensatoria. Secondo questa teoria gli stimoli
che predicono con regolarità l’assunzione della sostanza provocano risposte condizionate di
compensazione sempre maggiori opponendosi con sempre maggiore efficacia agli effetti incondizionati
della sostanza e inducendo lo sviluppo della tolleranza. Anche il fenomeno della sensibilizzazione può
essere selettiva per la situazione. Dopo l’assunzione di una quantità notevole di una sostanza per un certo
periodo di tempo, la sua eliminazione improvvisa può provocare una condizione di malessere, nota come
sindrome d’astinenza. Gli effetti della sospensione dell’assunzione di una sostanza sono in linea di
principio sempre opposti a quelli prodotti dalla sostanza stessa, ad esempio la sospensione di una
sostanza ipnotica spesso provocherà insonnia. Se si manifestano reazioni di questo tipo alla sospensione
di un farmaco siamo di fronte ad una dipendenza fisica da quel farmaco. Il fatto che gli effetti derivanti
dall’astinenza siano opposti a quelli dipendenti dall’assuefazione indica che entrambi possono essere
prodotti dalle stesse variazioni neuronali. Pertanto l’assunzione di una sostanza provoca variazioni
compensatorie nel sistema nervoso che riducono gli effetti della sostanza producendo tolleranza, quando
la sostanza viene eliminata dall’organismo queste variazioni neuronali compensatorie in assenza della
sostanza che li annulla si manifestano come sintomi di astinenza opposti a quelli dell’assuefazione. La
gravità dei sintomi d’astinenza dalla sostanza in questione, dalla durata e dalla quantità di sostanza
assunta in precedenza e dalla velocità con la quale la sostanza viene eliminata dal corpo; in generale le
crisi di astinenza più gravi sono quelle provocate dall’assunzione precedente di quantità considerevoli di
una sostanza prolungata per lungo tempo la cui eliminazione è molto rapida. Sulla base della relazione
nella teoria di Siegel fra assuefazione e risposta condizionata compensatoria, anche nel caso di privazione
della sostanza l’ambiente dovrebbe produrre effetti opposti a quelli inizialmente provocati dalla sostanza
stessa. Gli effetti d’astinenza che sono indotti dall’ambiente o da fattori associati alla sostanza sono detti
effetti d’astinenza condizionati . Tali effetti sono stati riscontrati con uno studio condotto su tre gruppi di
ratti dove ad uno dei gruppi venivano somministrate iniezioni di morfina in una stanza di laboratorio e
iniezioni di soluzione salina nella gabbia abituale, all’altro la somministrazione veniva effettuata in
condizioni opposte, nel terzo gruppo riceveva iniezioni di soluzione salina in entrambi gli ambienti. Alla
fine dell’esperimento si notò che i ratti che avevano ricevuto iniezioni di morfina nella stanza di
laboratorio mostrarono crisi di astinenza notevolmente superiori rispetto agli altri due gruppi. Le
principali sostanze di abuso oltre ai farmaci, dover per farmaci si intendono delle sostanze chimiche di
laboratorio prodotte per curare dei disturbi, i quali però quando si sviluppa tolleranza producono in
modo incrementale proprio il disturbo che dovevano curare, ad esempio se una persona assume farmaci
per l’insonnia in dosi massicce fino a sviluppare tolleranza avrà poi bisogno di dosi sempre maggiori per
avere lo stesso effetto iniziale. Quando però si sviluppa una tolleranza molto elevata il farmaco a causa
della sua assunzione massiccia produce proprio l’effetto opposto ossia la persona soffre di insonnia
ancora di più perché neanche il farmaco può aiutarla. Bisogna dire comunque che la dipendenza fisica e
l’astinenza non sono fattori principali motivanti della tossicodipendenza, ma esiste un notevole divario
fra le evidenze basate sulla ricerca scientifica a proposito dei meccanismi che mediano la condotta a
livello biologico del tossicodipendente, l’opinione pubblica in materia di tossicodipendenza e la
legislazione in materia di abuso delle sostanze e di tossicodipendenza. Il tossicodipendente in realtà non
può essere visto semplicisticamente come colui che è intrappolato in questo circolo vizioso di assunzione
110
di droga, sintomi di astinenza, e riassunzione di droga in quantità sempre maggiori per contrastare
l’astinenza. Se cosi fosse queste persone potrebbero essere curate molto più facilmente ospedalizzandole
per alcuni giorni e aspettando che i sintomi dell’astinenza scompaiano , ma un metodo simile non ha
portato buoni risultati poiché molti tossicodipendenti dopo periodi anche abbastanza lunghi di astinenza
forzata ricominciavano ad assumere droga. Per cui la tossicodipendenza non è equiparabile alla
dipendenza fisica, dove per dipendenti si intendono coloro che continuano ad assumere droghe
nonostante i loro effetti negativi sulla salute e sulla vita sociale e a dispetto degli sforzi messi in atto per
arrestarne l’uso, ma ci sono anche altri fattori come l’ipotesi di una dipendenza psicologica ritenuta la
causa di una qualsiasi assunzione compulsiva di droga in assenza di dipendenza fisica. Fra le sostanze di
abuso che inducono dipendenza le 5 più note sono : tabacco, alcol, marijuana, cocaina e oppiacei (eroina e
morfina). Il tabacco è la sostanza psicoattiva maggiormente utilizzata nella nostra società dopo la
caffeina, si assume generalmente fumando sigarette e in questo modo si assorbe nei polmoni la nicotina
che è l’ingrediente psicoattivo principale nel tabacco e si assorbono anche altre sostanza chimiche come il
monossido di carbonio. Gli effetti del fumo possono verificarsi sia sui fumatori che sui non fumatori con
delle differenze perché i fumatori sviluppano tolleranza ad alcuni degli effetti immediati spiacevoli del
tabacco; ad esempio il non fumatore spesso reagisce con nausea, vomito, tosse, sudorazione, vampate di
calore, vertigini, invece il fumatore dopo aver fumato si descrive più rilassato, più vigile e con minore
appetito. I grandi fumatori potrebbero definirsi tossicodipendenti nel senso biologico del termine, anche
nel fumatore c’è la ricerca compulsiva del tabacco e ci sono effetti di astinenza abbastanza conosciuti
quando il fumatore cerca di smettere di fumare come depressione ansia irrequietezza irritabilità
stitichezza difficoltà a dormire e a concentrarsi. Quindi c’è una vera e propria sindrome del fumatore che
ha delle conseguenze abbastanza preoccupanti perché il fumatore abituale spesso presenta dolore al
torace, respiro affannoso, tosse, e aumentata sensibilità alle infezioni delle vie respiratorie, enfisema
(perdita elasticità polmonare), pleurite (infiammazione della pleura) e cancro polmonare, nonché una
maggiore predisposizione all’infarto cardiaco e cerebrale e alle malattie cardiovascolari, ma anche rischio
di cancro alla gola, alla laringe, alla bocca, all’esofago, ai reni, alla vescica, allo stomaco. Il potere di
indurre dipendenza da parte della nicotina è rappresentato da quei pazienti che soffrono della sindrome
di Buerger (Burger), che è una condizione nella quale i vasi sanguigni in particolare quelli delle gambe si
restringono ogni volta che la nicotina entra nel circolo ematico finchè non si arriva alla cancrena e quindi
all’amputazione degli arti. Come abbiamo detto gli effetti nocivi del fumo non si limitano ai fumatori, ma
esistono prove inconfutabili che anche chi lavora o vive a contato con i fumatori ha maggiore probabilità
di soffrire di disturbi cardiaci o di cancro. Il pericolo esiste anche per gli esseri non ancora nati, infatti
durante la gravidanza il fumo aumenta la probabilità di aborto, di mortalità natale e neonatale. Il livello di
nicotina contenuto nel sangue di un neonato allattato al seno spesso corrisponde a quello presente nel
sangue materno. Molti fumatori sostengono che fumano malgrado gli effetti nocivi perché riduce la
tensione, ma in realtà i fumatori sono più tesi dei non fumatori: la tensione è ad un livello normale
quando fumano ma aumenta tra una sigaretta e l’altra. L’effetto apparentemente rilassante del fumo
riflette solo una interruzione momentanea dello stress provocata dalla dipendenza del fumatore. Un’altra
sostanza di abuso nota è l’alcol che si diffonde rapidamente in tutte le parti del corpo, infatti le molecole
dell’alcol sono piccole e solubili sia nel grasso che nell’acqua e per questo motivo invadono tutto il corpo.
L’alcol viene classificato come depressivo perché riduce l’attività dei neuroni. Tuttavia a dosi basse può
stimolare l’attività neuronale e facilitare l’interazione sociale con sensazione di benessere e rilassamento,
a dosi moderate la persona prova vari gradi di disturbi cognitivi, percettivi, verbali e motori con la
possibilità di mettere in atto anche azioni socialmente indesiderabili. Dosi elevate portano invece alla
perdita di coscienza e se il livello sanguigno di alcol raggiunge il livello di 0.5% si va incontro al rischio di
decesso per collasso respiratorio. Infatti le tipiche guance rosse sono un segno rivelatore della
dilatazione dei vasi sanguigni cutanei : questa dilatazione aumenta la quantità di calore che viene persa
dal corpo con il conseguente abbassamento della temperatura corporea (ipotermia). L’alcol ha anche un
111
effetto diuretico, ossia aumenta la produzione renale di urina. Anche la dipendenza all’alcol come la
nicotina ha una forte componente genetica. Anche l’alcol produce tolleranza e dipendenza fisica ed uno
degli organi che risente maggiormente dell’assunzione protratta ed elevata di alcol è il fegato, che nei
grandi bevitori metabolizza l’alcol più rapidamente rispetto ai non bevitori. Ma questo aumento
metabolico contribuisce in minima parte alla tolleranza che è per lo più funzionale. Spesso la sospensione
dell’assunzione di alcol provoca una leggera sindrome, chiamata and over, caratterizzata da nausea, mal
di testa, vomito e tremori. Una sindrome da astinenza da alcol grave è composta da tre fasi: la prima fase
comincia dopo 5/6 ore dalla sospensione di un lungo periodo di pesante assunzione di alcol e provoca
forti tremori, agitazione, mal di testa, nausea, vomito, crampi addominali, sudorazione e talvolta
allucinazioni. La seconda fase che in genere comincia dopo 15/30 dalla sospensione consiste in una
attività convulsiva. La terza fase che di solito comincia dopo uno o due giorni viene chiamata delirium
tremens, e comporta agitazione allucinazioni, confusione, ipertermia, forti tremori e tachicardia.
Questa fase può durare anche 4 giorni e condurre alla morte. L’alcol attacca quasi tutti i tessuti corporei e
il suo uso prolungato produce ampi danni cerebrali e porta alla sindrome di Korsakoff un disturbo
caratterizzata da una grave perdita di memoria, disturbi motori e sensoriali e grave demenza. Inoltre
provoca un vasto danneggiamento del fegato, detto cirrosi, che rappresenta la principale causa di morte
nei grandi bevitori, lede il muscolo cardiaco aumentando il rischio di infarto, irrita la mucosa del tratto
digestivo aumentando il rischio di cancro alla bocca e al fegato, di ulcera gastrica e di pancreatite e
gastrite. Sono da sottolineare anche gli incidenti automobilistici e la violenza domestica come
conseguenza degli effetti nefasti dell’alcol. Come la nicotina l’alcol attraverso la placenta e influenza il
feto, con la conseguenza che i bambini nascono affetti da un disturbo noto come la sindrome alcolica
fetale, che comporta danni cerebrali, ritardo mentale, coordinazione impoverita, ipotonia muscolare,
basso peso alla nascita, ritardo nella crescita e deformazioni fisiche. L’alcol nei bevitori influenza il
funzionamento del cervello in vari modi: riduce l’afflusso degli ioni calcio nei neuroni, provoca l’apoptosi,
interferisce con la funzione dei secondi messaggeri nei neuroni e compromette la trasmissione dei
recettori GABA. Un’altra sostanza di abuso è la marijuana che è il nome che si attribuisce alle foglie e ai
fiori secchi della cannabis sativa, la pianta da canapa comune. Di solito viene consumata fumandone le
foglie in uno spinello o in una pipa, ma è efficace anche se ingerita dopo averla cotta in un substrato ricco
di olio. Gli effetti psicoattivi della marijuana sono attribuibili al suo componente detto THC (delta 9
tetraidrocannabinolo) ma la marijuana contiene anche altri 80 cannabinoidi della stessa classe del THC
che hanno effetto psicoattivi. La maggior parte dei cannabinoidi si trova in una resina viscosa che ricopre
le foglie e i fiori della pianta e possono essere estratti ed essiccati per formare una sostanza scura e simile
al sughero chiamata hashish, che può essere lavorato ulteriormente per formare un prodotto molto
potente che è l’olio di hashish. Sono state emanate molte leggi contro l’uso della marijuana in molti stati
dove è stata classificata come narcotico (un termine in genere riferito agli oppiacei) e di conseguenza
sono state stabilite delle pene. Bisogna dire comunque che la struttura della marijuana e i suoi effetti
fisiologici e comportamentali non hanno niente in comune con quelli degli altri narcotici. La popolarità
del fumo della marijuana, che si è diffusa nelle classi medie e alte soprattutto negli anni 60, ha dato vita
in quegli anni a numerose ricerche soprattutto per quanto riguarda gli effetti che sono altamente
influenzabili dal contesto sociale. Le dosi sociali in genere sono basse e in queste situazioni la marijuana
produce un senso di benessere, e alla iniziale sensazione di irrequietezza e ilarità segue quella di
rilassamento, alterazione delle percezioni sensoriali, maggiore vividezza delle sensazioni tattili, visive,
olfattive, gustative, uditive, sensazioni di fame in particolare di dolci e mutamenti nella elaborazione del
pensiero e nell’espressione linguistica. Con dosi molte alte assunte per via orale, quindi fumando
rapidamente più spinelli, si ha l’intensificazione dei sintomi appena detti e la comparsa di altri sintomi
come il peggioramento della memoria a breve termine, diventa difficile eseguire compiti che comportano
una serie di passi per raggiungere l’obiettivo, il linguaggio è disarticolato, c’è un senso di irrealtà, di
distorsione sensoriale e di impaccio motorio, anche se bisogna dire che la marijuana proprio perché
112
induce uno stato di rilassamento ostacola il comportamento aggressivo. Ciò ha contrastato le
affermazioni iniziali secondo cui la marijuana avrebbe scatenato ondate di criminalità fra i giovani.
Sicuramente è comunque una sostanza che comporta rischi anche a livello di salute come danni
polmonari ma anche altri disturbi rispetto ai quali si hanno però prove indirette e incomplete come
abbassamento plasmatico di testosterone negli uomini, riduzione della funzionalità del sistema
immunitario, problemi cardiovascolari e sindrome amotivazionale ossia quando una persona appare
priva di motivazione nel comportamento. Il potenziale di dipendenza della marijuana è basso : alcune
persone la usano occasionalmente e la maggior parte di coloro che ne fanno uso in gioventù ne riducono
il consumo dopo 30/40 anni. La tolleranza alla marijuana si sviluppa invece nei periodi di uso prolungato
e i sintomi di astinenza, come nausea, sudorazione, tremori, disturbi del sonno, compaiono solo quando
vengono somministrate massicce dosi per via orale. La marijuana ha comunque degli effetti benefici dal
punto di vista clinico, ha la capacità di bloccare la nausea prodotta dalla chemioterapia nei pazienti affetti
da cancro, infatti il nabilone che è una sostanza chimica analogo alla cannabis viene prescritto durante la
chemioterapia. Può essere inoltre utile durante le crisi epilettiche perché dilata i bronchioli aiutando la
ripresa della respirazione e cosi anche nei casi di asma e può diminuire la gravità del glaucoma che è una
malattia caratterizzata dall’aumento della pressione endo-oculare. Per esercitare i propri effetti si pensa
che il THC presumibilmente si leghi a dei recettori particolarmente numerosi nei gangli della base,
nell’ippocampo, nel cervelletto e nella neocorteccia. La cocaina è uno stimolante ossia una sostanza il cui
effetto principale è quello di provocare un aumento generale dell’attività nervosa e comportamentale.
Viene preparata utilizzando le foglie della pianta di coca che cresce in Perù e in Bolivia. L’estratto grezzo
si chiama pasta di coca e viene preparato dalle foglie, da cui poi si estrae l’idroclorato di cocaina che è la
tipica polvere bianca inodore che viene semplicemente chiamata cocaina che viene consumata di solito
sniffandola o iniettandola. L’idroclorato di cocaina può anche essere trasformato nella sua forma base
bollendolo in una soluzione di bicarbonato di sodio finchè non evapora. Il crack invece è un prodotto
impuro largamente usato in quanto poco costoso ma molto potente. L’idroclorato di cocaina è un efficace
anestetico locale che una volta veniva prescritto a questo scopo ma che in seguito fu sostituito dalla
procaina e dalla lidocaina. Ma non è per questo comunque che la maggior parte delle persone la usano. La
cocaina infatti viene assunta per provare i suoi effetti psicologici: produce uno stato di benessere, chi la
usa si sente più fiducioso di se stesso, pronto, pieno di energia, amichevole, estroverso, e inoltre
avvertono meno del solito il bisogno di cibo e di sonno. I consumatori di cocaina tendono a frequentare
cocaina sprees ossia feste a base di cocaina durante le quali vengono mantenuti livelli molto alti di
assunzione della sostanza per periodi da uno a due giorni. Ciò porta i consumatori ad essere sempre più
assuefatti alla droga con il conseguente aumento delle dosi assunte per mantenere il livello di euforia
iniziale. Di solito la festa finisce quando la droga è finita o quando si raggiungono livelli di grave
intossicazione. Infatti alti livelli di cocaina ematica possono portare a sonnolenza, nausea, tremori
ipertermia e un comportamento psicotico che prende il nome di psicosi da cocaina. Ma durante queste
feste c’è anche il rischio di crisi epilettiche, perdita di coscienza e morte per arresto respiratorio o ictus.
L’inalazione di cocaina danneggia le mucose nasali mentre il fumo di cocaina danneggia i polmoni, ma
casi letali sono dovuti ad overdose frequente con le iniezioni endovenose. Anche se la cocaina crea una
forte dipendenza, i sintomi dell’astinenza sono blandi e in genere quelli comuni sono sbalzi d’umore e
insonnia. Si ritiene che la cocaina eserciti i suoi effetti facilitando la trasmissione catecolaminergica. Oltre
alla cocaina e ai suoi derivati fra gli stimolanti di cui si abusa e che provocano gravi danni alla salute ci
sono anche le anfetamine, fra cui la d-anfetamina, la metanfetamina e l’ecstasy. Le donne che usano
stimolanti durante la gravidanza tendono ad avere bambini con QI bassi. Infine abbiamo gli oppiacei.
L’oppio è la sostanza che si estrae dai semi di papavero da oppio e contiene molte sostanze psicoattive fra
cui le più importanti sono la morfina e la codeina che insieme ad altre droghe analoghe sono chiamate
oppiacei. Questi hanno una doppia natura: da un lato sono analgesici molto potenti efficaci nel
trattamento della tosse e della diarrea, dall’altro comportano il rischio della dipendenza. L’assunzione di
113
oppio si fa risalire più o meno al 4000 avanti cristo e tre eventi hanno alimentato la dipendenza ad esso :
primo l’imperatore della Cina nel 1644 vietò l’uso del tabacco portando molti fumatori all’uso, sempre
maggiore, dell’oppio; secondo nel 1803 da questo venne isolata la morfina che divenne disponibile in
commercio; terzo nel 1856 fu inventato l’ago ipodermico e i soldati feriti provarono la morfina per
iniezione (in questo periodo la dipendenza da morfina era nota come malattia dei soldati). Fino alla fine
dell’800 l’oppio era disponibile legalmente ed era usato in molte parti del mondo come in Europa e in
NordAmerica dove veniva venduto sotto forma per esempio di dolci e liquori e anche come prodotto
medicinale senza ricetta. Dal 1914 L’Harrison Narcotic Act ha reso illegale la vendita e l’uso dell’oppio,
della morfine e della cocaina, senza includere però l’eroina che è un oppiaceo semisintetico. L’eroina è
stata sintetizzata nel 1870 partendo dalla molecola di morfina e aggiungendo due gruppi acetilici, la
qual cosa aumentava enormemente la capacità di superare la barriera ematoencefalica. L’eroina alla fine
dell’800 era commercializzata dalla Bayer senza prescrizione ed era pubblicizzata come una super
aspirina. Alcuni test avevano dimostrato che essa aveva effetti analgesici più potenti della morfine e
minore probabilità di provocare nausea o vomito. Inoltre la Bayer sulla base di prove incerte sostenne
che l’eroina non provocava dipendenza. Fu sulla base di queste affermazione che la Harrison Narcotic Act
non la incluse nella legge di divieto di vendita e uso, per cui molti tossicodipendenti passarono cosi
all’uso dell’eroina. Gli oppioidi producono il rush dopo una iniezione endovenosa, ossia un’onda di
intenso piacere addominale simile ad un orgasmo che produce uno stato di euforia serena e sonnolenta.
Questi sono gli effetti iniziali che spingono ad usare la droga sempre più frequentemente fino ad arrivare
ad una condizione in cui si rimane sotto l’effetto della droga per molto tempo da cui si sviluppano
dipendenza fisica ed assuefazione che induce ad aumentare le dosi o a passare a vie di somministrazione
più dirette come l’iniezione endovenosa. I rischi per la salute connessi agli oppiacei sono costipazione,
costrizione pupillare, irregolarità del ciclo mestruale, riduzione della libido. La sindrome da astinenza da
oppiacei comincia in genere dopo sei dodici ore dopo l’ultima dose e la persona comincia ad apparire
agitata, occhi rossi, sudorazione, sbadigli, cade in un sonno inquieto, detto iem, che può durare qualche
ora e al suo risveglio può avvertire brividi di freddo, pelle d’oca, nausea, vomito, diarrea, crampi, dolori.
Questi sintomi si aggravano dopo 2-3 giorni per poi sparire quasi del tutto dopo circa 7 giorni. I principali
rischi della dipendenza agli oppiacei non derivano dalla droga in se, ma dal fatto che queste droghe sono
costose ed il soggetto spesso conduce una vita di povertà e piccoli crimini, sono malnutriti, ricevono cure
insufficienti, si prostituiscono, con il rischio di contrarre AIDS ed altre infezioni sessuali o conseguenti
l’uso di aghi non sterilizzati. Gli oppiacei sembrano esercitare i loro effetti legandosi a recettori
particolari che legano con sostanze endogene dette endorfine. La terapia più diffusa per la dipendenza da
eroina è il metadone, anch’esso un oppiaceo ma con effetti meno potenti rispetto all’eroina.
Steroidi anabolizzanti
Gli steroidi anabolizzanti sono farmaci steroidi, come il testosterone, con effetti anabolizzanti
(stimolanti la crescita). Il testosterone non è molto utile come farmaco anabolizzante perché viene scisso
rapidamente dopo l’iniezione e a causa dei suoi effetti secondari indesiderati. Anche se sono stati
sintetizzati diversi anabolizzanti a lunga azione tutti producono effetti collaterali. Al giorno d’oggi sono
molti i giovani che fanno uso di anabolizzanti, soprattutto fra gli atleti, per aumentare la propria massa
muscolare e la propria forza. Ricerche fatte in tal senso non hanno potuto però finora confermare questi
effetti sulle prestazioni, effettivamente migliori, di chi ne fa uso, soprattutto perché la quantità di steroidi
utilizzate negli studi sperimentali erano molto inferiori a quelle usate dagli atleti e per meno tempo, ed
inoltre avevano come soggetti sperimentali individui che non erano coinvolti in allenamenti intensivi.
Vi è però un certo accordo sul fatto che chi fa uso di forti dosi di steroidi anabolizzanti va incontro a
problemi sessuali. Il feedback negativo da alti livelli di steroidi anabolizzanti riduce il rilascio di
gonadotropine che può condurre ad una riduzione nel rilascio di testosterone da parte dei testicoli, ad
atrofia testicolare, a sterilità, e a volte anche alla crescita dei seni (ginecomastia) probabilmente come
114
risultato dell’aromatizzazione degli steroidi in estrogeno. Nelle donne può indurre invece amenorrea
(scomparsa delle mestruazioni), sterilità, irsutismo (crescita dei peli), crescita del clitoride, sviluppo di
una struttura maschile, riduzione del seno e ingrossamento della voce. Sia gli uomini che le donne
possono inoltre soffrire di spasmi e dolori muscolari, acne, emorragie dalla lingua, nausea, vomito,
attacchi di depressione e rabbia. Gli steroidi anabolizzanti orali sono inoltre causa di tumori al fegato. Per
quanto riguarda gli effetti comportamentali degli steroidi anabolizzanti alcuni studi hanno sottolineato
l’effetto dell’aggressività. Bisogna tenere presente però alcuni fattori che potrebbero alterare queste
osservazioni, nel senso che poiché molta gente crede che il testosterone sia collegato all’aggressività, gli
effetti aggressivi osservati in chi fa uso di anabolizzanti potrebbero derivare dalle aspettative, oppure che
molti individui che fanno uso di steroidi anabolizzanti potrebbero essere aggressivi già prima del loro
uso, oppure ancora che il comportamento aggressivo potrebbe essere una conseguenza dell’aumento
della massa muscolare. Non ci sono indicazioni sul fatto che l’uso prolungato di alte dosi di steroidi
migliori o dia un nuovo impulso al comportamento sessuale, ma ci sono informazioni sugli effetti
distruttivi in coloro che ne fanno uso. In ogni caso finora la ricerca sugli esseri umani relativa agli effetti
degli steroidi anabolizzanti è stata effettuata sugli adulti, mentre l’uso di steroidi in età puberale può
produrre effetti nocivi duraturi. Anche se l’estradiolo è noto soprattutto per i suoi effetti sul
comportamento sessuale questo ormone può anche ridurre i danni cerebrali provocati da ictus e disturbi
neurovegetativi. Ad esempio è stato dimostrato che l’estradiolo somministrato prima, durante e subito
dopo l’insorgere di una ipossia cerebrale (riduzione di ossigeno al cervello) riduce in modo
significativo i danni cerebrali. L’estradiolo inoltre riduce l’infiammazione, favorisce la rigenerazione
assonale e promuove la sinaptogenesi e la neuro genesi negli adulti aumentandone la probabilità di
sopravvivenza. Alcuni esperimenti basati su iniezioni di sostituzione di estradiolo su ratti hanno
dimostrato che iniezioni a basso dosaggio facilitano la memoria di lavoro mentre ad alto dosaggio la
compromettono. La scoperta delle proprietà neuro protettive dell’estradiolo spiega la maggiore longevità
delle donne, la minore incidenza nelle donne di disturbi come il morbo di Parkinson e il declino di alcune
funzioni cognitive dopo la menopausa. Nelle preferenze e nel comportamento sessuali un ruolo
fondamentale è svolto dalla cultura e dall’esperienza, ma vi è anche una regolazione nervosa del
comportamento sessuale che si suppone dovuta all’ipotalamo. La scelta di concentrare le ricerche quasi
esclusivamente sui circuiti dell’ipotalamo nasce sia dalla difficoltà di studiare i meccanismi nervosi dei
comportamenti sessuali complessi dell’uomo che spinge i ricercatori a focalizzarsi sui comportamenti
copulatori più semplici e controllabili che tendono ad essere controllati dall’ipotalamo, sia dal fatto che
l’ipotalamo controlla il rilascio delle gonadotropine e sia perché i primi studi hanno confermato che
l’ipotalamo ha un ruolo fondamentale nel comportamento sessuale. L’ipotalamo maschile e femminile si
differenziano non solo funzionalmente per il controllo dell’ipofisi anteriore (secrezione stabile nei maschi
e ciclica nelle femmine) ma anche strutturalmente perché è stato riscontrato mediante esperimenti su
ratti che vi è un nucleo nell’ipotalamo maschile più grande di quello femminile. Tale nucleo venne
chiamato nucleo sessualmente dimorfo. La crescita di tale nucleo è determinata dall’estradiolo
aromatizzato dal testosterone. Le dimensioni dei nuclei sessualmente dimorfi nel ratto maschio sono
correlate ai livelli di testosterone e alla sua attività sessuale, anche se comunque la loro funzione non è
chiara perché lesioni di questo nucleo hanno effetti inibitori lievi sul comportamento sessuale dei ratti
maschi. Anche nell’uomo si è riscontrato che vi sono nuclei nelle regioni preottica ed anteriore
dell’ipotalamo che sono maggiore nei maschi rispetto alle femmine. La distruzione dell’area preottica
mediale dell’ipotalamo sopprime il comportamento sessuale del maschio di molte specie e la distruzione
del nucleo sessualmente dimorfo riduce il comportamento sessuale dei maschi di tutti i mammiferi
studiati. Al contrario stimolazioni elettriche dell’area preottica mediale inducono il comportamento
copulatorio nei maschi dei ratti. L’area preottica mediale sembra controllare il comportamento
sessuale dei maschi attraverso un fascio che proietta ad un’area del mesencefalo denominata campo
laterale del tegmento, implicata anche in alcuni aspetti del comportamento copulatorio.
115
E’ stato osservato che c’è una regolazione complessa del comportamento alimentare e sessuale
nell’essere umano e si riscontrato che gli ormoni che regolano il comportamento sessuale sono coinvolti
anche nel bilancio energetico dell’organismo quindi sono in grado di regolare direttamente o
indirettamente i centri ipotalamici che regolano il comportamento alimentare. E’ stato dimostrato che
diversi neurormoni coinvolti nella regolazione centrale del comportamento sessuale sono coinvolti anche
nella regolazione del comportamento alimentare. Studi sulla trasmissione neurochimica cerebrale in
diversi animali hanno evidenziato che sia le monamine , che i neuro peptidi, che gli ormoni hanno un
ruolo determinante nel controllare l’assunzione di cibo, l’appetito verso determinati elementi, il
comportamento alimentare, il metabolismo energetico e l’aumento di peso corporeo. Per cui è stata
formulata l’ipotesi che questi segnali biochimici siano altrettanto importanti nella regolazione del
comportamento alimentare nell’uomo e che una mancata regolazione di questi meccanismi possa essere
alla base di disturbi noti come bulimia e anoressia. Per quanto riguarda le strutture cerebrale coinvolte
l’ipotalamo è ritenuto la struttura più sensibile a manipolazioni di neurotrasmettitori che portano
all’assunzione del cibo. Infatti si ritiene che il centro della fame si trovi nell’ipotalamo laterale e il centro
della sazietà nell’ipotalamo ventromediale. La teoria della regolazione dell’omeostasi del metabolismo
basata su questi due centri è stata poi ulteriormente approfondita : si è visto ad esempio che l’ipotalamo
ventromediale non è solo il centro della sazietà ma eventuali alterazioni neurofunzionali e
neuroanatomiche di questa struttura porta anche ad un aumento dell’introito calorico con accumulo di
grasso, e all’inibizione della lipolìsi (scioglimento di grassi). Quindi animali che non hanno quest’area
hanno un appetito vorace perché devono mantenere un rilascio stabile di energia dell’intestino per far
fronte ad un aumento del fabbisogno energetico totale. Quando si sviluppa obesità gli adipociti
sviluppano resistenza all’insulina e quindi c’è un aumento nell’assunzione di cibo e quindi di peso. Fra
questi neuro trasmettitori che influenzano l’assunzione di cibo possiamo citare l’norepinefrina, l’acido
gammaminobutirrico, il fattore rilasciante l’ormone somatotropo, gli oppioidi e la gramina, mentre
l’azione inibitoria sull’assunzione di cibo prolungata è svolta dalle monoamine, come serotonina,
dopamina, noradrenalina e colecistochinina che influisce sui processi della digestione. In particolare sono
stati individuati due ormoni che hanno effetti modulatori sull’assunzione di cibo e l’uso del glucosio che
sono il corticosterone e l’insulina. Un’azione inibitoria è svolta invece dalla proteina Y che viene prodotta
nelle cellule dei neuroni del nucleo arcuato e rilasciata da proiezione assoniche del nucleo
paraventricolare. Il peso corporeo è generalmente legato al bilancio fra l’introito calorico e la spesa
energetica (attività fisica e matabolica). La teoria lipostatica su cui si fonda tale concetto e che è quella
comunemente accettata ritiene che un fattore circolante rilasciato dal tessuto adiposo in modo
proporzionale alla quantità di grasso presente possa regolare a sua volta con un meccanismo di feedback
l’attività dell’ipotalamo in modo da inibire l’assunzione di elementi e stimolare il consumo energetico
quando c’è un eccesso di grasso depositato. Al contrario una diminuzione di massa grassa porta ad una
minore secrezione di questo fattore determinando un’attività ipotalamica volta a ripristinare i depositi
energetici, ad aumentare l’assunzione di elementi e a ridurre il consumo energetico. Diversi studi
farmacologici eseguiti negli animali e anche nell’essere umano hanno evidenziato effetti simili da parte di
antidepressivi, da parte di antipsicotici, stimolanti e peptidi sul comportamento alimentare e portano a
ritenere che i neurotrasmettitori agiscano sinergicamente nel controllare in qualche modo l’assunzione di
cibo, l’appetito verso più nutrienti e l’aumento di peso corporeo. Considerando il ruolo dell’ipotalamo
mediale e laterale nella fame e nella sazietà è possibile ritenere che la nascita di patologie di disturbi
alimentari possa ricondursi a disturbi specifici a livello neurale o della funzione biochimica
dell’ipotalamo. Queste ipotesi trovano conferme in studi che hanno riscontrato concentrazioni
patologiche dei diversi neurotrasmettitori nel liquor cerebrale di pazienti con anoressia nervosa e
bulimia. Nel caso della bulimia c’è una diminuzione nel rilascio di serotonina intracerebrale con
conseguente aumento dell’attività della noradrenalina. Le pazienti bulimiche hanno un elevato aumento
di livelli di proteina Y e molte evidenze suggeriscono che ci sia una correlazione fra livelli di proteina Y,
116
l’esordio della pubertà e sviluppo del comportamento alimentare. Il contenuto ipotalamico della proteina
Y aumenta dalla nascita alla pubertà momento in cui i livelli di questo peptide nel sangue portale
raggiungono un picco massimo di aumento, e in questo periodo c’è un aumento nella ricerca di cibi basati
su carboidrati. Questo sembra suggerire un collegamento fra eventi comportamentali alimentari e
riproduttivi. I livelli di proteina Y nel liquor sono risultati alterati nelle pazienti anoressiche sia prima che
dopo la ripresa del peso. E’ possibile che un’attività anomala nella produzione e rilascio di questo peptide
determini il legame fra comportamento alimentare alterato e assenza del ciclo mestruale. E’ importante
inoltre sottolineare che alcuni neuro peptidi hanno un ruolo chiave nel comportamento sessuale ma
influenzano nel modo opposto il comportamento alimentare, ad esempio l’ossitocina e la proteina Y.
Questa diversità di effetti è stata spiegata con una ipotesi filogenetica cioè il fatto che nelle specie animali
che vivono in habitat marginali i comportamenti siano orientati al massimo risparmio, quindi mentre si
cerca il cibo l’animale non si riproduce e viceversa : questo fatto potrebbe essere sostenuto da un
meccanismo biochimico comune. Durante situazioni di pericolo entrambi i comportamenti sono
soppressi per permettere la reazione di allarme, fuga o combattimento. Infatti si è visto che il peptide
CRH che media la risposta allo stress è un inibitore sia del comportamento sessuale che alimentare.
Metodi di studio
La maggioranza dei metodi utilizzati per studiare il cervello sono utilizzati anche a scopi clinici sia per la
diagnosi che per la cura. Prima degli anni 70 la ricerca in psicobiologia era ostacolata dall'impossibilità di
ottenere immagini del cervello umano in vivo. A questo fine la radiografia tradizionale a raggi X è di
scarsa utilità. Questo metodo si basa sul passaggio di un fascio di raggi X attraverso un oggetto e quindi su
una lastra fotografica; ciascuna delle molecole dell'oggetto assorbe una certa quantità di radiazione
mentre la parte non assorbita impressione la lastra fotografica. La radiografia standard a raggi X è
pertanto adatta a visualizzare quelle strutture interne che differiscono nettamente dalle regioni adiacenti
nella capacità di assorbire radiazioni X, ad esempio il tessuto osseo rispetto all'adiacente tessuto
muscolare. Tuttavia le diverse strutture che compongono il cervello differiscono solo minimamente le
une dalle altre nel grado di assorbimento di raggi X con la conseguenza che questa tecnica non da alcuna
informazione utile sulla forma delle singole strutture cerebrali. Le tecniche di radiografia con mezzi di
contrasto sono comunque molto usate. Tale tecnica consiste nell'iniettare in una regione corporea una
sostanza che assorbe i raggi X (radiopaca) a un livello minore o maggiore dei tessuti circostanti. La
sostanza radiopaca aumenta il contrasto fra la r'area che si vuole studiare ed il tessuto cerebrale
circostante. Una di queste tecniche è l'angiografia cerebrale. E' una procedura idonea a visualizzare il
sistema circolatorio cerebrale mediante l'iniezione di una sostanza radiopaca direttamente in un'arteria
cerebrale prima di eseguire una radiografia a raggi X. Gli angiogrammi cerebrali sono molto utili per
localizzare un danno vascolare; inoltre lo spostamento di alcuni vasi cerebrali dalla loro posizione
normale può indicare la presenza di un tumore cerebrale. Nei primi anni 70 lo studio del cervello umano
in vivo fu rivoluzionato dall'introduzione della TAC (tomografia assiale computerizzata) che consiste in
una procedura radiografica computerizzata che consente di visualizzare il cervello e altri organi interni in
vivo. Questa procedura fornisce una serie di radiografie di sezioni orizzontali del cervello vivente che
viste in sequenza ricompongono la struttura tridimensionale. Il paziente giace con la testa in un grande
cilindro su un lato del quale c’è un tubo che proietta un fascio di raggi X attraverso la testa del paziente
contro un rilevatore di raggi X montato sul lato opposto del cilindro. Il tubo a raggi X ed il rilevatore
vengono ruotati attorno alla testa del paziente ad un determinato livello del cervello e durante questa
rotazione effettuano una serie di rilevazioni singole che poi combinate da un calcolatore danno le
immagini di una sezione orizzontale detta SCAN, poi tubo e rilevatore vengono spostati lungo l’asse
verticale del corpo del paziente ad un altro livello del cervello, e si ripete questo processo per circa 8-9
volte fino ad avere 8-9 sezioni orizzontali. La TAC ha stimolato lo sviluppo di altre tecniche per ottenere
immagini in vivo dell'interno del corpo. Fra queste tecniche troviamo la risonanza magnetica (RM) che
117
fornisce immagini del cervello più precise e chiare rispetto alla TAC. In questo metodo l'elevata
risoluzione spaziale delle immagini è ottenuta dalla misura delle onde emesse dagli atomi di idrogeno del
cervello attivati da onde di radiofrequenza in un campo magnetico. Oltre a fornire una risoluzione
spaziale migliore(facoltà di individuare le differenze a livello spaziale), l RM produce immagini sia
bidimensionali che tridimensionali del cervello con zone colorate che indicano le aree cerebrali
maggiormente attivate durante un determinato compito. La tomografia a emissione di positroni (PET) è
una metodica di visualizzazione in vivo del cervello più recente è molto usata in psicologia fisiologica. La
PET fornisce informazioni sull'attività metabolica (funzionale) del cervello. Nella metodica PET più
diffusa si inietta nell'arteria carotide del soggetto, da cui dipende gran parte della vascolarizzazione
dell'emisfero cerebrale ipsilaterale, 2-desossiglucosio radioattivo (2-DG). A causa della sua somiglianza
con il glucosio, fonte energetica principale delle cellule cerebrali, il 2-DG è rapidamente assorbito dai
neuroni funzionalmente più attivi e quindi più bisognosi di energia. Tuttavia il 2-DG non può essere
metabolizzato a differenza del glucosio e si accumula nei neuroni finchè non viene man mano scisso ed
eliminato. La PET evidenzia le aree cerebrali attive in cui si accumula la maggior quantità di radioattività.
Cosi se la PET viene eseguita mentre un soggetto è impegnato ad esempio in un compito di lettura per
circa un minuto dopo l'iniezione di 2-DG, l'immagine risultante evidenzierà le aree cerebrali più attive
durante quel particolare compito. Di solito sono evidenziate diverse sezioni del cervello per poter
valutare meglio l'attività cerebrale complessiva. Le immagini della PET non mostrano il cervello ma una
mappa colorata della quantità di radioattività in ogni voxel, ovvero volume pixel la più piccola parte di
un'immagine tridimensionale, che compone l'immagine; si può quindi solo stimare come ciascun voxel si
colloca dentro una specifica struttura cerebrale. Recentemente la tecnica della RM è stata applicata allo
studio dell’ attività funzionale del cervello. La risonanza magnetica funzionale (RMF) evidenzia le aree
cerebrali attive in cui c’è un aumento di flusso ematico e quindi di ossigeno. La RMF presenta 4 vantaggi
rispetto alla PET: 1) non è necessario che si inietti alcuna sostanza nel sistema circolatorio del soggetto;
2) fornisce nella stessa immagine informazioni sia funzionali che morfologiche; 3) la sua risoluzione
spaziale è più elevata; 4) consente di ottenere immagini tridimensionali dell’attività di tutto il cervello. La
RMF illustra l’attività di superficie, ma si possono ottenere anche immagini di sezioni interne del cervello.
Un’altra tecnica per registrare l’attività cerebrale è la magnetoencefalografia (MEG) che misura le
variazioni di campi magnetici sulla superficie del cuoio capelluto prodotti da cambiamenti dell’attività
elettrica del cervello. Il vantaggio principale rispetto alla RMF è la sua risoluzione temporale . infatti può
registrare cambiamenti dell’attività nervosa molto rapidi. Recentemente molto importante è stata la
messa a punto di un archivio di immagini del cervello. In ogni articolo vengono infatti pubblicate soltanto
alcune immagini riassuntive e le numerose e complesse variazioni dovute all’elaborazione dei dati
rendono impossibile ai ricercatori paragonare i risultati degli studi pubblicati con le proprie ricerche.
Molti ricercatori attualmente raccolgono comunque i loro dati in un archivio di immagini del cervello a
cui hanno accesso anche altri studiosi; in questo modo è possibile attingere all’insieme dei dati di un
determinato studio e poi confrontare tali dati con i propri oppure combinarli. La PET, la RMF e la MEG
presentano tutte gli stessi limiti ovvero possono essere utilizzati per mostrare una correlazione tra
l’attività cerebrale e l’attività cognitiva ma non possono dimostrare che tra loro c sia un rapporto
causa-effetto. A questo scopo può essere invece utile la stimolazione magnetica transcranica (TMS); è una
tecnica che consiste nell’interrompere l’attività in una data area della corteccia creando un campo
magnetico con uno strumento chiamato coil posto sul cranio. La stimolazione magnetica disattiva
temporaneamente una parte del cervello consentendo cosi di valutare gli effetti di questa disattivazione
sulla cognizione e sull’apprendimento. Anche se questa tecnica è usata per studiare i meccanismi nervosi
della cognizione, il suo potenziale non potrà essere sfruttato a fondo finché non si darà una risposta alle
domande sugli effetti e sui meccanismi della disattivazione nervosa e sull’assenza degli effetti collaterali.
Le modalità di misurazione più usate in psicofisiologia sono 5: una riguarda l’attività cerebrale (EEG
registrato dal cuoio capelluto), due sono relative all’attività del sistema nervoso somatico ( stato di
118
tensione muscolare e movimenti degli occhi) e due riguardano il sistema nervoso autonomo ( conduzione
cutanea e attività cardiovascolare). L’elettroencefalogramma (EEG) è una misura globale dell’attività
elettrica del cervello. E’ registrato mediante larghi elettrodi a forma di disco di circa 1cm posti sul cuoio
capelluto da uno strumento detto elettroencefalografo, mentre la ricerca viene detta
elettroencefalografia. Esistono due tipi di registrazione: nella registrazione bipolare entrambi gli elettrodi
sono posti su siti elettricamente attivi, mentre nella registrazione unipolare uno degli elettrodi è posto su
un sito attivo mentre l’altro è collocato su un punto di relativa inattività elettrica (esempio lobo orecchio).
Il segnale EEG riflette la somma di tutti gli eventi elettrici del cranio che includono potenziali
postsinaptici e PA cerebrali come anche segnali elettrici della cute, muscoli, vasi ematici e occhio. La sua
utilità clinica e di ricerca sta nel fatto che alcune onde EEG sono associati a determinati stati di coscienza
o a specifiche condizioni patologiche cerebrali (come epilessia). Ad esempio le onde alpha, ampie onde
regolari con frequenza pari a 8-12 cicli al secondo, sono indice di uno stato di veglia rilassata. Poiché il
segnale EEG decresce in ampiezza man mano che si propaga dal suo punto di origine, un confronto dei
segnali registrati fra punti differenti può a volte indicare l’origine di alcune onde particolari : per questo
motivo si registra l’attività EEG simultaneamente da molti punti. In alcuni casi i ricercatori sono
interessati più che altro alle onde EEG che accompagnano alcuni eventi psicologici che prendono il nome
di potenziali evento correlati. Uno dei più comuni è il potenziale evocato sensoriale cioè la modificazione
del segnale EEG indotto dalla momentanea presentazione di uno stimolo sensoriale. Il segnale EEG che
segue ad uno stimolo sensoriale presenta due componenti : la risposta allo stimolo (segnale), che è la
parte più importante di ogni registrazione, e la contemporanea attività di fondo (rumore). Il problema
nella registrazione dei potenziali evocati sensoriali è proprio il rumore di fondo che di solito è tanto
grande da oscurare il segnale evento-correlato. Di solito per attenuare il rumore di fondo si utilizza una
procedura detta di signal averaging (media dei segnali) : innanzitutto vengono registrate molte volte le
risposte EEG a uno stesso stimolo, poi il computer identifica in ciascun tracciato EEG il punto di inizio in
cui è stato presentato lo stimolo acustico e calcola a partire da quel punto e per tutti i punti successivi il
valore medio di tutte le registrazioni. Al termine di questa operazione il segnale medio evocato dallo
stimolo apparirà più accentuato del rumore di fondo che invece viene cancellato dalla procedura di
averaging. L’analisi dei potenziali evocati prende in considerazione
i picchi o onde presenti nel
tracciato EEG medio. Ciascuna onda si caratterizza per la sua direzione, positiva o negativa, e per la sua
latenza. Le piccole onde che si registrano invece nei primi millisecondi dopo la presentazione di uno
stimolo non sono influenzate dal fatto che lo stimolo sia o meno significativo per il soggetto. Queste onde
sono dette potenziali troncoencefalici poiché sebbene registrati sul cuoio capelluto originano nei nuclei
sensoriali del tronco cerebrale. Anche se l’elettroencefalografia ha un’ ottima risoluzione temporale ebbe
inizialmente risultati modesti per quanto riguarda quella spaziale. Infatti si può valutare la fonte di un
segnale solo in modo approssimativo. Le tecniche più recenti però sono in grado di localizzare la fonte più
precisamente grazie a software molto più sofisticati e a numerosi elettrodi che consentono di codificare a
colori l’ampiezza dei segnali EEG registrati sulla corteccia che viene poi tracciata sulla superficie di una
immagine RMf tridimensionale. La procedura invece di solito usata per la misura dello stato di tensione
muscolare è l’elettromiografia. Il tracciato che si registra è detto elettromiogramma (EMG). Ciascun
muscolo scheletrico è composto da milioni di fibre muscolari filiformi. Ciascuna fibra si contrae in modo
tutto o nulla quando è attivata dal motoneurone che la innerva. Ad ogni istante nel muscolo a riposo
alcune fibre sono contratte partecipando cosi al mantenimento dello stato di tensione o tono muscolare.
Quando molte fibre si contraggono contemporaneamente si ottiene un movimento. Le variazioni del tono
muscolare sono di solito impiegate come indice dello stato di veglia attento (arousal psicologico). Nel
linguaggio quotidiano per esempio si dice che le persone ansiose sono tese questo perché di solito
manifestano alti livelli di tensione nei muscoli. Il segnale EMG si registra tra due elettrodi collocati sulla
superficie cutanea sovrastante il muscolo in esame. Un aumento dello stato di tensione muscolare si
riflette nella maggiore ampiezza del segnale EMG che dipende dal numero di fibre contratte. La maggior
119
parte degli studiosi non studia i segnali EMG grezzi ma li converte in una forma più facilmente
analizzabile mediante un processo detto di integrazione del segnale. I segnali grezzi vengono inviati a un
computer che calcola il numero di scariche EMG per una data unità di tempo. Le variazioni dell’attività
EMG sono poi rappresentate graficamente secondo questa unità di tempo. Il risultato è una curva meno
frastagliata la cui ampiezza è una misura continua del livello di tensione muscolare nel tempo. La tecnica
di registrazione dei movimenti oculari è l’elettrooculografia ed il relativo tracciato è l’oculogramma. Tale
tecnica si basa sull’esistenza di una differenza di potenziale stabile tra la parte anteriore (positiva) e
quella posteriore (negativa) del globo oculare. I movimenti dell’occhio causano una variazione di questo
potenziale (dipolo) che è rilevabile da elettrodi posti intorno all’occhio: quelli posti ai lati dell’occhio
rilevano i movimenti oculari orizzontali, quelli posti in alto e in baso rilevano i movimenti verticali.
Pensieri ed esperienze che suscitano emozioni sono associati ad aumenti di capacità di conduzione
elettrica della cute. I due indici più comuni di attività elettrodermica sono il livello di conduttanza cutanea
e la risposta di conduttanza cutanea. Il primo indice misura la conduttanza cutanea generale associata ad
una particolare situazione, mentre il secondo è la misura della variazione transitoria della conduttanza
cutanea che si associa ad un evento discreto. Numerosi dati sono a favore di un ruolo importante svolto
dalle ghiandole sudoripare. Sebbene la funzione principale di queste ghiandole sia quella di raffreddare il
corpo esse si attivano anche in situazioni ed esperienze che suscitano emozioni. Queste ghiandole sono
distribuite sulla maggior parte della superficie corporea, ma quelle delle mani piedi ascelle e fronte
rispondono in modo particolare a stimoli emozionali. Il sistema cardiovascolare comprende de parti: i
vasi sanguigni ed il core. E un sistema per distribuire ossigeno e nutrienti alle varie tessuti del corpo, per
rimuovere i prodotti del metabolismo, e trasmettere messaggi chimici (ormoni). In psicofisiologia sono
usate tre diverse misure dell’ attività cardiovascolare :la pressione arteriosa, la frequenza cardiaca ed il
volume sanguigno. La frequenza cardiaca : il segnale elettrico associato a ciascun battito può essere
registrato mediante elettrodi applicati sulla regione pettorale. Il tracciato è detto elettrocardiogramma.
La frequenza cardiaca media a riposo è di circa 70 battiti al minuto ma può aumentare rapidamente in
situazioni di particolare emozione, tensione o altri stati emotivi. Pressione arteriosa: è definita da due
misure indipendenti, il valore massimo di pressione o sistole raggiunto dal cuore durane la contrazione, e
il valore di contrazione minima o diastole raggiunto nella fase di rilasciamento del cuore. La pressione
arteriosa è data di solito dal rapporto fra pressione massima e minima misurata in mm di mercurio. A
riposo i normali valori pressori di un adulto sono 130/70 mmHg. Valori pressori cronicament superiori
140/90 sono indice di una grave patologia cardiovascolare denominata ipertensione arteriosa. Di solito la
pressione è misurata con lo sfigmomanometro, uno strumento composto da un manicotto che si avvolge
attorno al braccio, una pompetta di gomma necessaria per gonfiarlo,ed una scala a mercurio necessaria
per misurare la pressione nel manicotto. Volume sanguigno: alcuni eventi psicologici si associano a
variazioni del volume sanguigno in particolari distretti corporei . Le tecniche per misurare queste
variazioni del volume sanguigno in specifiche parti del corpo sono denominate pletismografia. Un metodo
per calcolare queste variazioni consiste nell’avvolgere attorno all’organo in esame un misuratore elastico
in grado di estendersi al variare del volume dell’organo. Tuttavia questo metodo si presta bene a
misurare variazioni di volume sanguigno solo nelle dita e egli organi d forma simile. Un’altra tecnica
pletismografica consiste nel far passare della luce nell’organo o nel tessuto in esame e quindi misurare
la quantità di luce assorbita dal tessuto. Infatti tanto più il tessuto è irrorato dal sangue tanto maggiore
sarà la quantità di luce assorbita. Lo studio del rapporto tra comportamento umano e cervello è frenato
da una regola etica fondamentale che impedisce l’utilizzazione di tecniche che abbiano interazioni dirette
con il cervello stesso. A tal riguardo metodi più diretti per lo studio del cervello vengono condotti su cavie
ed appartengono alle seguenti categorie: metodi di lesione, metodi di stimolazione elettrica, e metodi di
registrazione dell’attività neuronale. La chirurgia stereotassica rappresenta la prima fase di molti
esperimenti di psicobiologia e costituisce il metodo attraverso il quale gli strumenti di ricerca sono
posizionati a diretto contatto con il cervello. Per la chirurgia stereotassica sono necessari un atlante
120
stereotassico che fornisca le coordinate delle regioni cerebrali che si vogliono studiare e un apparato
stereotassico che consenta di raggiungerle. Un atlante stereotassico permette di localizzare le strutture
cerebrali allo stesso modo di un atlante geografico. Tuttavia c’è una importante differenza : La superficie
terrestre richiede due coordinate mentre il cervello ne richiede tre. Pertanto gli alanti stereotassici sono
formati di una serie di mappe successive ciascuna delle quali rappresenta la superficie bidimensionale di
ogni singola sezione frontale del cervello. La distanza di ciascuna sezione viene poi misurata rispetto ad
un punto di riferimento convenzionale ed espressa in millimetri. Ad esempio in alcuni atlanti
stereotassici per ratti i riferimento standard è il bregma cioè il punto di intersezione sul cranio di due
delle principali suture ossee. Un apparato stereotassico è formato da due parti: un fermatesta che
mantiene il cervello dell’animale nella giusta posizione e orientamento, e un porta elettrodo che sorregge
l’elettrodo da inserire nel cervello. Mediante un sistema meccanico di precisione l’elettrodo può essere
mosso in tre direzioni: antero-posteriore, medio-laterale, ventro-dorsale. Metodi di lesione. Questo
metodo consiste nel rimuovere o lesionare una regione del cervello e quindi studiare il comportamento
dell’animale allo scopo di determinare la funzione della struttura lesionata. Fra i principali metodi di
lesione troviamo:la lesione da aspirazione che rappresenta il metodo elettivo quando la lesione deve
essere eseguita su un’area cerebrale che è facilmente accessibile agli strumenti del chirurgo. Il tessuto
corticale è rimosso mediante una pipetta di vetro fornita di una punta sottile. Poiché la sostanza bianca è
un po’ più resistente all’aspirazione rispetto alla sostanza grigia, il chirurgo esperto potrà rimuovere gli
strati di tessuto corticale senza danneggiare la sostanza bianca ed i principali vasi sanguigni. Lesioni da
radiofrequenza che sono di solito effettuate diffondendo corrente ad elevata frequenza dalla punta di un
elettrodo posizionato steretassicamente nel tessuto in esame.’ Il calore prodotto dal passaggio della
corrente a distruggere il tessuto. La forma e le dimensioni del lesione sono determinate dalla durata d
intensità della corrente diffusa e dalla forma della punta dell’elettrodo. Resezione chirurgica che è il
metodo usato per interrompere la conduzione nervosa in un nervo o in un tratto. Un sottile taglio può
svolgere questo compito in modo preciso senza produrre danni estesi ai tessuti circostanti. Il blocco
criogenico rappresenta una possibile alternativa per produrre lesioni nervose. Quando un liquido
refrigerante è iniettato nel cervello da una sonda criogenica i neuroni in vicinanza della sonda si
raffreddano e smettono di scaricare. La temperatura è mantenuta al di sopra del livello di congelamento
evitando cosi danni strutturali al tessuto nervoso. Poi quando il tessuto è riscaldato le funzioni nervose
riprendono normalmente. Un blocco criogenico equivale funzionalmente ad una lesione strutturale in
quanto elimina il contributo di una particolare area del cervello nel determinare il comportamento del
soggetto. Per questo motivo il blocco criogenico è spesso detto lesione reversibile. Lesioni reversibili
possono anche essere prodotte dalla microiniezione di anestetici locali in specifici siti cerebrali come la
lidocaina. Gli effetti delle lesioni cerebrali sono spesso ingannevoli e di difficile interpretazione perché le
strutture cerebrali sono piccole e molto vicine le une alle altre tanto che anche un chirurgo esperto non
può evitare di distruggere almeno parte del tessuto circostante all’area d lesione designata. Questo fatto
viene però spesso trascurato. Per esempio una lesione che lascia intatte parti dell’amigdala ma lede una
varietà di tessuti limitrofi viene chiamata lesione amigdaloidea, ma questa definizione può essere
fuorviante per due motivi. Infatti si tenderà ad attribuire solo all’amigdala gli effetti comportamentali
prodotti dalla lesione; inoltre se non si tiene conto che l’amigdala non è stata lesa completamente si
concluderà erroneamente che questa struttura non svolge alcun ruolo in quei comportamenti su cui la
lesione non ha avuto effetti. Lesioni bilaterali e unilaterali. Gli effetti comportamentali delle lesioni
unilaterali, ovvero lesioni limitate ad un emisfero cerebrale, sono più lievi delle lesioni bilaterali
simmetriche che interessano entrambi gli emisferi, in particolare negli animali. Poiché alcuni possono
essere molto difficili da individuare, di conseguenza molte ricerche sperimentali sugli effetti delle lesioni
si basano su analisi di lesioni bilaterali anzichè unilaterali. Informazioni sul funzionamento di una
struttura nervosa possono essere ottenute dalla sua stimolazione elettrica. Questa tecnica è applicata
attraverso due elettrodi bipolari, ovvero due elettrodi costituiti da due fili isolati, avvolti strettamente e
121
scoperti all’altezza della punta degli elettrodi. Il passaggio di una debole corrente attraverso l’elettrodo
produce un immediato aumento della frequenza di scarica dei neuroni posti in prossimità della punta
dell’elettrodo. La stimolazione elettrica del cervello è un importante strumento di ricerca in psicologia
fisiologica poiché determina una varietà di effetti comportamentali in genere opposti a quelli prodotti
da una lesione della stessa area. Può indurre per esempio comportamenti alimentari, di attacco, di sonno
e sessuali. Il particolare effetto comportamentale dipenderà dalla diversa localizzazione cerbrale
dell’elettrodo stimolante, dai parametri usati per la stimolazione, e dallo specifico contesto sperimentale.
.Metodi di registrazione elettrofisiologica.Vi sono 4 metodi invasisi di registrazione elettrofisiologica.
Registrazione intracellulare di singole unità che fornisce una misura continua delle variazioni graduali
del potenziale di membrana neuronale. La gran parte degli esperimenti che utilizzano questo metodo
sono condotti su animali immobilizzati farmacologicamente poiché è impossibile tenere la punta di un
microelettrodo entro un neurone di un animale libero di muoversi. Registrazione extracellulare di singole
unità attraverso la quale è possibile registrare le scariche di un neurone ponendo la punta di un elettrodo
nel fluido extracellulare in prossimità della cellula. Ogni volta che un neurone scarica si potrà osservare
un segnale sullo schermo di un oscilloscopio. Pertanto da questa registrazione si ottiene la misura del
numero di PA ma non informazioni sl potenziale di membrana del neurone. Poiché è difficile registrare
extracellularimente da un animale libero di muoversi, questa procedura viene realizzata con speciali
elettrodi flessibili che si muovono leggermente in corrispondenza della arte di cervello studiata.
Inizialmente tale tecnica consisteva nella registrazione di neurone per volta, ognuno con il suo proprio
elettrodo ma ora è possibile registrare contemporaneamente segnali extracellulari che derivano da 100 e
più neuroni analizzando le correlazioni fra i segnali raccolti dagli elettrodi inseriti in una stessa area.
Registrazione di unità multiple. In questo tipo di registrazione la punta dell’elettrodo è più grande di
quello usato nella registrazione per singole unità, in questo modo può rilevare l’attività complessiva di
più neuroni. Più grande è la punta dell’elettrodi più sono i neuroni che contribuiscono al segnale. I PA
rilevati dall’elettrodo sono inviati ad un circuito integratore che li somma e fornisce un tracciato che
rappresenta il numero totale di PA nell’unità di tempo.. Registrazione eletroencefalografica invasiva che
viene utilizzata nelle cavie registrando mediante elettrodi impiantati direttamente nel cervello e non sul
cuoio capelluto. L’EEG corticale viene registrato di solito mediante viti di acciaio inossidabile infissi nel
cranio, mentre per l’EEG sottocorticale il segnale è rilevato attraverso elettrodi impiantati
stereotassicamente nelle strutture sottocorticali. Metodi di ricerca farmacologica. La principale strategia
della ricerca psicofarmacologica è quella di somministrare farmaci che accrescono o riducono gli effetti di
un articolare neurotrasmettitore e quindi osservare gli effetti sul comportamento. Nella maggior parte
degli esperimenti con psicofarmaci, le sostanze farmacologiche sono somministrate attraverso uno dei
seguenti modi : per via orale, per via intragastrica, ovvero mediante un catetere nello stomaco, per via
intraperitoneale, ovvero iniettati nella cavità peritoneale dell’ addome, via intramuscolare, ovvero
iniettati in un grande muscolo, via sottocutanea ovvero nel tessuto adiposo sottostante la cute, via
intravenosa, cioè in una grande vena. La difficoltà con queste vie periferiche di somministrazione è che
molti farmaci non passano la barriera emato encefalica. Per superare questo problema è possibile
iniettare una piccola quantità di farmaco direttamente nel cervello attraverso un sottile ago detto cannula
impiantato stereotassicamente nel cervello. Gli effetti delle lesioni chirurgiche elettrolitiche e criogeniche
sono spesso difficili da interpretare perché distruggono tutti i neuroni di una data area. In alcuni casi è
possibile eseguire lesioni più selettive iniettando neurotossine, ovvero sostanze che mostrano affinità per
certe zone del sistema nervoso. Esistono numerose sostanze neurotossiche: l’acido cainico e l’acido
ibotenico, introdotti mediante microiniezione che una volta assorbiti distruggono preferenzialmente i
neuroni posti vicino alla punta della microcannula mentre risparmiano i neuroni i cui assoni attraversano
l’area che è stata iniettata. Un’altra neurotossina selettiva molto usata è la 6-idrossidopamina che è
assunta solo da quei neuroni che rilasciano dopamina o noradrenalina mentre risparmia gli altri tipi di
neuroni. Esistono numerosi modi per misurare l’attività chimica del cervello delle cavie. Tra le più utili vi
122
sono : la tecnica del 2-desossiglucosio (2Dg) e la dialisi cerebrale. La tecnica del 2Dg consiste nel porre
l’animale a cui è stato somministrato 2Dg radioattivo in una situazione sperimentale che lo impegna in un
compito specifico. Poiché il 2Dg è assi simile al glucosio, principale risorsa energetica del cervello, i
neuroni che si attivano durante lo svolgimento del compito assorbono il 2Dg ma non lo metabolizzano.
L’animale viene quindi sacrificato ed il suo cervello sezionato. Le sezioni sono poste ad autoradiografia
cioè vengono coperte con una emulsione fotografica, conservate al buio per qualche giorno e poi
sviluppata come una normale pellicola. Le aree del cervello che hanno assorbito elevate concentrazioni di
2Dg appaiono nelle sezioni come macchie scure, la cui diversa densità può fornire informazioni sulla
quantità di 2Dg assorbita da ciascuna area cerebrale. La dialisi cerebrale invece è un metodo per
misurare nell’animale in vivo la concentrazione extracellulare di sostanze chimiche mentre le altre
tecniche rendono necessaria l’uccisione dell’animale e l’estrazione dei tessuti. Questa tecnica consiste
nell’impianto nel cervello di una piccola sonda che possiede una piccola sezione semipermeabile. Questa
regione è posta in corrispondenza della struttura cerebrale di interesse in modo che le sostanze
neurochimiche si diffondano all’interno del tubo. Possono poi essere estratte per venire congelate e
conservate per le analisi, oppure trasportate da una soluzione che scorre all’interno della sonda
direttamente a un cromatografo , ovvero uno strumento che misura la composizione chimica di liquidi e
gas. Un punto importante nella comprensione del funzionamento di un determinato neurotrasmettitore è
quello di individuare la sua localizzazione cerebrale. Due delle tecniche usate a questo scopo sono :
l’immunoistochimica e l’ibridazione in situ. In entrambi i casi sezioni istologiche del cervello vengono
esposte ad una sostanza marcata in grado di legarsi alla molecola in esame. Immunoistochimica.
Quando una proteina non presente nel corpo del soggetto (antigene) è iniettata in un animale vengono
creati anticorpi che si legano all’antigene distruggendolo o inattivandolo. Questo legame tra antigene e
anticorpo viene detto reazione immunitaria. L’immunoistochimica è una tecnica per localizzare specifiche
neuroproteine cerebrali prima marcando anticorpi specifici con elementi fluorescenti o radioattivi e poi
esponendo le sezioni istologiche del tessuto cerebrale agli anticorpi marcati. Le regioni in cui si accumula
il colorante fluorescente o la radioattività indicano la sede cerebrale della neuroproteina che si sta
studiando. L’immunoistochimica può esser usata anche per localizzare i neurotrasmettitori legandoli ai
loro enzimi. Ciò può essere fatto esponendo il tessuto cerebrale ad anticorpi che si legano ad enzimi
presenti solo in quei neuroni che contengono il neurotrasmettitore di interesse.Ibridazione in situ. E’
un’altra tecnica che consente di localizzare nel cervello peptidi e altre proteine. Si basa sul fatto che tutti i
peptidi e le proteine sono trascritti da precise sequenze nucleotidiche poste su tratti di RNA messaggero.
Tale tecnica consiste nell’ottenere tratti di RNA ibrido,marcato con coloranti o sostanze radioattive, che
presenta una sequenza di nucleotidi complementare a quella dell’RNA messaggero per la sintesi della
neuroproteina in esame. Infine si espongono sezioni istologiche di tessuto cerebrale all’RNA ibrido
marcato che si lega all’RNA messaggero permettendo cosi di localizzare i neuroni che sintetizzano la
neuroproteina di interesse.
Metodi di ricerca
Per studiare la relazione fra cervello e comportamento in particolare la psicobiologia si avvale di
numerosi approcci di ricerca che differiscono principalmente per tre aspetti: : il tipo di soggetti coinvolti
(umani e non umani), il metodo utilizzato (sperimentale, correlazione o di casi clinici), e le finalità dello
studio (ricerca pura o applicata). Come abbiamo detto i soggetti della ricerca possono essere umani o non
umani. tra questi ultimi i più usati sono i ratti ma vengono usati anche topi, gatti, cani e primati non
umani. I neuroni che compongono il sistema nervoso di diverse specie animali sembrano essere gli stessi
e cosi pure i meccanismi con cui tali neuroni interagiscono come pure è simile la struttura del sistema
nervoso e quindi può essere interessante un approccio comparativo sia per quanto riguarda le specie
animali diverse sia tra specie animali e essere umano. Gli uomini presentano diversi vantaggi rispetto agli
animali : sono per esempio in grado di eseguire rapidamente le istruzioni date e possono riferire le loro
esperienze soggettive. Gli animali invece prevedono dei costi di laboratorio molto alti che non tutti i
123
centri di ricerca possono sostenere. Le differenze fra uomo e animale sono più quantitative che
qualitative, e pertanto molti dei principi di funzionamento del cervello umano possono essere dedotti
dallo studio di soggetti non umani che presentano tre vantaggi nella ricerca psicobiologica : 1) maggior
semplicità del loro cervello e del loro comportamento, 2) l'approccio comparativo consente importanti
intuizioni scientifiche, 3) possibilità di condurre ricerche che per ragioni etiche non sono effettuabili su
esseri umani. In ogni caso anche la ricerca su animali è comunque regolata da un codice etico che
presenta però minori limitazioni. La ricerca psicobiologica si avvale di studi sperimentali e non
sperimentali che a loro volta si dividono in quasi sperimentali e casi singoli. Negli studi sperimentali
l'esperimento è il metodo utilizzato dai ricercatori per scoprire le relazioni tra cause ed effetti Per
condurre un esperimento su soggetti viventi lo sperimentatore prima di tutto definisce due o più
condizioni sperimentali a cui sottoporre i soggetti. Di solito ciascun gruppo di soggetti è sottoposto ad
una sola condizione sperimentale (confronto fra gruppi - disegno di ricerca intergruppi), ma a volte è
possibile studiare lo stesso gruppo di soggetti in tutte le condizioni sperimentali (confronti entro i gruppi
– disegno di ricerca intragruppo). Lo sperimentatore assegna i soggetti alle condizioni, somministra le
prove e valuta i risultati in modo tale che ci sia una solo differenza di rilievo tra le condizioni sperimentali
messe a confronto. Questa differenza è chiamata variabile indipendente, mentre la variabile misurata per
valutare gli effetti della variabile indipendente è chiamata variabile dipendente. E' importante che la
variabile indipendente rappresenti l'unica differenza poichè in caso contrario non sarebbe possibile
stabilire con certezza se gli effetti della variabile dipendente siano stati prodotti dalla VI o da differenze
causali e non controllate chiamate variabili confondenti o di confusione. Eliminare tali variabili
confondenti spesso risulta molto difficile. Non è però possibile usare sempre il metodo sperimentale per
esaminare tutti i problemi di interesse, poiché possono esserci limitazione etiche o fisiche che rendono
impossibile assegnare dei soggetti a particolari condizioni sperimentali, come ad esempio condurre
esperimenti che studiano i danni cerebrali causati dall’alcol. In questi casi gli psicobiologi conducono
studi quasi sperimentali o correlazionali in cui i soggetti sono stati esposti alla condizione di interesse nel
corso della loro vita. Questi di fatto non sono veri e propri esperimenti perché alcune variabili non
possono essere controllate come ad esempio l’assegnazione causale dei soggetti alle condizioni
sperimentali. Per cui tali studi non fanno riferimento ad una logica di causalità, ovvero causa ed effetto,
come la relazione fra VI e VD, ma semplicemente a correlazioni sul loro andamento. Gli studi clinici o
studi di casi singoli invece sono centrati su un singolo soggetto o su un singolo caso e analizzano quindi
un dato problema in modo più approfondito Il principale problema dei casi singoli riguarda la loro
generalizzazione, cioè il grado con cui i risultati ottenuti da un singolo soggetto possono essere applicati
anche ad altri casi. La ricerca psicobiologica può essere sia pura che applicata. La ricerca pura è motivata
dalla curiosità del ricercatore e viene svolta con l’unico fine di accrescere la conoscenza su un
determinato problema. La ricerca applicata ha invece lo scopo di apportare qualche diretto beneficio
all’umanità. Ogni ricerca può dare risultati validi se viene posta attenzione su ogni possibile fonte di
errore. In psicobiologia le fonti di errore possono essere fondamentalmente la poca considerazione della
complessità dell’oggetto di studio, o un’analisi dei dati o dei risultati non obiettiva fondata su pregiudizi.
E’ importante monitorare questi errori per elaborare metodi e convenzioni che permettano di evitarli.
Molti scienziati ritengono che la ricerca pura sia spesso di maggiore utilità pratica rispetto a quella
applicata poiché le applicazioni di un progetto di ricerca derivano direttamente dalla comprensione dei
principi di base. In psicobiologia ci sono diversi metodi di ricerca in quanto è una disciplina che studia
l’interazione fra il sistema nervoso e il comportamento, per cui avremo metodi di studio sia del sistema
nervoso che del comportamento. Per quanto riguarda i metodi di studio del SN abbiamo un primo gruppo
che riguarda la visualizzazione dei danni cerebrali nell’uomo. Questi metodi consentono di individuare la
sede di un danno cerebrale, di individuare la sua natura e la sua estensione, fra cui la radiografia a raggi X.
L’oggetto da radiografare viene attraversato da un fascio di raggio X e dal momento che le particelle del
fascio attraversano il soggetto in linea retta e le sue molecole assorbono solo parte delle sue radiazioni la
124
parte non assorbita può impressionare una lastra fotografica su cui il fascio viene proiettato. Vi è poi la
radiografia con mezzi di contrasto che incrementa l’utilità della radiografia a raggi X nel senso che i mezzi
di contrasto permettono di evidenziare alcune parti del cervello in cui vi sono sostanze radio opache che
aumentano l’assorbimento dei raggi; esistono due tecniche di radiografia con mezzi di contrasto: la
pneumoencefalografia e l’angiografia. Nella prima una parte del liquido cerebro spinale viene
temporaneamente sostituito con aria, dato che l’aria è radio opaca, viene fatta poi una radiografia detta
pneumoencefalogramma che rende visibile ventricoli e scissure cerebrali. Nell’angiografia il sistema
circolatorio cerebrale si visualizza tramite l’infusione di un colorante radio opaco in un’arteria durante la
radiografia. Queste tecniche possono essere utili per inferire ed individuare per esempio la posizione di
un eventuale tumore. Un'altra tecnica di visualizzazione di danni cerebrali è la TAC o tomografia assiale
computerizzata. Questa procedura fornisce una serie di radiografie di sezioni orizzontali del cervello
vivente che viste in sequenza ricompongono la struttura tridimensionale. Il paziente giace con la testa in
un grande cilindro su un lato del quale c’è un tubo a raggi X che proietta attraverso la testa del paziente
un fascio di raggi contro un rilevatore di raggi X montato sul lato opposto del cilindro. Il tubo a raggi X ed
il rilevatore vengono ruotati attorno alla testa del paziente ad un determinato livello del cervello e
durante questa rotazione effettuano una serie di rilevazioni singole che poi combinate da un calcolatore
danno le immagini di una sezione detta SCAN, poi tubo e rilevatore vengono spostati lungo l’asse verticale
del corpo del paziente ad un altro livello del cervello, e si ripete questo processo per circa 8-9 volte fino
ad avere 8-9 sezioni orizzontali. Abbiamo poi un’ altra tecnica ovvero l’immagine di risonanza magnetica
che ha una maggiore utilità legata ad una sua maggiore capacità di risoluzione; le immagini sono costruite
misurando le onde emesse da atomi di idrogeno attivati da onde di radiofrequenza entro un campo
magnetico. Poiché le diverse strutture cerebrali hanno concentrazioni di atomi di idrogeno differenti le
immagini della risonanza magnetica sono molto più chiare. Abbiamo infine la tomografia di emissione di
positroni o PET che fornisce informazioni sull’ attività metabolica del cervello in quanto viene iniettata al
paziente il 2desossiglucosio (2DG) che è una sostanza radioattiva somigliante al glucosio che è l’elemento
primario del metabolismo cerebrale. Questo viene assorbito più rapidamente dai neuroni attivi che
consumano più energia, però dopo che è stato assorbito non viene metabolizzato e quindi si accumula in
questi neuroni attivi, per cui se la PET viene effettuata mentre il paziente è impegnato nella lettura
l’immagine evidenzierà nel cervello le aree più attive durante quell’attività. Altri metodi di studio del
sistema nervoso sono tecniche di registrazione dell’attività psicofisiologica dalla superficie del corpo
dell’uomo. La prima di queste tecniche è l’elettroencefalografia, quindi la misurazione attraverso
l’elettroencefalogramma che consiste nel registrare l’attività elettrica del cervello tramite degli elettrodi a
disco che vengono fissati sul cuoio capelluto. In alcuni casi è interessante evidenziare i potenziali evocati
quindi non tanto l’attività elettroencefalografica di sfondo ma onde elettroencefalografiche che
accompagnano un determinato evento. I potenziali evocati più studiati sono quelli sensoriali, cioè le
variazioni nel segnale elettroencefalografico corticale evocati dalla momentanea presentazione di uno
stimolo sensoriale, per esempio uditivo o visivo. La elettromiografia è invece una tecnica che viene usata
per misurare l’attività elettrica muscolare che si rileva attraverso elettrodi fissi mediante un adesivo sulla
superficie cutanea soprastante il muscolo che interessa. Il tracciato che si ottiene è l’elettromiogramma
che permette di individuare la maggiore e minore contrazione del muscolo. L’elettro oculografia è una
tecnica che permette di registrare i movimenti oculari e i relativi tracciati chiamati elettrooculogrammi.
Vi è poi l’attività elettrodermica quindi il livello e le risposte di conduttanza cutanea soprattutto in
relazione a particolari stimoli. La pressione sanguigna ed il volume sanguigno sono due misure invece che
si accompagnano alla frequenza cardiaca e che permettono di osservare nel primo caso qual è il valore
massimo di una contrazione del cuore o sistole e il valore minimo durante il rilassamento o diastole e di
poter quindi individuare una situazione di ipertensione. Mentre per quanto riguarda il volume sanguigno
le tecniche di misurazione sono rappresentate dall’applicazione della pletismografia. Questa tecnica il cui
nome deriva dal greco pletismos che vuol dire allargamento, misura l’allargamento vascolare in
125
correlazione al flusso ematico in particolari circostanze. Altre metodiche di studio dell’attività del SN
sono le metodiche fisiologiche invasive di ricerca farmacologica che per limiti etici vengono applicati
soltanto ad animali. Abbiamo innanzitutto la chirurgia stereotassica, che si realizza mediante atlanti
stereotassici, che consistono in una serie di mappe che riproducono ogni sezione del cervello in una
struttura bidimensionale riportando le distanze e i millimetri da un punto di riferimento convenzionale.
L’apparato stereotassico comprende un ferma testa, che mantiene il cervello dell’animale in una
posizione convenzionale, e un reggi elettrodo che si sposta con degli ingranaggi micrometrici. I metodi di
lesione che rientrano nelle metodiche invasive di ricerca prevedono la lesione da aspirazione, la lesione
da radiofrequenza e la resezione chirurgica, il blocco criogènico e la stimolazione elettrica. Le lesioni da
aspirazione si realizzano rimuovendo per sezione il tessuto corticale tramite delle pipette di vetro e
poiché la materia bianca è più resistente all’aspirazione della materi grigia il chirurgo rimuove gli strati di
tessuto corticale dalla superficie del cervello senza danneggiare ne la materia bianca ne i vasi sanguigni.
Le lesioni da radiofrequenza sono lesioni sottocorticali che si realizzano diffondendo tramite un elettrodo
collocato con la chirurgia stereotassica una corrente a frequenze molto elevate; i tessuti circostanti sono
distrutti dal calore e regolando la durata e l’intensità della corrente si determina la dimensione della
lesione. La resezione chirurgica consiste in un intervento chirurgico che interrompe un nervo o un tratto
senza produrre danni estesi nei tessuti circostanti. Il blocco criogenico è una tecnica che produce gli
stessi risultati della lesione ma ne costituisce una alternativa abbastanza valida. Attraverso una criosonda
si pompa un liquido refrigerante, il tessuto circostante si raffredda e si bloccano le scariche di neuroni , la
temperatura viene mantenuta al di sopra dello zero, non si producono danni tessutali strutturali e le
funzioni riprendono non appena la temperatura ritorna normale. Un’altra tecnica di ricerca usata in
psicobiologia comprende i metodi invasivi di registrazione. Abbiamo la registrazione intracellulare da
unità singole ha come vantaggio il poter misurare le fluttuazione del potenziale di membrana dei neuroni.
Gli studi che utilizzano queste registrazioni sono effettuati su animali immobilizzati farmacologicamente
perché un microelettrodo deve rimanere entro un singolo neurone senza spostarsi. La registrazione
extracellulare da unità singole prevede invece che si registrino potenziali di azione di un neurone sempre
tramite un microelettrodo che viene però posto nel liquido extracellulare in prossimità del neurone. Da
questa registrazione si ottiene un tracciato del tasso di scarica di un neurone però non si hanno
informazioni sulle variazioni del potenziale di membrana. La registrazione da unità multiple prevede
l’uso di un elettrodo più grande del microelettrodo solitamente utilizzato che permette di rilevare
l’attività di molti neuroni. Più grande è l’elettrodo maggiore è il numero di neuroni vicino all’elettrodo che
contribuiscono al segnale rilevato. I potenziali di azioni rilevati dall’elettrodo sono inviati ad un
integratore elettronico che li somma e fornisce un tracciato del tasso di scarica complessiva di una
specifica area neuronale in una unità di tempo prestabilita. Vi è infine la registrazione invasiva da
elettroencefalogramma che avviene mediante degli elettrodi bipolari che vengono impiantati con delle
viti di acciaio inossidabile avvitati nel cranio. Un altro metodo dello studio del SN è l’insieme dei metodi
psicofarmacologici che consistono nel somministrare farmaci che aumentano o diminuiscono l’attività di
un neurotrasmettitore e osservare quali sono gli effetti sul comportamento. Questi farmaci possono
essere somministrati per via intragastrica, intramuscolare, intraperitoneale, per via sottocutanea e per
iniezione indovena. Talvolta si può usare anche una cannula intraventricolare, quindi tra i ventricoli
cerebrali fra cui iniettare il farmaco. SI può anche impiantare una pillola sotto la cute in modo che il
farmaco si diffonda gradualmente nell’organismo attraverso la circolazione generale. Il secondo livello di
attenzione della psicobiologia è il comportamento. I metodi di studio del comportamento partono
dall’idea che il comportamento è espressione manifesta dell’attività neurale. Innanzitutto abbiamo dei
test neuropsicologici ovvero dei test che permettono di valutare le funzioni sensoriali e motorie. Per
quanto riguarda i test di intelligenza generale si utilizza la scala Wais (Weschler adult intelligent scale)
con cui il neuropsicologo può trarre delle inferenze sulle disfunzioni psicologiche del paziente valutando
gli 11 subtest di diverso contenuto e tipo di operazione mentale richiesta. Sei subtest sono della scala
126
verbale e comprendono informazione, comprensione generale, ragionamento aritmetico, analogie,
ripetizione di cifre e vocabolario. Gli altri 5 sono della scala di performance che comprendono
completamento di figure, disegno con cubi, riordinamento di storie figurate, ricostruzione di figure e
associazione di simboli a numeri. Vi è poi il test di lateralizzazione del linguaggio che si basano sul
presupposto che le abilità linguistiche siano mediate da uno dei due emisferi del cervello : il sinistro è
maggiormente coinvolto nella produzione ed emissione del linguaggio, il destro invece nell’ascolto e nella
ricezione. I test che vengono maggiormente utilizzati per la lateralizzazione del linguaggio sono test
dell’amital sodico ed il test dell’ascolto dicotico. Nel primo caso viene iniettato un anestetico, l’amital
sodico, nell’ arteria carotide destra o sinistra a livello del collo che inattiva temporaneamente l’emisfero
dello stesso lato senza alterare le funzioni dell’emisfero del lato opposto. A questo punto vengono
somministrati al paziente numerosi test linguistici; poi il procedimento viene ripetuto per l’altro
emisfero. Quando l’iniezione interessa l’emisfero dominante per il linguaggio il paziente per circa due
minuti presenta gravi deficit linguistici. Essendo un test invasivo può essere somministrato solo per
ragioni mediche ad esempio prima di un intervento chirurgico per determinare qual è l’emisfero
dominante per il linguaggio. Nel test dell’ascolto dicotico al soggetto vengono presentate mediante una
cuffia stereo tre cifre ad un orecchio e simultaneamente tre cifre diverse all’altro orecchio. Il compito del
soggetto è quello di ripetere le sei cifre udite. Kimura notò che i soggetti ripetevano più frequentemente
le cifre udite dall’orecchio opposto all’emisfero dominante per il linguaggio (in genere l’orecchio destro).
Vi sono poi test utilizzati a valutare eventuali deficit di memoria e quindi lesioni cerebrali nelle aree
legate a questa funzione. Viene utilizzata la scala di memoria inclusa nella Weschler oppure il test di
memoria per coppie di parole associate. In quest’ultimo test si legge al paziente una lista di coppie di
parole poi gli viene proposta la prima parola di ogni coppia e gli si chiede di rievocare quella associata. Il
limite di questo test è che ha una natura verbale e pertanto non permette di valutare la memoria da
materiali non verbali. Abbiamo poi test di linguaggio fra cui quello maggiormente utilizzato è il test dei
gettoni: si utilizzano 20 gettoni, diversi per forma dimensione e colore. I gettoni vengono disposti su un
tavolo di fronte al paziente a cui si chiede di gestire i gettoni dando una prima istruzione molto semplice
per esempio disporre i gettoni su un quadrato rosso; poi si danno istruzioni sempre più complesse per
verificare la funzionalità di tutti gli aspetti di produzione e comprensione linguistica. Abbiamo poi i test
delle funzioni percettivo-motorie che sono fondamentalmente la capacità percettivo-spaziale e la capacità
di inibizione di risposte motorie. I test utilizzati sono il test del disegno a cubetti, che è un test della scala
WAISS, o il test della figura complessa di Rei durante il quale si chiede al soggetto di copiare a matita su
un foglio una figura complessa che è un compito che in genere a soggetti normali privi di lesioni cerebrali
non pone problemi. L’utilità di questo test consiste nel fatto che i pazienti con danni cerebrali
dell’emisfero destro o sinistro fanno errori diversi : i primi tendono a ripetere fedelmente i dettagli ma ad
avere difficoltà a collegarli nel complesso, i secondi tendono a saper riprodurre fedelmente l’immagine
nel suo complesso ma a non saper ripetere i particolari. Vi sono poi di test di orientamento personale : si
presentano ai pazienti 5 disegni schematici frontali e dorsali del corpo umano con numeri che
contrassegnano le diverse parti del corpo, viene poi chiesto al paziente di toccare le parti corrispondenti
sul proprio corpo nell’ordine contrassegnato dai numeri. Nel test di orientamento extrapersonale ai
pazienti viene chiesto di camminare su una matrice di tre punti per tre disposta sul pavimento seguendo i
percorsi indicati su 5 mappe da tenere in mano. Tra i test percettivo-motori ci sono test per valutare la
capacità di inibire le risposte motorie sbagliate. Tra i metodi di studio del comportamento abbiamo i
metodi comportamentali in psicofisiologia compatibili con registrazione elettrofisiologica. Il primo è lo
studio dei profili psicofisiologici delle emozioni. Nelle prime ricerche psicofisiologiche si era visto che
stimoli particolari potevano risultare molto attivanti e quindi indurre delle modificazioni
psicofisiologiche per esempio dell’attività cardiovascolare dell’attività elettromiografica ed
elettrodermica oltre ad un aumento della frequenza del tracciato dell’elettroencefalogramma quindi una
attivazione a livello cerebrale. Attraverso questi studi si è giunti ad affermare che tutte le esperienze
127
emotive producono modificazioni elettrofisiologiche; tuttavia se il primo studio si basava su un approccio
unidimensionale successivamente vennero effettuati studi sulle emozioni e la loro parte psicofisiologica
fondati su un approccio multidimensionale. Per esempio tutte le rilevazioni del volto con
l’elettromiogramma dei muscoli facciali permettono di individuare qual è il pattern elettromiografico
complessivo facciale legato ad una emozione. Abbiamo poi i metodi psicofisiologici di detezione della
verità; la cosiddetta macchina della verità è per esempio ispirata a questo tipo di studi. E’ un tipo di
studio legato ai metodi psicofisiologici di rilevazione delle emozioni e generalmente queste valutazioni di
attivazione emotiva durante interrogatorio effettuate mediante poligrafia vengono affiancate a tecniche
tradizionali quindi da un interrogatorio effettuato da personale esperto. Le tecniche principali utilizzate
per studi psicofisiologici di detenzione della verità sono la tecnica del crimine simulato e la tecnica delle
domande di controllo. Nella tecnica del crimine simulato ai soggetti viene chiesto di simulare di
commettere un crimine e poi vengono interrogati da un esaminatore che non sa se sono colpevoli o
innocenti. Il metodo delle interrogazioni prevede delle domande di controllo che vengono confrontate
con le risposte elettrofisiologiche rilevate attraverso i parametri già specificati. Infine una delle tecniche
dello studio del comportamento è il cosiddetto biofeedback che fornisce ai soggetti informazioni di
regolazione sulle loro attività biologiche in particolare su attività fisiologiche di cui normalmente non
abbiamo consapevolezza. Il biofeedback nasce da una prima linea di ricerca in cui i soggetti informati
sull’andamento delle onde alpha del proprio tracciato elettroencefalografico potevano aumentarne
volontariamente la presenza e quindi arrivare ad uno stadio di grosso rilassamento.
Ingegneria genetica
La genetica è una scienza i cui metodi oggi sono ampiamente usati nella psicobiologia. Le tecniche di
knock-out di un gene, ad esempio, sono procedure che portano alla creazione di organismi che mancano
di un particolare gene oggetto di studio. Una volta creati si tenta di individuare ed eventualmente
approfondire tutte le anomalie neuronali e comportamentali che può aver sviluppato. I risultati ottenuti
con tale procedura sono però di difficile interpretazione : innanzitutto la maggior parte dei tratti
comportamentali è influenzata dall’interazione di numerosi geni, di conseguenza l’eliminazione di un
tratto comportamentale in seguito al knock-out di un gene può aiutare ad identificare solo un piccola
parte del contributo genetico sul comportamento. Inoltre l’eliminazione di un gene può influenzare
l’espressione di altri geni oppure gli effetti del gene soppresso possono essere mascherati dai
cambiamenti compensatori di altri geni. Infine l’espressone dei geni po’ essere influenzata
dall’esperienza. I farmaci antisenso potenzialmente ovviano agli inconvenienti delle tecniche knock-out,
ma devono essere resistenti non tossici e specifici rispetto all’RNA messaggero a cui si dirigono. Oggi nei
topi è possibile sostituire un gene con altro. Le tecniche di sostituzione genetica sono molto importanti
per la ricerca e la terapia: ad esempio è possibile asportare geni patologici da cellule umane ed inserirli
nei topi (topi transgenici = topi che contengono materiale genetico di altre specie), oppure sostituire un
gene con un altro identico che può essere attivato o disattivato in risposta a sostanze chimiche particolari
che possono essere utilizzare per eliminare o attivare un gene ad un particolare stadio di sviluppo o in
una particole struttura del cervello. L’approccio ai test psicologici ha subito un’evoluzione in cui è
possibile distinguere tre fasi : l’approccio del test singolo, l’approccio di una batteria standardizzata di
test e il recente approccio di una batteria di test individualizzata. Nel test singolo, destinato ad
individuare danni cerebrali, l’obiettivo era quello di differenziare pazienti con problemi psicologici dovuti
a danni strutturali del cervello da pazienti con problemi psicologici provocati da modificazioni funzionali.
128
A seguito dell’insuccesso del test singolo ha avuto origine l’approccio con batteria standardizzata di test,
in cui l’obiettivo è sempre quello di individuare danni cerebrali ma ciò avveniva attraverso la
somministrazione di una batteria di test anziché di uno solo: i punteggi ad ogni test vengono sommati in
un unico punteggio complessivo, se tale punteggio è al di sotto della media stabilita si propende per una
diagnosi di danno cerebrale. Oggi il metodo più usato sia nella ricerca che nella cura è la batteria di test
individualizzata. L’obiettivo principale non è tanto quello di individuare pazienti con danni cerebrali
quanto individuare la natura dei problemi psicologici in ogni paziente. Viene somministrata al paziente
una comune batteria di test scelti dal neuropsicologo per avere una idea generale della natura dei sintomi
neuropsicologici.. Poi in base a risultati lo specialista sceglie una serie di test individualizzati per ogni
paziente nel tentativo di ottenere maggiori dettagli sui sintomi generali ottenuti con i test standardizzati
(esempi problemi di memoria). Dopo aver analizzato i risultati a una batteria di test generale, viene poi
scelta una serie di test specifici per chiarire la natura dei problemi individuati con i test generali. Fra
questi test specifici possiamo citare ad esempio quelli sulla memoria; dopo aver individuato un disturbo
della memoria mediante una batteria di test generale bisogna porsi 4 domande: se il disturbo coinvolge la
MBT, la MLT o entrambi; se i disturbi della MLT sono anterogradi, retrogradi, o entrambi; se i danni
alla MLT riguardano la memoria semantica (conoscenze sul mondo) o episodica (proprie esperienze);
se sono disturbi della memoria implicita (ricordi che emergono senza che il paziente ne sia cosciente) o
esplicita (ricordi coscienti ce il paziente può riferire verbalmente) o entrambe. I repetition priming test
si sono rivelati preziosi per valutare e studiare casi in cui i pazienti manifestano disturbi della memoria
esplicita senza nessun disturbo di quella implicita. Prima si mostra al paziente una lista di parole che
dovrà studiare ma non ricordare, poi gli si chiede di completare una lista di frammenti di parole che per
lo più sono frammenti di parole della lista iniziale. I pazienti colpiti da amnesia spesso completano le
parole come i pazienti sani del gruppo di controllo, ma spesso e più importante è che non hanno un
ricordo cosciente della lista iniziale ne di averla vista, ovvero manifestano un’ottima memoria implicita
senza avere memoria esplicita dell’esperienza. Se invece un paziente mostra problemi di linguaggio ad
una batteria di test generale gli si somministra una serie complessa di test per chiarire l’origine del
disturbo. Un problema di linguaggio può essere dovuto a tre tipi di problema, fonologico, sintattico e
semantico. Poiché i pazienti con problemi di linguaggio possono avere uno di questi disturbi ma non gli
altri è necessario utilizzare test che indagano su questi tre aspetti, detti test di follow up. Un test molto
usato in caso di lesione del lobo frontale è il test di Wisconsin che utilizza delle carte sulle quali ci sono 1,
2, 3 o 4 simboli uguali per forma e colore. All’inizio del test vengono poste davanti al paziente 4 carte
stimolo diverse per colore forma e numero dei simboli riportanti. Al paziente viene dato un mazzo di
carte che dovrà ripartire in 4 gruppetti davanti alle carte stimolo scoprendo da solo il criterio di
ripartizione basandosi solo sul fatto che l’esaminatore gli dirà, dopo ogni tentativo, se ha risposto
correttamente o no. All’inizio il criterio corretto sarà il colore delle carte, poi dopo 10 risposte corrette il
criterio verrà cambiato senza informarne il paziente. Quando il nuovo criterio verrà scoperto sarà
nuovamente cambiato. Questo test è molto sensibile al danno frontale, infatti pazienti con lesioni del lobo
frontale possono continuare a usare lo stesso principio di ripartizione ance per più di 100 volte
consecutive dopo che l’esaminatore ha cambiato criterio. Essi sono incapaci di apprendere e ricordare
che un comportamento adeguato in una situazione può non esserlo in un’altra, un problema definito
perseverazione.
Le neuroscienze cognitive si basano su due assunti principali : 1) ciascun processo cognitivo complesso
nasce dall’attività combinata di due processi cognitivi elementari definiti processi cognitivi costituenti; 2)
ciascun processo cognitivo elementare è mediato dall’attività neurale di una determinata area cerebrale.
Uno degli obiettivi principali delle neuroscienze è appunto quello di individuare queste aree cerebrali.
Uno de metodi comportamentali principali usati nella PET e nella RMF è la tecnica sottrattiva di immagini
appaiate in cui le immagini PET o RMF sono ottenute mentre il soggetto svolge vari compiti ideati in
modo da differire a due a due per un singolo processo cognitivo. In questo modo sottraendo l’immagine
129
PET ottenuta durante lo svolgimento di un compito dall’immagine ottenuta durate l’altro compito, è
possibile avere un quadro di attivazione delle aree cerebrali responsabili del processo cognitivo in esame.
Un’altra difficoltà negli studi PET o di RMF sono i rumori di fondo dell’attività cerebrale creati da una
serie di eventi che possono avvenire durante il test (vedere una mosca, chiedersi quanto durerà il test,
ecc..). Tale rumore può essere ridotto mediante la tecnica del signal averaging o media dei segnali, di
solito viene fatta la media delle immagini di attivazione ottenute in diversi soggetti sperimentali,
l’immagine media risultante mette in evidenza le aree di attivazione comuni a tutti i soggetti, e tende a
cancellare le attivazioni specifiche solo di alcuni di essi. Fra i paradigmi sperimentali più comuni per lo
studio del comportamento animale, che riguardano soprattutto i ratti da laboratorio (soggetti
sperimentali più comuni nella ricerca psicobiologica) troviamo il paradigma per l’esame del
comportamento specie specifico, ovvero del comportamento mostrato virtualmente da tutti gli individui
di una specie o almeno da tutti quelli di una stessa età o sesso. I comportamenti più spesso studiati sono il
nuotare, mangiare, bere, lottare, costruire il nido, copulare e fra i test più usati troviamo il test dell’ open
field, il test de comportamento aggressivo-difensivo, e quello del comportamento sessuale. Nel test
dell’open field vengono misurati i comportamenti di un animale posto in una camera sperimentale ampia
e vuota. Un basso livello di attività generale ed un alto numero di boli sono indice di paura. Ovviamente
tale paura tende a diminuire con il ripetersi dell’esperienza dentro la stessa camera. Il test del
comportamento aggressivo-difensivo viene usato in una situazione di incontro tra il ratto maschio
dominante di una colonia, il cui comportamento è definito aggressivo, e un maschio estraneo più piccolo,
cui comportamento è difensivo. Il maschio alpha dominante si muove lateralmente con i peli eretti verso
l’intruso, quando lo raggiunge tenta di fargli perdere l’equilibrio e di morderlo sul dorso e sui fianchi.
L’aggredito si protegge sollevandosi sulle zampe posteriori e allontanando l’aggressore con le zampe
anteriori o rotolandosi sulla schiena. Sono segnali di aggressività la piloerezione, lo spostamento laterale,
i morsi sul dorso e fianchi, mentre sono segnali di difesa l’immobilità, il sollevarsi sulle zampe posteriori,
il rotolarsi sulla schiena. Alcuni test misurano la reattività allo sperimentatore anziché ad un altro ratto,
ad esempio misurando la resistenza dell’animale quando viene preso in mano: non opporre resistenza è
la categoria più bassa di difesa, mordere è quella più alta. Il test del labirinto sopraelevato è un test per
esaminare nel ratto gli effetti ansiolitici di alcuni farmaci : un labirinto a croce è posto a 50 cm dal
pavimento, due bracci del labirinto sono chiusi e due aperti. Una misura del comportamento di difesa o di
ansia è la quantità di tempo che il ratto passa nei bracci protetti piuttosto che in quelli esposti. Nel
paradigma di condizionamento pavloviano lo sperimentatore associa uno stimolo neutro, detto stimoo
condizionato (segnale acustico) ad uno stimolo incondizionato (carne) che evoca una risposta
incondizionata o riflessa (salivazione). Dopo numerose associazioni lo stimolo neutro diventa capace
anche da solo di evocare una risposta condizionata simile, ma non sempre, a quella incondizionata. Nel
condizionamento operante la probabilità di produrre una particolare risposta aumenta se è seguita da
rinforzi o diminuisce se è seguita da punizioni. Un paradigma di condizionamento operante largamente
usato è quello dell’autostimolazione, un paradigma in cui gli animali premono una leva per autostimolarsi
elettricamente determinati centri del piacere cerebrale. Tra i paradigmi di apprendimento troviamo
anche quelli detti semiecologici ideati al fine di simulare situazioni che l’animale può incontrare nel suo
ambiente naturale. Tra questi vi sono il condizionamento avversivo del gusto basato sull’avversione
sviluppata da animali verso sapori che sono seguiti da uno stato di malessere. Il condizionamento
avversivo del gusto tuttavia viola tre dei principi fondamentali dell’apprendimento definiti dalla ricerca
sul condizionamento di Plavov e operante: mette in discussione la gradualità nel processo di
condizionamento animale, infatti intense avversioni si instaurano in un’unica prova; i ratti sviluppano
intense avversioni gustative anche quando si ammalano ore dopo assunto un determinato cibo;
contraddice il principio dell’equipotenzialità dell’apprendimento secondo cui i processi di
condizionamento sono gli stessi a prescindere dal tipo di stimoli e risposte in esame, i ratti infatti
sembrano essere più predisposti ad apprendere l’associazione fra gusto e malessere piuttosto che
130
l’associazione fra colore di un cibo e nausea, o tra sapor e shock elettrico. Il labirinto a bracci radiali
valuta le abilità spaziali dei roditori da cui dipende la loro sopravvivenza; infatti un ratto alla ricerca di
cibo deve apprendere e ricordare un complesso numero di nozioni spaziali. Infatti non solo deve
ricordare qual è il luogo più probabile dove cercare cibo ma anche ricordare i luoghi che ha visitato di
recente. Un altro paradigma che studia le capacità spaziali dei ratti è il labirinto ad acqua di Morris, in cui
i ratti sono posti in una vasca circolare uniforme e piena di acqua torbida e devono nuotare finchè non
trovano una piattaforma posta appena sotto la superficie dell’acqua. Ai ratti è concesso di riposare su
questa piattaforma prima di essere rimessi in acqua per ricominciare a nuotare. Benché la posizione della
pedana venga cambiata ad ogni prova i ratti sono in grado di ritrovarla usando come punti di riferimento
vari indizi spaziali della stanza. E’ importante sottolineare che questi metodi per essere efficaci devono
essere usati congiuntamente, in psicobiologia infatti raramente, per non dire mai, si ricorre ad un unico
metodo di ricerca, al contrario un problema viene risolto quando si utilizzano diversi metodi sperimentali
(approccio con metodi convergenti).
131