Definizioni e tipologie Per psicobiologia si intende una disciplina che rientra nell'ambito delle neuroscienze, cioè quelle scienze che hanno come oggetto di studio il sistema nervoso a livello anatomico e fisiologico per quanto riguarda la sua influenza sul comportamento umano. Nasce come disciplina nella metà degli anni ‘40 attraverso gli studi di Carl Lashley e tramite la pubblicazione di Hebb “L'organizzazione del comportamento”. Hebb espose la prima teoria generale di come fenomeni psicologici complessi, quali percezione, emozioni, pensiero e memoria, potessero essere prodotti dall'attività cerebrale. Oggi la psicobiologia si caratterizza per una funzione di integrazione rispetto ai contributi proposti da altre discipline affini come ad esempio: la psichiatria biologica che studia le basi biologiche dei disturbi psichiatrici e del loro trattamento; la neurobiologia dello sviluppo che studia il sistema nervoso dallo sviluppo alla maturazione fino al suo invecchiamento; la neurochimica che studia le basi chimiche dell'attività neurale; la neuroendocrinologia che studia l'interazione tra il sistema nervoso ed il sistema endocrino; la neuroanatomia che studia la struttura del sistema nervoso; la neurofisiologia che studia le attività del sistema nervoso; la neurofarmacologia che studia gli effetti dei farmaci sul sistema nervoso; la neuro etologia che studia l'interazione fra il sistema nervoso e il comportamento esibito dagli animali nel loro ambiente naturale e che pone le basi per un approccio comparativo rispetto allo studio della psicobiologia nell'essere umano. Gli psicobiologi svolgono le loro ricerche utilizzando una varietà di approcci sperimentali in base ai quali possiamo distinguere sei principali aree: la psicologia fisiologica; la psicofarmacologia; la neuropsicologia; la psicofisiologia; la neuroscienza cognitiva; la psicologia comparata. Appredimento, memoria e amnesie. La memoria viene definita come la capacità di un organismo vivente di mantenere tracce della propria esperienza passata ed utilizzarla per relazionarsi col mondo e con gli eventi futuri. Si ritiene che sia un processo in tre stadi: codifica ed immissione delle informazioni; 1 memorizzazione e consolidamento delle informazioni; recupero delle informazioni. Viene definito come ricordo la funzione in cui si esprime la memoria, mentre si definisce oblio la diminuzione o la scomparsa del ricordo. L’oblio è spesso dovuto ad un naturale deterioramento fisiologico e psicologico e va distinto dalla amnesia che invece è una riduzione più o meno grave non del ricordo ma della capacità di ricordare. Ha una causa patologica che può essere organica, come, ad esempio, un trauma cranico, o psicogena, come un evento traumatico a livello psicologico che può determinare una amnesia come difesa rispetto al dolore associato al ricordo. Si può distinguere l’amnesia in: anterograda, ovvero la perdita di memoria per gli avvenimenti successivi all’evento che l’ha prodotta; retrograda, ovvero la perdita di memoria per gli avvenimenti antecedenti all’evento che l’ha prodotta. Si distingue in: retrograda con gradiente temporale (deficit del II stadio del processo di memoria, cioè della memorizzazione); retrograda senza gradiente temporale (deficit del III stadio del processo di memoria, ovvero il recupero delle informazioni). Per quanto riguarda gli studi sulla memoria e sui suoi fondamenti biologici vi sono due teorie principali: la teoria di Carl Lashley e la teoria di Hebb. La teoria di Lashley è stata formulata nell’ambito di studi sulla localizzazione neurali degli engrammi, ovvero modificazioni cerebrali responsabili dell’immagazzinamento in memoria. Gli studi di Lashley che consistevano nell’addestrare animali da laboratorio, nel far eseguire loro compiti di apprendimento abbastanza complessi, per poi asportare o lesionare parti di cervello cancellando la memoria di questi apprendimenti. Sulla base dei risultati ottenuti Lashley concluse che si potevano affermare due principi: il principio dell’azione di massa, secondo cui le memorie di compiti complessi sono immagazzinate diffusamente nella neocorteccia; il principio della equipotenzialità, secondo cui tutte le parti della neocorteccia giocano lo stesso ruolo nell’immagazzinamento delle informazioni e delle memorie di compiti complessi. Lashley ammetteva che alcune parti avevano ruoli più importanti nell’immagazzinare tipi diversi di memoria, per esempio, la corteccia visiva poteva avere un ruolo fondamentale nel conservare informazioni visive, però sosteneva anche che le memorie erano immagazzinate in maniera diffusa e uguale nelle diverse aree funzionali. La teoria di Hebb invece si basava sugli studi della memoria a breve e lungo termine. Diverse ricerche avevano infatti suggerito l’ipotesi che una certa informazione venisse conservata temporaneamente in un magazzino a breve termine fino a che non si verificavano delle modificazioni psicologiche che portavano ad un immagazzinamento a lungo termine. Hebb sosteneva che la funzionalità della memoria a breve termine è mediata da una attività riverberante, cioè un’attività che si ripete in circuiti neurali chiusi eccitati solo da un evento in particolare. Questa produce modificazioni strutturali nelle sinapsi che successivamente portano ad una facilitazione sinaptica, cioè facilitano il verificarsi del pattern di attività. Le basi neurali della memoria, dell’oblio e dell’amnesia sono state studiate soprattutto attraverso esperienze di interventi neurochirurgici di un paziente indicato solo con le sue iniziali : H.M. Questo paziente è stato sottoposto alla lobectomia temporale mediale bilaterale, quindi all’asportazione della parte mediale dei lobi temporali di entrambe le parti mostrando poi i sintomi di una amnesia anterograda e impossibilità di formare nuove memorie a lungo termine.Gli studi effettuati su questa persona hanno portato ad individuare le basi neurali implicate nell’amnesia, ossia l’ippocampo, l’amigdala e il peduncolo temporale. I principali test psicologici che si utilizzano per la valutazione sistematica delle forme di amnesia sono: il test del digit span +1 in cui viene richiesto di ripetere 5 cifre che vengono lette ciascuna con un intervallo di un secondo; se il paziente le ripete tutte correttamente nella prova successiva gli vengono proposte le stesse 5 cifre nello stesso ordine e alla fine della sequenza si aggiunge 1 cifra. Appena il 2 paziente riesce a ripetere anche questa sequenza, viene aggiunta un’altra cifra e cosi via. I soggetti normali, dopo 25 presentazioni, sono in grado di ripetere un numero di circa 15-18 cifre, mentre i pazienti con deficit mnestici di amnensia anterograda riescono a ripetere non più di 7 cifre quindi solo una in più rispetto al digit span di base. Il block tapping memory span test o test dei cubetti si utilizza perché l’amnesia anterograda non è limitata al materiale solo non verbale o solo verbale, per cui bisogna utilizzare test diversi sia rispetto al materiale verbale che non verbale. Inoltre, tale amnesia può implicare ulteriori deficit in prestazioni di tipo manuale che implicano capacità logiche, di coordinamento sensoriale e muscolare. In questo test vengono dati 9 cubetti che vengono sparsi sul tavolo di fronte al paziente, il neuropsicologo tocca una sequenza di cubetti e poi chiede al paziente di toccarli a sua volta nella stessa sequenza. La persona che ha un deficit mnestico non riesce ad imparare la sequenza anche se gli viene ripetuta per almeno 12 volte. Tale deficit viene chiamato amnesia globale. Il test di appaiamento verbale e non verbale in cui si presenta al soggetto un item campione e dopo un certo intervallo di tempo si presenta un insieme di items fra cui bisogna scegliere quello che corrisponde al primo item campione. Ci sono forme sia verbali che non verbali di questo test e in pazienti con deficit mnestici si vede che in ogni prova lo stimolo campione viene presentato per poco tempo in una matrice fatta di 3 riquadri x 3 e l’item campione viene messo nel riquadro centrale. Dopo intervalli di differente durata vengono presentate altre 8 matrici con items fra cui scegliere per l’appaiamento, quindi il paziente deve toccare il riquadro che contiene l’item corrispondente al campione. Con stimoli verbali, ad esempio sequenze di consonanti, i pazienti non mostrano alcuna difficoltà, perfino con intervalli prolungati intorno ai 40 secondi; per stimoli non verbali, ad esempio forme geometriche, il paziente non riesce ad eseguire il compito ad intervalli maggiori di 5 secondi che è un risultato abbastanza grave se si pensa che un gruppo di bambini di controllo in età scolare non commette errori in nessuna delle due forme del test. Il test del disegno allo specchio consiste nel tracciare una linea continua lungo un tracciato a forma di stella osservando il tracciato in uno specchio. Per ogni prova si conta il numero degli errori, cioè quante volte il paziente esce dal tracciato. Vi è un progressivo apprendimento del compito che permette un miglioramento nel corso dell’esecuzione ripetuta per alcuni giorni, tuttavia quando viene chiesto al paziente se ha già svolto quel compito afferma di non averlo mai visto. Quindi non c’è memoria rispetto all’aver già svolto il compito ma c’è una ritenzione sulla sua esecuzione. Nel test del rotary pursuit il soggetto deve mantenere la punta di una matita in contatto con un bersaglio che si muove circolarmente su un disco che ruota. Nel caso di H.M., per esempio, si è visto che dopo 9 sessioni di prova le prestazioni miglioravano significativamente anche se il paziente non ricordava di aver già eseguito quel test. Nel test delle figure incomplete si utilizzano 20 figure di oggetti che vengono presentati ciascuno in 5 forme che vengono disegnati con un numero crescente di tratti : quindi la forma 1 è la più incompleta, mentre la forma 5 riproduce l’oggetto per intero. Al soggetto vengono presentate prima le figure degli oggetti più incompleti, quindi la forma 1, e gli viene chiesto di identificarli; poi gli vengono presentate le forme 2 degli oggetti che non ha riconosciuto e si propongono le forme 3, 4, e 5 finché tutti e 20 gli oggetti non siano stati riconosciuti. Anche in questo caso la prova mostra dei miglioramenti ripetendo le sessioni di prova ma il soggetto all’inizio di ogni nuova sessione non ricorda di aver già svolto quel compito. 3 Un’ altra forma di memoria è quella che deriva da un condizionamento pavloviano. In uno studio vennero somministrati al soggetto una serie di stimoli acustici associati ad un colpo d’aria sull’occhio tale da provocare ammiccamento. Dopo la fase di condizionamento il paziente ammiccava alla sola presentazione dello stimolo acustico. Dopo diverso tempo il soggetto continuava a mostrare questa risposta condizionata sebbene non avesse alcun ricordo cosciente del periodo di condizionamento. Vi sono poi delle amnesie legate a patologie particolari: l’amnesia legata alla sindrome di Korsakoff, l’amnesia legata al morbo di Alzhaimer, l’amnesia collegata a traumi cranici chiusi. La sindrome di Korsakoff è un quadro clinico legato agli alcolisti cronici derivante da un deficit di tiamina che è una vitamina del gruppo B1. I sintomi generali di questa sindrome sono deficit sensoriali e motori, grave confusione, modificazione della personalità, oltre al rischio di morte per problemi epatici, gastrointestinali e cardiaci legati all’assunzione eccessiva di alcol. Le strutture neurali implicate nella sindrome di Korsakoff, a seguito soprattutto di autopsia condotta su pazienti morti a causa di questa patologia, sembrano essere la corteccia prefrontale e il diencefalo, in particolare talamo, ipotalamo (corpi mammillari), la neocorteccia e il cervelletto. I deficit associati ad una alterazione di queste strutture diencefaliche sono deficit cognitivi che portano ad uno sviluppo di amnesia retrograda che si accompagna ad una comparsa progressiva di amnesia anterograda che è aggravante rispetto ai sintomi generali. Per quanto riguarda invece la corteccia prefrontale, i deficit associati sono interferenza proattiva, cioè il fenomeno per cui l’esecuzione di un compito mnestico interferisce con l’esecuzione di un compito successivo, e amnesia per le sequenze temporali. Il morbo di Alzhaimer è la principale causa di demenza senile, cioè deterioramento intellettivo generale nelle persone anziane che rende il soggetto incapace di svolgere le più comuni attività, ed è un’altra delle principali cause di amnesia. Anche le modificazioni neurali dei pazienti affetti da morbo di A. sono studiate mediante autopsia del cervello di pazienti deceduti in seguito a questa patologia. Queste autopsie hanno evidenziato a livello neurale la presenza di neurofibrille del citoplasma nei neuroni, placche amiloidi, cioè intrecci di fibre neurali degenerate miste a proteine anomale definite amiloidi, e neuroni degenerati che si trovano soprattutto nella neocorteccia frontale e temporale, nell’ippocampo e nel proencefalo basale. La degenerazione e modificazione neuronale che si evidenzia in pazienti affetti da morbo di A. è di due tipi: a livello della corteccia frontale e temporale e dell’ippocampo vi è una degenerazione e riduzione dell’attività dei neuroni colinergici che producono enzimi che stimolano la sintesi di acetilcolina, invece nei nuclei del proencefalo c’è proprio una riduzione quantitativa dei neuroni. Sulla base di queste osservazioni viene formulata una ipotesi di implicazione dei meccanismi colinergici nei processi mnestici, in particolare nella memoria della sequenza temporale degli eventi. In base a questa ipotesi furono usati anche dei farmaci come la scopolamina che blocca i recettori colinergici di tipo muscarinico, e intrapresi studi su farmaci antagonisti e agonisti colinergici e sui loro effetti rispetto alla memoria. Gli agonisti colinergici hanno effetti nootropici cioè migliorano la memoria, tuttavia è un’ipotesi che deve essere ancora valutata con una evidenza sperimentale rigorosa. Per quanto riguarda l’amnesia legata ai traumi cranici chiusi, dobbiamo dire che questo è un trama in cui non c’è rottura della scatola cranica o penetrazione di oggetti esterni. L’amnesia derivante può essere sia anterograda che retrograda e può essere accompagnata da due fenomeni particolari , il fenomeno delle isole di memoria e il fenomeno delle lacune di memoria. Isole di memoria significa che si conservano memorie di eventi particolari verificatisi in periodi di cui non si conserva nessun altro ricordo, quindi c’è un periodo precedente al trauma cranico rispetto al quale non si ricorda nulla tranne delle memorie isolate. Le lacune di memoria sono delle lacune persistenti anche quando l’amnesia retrograda e anterograda si riducono. Per quanto riguarda l’amnesia da lesione dei lobi temporali , vennero effettuate delle lesioni o distruzione dell’ippocampo, lesioni dell’amigdala o del peduncolo temporale quindi di quelle strutture che negli esseri umani erano già ritenute implicate come basi della memoria e dell’amnesia. In particolare, in uno 4 studio di Mishkin, una scimmia doveva effettuare una prova del test di accoppiamento ritardato di oggetti non ricorrenti (stimoli nuovi); in ogni prova del test si presentava ad una scimmia un oggetto campione sotto il quale era possibile trovare del cibo, quindi dopo un intervallo variabile in cui la scimmia viene coperta da uno schermo si mostra poi all’animale di nuovo lo stimolo iniziale insieme ad un oggetto nuovo. L’animale deve ricordare il primo stimolo per poter scegliere lo stimolo nuovo sotto cui ora è nascosto il cibo. In ogni prova si mostrano sempre stimoli nuovi. Se l’intervallo è di pochi minuti, scimmie normali addestrate sono in grado di risolvere il compito nel 90% dei casi, se l’animale ha invece una lesione temporale mediale bilaterale si comporta correttamente solo se l’intervallo è di pochi secondi, altrimenti la sua prestazione diventa assolutamente casuale. Questo test ha portato ad affermare che il peduncolo non fosse implicato nell’amnesia ma ciò che invece era fondamentale era l’attività sinergica dell’ ippocampo e dell’amigdala. Mishkin ha effettuato anche studi sulle lesioni diencefaliche della scimmia e sulla conseguente amnesia effettuando lo stesso test ed osservò che i deficit nella prestazione erano dovuti soprattutto a lesioni dei nuclei dorso mediali del talamo come avveniva nei pazienti umani affetti da sindrome di Korsakoff, mentre il ruolo dei corpi mammillari non era evidenziato da queste ricerche. Questo test è stato infine usato anche per osservare deficit di memoria conseguenti a lesioni della corteccia prefrontale e ciò che si è evidenziato è stato un deficit della memorizzazione delle sequenze temporali come avveniva a pazienti amnesici umani. Un altro paradigma sperimentale che è stato usato sempre su animali è il paradigma della Mumby box che si basa su test di non appaiamento ritardato di oggetti non ricorrenti e un oggetto campione in cui l’oggetto campione veniva posto in una di due vaschette per il cibo ad una estremità di questa scatola, mentre all’altra estremità sempre su altre due vaschette per il cibo veniva posto sia lo stesso oggetto che un oggetto nuovo. Quando si solleva la porta scorrevole il ratto addestrato e deprivato di cibo corre a sollevare l’oggetto e a prendere il cibo sottostante. A questo punto lo sperimentatore toglie lo stimolo e il ratto rimane nel box per un intervallo di tempo variabile, ad esempio un minuto. Viene poi aperta l’altra porta e il ratto che ricorda lo stimolo appena visto corre verso l’oggetto nuovo per prendere il cibo che si trova nella vaschetta sottostante. A questo punto il ratto si dirige verso il centro i divisori vengono richiusi e vengono posizionati gli oggetti per la prova successiva. Questo esperimento dimostra che le prestazioni del ratto nella mumby box sono molto simili a quelle della scimmia nelle prove di non appaiamento ritardato di oggetti non ricorrenti. Lesioni dell’ippocampo e dell’amigdala producono deficit nelle prestazioni della mumby box che sono gli stessi evidenziati nelle prove sperimentali per la scimmia e nei test standard utilizzati per la valutazione sistematica dell’amnesia nell’essere umano. Sono stati poi effettuati studi più specifici per quanto riguarda le sedi neurali della memoria in relazione alla fase di immagazzinamento in memoria; le prime teorie di Lashlay ipotizzavano che le memorie venissero immagazzinate diffusamente e quindi che non ci fossero delle sedi specifiche di localizzazione , sono stati quindi effettuati studi ulteriori per verificare se questo fosse effettivamente vero o se invece esistevano delle sedi neurali specifiche di immagazzinamento. L’evidenza sperimentale porta ad integrare queste due ipotesi nel senso che le memorie vengono immagazzinate diffusamente e la memoria di una singola esperienza implica sedi neurali diverse, in particolare aree sensoriali della corteccia implicate nell’analisi percettiva delle diverse informazioni sensoriali, ovvero la corteccia infero temporale è sede neurale per l’immagazzinamento della memoria delle informazioni visive, la corteccia parietale posteriore è sede neurale per l’immagazzinamento della memoria relativa alla localizzazione spaziale degli oggetti, e la corteccia somatosensoriale secondaria è la sede neurale dell’immagazzinamento della memoria riferita a stimoli tattili. Per ciò che riguarda le prestazioni dei soggetti amnesici ai diversi test standard di valutazione importante è anche la distinzione fra memoria implicita ed esplicita e memoria procedurale e dichiarativa. Ciò che è stato possibile dimostrare usando test specifici come il test di apprendimento percettivo, test di 5 condizionamento classico e test di priming di ripetizione è che c’è una conservazione di memorie implicite, ad esempio attraverso una studio che usava un test di apprendimento percettivo si è visto che pazienti amnesici addestrati a leggere immagini speculari di parole conservavano questa abilità anche dopo 3 mesi pur non ricordando di aver effettuato l’addestramento per questo tipo di compito. Con il condizionamento classico pazienti amnesici hanno appreso una risposta di ammiccamento condizionato e l’hanno mantenuta per 24 ore pur non ricordando di aver effettuato le prove di condizionamento. Attraverso prove di priming di ripetizione venivano presentate ai pazienti liste di parole e poi frammenti delle parole della lista che i pazienti dovevano completare. Pur non avendo i pazienti alcuna capacità i ricordo e riconoscimento delle parole ma riuscivano comunque a completare correttamente il test. Questi test dimostravano che esistono due diversi sistemi di memorizzazione, definiti memoria esplicita ed implicita mediate da sistemi differenti. I ricordi espressi in forma di dichiarazioni consapevoli fanno parte di un sistema di memoria esplicita, mentre i ricordi che sono presenti in memoria e che inconsapevolmente influenzano un comportamento migliorando ad esempio le prestazioni fanno parte di un sistema di memoria implicita. La memoria esplicita è quindi espressa da dichiarazioni consapevoli quindi include il ricordo ed il riconoscimento ed è mediata dalla memoria dichiarativa che comprende la memoria episodica e la memoria semantica. La memoria si riferisce alla memoria di eventi che hanno un tempo e un luogo, la memoria semantica invece si riferisce alla memoria di eventi ed informazioni generali che sono state acquisite nel corso di specifiche esperienze e specifici apprendimenti. La memoria esplicita viene più spesso danneggiata nei casi di amnesia; infatti la memoria esplicita ed in particolare quella dichiarativa che è quella accessibile all consapevolezza e che può essere richiamata alla mente sia verbalmente che non verbalmente è quella che più spesso viene danneggiata nei casi di amnesia. La memoria implicita invece viene espressa dalla performance e dai miglioramenti relativi ad esperienze precedenti non ricordate, in questo caso c’è una assenza di ricordo e riconoscimento consapevole ed è mediata dalla memoria procedurale, una memoria che si valuta mediante le prestazioni perché impegna abilità e operazioni che implicano una particolare conoscenza precedente. E’ una memoria che si attiva automaticamente cioè ci sono delle informazioni e rappresentazioni preesistenti che sono di tipo procedurale che vengono attivate automaticamente quando la persona deve effettuare una determinata performance. Infine per quanto riguarda la localizzazione neurale nelle amnesie facendo riferimento alle diverse fasi di memoria, quindi immagazzinamento codifica e recupero sono stati individuati osservando pazienti umani e animali sperimentali con danni in diverse sedi neurali quale tipo di disturbo mnestico relativo a quale fase si possa collegare ad una sede neurale piuttosto che ad un’altra. Per esempio nell’amnesia da danno medio temporale c’è un disturbo della memorizzazione ed un oblio molto rapido perché anche se la capacità di codifica e recupero sono intatte l’informazione non si è consolidata, invece nell’amnesia legata a danni del diencefalo c’è un disturbo della codifica e del recupero quindi l’oblio è progressivo perche la memorizzazione permane ciò che è più difficile è la codifica delle informazioni nuove e il recupero però l’informazione rimane in memoria. Ci sono quindi due sistemi mnestici diversi e la distruzione del fornice che è la struttura neurale che collega questi due sistemi non produce amnesia il che significa che i due sistemi mnestici diversi mediano fasi diverse del processo di memorizzazione. Lesioni bilaterali dell’ippocampo nelle cavie spesso hanno sulla memoria effetti scarsi o nulli. Me esiste un’eccezione : tali lesioni compromettono i compiti che comportano la memoria spaziale. Per esempio tali lesioni compromettono le prestazioni nel labirinto ad acqua di Morris e nel labirinto a bracci radiali. Ad esempio la capacità di visitare solo il corridoio che contiene il cibo nel labirinto a bracci radiali è una misura della memoria di riferimento ossia la memoria di quelle abilità generali richieste per svolgere il compito in tutte le sessioni, mentre l’abilità a percorrere non più di una volta ciascun corridoio prima di localizzare quello con il premio è invece una misura della memoria di lavoro, cioè la memoria a breve termine necessaria per svolgere correttamente il compito in ciascuna sessione sperimentale. Un’ulteriore dimostrazione a favore della teoria dell’ippocampo come mappa cognitiva fu la scoperta nell’ippocampo di ratto di numerosi neuroni che funzionano come cellule di posizione cioè neuroni che rispondono solo 6 quando l’animale è in una determinata posizione spaziale. Ogni cellula di posizione ha un campo recettivo in un punto diverso dell’ambiente, cosicché alcuni ricercatori hanno potuto osservare che l’attivazione delle cellule di posizione di un ratto indica dove l’animale pensa di essere e non dove si trova realmente. Importanti sono anche le ricerche sugli uccelli che nascondono le riserve di cibo : essi devono infatti avere una notevole memoria spaziale per ricordare la posizione di centinaia di nascondigli. E proprio questo nascondere ed andare a riprendere il cibo serve per lo sviluppo dell’ippocampo che risulta essere più grande rispetto ad altri uccelli. Alcune ricerche di Maguire hanno dimostrato che vi è un coinvolgimento dell’ippocampo nella memoria spaziale anche nell‘ essere umano; ad esempio hanno scoperto che i tassisti londinesi con più di vent’anni di esperienza hanno una quantità di materia grigia ippocampale maggiore del normale. L’importanza dell’ ippocampo nella memoria spaziale si basa comunque su tre teorie: la teoria della mappa cognitiva secondo cui ci sono diversi sistemi nel cervello che si specializzano nel ricordo di diversi tipi di informazione e la funzione dell’ippocampo è il deposito di ricordi per la localizzazione spaziale. In particolare è stato suggerito che l’ippocampo costruisce mappe allocentriche del mondo esterno, cioè rappresentazioni dello spazio basate su relazioni tra oggetti esterni e punti di riferimento, secondo input sensoriali che riceve. Egocentriche invece sono invece quelle rappresentazioni dello spazio basate sulle relazioni relative alla propria posizione. Vi è poi la teoria dell’associazione di configurazioni secondo cui la memoria spaziale è una manifestazione specifica delle funzioni più generali dell’ippocampo, ossia l’ippocampo avrebbe un ruolo nel ricordo del significato comportamentale di una combinazione di stimoli, ma non nella memoria di stimoli singoli. Infine è stata suggerita una teoria specifica del ruolo dell’ippocampo nel riconoscimento degli oggetti, in particolare di combinazioni spaziali di oggetti, e nel rapporto con la corteccia paraippocampale che sembrerebbe avere un ruolo fondamentale in quasi tutti i compiti di riconoscimento degli oggetti. Vi sono anche altre 5 strutture del cervello coinvolte nell’ immagazzinamento dei ricordi. La corteccia infero temporale che essendo coinvolta nella percezione visiva degli oggetti si pensa abbia un ruolo nell’immagazzinamento dei ricordi; l’amigdala che sembra avere un ruolo nella memoria del significato emotivo dell’esperienza (ratti con la ablazione dell’amigdala non rispondono con una reazione di paura ad uno stimolo neutro che è stato ripetutamente associato ad uno shock elettrico doloroso); la corteccia prefrontale che sembra essere coinvolta nella regolazione di processi cognitivi della memoria di lavoro come ad esempio attenzione e organizzazione (pazienti con danni alla corteccia temporale presentano deficit nella memoria dell’ordine temporale degli eventi e nella memoria di lavoro, hanno ad esempio difficoltà ad eseguire compiti che comportano una serie di risposte; il cervelletto che si pensa immagazzini i ricordi delle capacità sensori motorie apprese (es della membrana nittitante del coniglio) e il corpo striato che si pensi immagazzini i ricordi di relazioni significative fra stimoli e risposte. A volte questa forma di apprendimento basata sul corpo striato è definita formazione dell’abitudine. Il Sistema nervoso In psicobiologia il sistema nervoso costituisce la base del comportamento umano. Il sistema nervoso è definito sistema di doppie in quanto si divide a due a due: SNC e SNP, cervello e midollo spinale (SNC), SNS e SNA per il SNP, nervi afferenti ed efferenti per entrambi, SNsimpatico e SNparasimpatico per SNA. Anatomicamente il SN dei vertebrati è composto di due parti principali: il SNCentrale e il SNPeriferico. Il 7 SNC è costituito dal cervello, o encefalo, contenuto nella scatola cranica, e dal midollo spinale contenuto nella colonna vertebrale. IL SNP, che rappresenta la porzione del SN non contenuta nelle suddette strutture ossee, è formato dal sistema nervoso somatico (SNS) e dal sistema nervoso autonomo (SNA). Il SNA invece è quella parte del SNP che partecipa alla regolazione interna dell'organismo. E' costituito da nervi afferenti che trasportano le informazioni sensitive dagli organi interni al SNC e da nervi efferenti che portano segnali motori dal SNC agli organi interni. Il SNA presenta due tipi di nervi efferenti: simpatici e parasimpatici. I nervi simpatici sono i nervi che stimolano, organizzano e mobilitano le risorse energetiche per affrontare situazioni di pericolo, mentre quelli parasimpatici tendono a conservare le energie. I neuroni simpatici e parasimpatici partono dal SNc e solo in parte raggiungono gli organi bersaglio prima di stabilire connessioni sinaptiche con altri neuroni di secondo livello che trasportano informazioni lungo il resto del percorso. I neuroni simpatici comunque stabiliscono connessioni sinaptiche ad una notevole distanza dagli organi bersaglio mentre quelli parasimpatici stabiliscono connessioni sinaptiche vicino agli organi bersaglio su neuroni di secondo livello molto corti. E' necessario evidenziare tre principi molto importanti: 1) i nervi simpatici stimolano organizzano e mobilitano le risorse energetiche nelle situazioni di minaccia mentre i nervi parasimpatici agiscono per conservare l'energia; 2) ogni organo bersaglio autonomo riceve un input opposto simpatico e parasimpatico e quindi la sua attività è controllata dai relativi livelli di attività simpatica e parasimpatica; 3) i cambiamenti simpatici sono indicativi di arousal psicologico, mentre i cambiamenti parasimpatici sono indicativi di rilassamento psicologico. Il SNS corrisponde a quella componente del SNP che interagisce con l'ambiente, ed è composto da nervi afferenti che veicolano le informazioni dalla cute, articolazione, occhi, orecchie, muscoli scheletrici al SNC ed efferenti che trasportano i segnali motori dal SNC ai muscoli scheletrici. Il sistema nervoso periferico è costituito da 12 paia di nervi cranici o nervi encefalici che non originano dal midollo spinale ma partono direttamente dal tronco encefalico. Sono connessi alla superficie ventrale del cervello e la maggior parte di essi svolge funzione sensoriali e motorie per la regione della testa e del collo. Uno di essi il nervo vago regola la funzione degli organi della cavità toracica e addominale. I nervi cranici ricevono le informazioni sensoriali dalla testa e dal collo, gustative dalla lingua, uditive e vestibolari dalle orecchie relative all'equilibrio, visive dagli occhi, e olfattive dal naso. Nell'anatomia umana ci sono 12 paia di nervi cranici pari destri e sinistri numerati dall'alto verso il basso con numeri romani. Il primo è il nervo olfattivo, il secondo il nervo ottico, il terzo l'oculomotore, il quarto il trocleare, il quinto il trigemino, il sesto l'abducente, il settimo il facciale, l'ottavo il nervo vestibolo cocleare, il nono il nervo glossofaringeo, il decimo il nervo vago che è il nervo cranico più lungo e contiene fibre motorie e sensitive per numerosi organi interni, l'undicesimo il nervo accessorio al vago e il dodicesimo il nervo ipoglosso. Il nervo vago (uno dei nervi più lunghi) concorre all'innervazione viscerale di tutto il tratto digerente, del cuore e dei polmoni, nonché della regione faringo-laringea. Hanno le stesse caratteristiche dei nervi spinali in quanto presentano fibre motrici e sensitive viscerali e somatiche, la differenza sta nel fatto che i nervi encefalici possono avere anche solo una di queste caratteristiche mentre i nervi spinali sono dei nervi misti. Il cervello ed il midollo spinale sono gli organi più protetti del corpo. Sono racchiusi in una teca ossea e avvolti da 3 membrane protettive dette meningi. La più esterna è una membrana resistente chiamata dura madre, al di sotto della quale vi è una membrana più sottile chiamata membrana aracnoidea o aracnoide. Sotto quest'ultima vi è uno spazio detto spazio subaracnoideo che contiene i grandi vasi sanguigni e il liquido cerebrospinale. La membrana più interna è invece la pia madre, più delicata e ampiamente vascolarizzata che aderisce alla superficie del SNC. Un altro sistema di protezione è rappresentato dal liquido cerebrospinale o liquor che riempie spazi comunicanti tra loro attraverso una serie di aperture come lo spazio subaracnoideo, il canale centrale del midollo spinale e i ventricoli cerebrali dell'encefalo. Il canale centrale è un canale stretto che corre centralmente per tutta la lunghezza del midollo spinale mentre i ventricoli cerebrali sono costituiti da 4 ampie camere all'interno del cervello ( due laterali, terzo e quarto ventricolo). Il liquido cerebrospinale sostiene e funge da cuscino protettivo 8 per il cervello, una diminuzione di tale liquido può infatti provocare intense cefalee e forti dolori quando si scuote la testa. Il liquor è prodotto dai plessi coroidei ovvero una rete di capillari che dalla pia madre arrivano fino alle cavità ventricolari. L'eccesso di liquor è continuamente riassorbito entro i seni venosi, ampi spazi ematici che percorrono la dura madre e drenano il sangue nelle vene giugulari del collo. A volte la circolazione del liquor può essere ostacolata dalla presenza di un tumore in vicinanza di uno dei canali che collegano tra loro i ventricoli. L'aumento della pressione liquorale determina un'espansione dei ventricoli che prende il nome di idrocefalo (testa d'acqua). La terapia dell'idrocefale consiste nel drenaggio del liquor in eccesso e nella rimozione dell'ostacolo alla sua circolazione. Poichè alcune sostanze chimiche possono seriamente compromettere il funzionamento del cervello, esiste un meccanismo, chiamato barriera emato-encefalica, che impedisce il passaggio di molte sostanze tossiche dalla circolazione sanguigna verso l'interno del cervello. Questa barriera dipende dalla speciale struttura dei vasi sanguigni cerebrali. Infatti nel resto del corpo le cellule delle pareti dei vasi sanguigni non sono aderenti fra loro e ciò consente il passaggio di diverse molecole nel tessuto circostante . nel cervello invece tali cellule sono molto attaccate fra loro formando cosi una efficace barriera al passaggio di molte molecole fra cui proteine e altre grandi molecole. Il di9verso grado con cui per esempio i farmaci psicoattivi operano sui processi psicologici dipende dalla facilità o meno con cui passano la barriera emato-encefalica. Vi sono però molecole importanti per il funzionamento del cervello come il glucosio il cui passaggio non è impedito ma che sono trasportate attivamente attraverso la parete dei vasi ematici cerebrali. In alcune zone inoltre la parete dei vasi sanguigni consente il passaggio di grandi molecole come ad esempio gli ormoni sessuali in alcune zone implicate nel comportamento sessuale. Il cervello viene diviso in 5 regioni in riferimento al suo sviluppo embrionale. Nello sviluppo dell’embrione dei vertebrati il tessuto che darà origine al SNC si presenta inizialmente come un tubo pieno di liquido. Nelle prime fasi dello sviluppo all’estremità anteriore di questo tubo si formano tre vescicole che sono i precursori del proencefalo, del mesencefalo e del romboencefalo dell’adulto. Prima della nascita queste tre vescicole diventano cinque, poiché sia la vescicola anteriore che posteriore si dividono ciascuna in due ulteriori vescicole. Pertanto alla nascita il cervello si dividerà in : telencefalo (emisferi cerebrali destro e sinistro), che va incontro alla maggior crescita durante lo sviluppo e il diencefalo che costituiscono il proencefalo, mesencefalo, metencefalo e mielencefalo, spesso chiamato anche midollo allungato, che costituiscono il romboencefalo. Queste ultime 4 regioni sono chiamate complessivamente tronco encefalico, ovvero il tronco su cui sono posti i due emisferi cerebrali. Il mielencefalo, o midollo allungato o bulbo, è la regione più caudale del cervello ed è formato da tratti, fasci ascendenti e discendenti di fibre che veicolano segnali tra il corpo e le diverse parti del cervello. Una delle strutture più importanti del mielencefalo è la formazione reticolare, cioè una complessa rete di circa 100 piccoli nuclei che occupa la regione centrale del tronco encefalico. Deve il suo nome all’aspetto di reticolo, e a volte è chiamata anche sistema reticolare attivante poiché una arte di essa è impegnata nel mantenimento degli stati di vigilanza. I diversi nuclei della formazione reticolare sono impegnati in diverse funzioni fra cui il sonno, l’attenzione, il movimento, il mantenimento del tono muscolare e nella regolazione di numerosi riflessi cardiaci circolatori e respiratori. Il metencefalo ospita anch’esso numerosi tratti ascendenti e discenti oltre che una parte della formazione reticolare. Queste strutture creano un rigonfiamento detto ponte sulla superficie ventrale del tronco encefalico. Oltre al ponte un ‘altra divisione del metencefalo è il cervelletto che è una grande struttura formata da numerose pieghe o circonvoluzioni posta sulla superficie dorsale del metencefalo. Svolge una importante funzione nel controllo sensorimotorio, ma non solo, infatti in seguito a lesioni cerebellari viene persa la capacità di una precisa regolazione dei movimenti e la possibilità di adattarli alle condizioni esterne. Tali lesioni possono però produrre anche una serie di disturbi cognitivi. Il mesencefalo presenta due divisioni : il tetto ed il tegmento. Il tetto occupa a superficie dorsale del mesencefalo e nei mammiferi è formato da due paia di rigonfiamenti detti collicoli. Questi a loro volta si dividono in collicoli inferiori più caudali che svolgono funzioni uditive, e i collicoli superiori più rostrali che svolgono funzioni visive. Nei vertebrati inferiori il 9 tetto prende il nome di tetto ottico poiché svolge funzioni solo visive. Il tegmento è invece una regione posta ventralmente rispetto al tetto e contiene oltre alla formazione reticolare e a tratti di fibre tre strutture pigmentate: il grigio periacqueduttale, la sostanza nera ed il nucleo rosso. Il grigio periacqueduttale corrisponde alla sostanza grigia intorno all’acquedotto cerebrale di Silvio, ovvero il canale che collega il terzo e quarto ventricolo, e svolge un ruolo nel mediare gli effetti analgesici degli oppiacei ; la sostanza nera (di Sommering) ed il nucleo rosso sono due importanti componenti del sistema sensori motorio. Particolarmente importante dal punto di vista clinico è il sistema di proiezione nigro-striatale che collega la sostanza nera del mesencefalo al corpo striato. La compromissione della via nigro striatale è associata al morbo di Parkinson un disturbo neurologico caratterizzata da rigidità, tremore ed estrema povertà di movimenti volontari. Tale disturbo origina dalla progressiva morte delle cellule della sostanza nera. Questi neuroni producono un particolare neurotrasmettitore chimico, la dopamina, che inviano al corpo striato. Via via che i neuroni della sostanza nera muoiono , la quantità di dopamina inviata allo striato si riduce sempre più. Lo striato interviene nel controllo dei movimenti, e per fra questo normalmente ha bisogno di dopamina. La dopamina non rappresenta una terapia adeguata per il morbo di Parkinson perché è una sostanza che non attraversa facilmente la barriera emato-encefalica. Tuttavia la conoscenza della trasmissione dopaminergica ha permesso di sviluppare un efficace trattamento: la L-dopa., il precursore chimico della dopamina che penetra prontamente attraverso la barriera emato-encefalica ed è convertita in dopamina nel cervello. Il diencefalo è formato da due regioni: il talamo e l’ipotalamo. Il talamo è una struttura a due lobi che occupa la sommità del tronco encefalico. I due lobi posti ai due lati del terzo ventricolo sono collegati mediante la massa intermedia, ovvero un fascio di fibre nervose che passa attraverso il terzo ventricolo. Sulla superficie del talamo vi sono poi due lamine di sostanza bianca costituite da assoni mielinizzati. Si è scoperto che la maggior parte delle persone che hanno comportamenti normali sono prive di questa massa intermedia. Il talamo comprende molti nuclei la maggior parte dei quali proietta alla corteccia. Alcuni sono nuclei di relè sensoriale cioè centri di ritrasmissione che ricevono informazioni dalla superficie recettoriale, le elaborano e le inviano a specifiche aree corticali. Ad esempio il nucleo genicolato laterale è un importante centro di elaborazione nel sistema visivo, il nucleo genicolato mediale elabora e trasmette informazioni uditive, mentre i nuclei ventrali posteriori svolgono un ruolo importante nel sistema somatosensoriale. L’ipotalamo è posto al di sotto del talamo ed ha un ruolo importante nel regolare gli stati motivazionali. Esercita in parte i suoi effetti controllando il rilascio di ormoni da parte dell’ipofisi (ghiandola pituitaria) che è attaccata alla superficie ventrale dell’ipotalamo. Il termine ghiandola pituitaria significa ghiandola del muco poichè venne osservata per la prima volta in un cadavere non imbalsamato e per la sua consistenza gelatinosa venne considerata erroneamente la principale fonte del muco. Oltre al’ipofisi l’ipotalamo presenta anche il chiasma ottico e i corpi mammillari. Il chiasma ottico è una struttura a forma di X che si forma nel punto di unione dei nervi ottici provenienti dagli occhi dove una parte delle fibre di ciascun nervo ottico si incrocia sulla linea mediana (decussazione) e proietta all’emisfero cerebrale opposto. Queste fibre sono dette controlaterali mentre quelle che non si incrociano sono dette ipsilaterali. I corpi mammillari sono un paio di nuclei sferici posti sulla superficie ventrale dell’ipotalamo dietro l’ipofisi. Il telencefalo è la regione più ampia del cervello dell’uomo e svolge le funzioni più complesse come controllare i movimenti volontari, decodificare e interpretare gli stimoli sensoriali, mediare numerose funzioni cognitive complesse, come apprendimento, linguaggio e capacità di risolvere i problemi. Gli emisferi cerebrali sono ricoperti da uno strato di tessuto chiamato corteccia cerebrale. Nell’uomo essa presenta numerose pieghe o circonvoluzioni che hanno lo scopo di aumentarne la superficie ma non il volume complessivo. In alcuni mammiferi detti lissencefalici (a cervello liscio) la corteccia si presenta priva di queste pieghe. Nel passato si riteneva che le capacità intellettive di una specie fossero in relazione alla profondità e al numero delle circonvoluzioni cerebrali. L’ipotesi attuali è comunque che il numero delle pieghe corticali dipenda dalle dimensioni corporee dell’animale. Infatti negli animali di grandi dimensioni la corteccia cerebrale appare più ricca di circonvoluzioni. Le pieghe corticali più profonde sono dette scissure, mentre 10 quelle più piccole sono dette solchi. Le zone fra scissure e solchi sono dette giri. I due emisferi sono quasi completamente separati sulla linea mediana dalla scissura longitudinale; essi appaiano collegati solo da alcuni fasci di fibre trasversali detti commessure cerebrali la più grande delle quali è il corpo calloso. Ciascun emisfero è diviso in 4 lobi da due pieghe corticali di riferimento : la scissura laterale di Silvio ed il solco centrale di Rolando. I lobi in cui si dividono gli emisferi sono: lobo frontale, parietale, temporale e occipitale. I giri corticali di maggior rilievo sulla superficie laterale di ciascun emisfero sono il giro precentrale, sede della corteccia motoria, il giro postcentrale, che contiene la corteccia somatosensitiva, e il giro temporale superiore per la corteccia uditiva. Il lobo occipitale è invece interamente deputato alla funzione visiva. Circa il 90% della corteccia cerebrale nell’uomo è neocorteccia (neocortex) ovvero una corteccia a sei strati numerati da uno a sei partendo dalla superficie esterna. Comprende due diversi tipi di neuroni: le cellule piramidali e le cellule stellate. Le cellule piramidali sono grandi neuroni multipolari con soma a forma di piramide, un grosso dendrite detto apicale che si estende dall’apice della piramide alla superficie corticale, e un lunghissimo assone; le cellule stellate invece sono piccoli interneuroni a forma di stella. I sei strati della neocortex differiscono tra loro per dimensioni e densità dei corpi cellulari e per la quantità relativa di cellule stellate e piramidali che ciascuno contiene. Inoltre molti assoni e dendriti attraversano la neocortex verticalmente e questa disposizione verticale è alla base dell’organizzazione colonnare della neocorteccia. I neuroni che si trovano in una determinata colonna verticale costituiscono un circuito che svolge un’unica e specifica funzione. Un’altra importante caratteristica della neocortex è che le dimensioni dei sei strati che la compongono variano da un’area corticale all’altra : ad esempio il IV strato le cui cellule stellate sono specializzate nel ricevere segnali sensoriali dal talamo è più spesso nelle aree corticali sensoriali, mentre il V strato le cui cellule piramidali inviano segnali motori al tronco encefalico e al midollo spinale è più spesso nelle aree corticali motorie. Nei mammiferi soltanto due strutture corticali non hanno questa composizione a sei strati : la corteccia olfattiva e la corteccia ippocampale che fanno parte della paleocorteccia o corteccia antica perché si suppone che abbiano un’origine filogenetica più antica rispetto alla neocorteccia. La prima è la corteccia olfattiva che ha tre strati cellulari : due con corpo cellulare e uno senza. L’altra area che non appartiene alla neocorteccia è l’ippocampo. La sua corteccia è costituita da due strati di cellule, uno con corpo cellulare e uno senza. L’ippocampo, che ha un ruolo nella memoria a lungo termine e nella navigazione spaziale, è una struttura avvolta su se stessa che ha l’aspetto di un cavalluccio marino e si trova nella parte infero-mediale del lobo temporale. La porzione sottocorticale del telencefalo oltre a fibre assonali ascendenti e discendenti dalla neocorteccia comprende voluminosi nuclei sottocorticali. Alcuni appartengono al sistema limbico altri ai gangli della base. Il sistema limbico è un circuito di strutture mediane disposte ad anello attorno al talamo. E’ implicato nella regolazione degli stati motivazionali, come fame, fuga, lotta. Oltre all’ippocampo e ai corpi mammillari fanno parte del sistema limbico anche l’amigdala, che significa dal latino mandorla, è un grosso gruppo di nuclei posti nella porzione anteriore del lobo temporale davanti all’ippocampo, il fornice, che significa arco, è la struttura maggiore di connessione del sistema limbico, le sue fibre originano dall’estremità caudale dell’ippocampo percorrono la superficie dorsale del terzo ventricolo e terminano nei nuclei settali e nei corpi mammillari, la corteccia cingolata, ampia regione di neocortex posta nel giro cingolato che forma un anello che circoscrive il talamo, ed il setto, che è un nucleo della linea mediana situato all’estremità anteriore del giro cingolato. All’interno del circuito limbico numerose vie collegano il setto ed i corpi mammillari all’amigdala e all’ippocampo. I gangli della base comprendono tre grandi nuclei sottocorticali : il nucleo caudato, il putamen ed il globo pallido. Il nucleo caudato presenta due zone : una testa ed una lunga coda che origina dall’amigdala. Ciascun nucleo caudato forma un cerchio quasi completo nel cui interno connesso da una serie di ponti di fibre vi è il putamen. L’insieme di questi due nuclei viene chiamato corpo striato poiché entrambi presentano delle striature. Il globo pallido è un nucleo sferico e chiaro collocato medialmente al putamen, tra questo ed il talamo. L’amigdala è considerata inoltre anche parte dei gangli della base. Questi ultimi svolgono un ruolo importante nell’esecuzione dei movimenti volontari. 11 IL midollo spinale, un cilindro cavo di tessuto neurale che si trova all’interno della colonna vertebrale, comprende due diverse aree: una regione centrale di sostanza grigia a forma di H circondata da una regione di sostanza bianca. La sostanza grigia è composta in gran parte da corpi cellulari e da interneuroni non mielinizzati mentre la sostanza bianca è formata essenzialmente da assoni mielinizzati (la mielina conferisce a questa sostanza il suo colore bianco translucido). Le due braccia dorsali della sostanza grigia spinale sono spesso chiamate corna dorsali mentre le braccia ventrali sono definite corna ventrali. Dal midollo spinale emergono 31 paia di nervi spinali ciascuno dei quali in prossimità del midollo si divide in due rami : radice dorsale e ventrale. Tutti gli assoni della radice dorsale somatici o autonomi appartengono a neuroni unipolari sensitivi (afferenti) i cui corpi cellulari sono raggruppati insieme a formare il ganglio associato alla radice dorsale. Molte delle terminazioni sinaptiche di questi neuroni sono localizzate nelle corna dorsali del midollo. Le fibre che compongono invece la radice ventrale appartengono a neuroni multipolari motori (efferenti) che si trovano a livello delle corna ventrali. Le fibre efferenti che fanno parte del SNS proiettano ai muscoli scheletrici. Quelle del SNA raggiungono i gangli dove fanno sinapsi con neuroni (gangliari) che proiettano agli organi interni come cuore, stomaco, fegato ecc.. Le cellule del sistema nervoso sono di due tipi: i neuroni e le cellule gliali. I neuroni sono cellule specializzate nella ricezione conduzione e trasmissione di segnali elettrochimici. I neuroni, che si differenziani per forme e dimensioni, sono formati esternamente da un corpo cellulare o soma che rappresenta il centro metabolico del neurone, da brevi prolungamenti detti dendriti che originano dal corpo cellulare e ricevono la maggior parte dei contatti sinaptici dagli altri neuroni, dal monticolo assonico che è una regione conica in corrispondenza della giunzione tra assone e soma, dall'assone che è un lungo e sottile prolungamento che origina dal soma spesso ricoperto di mielina ovvero di una guaina lipidica isolante che presenta delle interruzioni chiamate nodi di Ranvier che permettono una conduzione del segnale più rapida detta conduzione saltatoria, da una membrana semipermeabile che racchiude il neurone detta membrana cellulare, e che è composta da un doppio strato lipidico in cui sono incluse numerose molecole proteiche responsabili di molte delle proprietà funzionali della membrana; alcune proteine di membrana sono proteine di canale e consentono il transito attraverso la membrana di molecole specifiche, altre invece sono proteine di segnale e hanno il compito di trasferire all’interno del neurone segnali che si generano quando alcune molecole si legano al suo esterno, dai bottoni terminali che sono strutture poste all'estremità degli assoni adibite al rilascio di sostanze chimiche nella sinapsi, ovvero una struttura specializzata nella trasmissione di segnali elettrochimici tra neuroni adiacenti. Internamente il neurone presenta il nucleo ovvero una struttura sferica contenente il DNA (acido desossiribonucleico) della cellula, i mitocondri ovvero siti di rilascio di molecole di ATP, fonte di energia per le cellule, il reticolo endoplasmatico ovvero un sistema di membrane ripiegate presente nel corpo cellulare; le parti ruvide con ribosomi (organuli rilevanti per la sintesi proteica) svolgono un ruolo nella sintesi proteica mentre le parti lisce senza ribosomi sono importanti per la sintesi di lipidi, il citoplasma ovvero il fluido chiaro all’interno della cellula, l’apparato del Golgi che rappresenta un sistema di membrane in cui alcune molecole sintetizzate nel neurone sono immagazzinate in vescicole, i microtubuli che sono tubuli responsabili del trasporto rapido di sostanze attraverso il neurone, le vescicole sinaptiche che sono corpuscoli membranosi di forma sferica in cui sono immagazzinati i neurotrasmettitori, ovvero molecole rilasciate dai neuroni attivi e in grado di influenzare l’attività di altre cellule. Le cellule neuronali possono essere classificate in base al numero dei prolungamenti citoplasmatici che originano dal corpo cellulare : un neurone multipolare è un neurone con più di due prolungamenti ( la maggior parte dei neuroni sono multipolari); un neurone unipolare è un neurone con un prolungamento mentre un neurone con due prolungamenti è classificato come neurone bipolare, I neuroni privi di assone o con un assone corto sono denominati interneuroni la cui funzione è quella di integrare l’attività di più neuroni all’interno di una singola struttura cerebrale e non quella di condurre segnali da una regione cerebrale all’altra. Da un punto di vista macroscopico nel SN ci sono due tipi di strutture neuronali: quelle 12 costituite primariamente da aggregati di corpi cellulari neuronali e quelle costituite da prolungamenti assonali. Nel SNC gli aggregati di corpi cellulari sono chiamati nuclei e l’insieme di più prolungamenti assonali o fibre sono chiamati tratti mentre nel SNP sono chiamati gangli mentre i fascicoli di fibre nervosi sono chiamati nervi. Nel sistema nervoso oltre ai neuroni vi sono anche le cellule gliali, formate da glia un collante nervoso, che forniscono un sostegno fisico e funzionale ai neuroni e li superano con una proporzione di 1 a 10. Le cellule gliali sono di 4 tipi : oligodendrociti o oligodendroglia che emettono prolungamenti che si avvolgono intorno agli assoni di alcuni neuroni del SNC; sono ricchi di mielina una sostanza lipidica isolante e formano attorno agli assoni delle guaine che aumentano la velocità e l’efficienza della conduzione. Nel SNP questa funzione è svolta dalle cellule di Schwann, o cellule satelliti, ognuna delle quali costituisce un singolo segmento mielinico mentre un oligodendrocita forma più guaine mieliniche. Una importante differenza fra cellule di Schwann e oligodendrocita è che le prime possono guidare la rigenerazione (ricrescita) dell’assone dopo un eventuale danno; ecco perché nel SNC che è scarso di cellule di Schwann vi è solo una modesta ricrescita assonale. Gli astrociti o astroglia hanno una forma stellata con numerosi prolungamenti che coprono la superficie esterna dei vasi sanguigni cerebrali. Poiché tali prolungamenti prendono contatti anche con i corpi dei neuroni si pensa che una delle funzione di queste cellule sia quella di consentire il passaggio di sostanze chimiche dal sangue alle cellule neuronali. Le cellule microgliali reagiscono alle ferite e alle malattie assorbendo frammenti cellulari e innescando le risposte infiammatorie per distruggere gli agenti infettivi prima che danneggino il tessuto. Inizialmente si credeva che la funzione delle cellule gliali fosse esclusivamente quella di sostenere i neuroni provvedendo al nutrimento, rimuovendo gli scarti e assicurando la matrice fisica che tiene insieme i circuiti neuronali (glia significa colla), ma in seguito si dimostrò che esse partecipano alla trasmissione dei segnali inviandoli ai neuroni e ricevendoli a loro volta , controllano la creazione ed il mantenimento delle sinapsi fra i neuroni e partecipano ai circuiti gliali. Al fine di localizzare le strutture neuroanatomiche nel SN dei vertebrati si ricorre ad alcune tecniche neuroanatomiche e a sistemi di coordinate. Il problema maggiore nella visualizzazione di neuroni non è dato dalle loro piccole dimensioni ma dal fatto che sono stretti in poco spazio e che i loro assoni e dendriti sono avvolti in modo molto intricato. Per ovviare a queste difficoltà è necessario preparare il tessuto nervoso con varie tecniche che mettono in risalto ciascuna un aspetto diverso delle strutture neuronali, per poi combinare i risultati ottenuti. Fra queste tecniche possiamo citare: il metodo di Golgi casualmente scoperto dal medico italiano Golgi nel 1870 il quale nel tentativo di colorare le meningi con dicromato di potassio prima e nitrato d’argento poi, osservò che il cromato d’argento che si formava in seguito alla reazione chimica colorava completamente di nero solo alcuni neuroni presenti in ciascuna sezione di tessuto nervoso. Questa scoperta consenti di osservare neuroni singoli e non masse aggrovigliate di neuroni sebbene comunque fosse ben visibile solo la loro forma e non il loro interno e non fornisse indicazioni sul numero di neuroni presenti in un’area; la colorazione di Nissl introdotta dallo psichiatra Nissl nel 1880 che comunemente utilizza come colorante il cresil violetto; questo ed altri coloranti di Nissl penetrano in tutte le cellule della sezione ma si legano in modo efficace solo ad alcune strutture del corpo cellulare del neurone, come il citoplasma e il corpo cellulare: in questo modo è possibile avere una stima del numero dei neuroni presenti in un’area semplicemente contando i punti colorati con il Nissl; la microscopia elettronica che rappresenta una tecnica neuroanatomica che ha fornito notevoli informazioni sui dettagli della struttura neuronale. Poiché il limite di ingrandimento della microscopia ottica è di 1500 volte a causa della natura della luce, si possono ottenere maggiori informazioni sui dettagli anatomici fini dei neuroni ricoprendo sezioni sottili di tessuto nervoso con una sostanza che assorbe elettroni e che si lega in quantità diversa alle diverse parti del neurone. Quindi si fa passare attraverso il tessuto un fascio di elettroni che va ad impressionare una pellicola fotografica. Si ottiene cosi una micrografia elettronica in grado di visualizzare i particolari anatomici più fini della struttura neuronale. La microscopia a scansione elettronica fornisce invece immagini tridimensionali spettacolari sebbene non sia in grado di ingrandire tali immagini come la microscopia elettronica 13 convenzionale; Il colorante di Waigert è un metodo di colorazione destinato allo studio degli assoni perché macchia selettivamente le guaine degli assoni mielinici. Successivamente sono state sviluppate delle metodiche più raffinate : il tracciamento anterogrado e retrogrado. I primi si usano per determinare dove terminano gli assoni che hanno origine in una particolare struttura, mentre i secondi servono per determinare da dove provengono gli assoni che terminano in una determinata struttura. Questi metodi si basano sul fatto che alcune sostanze sono captate dai corpi cellulari e trasportate lungo l’assone fino al bottone terminale, altre sostanze sono invece captate dal bottone terminale trasportate fino al corpo cellulare. Per quanto riguarda il tracciamento anterogrado la principale tecnica è detta tracciamento autoradiografico che si basa sul fatto che gli aminoacidi presenti nel liquido extracellulare sono assorbiti dai corpi cellulari, incorporati come proteine e trasportati attraverso tutto il neurone; quindi un aminoacido viene marcato con il trizio che è un isotopo radioattivo dell’idrogeno e poi viene iniettato nel sito di cui si vogliono studiare le proiezioni anterograde. Dopo qualche giorno il cervello viene diviso in sezioni che vengono ricoperte con una emulsione fotografica e conservato in contenitori a tenuta di luce per diverse settimane durante le quali le particelle radioattive che sono emesse dall’aminoacido marcato reagiscono con l’emulsione fotografica. Le sezioni sono sviluppate come una pellicola in modo da rilevare i punti in cui si trovava l’aminoacido nel momento in cui è morto l’ animale che si sta osservando. Si evidenziano in questo modo le posizioni degli assoni e dei bottoni dei neuroni che hanno il sito nel luogo dove è stata effettuata l’iniezione. Il tracciamento retrogrado invece utilizza la tecnica della perossidasi del rafano. La perossidasi del rafano è un enzima che si trova nel rafano e in varie altre piante e si è scoperto che viene captato dai bottoni terminali dell’assone e viene poi trasportato abbastanza velocemente verso il corpo cellulare. Per scoprire qual è l’input neurale in un certo sito il ricercatore inietta in quel sito una piccola quantità di perossidasi di rafano e aspetta qualche giorno. La distribuzione della perossidasi rivela la posizione dei corpi cellulari dei neuroni i cui bottoni terminali hanno captato la perossidasi nel sito in cui è stata effettuata l’iniezione. Neurotrasmettitori I neurotrasmettitori vengono individuati nel sistema nervoso centrale attraverso alcune tecniche fra cui la tecnica dell’istofluorescenza, la autoradiografia dei legami recettoriali, l’immunoistochimica di anticorpi monoclonali, e la microiontoforesi. La tecnica dell’istofluorescenza consiste nel fatto che le monamine esposte a formaldeide emettono energia luminosa se esposte a radiazioni fluorescenti; si utilizza quindi un microscopio a fluorescenza la serotonina si evidenzia perché dà un colore giallo, la noradrenalina, adrenalina e dopamina perché danno colore verde. La autoradiografia dei legami recettoriali consiste invece nel fatto che il ligando che sia neurotrasmettitore o farmaco viene marcato con un isotopo radioattivo, poi il tessuto nervoso viene esposto a questo isotopo radioattivo, il legame viene ricoperto con emulsione fotografica e reagente alla radioattività e vengono evidenziati i recettori, se si evidenziano legami brevi si cerca di aumentarne la forza se invece si evidenziano legami poco specifici si cerca di aumentarne la selettività. L’immunoistochimica di anticorpi monoclonali si basa sul fatto che i linfociti in cavie di laboratorio possono essere fusi con cellule midollari carcinomatose e si producono cosi cellule ibride con le caratteristiche di entrambi i generatori quindi si ottengono cellule che secernono anticorpi come i linfociti e che però si dividono finchè sono mantenute in un ambiente adatto come le cellule cancerose. Una volta che sia stata isolata una colonia che produce un anticorpo specifico per una particolare proteina questo può essere prodotto in quantità illimitate. La microionoforesi è invece una tecnica in cui si dispone una pipetta esterna al neurone e una interna ad esso, si fa passare una piccola quantità di corrente elettrica tra la pipetta interna e quella esterna e questo fa depositare alcune molecole della sostanza neurochimica sulla superficie del neurone la cui risposta si rileva tramite una soluzione salina che si trova nella pipetta interna. Con questa tecnica si possono scoprire i neurotrasmettitori che modificano il potenziale di riposo del neurone e dimostrare che il neurone postsinaptico risponde a una sostanza chimica che quindi è un neurotrasmettitore. 14 Plasticità neuronale Con il termine plasticità neurale si intende il fatto che il sistema nervoso non è un sistema statico costituito da elementi connessi fra loro ma è un vero e proprio organo vivente modificabile che cresce e muta in continuazione in risposta ai suoi stessi programmi genetici nonché alle interazioni con l’ambiente. Lo sviluppo del sistema nervoso e quindi la plasticità neurale rientra nel generale programma di sviluppo con cui matura l’organismo umano attraverso una serie di fasi. Per quanto riguarda lo sviluppo neurale si hanno tre fasi : origine di neuroni specializzati, collocazione dei neuroni nella sede appropriata e stabilirsi di sinapsi adeguate fra questi neuroni. La fecondazione, ossia l’unione fra una cellula ovulo femminile e una cellula spermatozoo maschile, genera uno zigote che successivamente si suddivide per moltiplicazione cellulare da cui si costituiscono molte più cellule figlie per un processo definito mitosi che però non sono cellule omogenee che vanno a costituire una massa indistinta. Subentra infatti la differenziazione cellulare ossia le cellule si sviluppano ognuna con delle differenti proprietà strutturali, biochimiche e fisiologiche per andare a costituire poi i muscoli o il sistema nervoso o altri tessuti e organi del corpo. Un altro processo fondamentale è la collocazione delle cellule nella sede appropriata per poter svolgere la funzione a cui sono preposte, nonché la coordinazione fra cellule limitrofe per un funzionamento adeguato del tessuto o dell’organo che vanno a costituire. Le fasi dello sviluppo neurale nel dettaglio sono 5 : induzione della placca neurale, proliferazione neurale, migrazione e aggregazione, crescita dell’assone e formazione delle sinapsi, morte neurale e riorganizzazione sinaptica. Induzione della placca neurale: prima dello sviluppo della placca neurale le cellule dell’ectoderma dorsale sono totipotenziali, hanno cioè la possibilità di svilupparsi in un qualsiasi tipo di cellula dell’organismo. Quando la placca neurale comincia a formarsi le cellule perdono questa proprietà e diventano specifiche, ossia le cellule della placca neurale diventano tessuto del sistema nervoso centrale anche qualora vengano trapiantate in altre posizioni dell’embrione. Ogni tipo di cellule della placca ha la possibilità quindi di svilupparsi in qualsiasi tipo di cellula del sistema nervoso maturo ma non in altri tipi di cellule. Cellule di questo tipo sono dette multi potenti. Le cellule della placca neurale sono spesso definite cellule staminali embrionali, ossia cellule che rispondono a due criteri specifici : hanno una capacità apparentemente illimitata di auto rinnovarsi e hanno la capacità di svilupparsi in diversi tipi di cellule adulte. La formazione della placca neurale è indotta da segnali chimici provenienti dallo strato intermedio dell’ embrione, il mesoderma, definito organizzatore. E’ in corso la ricerca di una particolare sostanza rilasciata dal mesoderma che provoca lo sviluppo nella placca neurale: un elemento chiave sembra essere l’inibizione di una classe di proteine che normalmente ostacola lo sviluppo neurale, ossia le proteine morfogenetiche delle ossa, ma non si sa ancora nulla di come avviene tale inibizione. Ad ogni modo, nello specifico, dopo 21 giorni di gestazione, ossia dall’origine dello zigote, si forma sulla parte dorsale dell’embrione la placca neurale ectodermica costituita dall’ectoderma che è il tessuto cellulare più esterno dei tre strati dell’embrione: ectoderma, mesoderma ed endoderma. L’induzione della placca neurale è il primo stadio dello sviluppo neurale in tutti i vertebrati . Dalla placca neurale si forma prima il solco neurale che si ripiega gradualmente, poi le pieghe del solco neurale si uniscono per formare il tubo neurale che si trasformerà nel suo interno in canale neurale e ventricoli. Il tubo neurale, nella sua porzione apicale, dopo 40 giorni di gestazione da origine a tre rigonfiamenti dai quali deriveranno proencefalo, mesencefalo e romboencefalo. Questo avviene perché durante tutta la trasformazione della placca neurale il numero delle cellule destinate a svilupparsi nel sistema nervoso rimane costante, poi quando il tubo neurale è formato le cellule cominciano a proliferare. La proliferazione neurale, che per la maggior parte ha luogo nella zona ventricolare del tubo neurale adiacente a ventricolo, avviene quando le pieghe del solco neurale si fondono e creano il tubo neurale; a questo punto le cellule del tubo cominciano a crescere rapidamente ma non in modo simultaneo e nemmeno equamente in tutte le porzioni del tubo, ma in ciascuna specie avviene secondo una sequenza 15 caratteristica, responsabile della formazione dei ripiegamenti del tessuto che danno poi al cervello un aspetto tipico diverso per ogni specie. Nel processo di divisione ogni cellula invia due prolungamenti uno alla superficie ventricolare del tubo e l’altro alla superficie esterna. Attraverso questi prolungamenti la cellula si spinge dalla superficie ventricolare fino al centro della zona ventricolare e qui il DNA delle cellule si duplica in preparazione della divisione cellulare, poi la cellula torna sulla superficie ventricolare e si divide. Dopo la divisione le due cellule o si dividono ancora o migrano verso siti appropriati. Durante la migrazione le cellule sono ancora n forma immatura e mancano di alcune parti come assoni e dendriti che caratterizzano i neuroni maturi. La migrazione delle cellule nel tubo neurale è di due tipi : la migrazione radiale che va dalla zona vestibolare in linea retta verso la parete esterna del tubo, e la migrazione tangenziale, che avviene ad angolo retto rispetto alla migrazione radiale ovvero parallela alle pareti del tubo. Ci sono due metodi con cui le cellule possono migrare : la translocazione del soma in cui si ha la crescita di un’estensione dalla cellula in sviluppo nella direzione della migrazione, l’estensione esplora l’ambiente circostante alla ricerca di segnali attrattivi e repulsivi, poi il corpo cellulare espandendosi e ritraendosi si sposta. Il secondo metodo è la migrazione mediata dalle cellule gliali, ossia una volta avviata la proliferazione nervosa e le pareti del tubo neurale sono ispessite, si manifesta nello sviluppo del tubo una rete temporanea di cellule gliali dette cellule gliali radiali. A questo punto la maggior parte delle cellule coinvolte nella migrazione radiale si muove lungo la parete gliale radiale verso la loro destinazione. Quindi quando le cellule del tubo neurale cominciano a proliferare e a riprodursi la maggior parte si sposta dalla zona ventricolare e va a formare uno strato di cellule sempre più spesso chiamato zona intermedia; quando la zona intermedia si è strutturata alcun cellule prodotte nella zona ventricolare migrano a formare uno strato posto fra la zona ventricolare e zona intermedia che è chiamata zona sub ventricolare, le cellule che si collocheranno in questa zona diventeranno cellule gliali o interneuroni, poi altre cellule del proencefalo appena formate cominciano a migrare verso questi strati formando uno strato ulteriore che è la placca corticale che è quella da cui si svilupperà la corteccia cerebrale. Le cellule di questo primo dei sei strati della corteccia arrivano per prime alla loro destinazione e quindi le cellule che vanno a costituire gli altri 5 strati successivi devono attraversarle, quindi abbiamo uno sviluppo corticale dall’interno all’esterno, ossia dal più profondo a quelli più superficiali. Questo modello radiale dello sviluppo corticale si chiama modello dentro-fuori. Quando la migrazione delle cellule dalla zona ventricolare è completata le cellule che rimangono in questa zona si differenziano in cellule ependimali e formano il rivestimento dei ventricoli del cervello e del canale centrale del midollo spinale. Dorsalmente su entrambi i lati del tubo neurale c’è una struttura che è chiamata cresta neurale formata da cellule che si staccano dal tubo neurale. La migrazione delle cellule della cresta neurale è stata particolarmente studiata perché queste cellule danno origine ai neuroni e alle cellule gliali del sistema nervoso periferico che quindi si spostano su distanze maggiori rispetto alle altre. A dirigerle verso il SNP non è l’informazione in esse contenuta bensì è il mezzo attraverso cui viaggiano, quindi non stimoli endogeni, ma il loro spostamento viene spiegato attraverso l’ipotesi dell’adesione differenziale, secondo cui le cellule della cresta neurale migrano verso i tessuti seguendo diversi percorsi a cui tendono ad aderire. Si ha poi l’aggregazione, ossia una volta che i neuroni raggiungono l’area in cui dovranno svolgere la loro funzione nel sistema nervoso maturo, questi neuroni devono stabilire precise relazioni con gli altri neuroni in via di sviluppo che sono giunte nella stessa area per costituire le varie strutture del sistema nervoso : questo processo è detto appunto di aggregazione. Si ritiene che come per la migrazione anche il processo di aggregazione sia regolato da molecole di adesione delle cellule nervose che si trovano sulla superfici dei neuroni e che sono in grado di riconoscere le molecole presenti su altre cellule e di aderire a quest’ultime. Una volta che i neuroni si sono stabiliti nei siti appropriati si ha crescita degli assoni che con i dendriti si espandono verso altre cellule e la formazione delle sinapsi. Affinchè il SN possa funzionare in modo corretto è necessario che queste proiezioni neuronali crescano fino a raggiungere la terminazione corretta. La crescita degli assoni verso i siti di destinazione può essere influenzata da alcuni segnali chimici lungo il percorso : alcune di queste molecole guida attraggono gli 16 assoni in crescita altre li respingono. Anche i neurotrasmettitori possono servire da molecole guida nel sistema nervoso in crescita. Le molecole guida non sono gli unici segnali che guidano gli assoni in crescita, ma esistono altri tipi di segnali che arrivano dagli assoni in crescita adiacenti. Alle estremità degli assoni e dendriti in crescita vi è una struttura dalla forma ameboide detta cono di accrescimento o di crescita da cui partono e si ritraggono delle estensioni citoplasmatiche dette filopòdia come se fossero alla ricerca del percorso corretto. La maggior parte dei coni di accrescimento raggiunge la destinazione corretta anche se deve percorrere una distanza considerevole. Attraverso alcuni studi sia su umani che cavie di laboratorio sono state sviluppate tre ipotesi su come avviene il raggiungimento della destinazione corretta. Tali ipotesi sono : l’ipotesi dell’affinità chimica, l’ipotesi della mappa e l’ipotesi del gradiente topografico. Secondo l’ipotesi dell’affinità chimica ciascuna superficie postsinaptica nel sistema nervoso rilascia una sostanza chimica specifica che attrae gli assoni in crescita sia durante lo sviluppo che durante la rigenerazione. Questa ipotesi è stata affermata sulle base di una serie di esperimenti condotti intorno gli anni 40 da Sperry fra cui uno dei più importanti prevedeva di sezionare i nervi ottici di una rana, ruotare i globi di 180 gradi e attendere la rigenerazione delle cellule gangliari retiniche che costituiscono il nervo ottico (queste cellule negli anfibi si possono rigenerare mentre nei mammiferi invece non sempre è possibile). Una volta terminata la rigenerazione Sperry effettuò un test comportamentale per determinare le capacità visive della rana. Il test consisteva nel presentare un’esca alle spalle della rana la quale per prenderla puntava la lingua in avanti dimostrando in questo modo che il campo visivo, come i globi oculari, risultava ruotato di 180°. Le rane che avevano subito la rotazione dei globi oculari ma non la sezione dei nervi ottici si comportavano allo stesso modo. Ciò dimostrò quindi che ciascuna cellula gangliare retinica nella rigenerazione aveva ripreso contatto con lo stesso punto del tetto ottico alla quale era originariamente connessa. Secondo l’ ipotesi della mappa la crescita assonale nel sistema nervoso in evoluzione verso la sede appropriata sarebbe invece influenzata da segnali chimici o meccanici oppure solo da uno o dall’altro rilasciati lungo tutto il percorso. Gli studi che hanno portato allo sviluppo di questa ipotesi sono stati effettuati verso la fine degli anni 70 da Singernord, Lender ed Egard e secondo questa ipotesi un sistema nervoso ancora non sviluppato avrebbe queste tracce chimiche e/o meccaniche che gli assoni seguono per arrivare a destinazione. Si parte dall’ipotesi che coni di crescita pionieri, cioè i primi coni di crescita a percorrere un determinato cammino nel sistema nervoso in via di sviluppo seguano le tracce corrette interagendo con le cellule lungo il percorso e quindi i coni di crescita successivi seguono il percorso tracciato dai coni di crescita pionieri. Questa tendenza degli assoni in crescita a procedere lungo il percorso intrapreso dagli assoni precedenti viene detta fascicolazione. L’ultima delle tre ipotesi che sono state sviluppate è l’ipotesi del gradiente topografico. Secondo questa ipotesi lo sviluppo delle connessioni neurali è guidato dalle posizioni relative dei neuroni su gradienti ortogonali e non si basa su una codifica punto per punto. Gli assoni quindi si sviluppano organizzando le loro terminazioni sinaitiche in modo da rispecchiare la posizione relativa occupata dai loro somi nella sede di origine che viene definita mediante l’intersezione ortogonale di due gradienti (alto-basso e sinistra-destra). Inizialmente si crede che l’integrità delle relazioni topografiche era mantenuta durante lo sviluppo grazie ad una affinità chimica punto per punto ; invece studi sulla recisione e rigenerazione dei nervi ottici di pesci o rane con lesione della retina o del tetto ottico hanno dimostrato che durante la rigenerazione gli assoni non ricrescevano fino ad innervare i loro punti di connessione originari come avrebbe previsto l’ipotesi dell’affinità chimica, bensì crescevano in modo regolare fino a riempire lo spazio reso disponibile, ossia andavano a riempire lo spazio rimasto disponibile della retina o del tetto ottico. Una volta che gli assoni hanno raggiunto il sito di destinazione devono stabilire delle sinapsi adeguate. Un neurone può sviluppare un solo assone ma è necessaria un’attività coordinata di almeno due assoni per formare una sinapsi. Una delle scoperte più importanti sulla sinaptogenesi è che dipende dalla presenza di cellule gliali in particolare astrociti. In genere vengono generati più neuroni e sinapsi di quanto ne siano necessari alcuni sopravvivono e altri no. Vi sono tre fenomeni che suggeriscono che a morire sono i neuroni incapaci di ricevere dagli organi bersaglio sostanze chimiche vitali. Ad esempio il 17 trapianto di organi bersaglio aggiuntivi riduce la morte dei neuroni; la distruzione di un certo numero di neuroni in una determinata area prima che ci sia la morte neurale definitiva aumenta i siti bersaglio disponibili per i neuroni che sono rimasti e quindi aumenta la percentuale dei neuroni che sopravvivono; l’aumento del numero di assoni che inizialmente innervano un sito bersaglio riduce la percentuale di neuroni che sopravvivono. Quindi la morte neuronale ha probabilmente lo scopo di rendere il numero dei neuroni innervanti pari alla capacità recettiva dei loro siti bersaglio. I neuroni che stabiliscono sinapsi scorrette sono soggetti a morire, quindi la morte neuronale aumenta l’accuratezza delle connessioni neurali. Vi è dunque la scomparsa di molte connessioni sinaitiche e la formazione di nuove quindi c’è una riorganizzazione delle connessioni sinaptiche e non solo una riduzione di numero. La riorganizzazione sinaptica affina l’output di ciascun neurone su un ridotto numero di cellule postsinaptiche aumentando così la selettività della trasmissione nervosa. Sono state identificate molte sostanze vitali che vengono fornite ai neuroni dagli organi bersaglio : la classe più importante è quella delle neurotrofine che svolgono diverse funzioni fra cui favoriscono la crescita e la sopravvivenza dei neuroni, funzionano come molecole guida degli assoni e stimolano la sinaptogenesi. La morte cellulare non è un processo passivo bensì attivo: l’assenza della neurotrofina appropriata innesca un programma depositato nel neurone che ne provoca l’autosoppressione. La morte cellulare passiva è detta necrosi, quella attiva è detta apoptosi. L’apoptosi è più sicura della necrosi in quanto le cellule necrotiche si spezzano in due e versano il loro contenuto nel liquido extracellulare causando infiammazioni potenzialmente pericolose, mentre nella morte cellulare apoptotica il Dna e le altre strutture si dividono e vengono introdotte nella membrana prima che le cellule si spezzino in due. Le membrane contengono molecole che attraggono cellule spazzino e altre che prevengono le infezioni. Nella plasticità neurale vi è una interazione fra il patrimonio genetico e gli stimoli e l’esperienza che possono influire sullo sviluppo neurale. Poiché i circuiti neurali si sviluppano se vengono usati, quindi togliendo stimolazioni ambientali si riduce il numero di neuroni corticali attivati, se invece la stimolazione è normale si osserva che la corteccia è più spessa, che c’è un maggiore sviluppo di dendriti e che c’è un maggior numero di sinapsi per ogni neurone. Lo studio della plasticità del sistema nervoso ha costituito è stato anche un punto di partenza per lo studio delle basi cellulari dell’apprendimento. Per apprendimento si intende quel processo psichico che permette una modificazione durevole del comportamento per effetto dell’esperienza. Ovviamente è fondamentale che ci siano delle tracce di questa esperienza passata e la conservazione di queste tracce è a carico del funzione psichica della memoria. Quindi apprendimento e memoria sono legati fra loro sia per quanto riguarda la funzione che per quanto riguarda le basi cellulari e neurali. L’apprendimento si divide in associativo e non associativo. L’apprendimento associativo è un apprendimento semplice o meccanico fondato sull’apprendimento d una relazione fra lo stimolo e la risposta, come ad esempio l’apprendimento classico studiato da Plavov il quale in questo senso effettuò studi con dei cani. Questi animali nel momento in cui veniva presentato loro del cibo cominciavano a salivare come reazione naturale; associando più volte alla presentazione del cibo uno stimolo neutro che poteva essere lo squillo di un campanello o una luce si osservò che dopo ripetute associazioni gli animali cominciavano a salivare alla sola presentazione dello stimolo neutro. L’apprendimento non associativo è invece un cambiamento del comportamento determinato dall’esperienza ripetuta di un singolo stimolo o di stimoli diversi privi di relazioni spazio temporali fra loro. Questo tipo di apprendimento include tre processi che sono l’abituazione, la sensibilizzazione e la disabituazione. Gli studi sull’apprendimento e sulle sue basi cellulari e neurali sono stati fondati soprattutto sull’osservazione delle modificazioni neurali legate all’esperienza su forme semplici di apprendimento mediate da circuiti neurali molto semplici. Fra gli studdi maggiormente condotti si possono citare quelli effettuati sulla lumaca marina Aplysia, in particolare gli studi sul riflesso di retroazione della branchia sia attraverso apprendimento associativo che non associativo. L’aplysia presenta un sifone cioè un piccolo tubo carnoso con cui espelle acqua e rifiuti; quando questo sifone viene toccato sia il sifone che la branchia adiacente vengono coperti e protetti con un riflesso di retroazione 18 sotto il mantello. Il circuito neurale che controlla tale riflesso è molto semplice : ci sono 24 neuroni sensoriali nella pelle del sifone che formano sinapsi su 6 motoneuroni responsabili della retroazione del sifone e della branchia. Quindi i neuroni sensoriali attivano sia direttamente questi 6 motoneuroni che interneuroni che a loro volta fanno sinapsi sui motoneuroni. Da un punto di vista di apprendimento non associativo nell’aplysia si può parlare innanzitutto di abituazione, ovvero il decremento nella forza della risposta comportamentale ad uno stimolo che si ha quando lo stimolo viene presentato ripetutamente. Nel caso dell’aplysia se il sifone viene toccato più volte a intervalli molto brevi, es 30 secondi, il riflesso di retroazione diventa sempre meno vigoroso. L’abituazione rimane per circa 2-3 ora dalla stimolazione ripetuta. I meccanismi neurali si cui si basa questa abitazione nel riflesso di retroazione è stato studiato osservando le risposte dei motoneuroni della branchia durante l’abituazione a stimolazioni ripetute del sifone tramite un getto d’acqua. Col diminuire di intensità del riflesso di retroazione della branchia c’è una riduzione del numero di potenziale di azione prodotti nei motoneuroni della branchia ogni volta che veniva sollecitato il sifone. Poiché la capacità di risposta del motoneurone al neurotrasmettitore rilasciato dal neurone sensoriale non diminuisce durante l’abituazione, si è concluso che questa diminuzione di potenziale di azione nel motoneurone era dovuta ad un declino progressivo nella quantità di neurotrasmettitore che veniva rilasciato dal neurone sensoriale. Quindi l’abituazione si basa su una diminuzione di neurotrasmettitore rilasciato dal neurone sensoriale che rileva lo stimolo. La sensibilizzazione è invece l’aumento della capacità di risposta a stimoli che seguono uno stimolo nocivo. Per esempio l’intensità del riflesso di retroazione della branchia dovuto alla stimolazione del sifone dell’aplysia aumenta per alcuni minuti se prima della stimolazione del sifone viene somministrato uno shock doloroso alla coda. Questa sensibilizzazione, che può durare per settimane, è dunque un processo opposto all’abituazione. La sensibilizzazione è infatti dovuta ad un aumento della quantità di neurotrasmettitori che i neuroni liberano in risposta al potenziale di azione provocato dallo stimolo nocivo. Ciò che si determina è una facilitazione presinaptica cioè le fibre sensoriali della coda dell’aplysia fanno sinapsi con interneuroni facilitatori che a loro volta fanno sinapsi con neuroni sensoriali del sifone. Quindi queste sinapsi fra assone e assone fanno si che la scarica di potenziali provocata dallo shock alla coda modifichi i bottoni terminali dei neuroni sensoriali del sifone e quindi ogni potenziale di azione prodotto quando si stimola il sifone fa rilasciare maggior quantità di neurotrasmettitore verso il motoneurone. L’abituazione e la sensibilizzazione a lungo termine possono portare anche dei cambiamenti strutturali nei terminali sinaptici nei neuroni sensoriali, questo perché se non c’è una stimolazione sensoriale incrementata ci sono delle zone attive per il rilascio dei neurotrasmettitore minori per numero e dimensioni e di conseguenza un minor numero di vescicole sinaptiche; se invece i neuroni sensoriali sono stimolati più volte si nota un maggior numero di zone attive più grandi e un maggior numero di vescicole sinaptiche. Il fenomeno della disabituazione, come la sensibilizzazione, è un aumento di una risposta conseguente ad uno stimolo nuovo però la disuabituazione riguarda specificatamente la capacità di un nuovo stimolo di svincolare un riflesso di abitazione. Alcuni studiosi hanno visto che i meccanismi di disabituazione si manifestano nell’aplysia quando erano completi lo sviluppo del sifone e della branchia, mentre la sensibilizzazione si manifestava quando erano più avanti con l’età. Quindi questo suggeriva che i meccanismi responsabili della sensibilizzazione e disabituazione sono diversi legati anxche a fasi diverse dello sviluppo : la disabituazione è tipica delle prime fasi dello sviluppo mentre la sensibilizzazione è tipica di fasi di sviluppo avanzate. Per quanto riguarda l’apprendimento associativo, il condizionamento di Pavlov è il modello di base per spiegarlo. Sempre nell’aplysia è stato studiato il condizionamento pavloviano discriminativo sempre nell’ambito del riflesso di retrazione della branchia. La sensibilizzazione veniva prodotta dando uno shock alla coda che eccitava un neurone facilitatorio e la scarica nell’interneurone prodotta da questo shock portava alla modificazione del bottone terminale del neurone sensoriale. A causa di questo cambiamento dovuto a uno stimolo condizionato veniva prodotto il rilascio di maggior quantità di neurotrasmettitore dal neurone sensoriale. Per quanto riguarda invece ... L’attività prodotta dall’interneurone per lo shock ha un 19 effetto particolarmente rilevante sulla terminazione di un neurone sensoriale che invece è stimolato da un altro stimolo che era invece attivo prima che giungessero i segnali all’interneurone legati allo shock. Si può quindi dire che durante questo condizionamento pavloviano discriminativo del riflesso di retrazione della branchia venivano somministrati due stimoli leggeri sul manto e sul sifone; entrambi producono una risposta riflessa i retrazione della branchia; poi solo uno dei due stimoli veniva poi associato allo shock alla coda. Ciò che si osserva è che lo stimolo accoppiato allo shock ripetutamente alla fine produce anche da solo un riflesso di retroazione immediato come nel condizionamento classico di Plavov. Per quanto riguarda invece gli studi neurali della memoria le teorie più importanti hanno preso corpo a partire da Hebb secondo il quale i cambiamenti durevoli della trasmissione sinaptica sono alla base della memoria a lungo termine. Diversi studi dimostrano che una facilitazione durevole della trasmissione sinaptica ha luogo a seguito dell’attivazione di una sinapsi tramite una stimolazione intensa ad alta frequenza dei neuroni presinaptici. Questo fenomeno è stato definito potenziamento a lungo termine. E’ un processo per cui fibre presinaptiche vengono sottoposte ad una stimolazione elettrica ad elevata frequenza per pochi secondi, poi viene effettuata una stimolazione successiva ad intensità bassa osservando un aumento della risposta dei neuroni postsinaptici che si mantiene. Questo studio ha riguardato in particolare l’ ippocampo, una struttura che sulla base di vari studi è stata considerata implicata nella funzione della memoria. Negli esperimenti effettuati su cavie da laboratorio il potenziamento a lungo termine veniva prodotto stimolando la principale afferenza dell’ipocampo che è la via perforante e registrando le risposte multicellulari dello strato delle cellule granulari dell’ippocampo che riceve queste afferenze. Il motivo per cui sono state studiate le basi cellulari della memoria soprattutto studiando il fenomeno del potenziamento a lungo termine è che la facilitazione a lungo termine della trasmissione sinaptica su cui si basa tale fenomeno è simile alla facilitazione che per molto tempo è stata considerata base dell’immagazzinamento in memoria. Le proprietà principali del PLT sono che tale fenomeno può perdurare per un lungo periodo di tempo se preceduto da stimolazioni multiple e che si verifica solo se la scarica del neurone presinaptico viene seguito dalla scarica del neurone postsinaptico : se quest’ultimo non si attiva allora il PLT non si sviluppa. Analogamente ciò avviene anche se il neurone postsinaptico è attivo ma non lo è il neurone presinaptico. Si ritiene che la co-occorrenza della scarica dei potenziali di azione nelle cellule pre e postsinaptiche sia il fattore critico del PLT, e che il fatto che tale co-occorenza sia necessaria per l’apprendimento viene spesso citata con il nome di postulato dell’apprendimento di Hebb. Il PTL, sebbene sia indotto da stimolazioni intense, può essere però indotto anche da stimolazioni che simulino una normale attività neuronale. Inoltre relativamente al PLT si può dire che i suoi effetti sono particolarmente evidenti in quelle strutture che si ritengono coinvolte nell’apprendimento e nella memoria come l’ippocampo e che molti farmaci che influenzano i processi di apprendimento e memoria hanno effetti analoghi sul PLT. Le basi cellulari dell’apprendimento e della memoria sono state poi approfondite studiando il più semplice circuito neurale di apprendimento associativo in memoria, ossia un modello di risposta motoria dipendente dal "condizionamento" che riguarda la membrana nittitante dell'occhio del coniglio. Nella prima fase di addestramento viene inviato un soffio d'aria sull'occhio del coniglio: questo stimolo attiva i recettori delle terminazioni sensitive (cutanee, congiuntivali e sclerotiche) del trigemino e determina la risposta riflessa del muscolo della membrana nittitante. La risposta che segue al soffio d'aria è lo scorrimento della membrana sulla superficie dell'occhio. Nella seconda fase, il coniglio sente prima un suono e dopo un intervallo di tempo (da 200 a 400 millisecondi), riceve il flusso d'aria sull'occhio: il suono prosegue mentre il soffio viene emesso e i due stimoli terminano contemporaneamente. L'addestramento del coniglio, che prevede l'importante relazione temporale tra i due stimoli, viene ripetuta più volte. Nella terza fase, il coniglio sente il suono non seguito dal soffio d'aria e questo stimolo da solo provoca lo scorrimento della membrana nittitante sulla superficie dell'occhio. Ciò indica che il circuito che regola la risposta ha modificato la sua azione sulla base di un apprendimento. Si è cercato di capire che tipo di cambiamenti si verificano nel circuito del romboencefalo che è implicato nel riflesso della membrana 20 nittitante al fine di poter riprodurre tale riflesso sulla base per esempio di uno stimolo acustico, ossia quando lo stimolo non è diretto, ma si è visto che nel condizionamento di questo riflesso non vi è una implicazione diretta delle strutture rombo encefaliche. Il PLT si considera un processo a tre fasi : induzione, mantenimento ed espressione. L’induzione del PLT è appunto l’apprendimento. Il PLT è stato studiato maggiormente in quelle sinapsi nelle quali sono presemti prevalentemente i recettori per il glutammato, che è il principale neurotrasmettitore eccitatorio del cervello. Questo recettore risponde in modo efficace solo quando si verificano due eventi insieme, ossia quando il glutammato si lega al recettore e quando il neurone postsinaptico è parzialmente depolarizzato. Ciò è necessario in quanto gli ioni calcio affluiscono limitatamente nel neurone a meno questo non sia depolarizzato nel momento in cui il glutammato si lega al recettore : a questo punto l’ingresso di ioni calcio nel neurone postsinaptico è tale da generare potenziali d’azione che insieme ad una serie di eventi combinati daranno origine al PLT. Questo fenomeno consente che le reti di neuroni apprendano le associazioni. L’immagazzinamento ed il recupero del PLT comportano variazioni sia nei neuroni pre che postsinaptici e nell’ambito dei meccanismi che regolano questi due fenomeni sono state fatte alcune scoperte fra cui il fatto che il calcio che entra in una spina dendritica non diffonde al di fuori di questa ma esercita i suoi effetti localmente, che il mantenimento a lungo termine comporta dei cambiamenti strutturali che dipendono dalla sinesi delle proteine che non può essere invece responsabile del mantenimento a breve termine perché non avviene abbastanza rapidamente, che il PLT sulle sinapsi glutamminergiche sia associato ad un incremento durevole di glutammato extracellulare la cui produzione può essere intensificata con stimolazioni elettriche successive, che devono esistere segnali che ritornano dai neuroni postsinaptici a quelli presinaptici e che questo segnale dal neurotrasmettitore ossido nitrico sintetizzato nel neurone postsinaptico in risposta all’entrata di calcio e successivamente diffondere in modo retrogrado verso il bottone presinaptico (questo perché l’induzione del PLT comincia nei neuroni postsinaptici mentre il mantenimento e l’espressione implicano variazioni presinaptiche), e che i cambiamenti strutturali avvengono nelle sinapsi glutamminergiche in combinazione con PLT a lunga durata, vi sono infatti aumenti nel numero e nelle dimensioni delle sinapsi e dei dendriti e nel numero dei recettori postsinaptici. L’altra faccia della medaglia del PLT è la depressione a lungo termine che avviene come risposta ad una stimolazione prolungata a bassa frequenza dei neuroni presinaptici. Risposte a un danno del sistema nervoso Le risposte della plasticità neuronale a un danno del sistema nervoso sono 4: degenerazione, rigenerazione, riorganizzazione e recupero. Degenerazione. Un metodo molto usato per controllare le reazioni dei neuroni ad un danno consiste nel tagliare l’assone, definita assotomia, a seguito della quale si verificano due tipi di degenerazione : anterograda e retrograda. La degenerazione anterograda è il deterioramento del segmento distale, ovvero di quella porzione dell’assone reciso che si trova tra il taglio e i terminali sinaptici. La degenerazione retrograda invece è il deterioramento del segmento prossimale, ovvero di quella porzione dell’assone reciso che si trova tra il taglio e il corpo della cellula. A seguito dell’assotomia la degenerazione anterograda avviene rapidamente perché il segmento distale dell’assone, separato dal soma, si gonfia sproporzionatamente e dopo pochi giorni si riduce in frammenti. La degenerazione retrograda procede invece gradualmente e a ritroso verso il corpo cellulare. Le modificazioni più evidenti sono visibili dopo circa due tre giorni dall’assotomia e quelle precoci del corpo cellulare sono di natura 21 sia degenerativa che rigenerativa. Le variazioni degenerative precoci, come riduzioni di volume, indicano che il neurone morirà alla fine del processo di solito per apoptosi ma a volte anche per necrosi o per la combinazione dei due, le variazioni rigenerative precoci, come aumento di volume, indicano che il corpo della cellula sta sintetizzando in modo massiccio proteine che verranno usate per sostituire l’assone degenerato ance se ciò non garantisce comunque la sopravvivenza a lungo termine del neurone: infatti se l’assone in via di rigenerazione non riesce a prendere contatto sinaptico con un bersaglio appropriato il neurone probabilmente morirà. A volte la degenerazione può estendersi dal neurone danneggiato a quelli con cui quest’ultimo ha connessioni sinaptiche e viene chiamata degenerazione transneuronale. Anche in questo caso può essere transneuronale anterograda quando sono danneggiati i neuroni che fanno sinapsi sul neurone danneggiato, e transneuronale retrograda quando sono danneggiati i neuroni sui quali fa sinapsi il neurone danneggiato. Numerose ricerche hanno dimostrato che è possibile ridurre il danno cerebrale nell’uomo bloccando la degenerazione neuronale mediante delle molecole come la proteina inibitoria dell’apoptosi, il fattore di crescita dei nervi e gli estrogeni. In generale le molecole che limitano la degenerazione neuronale ne favoriscono anche la rigenerazione. Rigenerazione. Nei mammiferi o nei vertebrati superiori la ricrescita di neuroni danneggiati, rigenerazione neuronale, non è efficace come negli invertebrati o nei vertebrati inferiori, nel SNC dei mammiferi adulti la rigenerazione è praticamente inesistente e nel SNP è quasi casuale e la ricrescita della sezione prossimale di un nervo danneggiato comincia due o tre giorni dopo la lesione. Ciò che si verifica dipende principalmente dalla natura della ferita. Esistono tre possibilità: 1) se un nervo viene danneggiato senza che le cellule di Schwann della guaina mielinica siano compresse, ad esempio per schiacciamento, i singoli assoni periferici ricrescono verso i loro obiettivi originali; 2) se il nervo periferico è reciso e le due estremità delle guaine delle cellule di Schwann sono leggermente separate allora i singoli assoni spesso ricrescono verso guaine diverse che li dirigeranno nella direzione sbagliata; ecco perché è spesso difficile recuperare l’uso coordinato di un arto dopo la lesione ad un nervo anche nel caso di una notevole rigenerazione; 3) se il nervo è danneggiato e le due estremità delle guaine delle cellule di Schwann sono molto separate o se è danneggiata larga parte del nervo allora non si verifica alcuna rigenerazione significativa poiché gli apici assonali in crescita formano un groviglio intorno al segmento prossimale e infine muoiono. I neuroni del SNC sono in grado di rigenerarsi solo se vengono trapiantati nel SNP e questo proprio a causa dell’assenza nel SNC delle cellule di Schwann. Queste cellule, che ricoprono di mielina gli assoni del SNP, stimolano la rigenerazione dei neuroni del SNP producendo sia fattori neurotrofici, che stimolano la crescita di nuovi assoni, sia molecole di adesione delle cellule nervose (CAM) che si trovano sulle membrane delle cellule di Schwann e che forniscono il percorso lungo il quale gli assoni del SNP ricrescono. Al contrario invece l’oligodendroglia che ricopre di mielina gli assoni del SNC non stimola ne guida la rigenerazione ma in realtà rilascia fattori che la ostacolano. La rigenerazione dei vertebrati inferiori invece è estremamente accurata sia nel SNC che nel SNP e anche quando gli assoni non ricrescono nelle guaine delle cellule di Schwann rimaste. Nel caso in cui potessero venire identificati i fattori che rendono cosi accurata la rigenerazione nei vertebrati inferiori e se potessero venire applicati al cervello dell’uomo ciò aprirebbe una speranza nella cura dei danni cerebrali umani che ora sono incurabili. Quando un assone degenera dai nodi di Ranvier o dalle branche terminali dell’assone dei neuroni adiacenti partono delle ramificazioni assonali che vanno a prendere contatti sinaptici nelle zone lasciate scoperte dall’ assone degenerato. Questo fenomeno si chiama sprouting collaterale. Anche se normalmente la rigenerazione non avviene nel SNC dei mammiferi può però essere indotta. Alcuni studi hanno dimostrato che la rigenerazione può essere associata al recupero funzionale. Riorganizzazione neuronale. Il cervello di un mammifero adulto mantiene la capacità sensoriale e motoria di riorganizzarsi in modo significativo in risposta all’esperienza ma anche come reazione ad un danno. Questa capacità è stata alla 22 base di molti studi sulla riorganizzazione neuronale in età adulta. La riorganizzazione della corteccia sensoriale primaria di un mammifero adulto è stata ottenuta in due modi diversi: danneggiando le vie sensoriali e la corteccia sensoriale stessa. Per esempio è stato valutato l’effetto di una piccola lesione ad una retina rimuovendo l’altra e si è osservato che dopo molti mesi dall’operazione i neuroni della corteccia primaria che avevano dei campi recettivi nella parte lesa della retina mostravano campi recettivi nell’area della retina adiacente alla lesione. Sono state ricostruite le mappe della corteccia somatosensoriale primaria di alcune scimmie alle quali erano stati tagliati 10 anni prima i neuroni delle vie sensoriali del braccio controlaterale scoprendo che la rappresentazione corticale della faccia si era espansa in modo sistematico nella regione che era originariamente del braccio. E’ stata rimossa l’area della corteccia somatosensoriale della scimmia che viene attivata da una stimolazione tattile del palmo della mano controlaterale osservando che diverse settimane dopo i neuroni adiacenti alla lesione rispondevano alla stimolazione tattile del palmo. Sono inoltre stati sezionati nel ratto i motoneuroni che controllano i muscoli dei loro baffi osservando poche settimane dopo che la stimolazione dell’area della corteccia motoria che determinava i movimenti dei baffi ora attivava altri muscoli della faccia. Spesso però la riorganizzazione avviene troppo rapidamente per poter essere spiegata dalla crescita neuronale; inoltre la riorganizzazione rapida non implica mai delle variazioni che interessano più d due millimetri d superficie corticale. Queste due osservazioni sono a favore dell’esistenza del meccanismo di rafforzamento di connessioni esistenti attraverso la liberazione dal inibizione. In supporto invece al meccanismo dello sprouting collaterale può essere riportata l’osservazione ce la grandezza di una riorganizzazione a lungo termine può essere troppo vasta per essere spiegata da modificazioni che interessino connessioni già esistenti Recupero di una funzione dopo un danno cerebrale. Il recupero di una funzione dopo un danno cerebrale è un processo ancora poco chiaro e questo per due ragioni: è difficile condurre esperimenti controllati su una popolazione di pazienti con danni cerebrali, e perché le lesioni cerebrali producono una tale varietà di modificazioni che qualcuna di esse può essere facilmente scambiata con il recupero di una funzione. Ad esempio un miglioramento nelle due settimane successive alla lesione può essere sintomo di una riduzione dell’edema cerebrale, piuttosto che di un recupero del danno cerebrale in se e qualsiasi miglioramento nei mesi successivi potrebbe riflettere l’apprendimento di nuove strategie cognitive e comportamentali piuttosto che il recupero di quelle perdute. Di conseguenza il recupero di una funzione è meno comune e meno completo di quanto si creda e che comunque è più probabile quando la lesione è circoscritta e quando il paziente è giovane. Si pensa che la riserva cognitiva abbia un ruolo importane nel recupero delle funzioni cognitive dopo un danno cerebrale. Kapur ha condotto uno studio su medici e neuroscienziati con danni al cervello e ha potuto osservare un notevole recupero cognitivo dovuto però al fatto che la riserva cognitiva permetteva loro di eseguire compiti cognitivi in modi diversi. In passato la riorganizzazione neuronale sembrava essere l’unica spiegazione al recupero di danni del SNC, ipotesi derivante da uno studio in cui si è scoperto che il livello di recupero motorio di pazienti colpiti da ictus era correlato al livello di riorganizzazione della corteccia motoria; ma in seguito si aprirono le porte anche alla possibilità che anche la crescita di neuroni nuovi (neurogenesi) potesse avere un ruolo importante in tale recupero, in particolare quando la lesione riguarda l’ippocampo. E’ stato recentemente dimostrato che l’ischemia cerebrale che di solito colpisce l’ippocampo favorisce la neurogenesi adulta, che molte delle nuove cellule vanno a far parte dell’ippocampo, e che stabilendo sinapsi diventano neuroni maturi. Sarebbe quindi possibile che un incremento della neurogenesi adulta contribuisca al recupero da un ictus ma questo rimane per ora ancora una ipotesi. L’uso di tecniche di riabilitazione, come la terapia della costrizione indotta consisteva nel legare il braccio funzionante per due settimane mentre il braccio menomato era sottoposto a riabilitazione intensiva, per il recupero di danni del SNC si basa sul ruolo fondamentale dell’esperienza 23 nell’organizzazione del cervello in sviluppo e adulto. Infine la tecnica della riabilitazione è stata utilizzata anche su quei pazienti che hanno subito l’amputazione di un arto e che in genere continuano ad avvertire la reale presenza dell’arto amputato, fenomeno noto con il termine di arto fantasma. In molti casi l’arto fantasma percepito dal paziente si comporta come l’arto normale, ad esempio mentre cammina avverte la sua corretta coordinazione con l’arto sano, ma a volte egli ha la sensazione che l’arto fantasma assuma posture strane. Trapianto neuronale. Il tentativo di curare le lesioni del SNC con il trapianto neuronale hanno preso due strade: il trapianto di tessuto fetale ed il trapianto di cellule staminali. Nel primo caso l’approccio fu quello di sostituire una struttura danneggiate con del tessuto fetale che si svilupperebbe nella stessa struttura. In questo senso sono stati eseguiti alcuni tentativi di trattamento del morbo di Parkinson, prima sulle scimmie e poi sull’uomo, che hanno avuto inizialmente esito positivo. Una tecnica che si è rivelata efficace utilizzava modelli animali (scimmie) a cui era stato iniettato MPTP e consisteva nel trapianto bilaterale della sostanza nera di cellule fetali. Il risultato fu che nelle scimmie trattate con MPTP le cellule trapiantate sopravvissero e riuscirono anche ad innervare il tessuto striatale adiacente e a rilasciare la dopamina. Inoltre i sintomi di povertà di movimento, tremore e rigidità si alleviarono. I primi risultati furono molto incoraggianti a circa un anno dall’operazione circa i 15% dei pazienti cominciò a manifestare una serie di movimenti incrollabili di contorcimento e masticamento. Il trapianto di cellule staminali consiste nel trapianto appunto di cellule multipotenti in grado di svilupparsi in molti tipi di neuroni maturi, dette cellule staminali embrionali. Tale tecnica consiste nell’iniettare cellule staminali embrionali nel sito danneggiato dove tali cellule possono svilupparsi e sostituire le cellule danneggiate guidate dai tessuti limitrofi. Nonostante i risultati positivi si pensò che comunque fossero necessarie ulteriori sperimentazioni per mettere punto metodi efficaci di impianto di queste cellule. Conduzione nervosa e trasmissione sinaptica Per trasmissione nervosa si intende la trasmissione di un segnale nervoso sia fra neuroni e neuroni sia entro il neurone stesso. I primi studi sono stati condotti su neuroni semplici, una classe di neuroni detti motoneuroni. Uno degli aspetti chiave per la comprensione delle funzioni nervose è il potenziale di membrana di un neurone, cioè la differenza di carica elettrica tra l'esterno e l'interno della cellula. Per misurarlo è necessario inserire la punta di due elettrodi rispettivamente dentro la cellula e fuori di essa, nel liquido extracellulare. E' importante però che la punta dell'elettrodo intracellulare sia abbastanza sottile da perforare la membrana senza danneggiarla. generalmente tali dimensioni sono dell'ordine dei millesimi di millimetro. Per registrare il potenziale di membrana di un neurone i cavetti degli elettrodi intra ed extra cellulari vengono collegati ad un oscilloscopio che è uno strumento che mostra le variazioni di potenziale elettrico nel tempo. Quando entrambi gli elettrodi sono nel liquido extracellulare la differenza di potenziale fra loro è zero. Quando invece la punta dell'elettrodo intracellulare è inserita all'interno di un neurone il potenziale misurato è di circa -70mV, ovvero il potenziale all'interno della cellula a riposo è di circa 70 mV inferiore a quello del liquido extracellulare (=0). Questo potenziale si chiama potenziale di riposo del neurone. Allo stato di riposo con una differenza di potenziale tra i due lati della membrana di circa 70mV si dice che il neurone è polarizzato. Come tutti i sali in soluzione anche i sali presenti nel tessuto neurale si dividono in particelle con carica negativa e positiva dette ioni. Il potenziale di riposo è dovuto al fatto che il rapporto ioni negativi/ioni positivi è più alto all'interno del neurone che all'esterno. Questa diversa distribuzione degli ioni si spiga sulla base dell'interazione di 4 fattori. Due fattori tendono a mantenere uguale la distribuzione di carica nei liquidi intra ed extra cellulari, mentre gli altri due legati alla membrana neuronale, si oppongono al mantenimento di questo equilibrio. la prima delle due forze che tende a uniformare la distribuzione degli ioni dentro e fuori la cellula è il movimento casuale. Infatti gli ioni del tessuto neuronale sono in continuo movimento casuale che tende a distribuirli in modo omogeneo. Ciò avviene perchè è più probabile che gli ioni si muovano 24 seguendo il loro gradiente di concentrazione, ovvero da aree in cui sono maggiormente concentrati verso aree in cui lo sono meno, piuttosto che in direzione opposta. Il secondo fattore è il potenziale o gradiente elettrico. Qualsiasi accumulo di cariche negative o positive in un'area tende a ridursi a causa della repulsione (elettrostatica) tra ioni con carica dello stesso segno e dell'attrazione tra ioni con carica di segno opposto. Nonostante la continua azione di questi fattori uniformanti, nessun tipo di ione si distribuisce uniformemente sui due lati della membrana della cellula. Vi sono 4 tipi di ioni che contribuiscono in modo significativo al potenziale di riposo : ioni sodio, potassio, cloro, e cariche proteiche con carica negativa. Nel neurone a riposo la concentrazione degli ioni sodio e cloro è maggiore all'esterno che all'interno, mentre gli ioni potassio sono più concentrati all'interno del neurone. Le proteine sono sintetizzate nel neurone e per la maggior parte rimangono al suo interno. Sono invece due le proprietà responsabili della distribuzione non uniforme di ioni sodio potassio e cloro e delle proteine con carica negativa nel neurone a riposo. Una di queste proprietà è passiva, cioè non richiede apporto di energia, ed è la permeabilità differenziale della membrana neuronale agli ioni sodio, cloro, potassio e alle proteine. Infatti nel neurone a riposo gli ioni potassio e cloro passano con facilità attraverso la membrana, gli ioni sodio penetrano con difficoltà e le proteine non penetrano affatto. Gli ioni transitano attraverso la membrana attraverso pori detti canali ionici, ciascuno dei quali è selettivo per una particolare classe di ioni. Gli studiosi scoprirono che ci sono meccanismi attivi di membrana che compensano l’ingresso passivo di sodio spingendo con la stessa velocità ioni sodio fuori dalla cellula e compensano l’uscita passiva di potassio spingendo con la stessa velocità ioni potassio all’interno della cellula. Questo trasporto attivo di ioni sodi e potassio dipende da un meccanismo comune legato alla membrana cellulare che consuma energia e continuamente scambia tre ioni sodio verso l’esterno con due potassio verso l’interno: questo meccanismo si chiama pompa sodio potassio. Queste differenze di concentrazione ionica cui vanno associate le proteine presenti all’interno della cellula sono determinanti per la genesi del potenziale di riposo. La generazione e trasmissione di potenziali postsinaptici è un meccanismo che costituisce la base della trasmissione interneuronale. Quando i neuroni scaricano liberano dai bottoni terminali nello spazio sinaptico delle sostanza chimiche chiamate neurotrasmettitori che interagiscono con le molecole del recettore posto sulla membrana recettiva del neurone postsinaptico. Quando i neurotrasmettitori si legano ai recettori postsinaptici possono avvenire due effetti diversi che dipendono dalla struttura di entrambi, ovvero possono sia depolarizzare, diminuire il potenziale di riposo, che iperpolarizzare, aumentare il potenziale di riposo, la membrana recettiva. Le depolarizzazioni postsinaptiche sono chiamate potenziali postsinaptici eccitatori (PPE) poiché aumentano la probabilità che il neurone scarichi; le iperpolarizzazioni invece sono dette potenziali postsinaptici inibitori (PPI) poiché riducono tale probabilità. Entrambi i potenziali sono risposte graduate e si propagano passivamente dal sito da cui generano. L’ampiezza di tali potenziali è proporzionale al segnale che li evoca : segnali deboli causano piccoli segnali postsinaptici mentre segnali intensi determinano potenziali postsinaptici elevati. La trasmissione del potenziale postsinaptico presenta due caratteristiche : è rapida tanto che la si può considerare istantanea ed è decrementale ovvero l’ampiezza dei potenziali si riduce man mano che essi si muovono lungo il neurone. I potenziali postsinaptici generati da una singola sinapsi in genere hanno uno scarso effetto sulla scarica del neurone postsinaptico. La maggior parte dei neuroni sono infatti cosparsi di migliaia di sinapsi il cui effetto cumulativo determina se il neurone scaricherà o meno. I potenziali postsinaptici eccitatori e inibitori innescati dall’azione di un neurotrasmettore sono trasmessi istantaneamente e in modo decrementale al monticolo assonico. Se la somma algebrica dei potenziali di azione eccitatori o inibitori è tale da portare il potenziale di membrana ad un livello di depolarizzazione detto soglia di eccitazione, in genere pari a -65 Mv, si genera un potenziale di azione (PA), che rappresenta una transitoria inversione (dura circa 1ms) del potenziale di membrana da -70Mv a +50 Mv. I potenziali d’azione si generano mediante l’azione di canali ionici voltaggio-dipendenti, ovvero canali che si aprono e chiudono in risposta a variazioni del potenziale di membrana. Infatti quando quest’ultimo si abbassa fino alla soglia di eccitabilità del neurone, 25 i canali ionici voltaggio dipendenti per il sodio si aprono e una corrente massiva di sodio entra nella cellula portando rapidamente il potenziale di membrana da -70Mv a +50Mv. La rapida variazione di potenziale di membrana associata all’ingresso (afflusso) di ioni sodio determina poi l’apertura dei canali ionici voltaggio dipendenti per il potassio che consente agli ioni potassio di uscire (efflusso) dalla cellula spinti sia dalla maggiore concentrazione interna che dalla carica positiva interna (+50Mv). Circa dopo 1ms dopo l’inizio del Pa i canali ionici per il sodio si chiudono, successivamente si chiudono i canali ionici per il potassio ed il neurone torna gradualmente allo stato di riposo. Tale potenziale di azione non è una risposta graduata poiché la sua ampiezza non è affatto correlata all’intensità dello stimolo che lo genera. Al contrario essi sono risposte del tipo tutto o nulla poiché, indipendentemente dall’intensità dello stimolo, o si verificano in tutta la loro ampiezza e velocità oppure non si verificano affatto. Ogni neurone multipolare somma l’insieme di potenziali eccitatori e inibitori che arrivano all’assone e decide se scaricare o no sulla base del valore di tale somma. L’operazione di sommare tutti i segnali in uno unico complessivo viene detta integrazione che può avvenire in due modi: nello spazio e nel tempo. La sommazione spaziale può avvenire quando potenziali eccitatori o inibitori che si generano simultaneamente in diverse regioni della membrana recettiva si sommano formando un potenziale eccitatorio o inibitorio maggiore, oppure potenziali eccitatori e inibitori simultanei si annullano reciprocamente. La sommazione temporale invece avviene quando potenziali postsinaptici prodotti in rapida successione a livello della stessa sinapsi si sommano dando origine a un potenziale più elevato. I segnali che un neurone riceve possono sommarsi nel tempo perché i potenziali postsinaptici generati perdurano più del segnale che li ha prodotti. Dopo l’inizio di un PA c’è un breve periodo della durata di 1-2 ms in cui non è possibile innescare un secondo PA: questo periodo si chiama periodo refrattario assoluto; tale periodo è seguito dal periodo refrattario relativo durante il quale è possibile far scaricare nuovamente un neurone ma solo applicando uno stimolo più intenso della norma. Alla fine del periodo refrattario relativo l’intensità dello stimolo necessaria per attivare il neurone ritorna al valore di base. Il periodo refrattario è quindi responsabile del fatto che il PA normalmente si propaga in una sola direzione, ed è responsabile del fatto che la frequenza di scarica neuronale è correlata all’intensità dello stimolo, in ogni caso non più di mille volte al secondo. La conduzione del Pa lungo l’assone differisce dalla trasmissione dei potenziali postsinaptici per due aspetti: non è decrementale ed è più lenta. Tale differenza sta nel fatto che la conduzione dei potenziali postsinaptici eccitatori e inibitori è passiva, mentre quella assonale dei PA è attiva; Poiché sulla membrana assonale ci sono tanti canali ionici ravvicinati si considera la conduzione assonale come un’unica ondata eccitatoria che si diffonde attivamente a velocità costante lungo l’assone piuttosto che come una serie di eventi discreti. L’onda di eccitazione scatenata da un Pa che origina vicino al monticolo assonico tende anche a propagarsi indietro verso i dendriti e il soma (potenziali d’azione retrogradi). Questa trasmissione inversa è detta conduzione antidromica, mentra la conduzione in direzione naturale è detta conduzione ortodromica. Negli assoni mielinizzati, ovvero ricoperti da una guaina lipidica detta mielina, il flusso di ioni attraverso la membrana si realizza solo negli spazi compresi fra segmenti adiacenti di mielina detti nodi di Ranvier, dove sono concentrati anche i canali di sodio. Quando un Pa si genera sulla membrana di un neurone mielinizzato, il segnale è trasmesso passivamente ( in modo istantaneo e decrementale) lungo il primo segmento di mielina fino al successivo nodo di Ranvier. Quando il segnale arriva al nodo anche se attenuato ha ancora sufficiente intensità per aprire i canali ionici per il sodio del nodo e generare un PA che viene trasmesso passivamente lungo l’assone al nodo successivo dove verrà generato un altro PA. La mielinizzazione aumenta la velocità di conduzione, infatti poiché la trasmissione lungo i segmenti di mielina è passiva cioè istantanea ne risulta che il segnale salta rapidamente da un nodo all’altro. Ovviamente ad ogni nodo di Ranvier c’è un piccolo ritardo dovuto alla genesi di un nuovo PA, ma in ogni caso la trasmissione del segnale lungo un assone mielinizzato è comunque più veloce rispetto a quella lungo assoni non mielinizzati. Questo tipo di trasmissione viene chiamata conduzione saltatoria e consente un notevole risparmio di energia. La velocità di conduzione assonale dipende da due proprietà dell’assone: infatti è 26 maggiore negli assoni di diametro maggiore e in quelli ricoperti di mielina. La velocità di conduzione nel motoneurone umano è di circa 60 metri al secondo. I PA sono il mezzo mediante il quale gli assoni trasmettono per lunghe distanze e fedelmente segnali tutto o nulla. Tuttavia bisogna sottolineare che molti neuroni nel cervello dei mammiferi sono privi di assoni e non possono generare PA ma sono coinvolti nel controllo di attività complesse come apprendimento, memoria, motivazione e percezione. La trasmissione di segnali in questi interneuroni è affidata a capacità dendritiche di generare PA che possono essere condotti in modo attivo lontano dal luogo di origine e in entrambe le direzioni e alle spine dendritiche, ovvero piccoli rigonfiamenti di forma diversa che si trovano sulla superficie di molti dendriti, che sono le sedi delle sinapsi più eccitatorie (in genere una sinapsi ogni spina) nel cervello dei mammiferi adulti. I potenziali postsinaptici si generano dunque sulla membrana neuronale: sono potenziali graduati condotti passivamente all’assone, la loro somma innesca il PA, tali segnali tutto o nulla si propagano attivamente lungo gli assoni fino ai bottoni terminali. La trasmissione neurale avviene di solito attraverso le sinapsi. La sinapsi ha una sua struttura : un bottone sinapstico terminale, che comprende vescicole sinaptiche in prossimità della membrana presinaptica, i mitocondri che sono fonti di energia, le cisterne che sono sedi di impacchettamento di neurotrasmettitori e le fessure sinaptiche che sono gli spazi fra membrana pre e postsinaptica. I bottoni terminali rilasciano nella fessura intersinaptica molecole di neurotrasmettitori che si legano a recettori presenti sulla membrana postsinaptica e producono potenziali postsinaptici eccitatori ed inibitori (EPSP e IPSP) in altri neuroni. Vi sono vari tipi di sinapsi : le asso-dendritiche ovvero sinapsi tra terminali assonici del neurone presinaptico e dendriti del neurone postsinaptico(molte sinapsi eccitatorie hanno luogo a livello delle spine dendritiche); asso-somatiche ovvero tra terminali assonici del neurone presinaptico e il soma del neurone postsinaptico; dendro-dendritiche, tra dendriti, chiamate sinapsi reciproche, che sono capaci di trasmettere segnali in tutte e due le direzioni ; le asso-assoniche fra assoni che sono responsabili del fenomeno di inibizione presinaptica, ovvero quando un assone presinaptico (B) inibisce gli effetti eccitatori di un altro assone presinaptico (A) su un neurone postsinaptico (C) depolarizzando parzialmente il bottone terminale di quest’ultimo assone (A). in questo modo il potenziale di azione che si muove lungo l’assone di A rilascia meno neurotrasmettitore su C. Si noti che l’inibizione presinaptica avviene senza neurotrasmettitori inibitori. Nella inibizione postsinaptica invece B inibisce gli effetti eccitatori di A su C mediante l’iperpolarizzazione di C. Le sinapsi possono essere inoltre dirette ovvero quando il sito di rilascio del neurotrasmettitore è vicino all’area recettiva del neurone postsinaptico. In questo tipo di sinapsi gli effetti del neurotrasmettitore sono circoscritti e locali. Ma vi sono anche sinapsi non dirette cioè sinapsi in cui il sito di rilascio del neurotrasmettitore è ad una certa distanza dai recettori postsinaptici. In queste sinapsi i neurotrasmettitori sono liberati da numerosi rigonfiamenti presenti sull’assone e sulle sue ramificazioni e agiscono in modo relativamente diffuso su un grande numero di neuroni bersaglio circostanti. I neuroni più indiretti sono quelli del sistema endocrino che liberano neurotrasmettitori direttamente nel sangue. A causa del loro aspetto queste sinapsi sono chiamate spesso sinapsi a filo di perle. Nel sistema nervoso sono presenti due diverse classi di neurotrasmettitori : quello costituito da trasmettitori a basso peso molecolare e a rapida azione e quello costituito da neuropeptidi di dimensioni maggiori e ad azione più lenta. I neurotrasmettitori a basso peso molecolare sono di diverso tipo e tendono a essere liberati nelle sinapsi di tipo diretto e ad attivare sia recettori legati a canali ionici che quelli legati alla proteina G. I neuro peptidi (ad alto peso molecolare) tendono invece ad essere liberati nelle sinapsi di tipo indiretto ad agire in modo diffuso e non locale e a controllare complessi recettori-proteina G che agiscono mediante secondi messaggeri (i neurotrasmettitori sono considerati primi messaggeri). Quindi la funzione dei neurotrasmettitori a basso peso molecolare sembra essere quella di trasmettere segnali rapidi, eccitatori o inibitori, ai neuroni immediatamente vicini al sito di rilascio, mentre i neuropeptidi trasmettono segnali che insorgono lentamente ma tendono a diffondere in zone più ampie e a persistere più a lungo nel tempo. I neurotrasmettitori a basso peso molecolare sono solitamente sintetizzati nel citoplasma dei bottoni terminali e contenuti in vescicole sinaptiche a livello 27 delle membrane dell’apparato del Golgi. Tali vescicole una volta riempite di neurotrasmettitori sono immagazzinate in gruppi posti nelle immediate vicinanze della membrana presinaptica. I neurotrasmettitori peptidici sono invece sintetizzati dai ribosomi nel citoplasma del soma e poi depositati in vescicole dalle membrane dell’apparato del Golgi. Le vescicole sono trasportate lungo i microtubuli situati nell’assone alla velocità di circa 40 cm al giorno e inviate ai bottoni terminali. Le vescicole che contengono neurotrasmettitori ad alto peso molecolare hanno maggiori dimensioni di quelle che contengono neurotrasmettitori a basso peso molecolare e inoltre non sono immagazzinate nelle vicinanze della membrana plasmatica. Secondo il principio di Dale in passato si pensava che ciascun neurone sintetizzasse un unico tipo di neurotrasmettitore; studi recenti hanno però dimostrato che molti neuroni contengono due tipi di neurotrasmettitori, un fenomeno che prende il nome di coesistenza, che finora sono sempre stati un neurotrasmettitore a basso peso molecolare e una ad alto peso molecolare. Il processo di liberazione di un neurotrasmettitore viene detto esocitosi. Quando un neurone è a riposo le vescicole sinaptiche che contengono neurotrasmettitori a basso peso molecolare si aggregano nelle vicinanze della membrana presinaptica una struttura particolarmente ricca di canali ioni voltaggio dipendenti per il calcio. L’arrivo del PA apre questi canali e consente agli ioni calcio di entrare nei bottoni terminali. L’ afflusso intracellulare di calcio determina la fusione delle vescicole con la membrana presinaptica : nel punto di fusione la membrana si apre e il neurotrasmettitore è liberato nella fessura sinaptica. L’esocitosi dei neurotrasmettitori a basso peso molecolare differisce da quella dei neurotrasmettitori ad alto peso per un aspetto. Mentre i primi sono rilasciati in quantità discreta e fissa ogni volta che un PA causa un transitorio passaggio di ioni calcio attraverso la membrana presinaptica, i secondi sono liberati in quantità proporzionale al progressivo aumento della concentrazione intracellulare di ioni calcio che si ha quando la frequenza di scarica neuronale aumenta. Una volta liberati i neurotrasmettitori attraversano la fessura intersinaptica e si legano con le molecole di recettore poste sulla membrana postsinaptica generando un potenziale postsinaptico. Ciascun recettore è una molecola proteica che presenta siti di legame specifici solo per un determinato neurotrasmettitore; ne consegue che ciascun neurotrasmettitore può trasmettere segnali solo a quei neuroni che hanno recettori in grado di riconoscerlo. Ogni molecola che si lega ad un’altra è definita il suo legante e si dice che il neurotrasmettitore è il legante del suo recettore. Ricerche attuali hanno dimostrato che ogni neurotrasmettitore è in grado di interagire con una varietà di recettori. Le diverse classi di recettori controllate da un singolo neurotrasmettitore sono dette sottotipi recettoriali del neurotrasmettitore. I vari sottotipi sono di solito localizzati in aree cerebrali diverse e ciascun sottotipo risponde diversamente all’azione del neurotrasmettitore rendendo flessibile tale azione nel consentirgli di trasmettere segnali diversi a diverse parti del cervello. Il legame di un neurotrasmettitore con il suo recettore modula l’attività del neurone postsinaptico in due modi diversi a seconda che il recettore sia ionotropico o metabotropico. I primi sono associati a canali ionici che si aprono o si chiudono producendo una immediata variazione del potenziale di membrana (EPSP o IPSP) e sono posti sulla membrana postsinaptica e attivati chimicamente, i secondi si legano alle proteine segnale e alle proteine G. I recettori metabotropici invece sono più comuni ed i loro effetti sono a più lenta insorgenza, più durevoli, diffusi e diversificati. Il recettore metabotropico si lega ad una porzione della proteina segnale esterna al neurone, mentre la proteina G si lega ad una porzione della proteina segnale all’interno del neurone. Quando un recettore metabotropico si lega al complesso recettore proteina G una sub unità della proteina g si rompe. A questo punto possono verificarsi due diversi eventi che dipendono dalla proteina G presente : 1) la subunità può muoversi lungo la superficie interna della membrana postsinaptica e legarsi ad un vicino canale ionico generando un EPSP o IPSP; 2) la sub unità può indurre la sintesi di una sostanza chiamata secondo messaggero che diffonde attraverso il citoplasma e influenza in modi diversi e con effetti radicali a lungo termine le attività del neurone. In molti neuroni il secondo messaggero è l’adenosina monofosfato ciclico che si crea quando la combinazione tra neurotrasmettitore e recettore libera l’enzima adenilciclasi nel citoplasma del neurone postsinaptico. Gli effetti prodotti sono però di 28 breve durata. Altri secondi messaggeri hanno invece effetti di lunga durata. Le proteine G possono anche attivare direttamente uno o più enzimi intracellulari, che a loro volta possono interferire in molte funzioni cellulari specifiche, e possono anche attivare la trascrizione genetica che forse è uno degli effetti più importanti dell’attivazione del sistema del secondo messaggero perché la trascrizione di un gene può causare nel neurone la formazione di nuove proteine provocando talvolta modificazioni di circuiti metabolici della cellula o della struttura cellulare stessa. Un tipo particolare di recettori legati alla proteina G sono gli auto recettori, ovvero recettori metabotropici capaci di legare il neurotrasmettitore rilasciato dal neurone a cui appartengono e che sono presenti sulla membrana presinaptica e non postsinaptica. Si ritiene che la loro principale funzione sia quella di regolare attraverso un meccanismo di feedback negativo la quantità di neurotrasmettitore liberato nella sinapsi riducendone il rilascio quando la concentrazione sinaptica diventa troppo alta. Vi sono poi due diversi meccanismi che intervengono per inattivare la molecola di neurotrasmettitore e terminare la trasmissione sinaptica di segnali : la ricaptazione e la degradazione enzimatica. Nel primo caso dopo il rilascio i neurotrasmettitori sono ricaptati dai bottoni terminali, depositati nuovamente nelle vescicole dell’apparato del Golgi e liberati nella sinapsi all’arrivo di un PA. Nel secondo caso, più raro, alcuni neurotrasmettitori sono degradati dagli enzimi, proteine che stimolano o inibiscono le reazioni biochimiche senza essere influenzate. Ad esempio l’acetilcolina, uno dei pochi neurotrasmettitori per il quale la degradazione enzimatica rappresenta il principale meccanismo di inattivazione, è idrolizzata (idrolìsi = reazione chimica in cui le molecole vengono scisse in due o più parti per effetto dell'acqua) dall’enzima acetilcolinesterasi. Per quanto riguarda il riciclaggio della membrana vescicolare si osserva che quando la vescicola si fonde con la membrana presinaptica e riversa il suo contenuto nella fessura sinaptica il bottone terminale si ingrossa sempre di più. Tale crescita è limitata dal fatto che pezzi di membrana presinaptica si staccano e tornano nel citoplasma. Questi pezzi possono formare nei bottoni nuove vescicole che vengono riempite da uno dei neurotrasmettitori non peptidici presenti nel citoplasma. Questa funzione viene svolta dalle cisterne che si trovano nel corpo cellulare. Altri pezzi della membrana sono trasportati dal citoplasma dal bottone al corpo cellulare con un meccanismo di trasporto assonico retrogrado. Nel corpo cellulare possono nuovamente essere riempiti di neurotrasmettitori dall’apparato di golgi oppure possono essere decomposti o riciclati. I neurotrasmettitori che sono rilasciati nelle sinapsi o i prodotti della loro interruzione sono riassorbiti dai bottoni terminali e riciclati indipendentemente dal meccanismo di disattivazione. Anche le vescicole sono riciclate dalla membrana presinaptica. Sempre per quanto riguarda le sinapsi non tutte sono chimiche ma la trasmissione in alcune sinapsi chiamate giunzioni comunicanti o Gap junction è elettrica. Le sinapsi elettriche hanno fessure molto strette percorse da canali chiamati connessioni attraverso cui può scorrere la corrente elettrica. In questo modo il citoplasma è continuo e permette ai segnali elettrici e alle piccole molecole di passare da un neurone all’altro. La trasmissione attraverso queste giunzioni è rapida e sempre eccitatoria. Questo tipo di sinapsi è spesso impiegato nella mediazione di risposte rapide di organismi inferiori, sono quindi rare nel sistema nervoso del mammifero. Infine non tutti i neuroni sono inattivi quando non sono eccitati : i motoneuroni rimangono inattivi quando non sono eccitati ma la maggior parte dei neuroni del sistema nervoso centrale è quasi sempre in attività : alcuni scaricano continuamente a intervalli regolari, altri scaricano a raffiche separate a intervalli regolari, altri ancora scaricano frequentemente ma ad intervalli irregolari. Nei circuiti più complessi del sistema nervoso centrale come quelli dei mammiferi non è facile spiegare la fonte di questa attività neuronale. Alcune ricerche effettuate su sistemi più semplici come quelli degli invertebrati suggeriscono che molti neuroni possono scaricare senza bisogno di stimolo, il fatto che nel SNC ci siano molti neuroni continuamente attivi spiega perché vi sia una forte prevalenza di sinapsi inibitorie. I neuroni attivi spontaneamente hanno un vantaggio rispetto agli altri perché possono trasmettere l’informazione in due modi : aumentando la frequenza di scarica e diminuendola. Il sistema nervoso svolge le sue funzioni regolarmente in base al modo in cui i segnali si trasmettono al suo interno. 29 Ci sono 4 classi di neurotrasmettitori a basso peso molecolare: aminoacidi, monoamine, gas solubili e acetilcolina. C’è poi una classe di neurotrasmettitori ad alto peso molecolare i neuro peptidi. La maggioranza dei neurotrasmettitori produce o eccitazione o inibizione mai entrambi i fenomeni; tuttavia alcuni neurotrasmettitori producono eccitazione quando si legano a un sottotipo recettoriale e inibizione quando si legano con un altro sottotipo. I neurotrasmettitori usati nella maggioranza delle sinapsi dirette del SNC sono gli aminoacidi, ovvero le molecole che costituiscono le proteine. I più importanti sono : il glutammato, l’aspartato, la glicina e l’acido gamma-amino-butirrico o GABA. I primi tre sono presenti nelle proteine alimentari mentre il GABA è sintetizzato a partire dal glutammato. Quest’ultimo è il neurotrasmettitore eccitatorio più comune nel SNC dei mammiferi, mentre il GABA è il neurotrasmettitore inibitorio prevalente nel SNC. Le monoamine sono neurotrasmettitori a basso peso molecolare sintetizzate a partire da un unico aminoacido ( da qui il nome monoamine). Sono leggermente più grandi degli aminoacidi e i loro effetti tendono ad essere più lenti e diffusi. Le monoamine sono presenti in neuroni che si trovano in prevalenza nel tronco encefalico. Questi neuroni hanno spesso assoni a filo di perle lunghi e ramificati da cui le monoamine sono rilasciate in modo diffuso nel liquido extracellulare. Sono noti 4 tipi di monoamine: dopamina, noradrenalina (norepinefrina), adrenalina (epinefrina) e serotonina. In base alla loro struttura le monoamine sono suddivise in due gruppi : catecolamine e indolamine. Le prime sono dopamina, adrenalina e noradrenalina, tutte sintetizzate a partire dall’aminoacido tirosina; la tirosina viene convertita in L-Dopa che è a sua volta trasformata in dopamina. I neuroni che liberano norepinefrina, chiamati noradrenergici, contengono un enzima che converte la dopamina in noradrenalina, mentre i neuroni che rilasciano epinefrina, chiamati adrenergici, contengono un enzima specifico che converte la noradrenalina in adrenalina. La serotonina è sintetizzata invece dall’aminoacido triptofano ed è classificata tra le indolamine. Un’altra classe di neurotrasmettitori a baso peso molecolare sono i gas solubili che comprendono anche l’ossido nitrico e il monossido di carbonio. I gas solubili non agiscono come gli altri neurotrasmettitori : sono prodotti nel citoplasma neuronale e poiché sono altamente solubili nel lipidi diffondono immediatamente attraverso la membrana plasmatica nel liquido extracellulare e quindi nelle cellule adiacenti. Una volta raggiunte le altre cellule i gas solubili stimolano la produzione di un secondo messaggero e poi sono disattivati in pochi secondi e convertiti in altre molecole. Poiché hanno breve durata sono difficili da studiare, ma è stato comunque dimostrato il loro coinvolgimento nella trasmissione retrograda : su alcune sinapsi infatti trasmettono segnali di feedback dal neurone postsinaptico a quello presinaptico. L’acetilcolina è un neurotrasmettitore a basso peso molecolare che fa classe a se ed è formata aggiungendo un gruppo acetilico ad una molecola di colina. E’ il neurotrasmettitore della placca neuromuscolare, della maggior parte delle sinapsi del SNA, e di molte sinapsi in varie parti del SNC. E’ degradata nella fessura sinaptica dall’ enzima acetilcolinesterasi. I neuroni che rilasciano acetilcolina sono detti colinergici. I peptidi che svolgono l’azione di neurotrasmettitori sono detti neuro peptidi. Ne sono stati identificati circa 100 fra cui i più noti sono le endorfine, appartenenti alla classe degli oppiacei endogeni (sostanze chimiche simili all’oppio prodotte all’interno dell’organismo). Tale esistenza è stata suggerita prima dal fatto che gli oppiacei esogeni (morfina, oppio, eroina) si legano a recettori presenti nel cervello, e poi confermata dalla scoperta di parecchie varietà di endorfine e di numerosi sottotipi recettoriali in grado di riconoscerle. Le endorfine attivano i sistemi neurali preposti al controllo del dolore (sistemi analgesici) e implicati nell’esperienza del piacere. Lo studio di farmaci che interferiscono nelle trasmissioni sinaitiche ha ampliato la comprensione delle basi neuronali dei processi psicologici e ha permesso di sviluppare efficaci trattamenti terapeutici per una varietà di disturbi psicologici. Fondamentalmente i farmaci possono avere due effetti sulla trasmissione sinaptica: o la facilitano o la inibiscono. I primi sono detti agonisti del neurotrasmettitore in quanto per esempio si legano ai recettori postsinaptici attivandoli, i secondi antagonisti del neurotrasmettitore, o anche bloccanti recettoriali in quanto si legano ai recettori postsinaptici senza attivarli ostacolando così l’accesso del neurotrasmettitore naturale al suo recettore. 30 Tra i farmaci psicoattivi che hanno effetti psicologici ne possiamo citare due agonisti, cocaina e benzodiazepine, e tre antagonisti, atropina, curaro e botox. La cocaina è un potente agonista delle catecolamine e produce una notevole dipendenza fisica in chi l’assume, oltre ad effetti psicologici come euforia, insonnia e perdita di appetito. Aumenta l’attività sia della dopamina che della noradrenalina bloccando la ricaptazione di questi neurotrasmettitori dalla fessura sinaptica al bottone terminale. Pertanto quando ci sono alti livelli di cocaina nel cervello le molecole di dopamina e noradrenalina continuano ad attivare i recettori postsinaptici perché il principale meccanismo di inattivazione non funziona. Il clordiazepossido (Librium) e il diazepam (Valium) sono farmaci noti come benzodiazepine. Hanno proprietà ansiolitiche, antiepilettiche e sedative (induzione del sonno). Esercitano i loro effetti ansiolitici agendo da agonisti per il GABA : in presenza di benzodiazepine le molecole di GABA che si legano al recettore, però non nello stesso sito delle molecole di GABA ma in una zona diversa, sono più efficaci nel causare l’ apertura dei canali ionici per il cloro Questo aumenta la corrente di ioni cloro verso l’interno della cellula determinando una più intensa iperpolarizzazione del neurone e favorendo gli effetti inibitori di questo neurotrasmettitore. L’ atropina rappresenta il principio attivo della belladonna, una pianta il cui estratto veniva usato dai greci per curare disturbi gastrici o apparire più attraenti. Si tratta di un bloccante recettoriale che svolge un’azione antagonista legandosi ai recettori colinergici di tipo muscarinico e bloccando così l’azione dell’acetilcolina. Dosi elevate di atropina determinano gravi deficit di memoria e questo è stato il primo indizio del fatto che i sistemi colinergici svolgono una importante funzione nella memoria. Il curaro è anch’esso un bloccante recettoriale a livello delle sinapsi colinergiche come l’atropina. Agisce però sui recettori colinergici nicotinici; legandosi a quest’ultimi il curaro blocca la trasmissione neuronale in corrispondenza della placca neuromuscolare producendo paralisi generalizzata e morte per asfissia (paralisi dei muscoli respiratori). A volte piccole dosi di curaro vengono usate negli interventi chirurgici per evitare che i muscoli del paziente siano contratti durante l’incisione chirurgica. Quando si usa il curaro il paziente deve essere mantenuto in vita con un respiratore automatico. Il botox ( tossina botulinica) è una tossina che agisce sul sistema nervoso ed è rilasciata da un batterio che spesso si trova nel cibo avariato. E’ anch’esso un antagonista nicotinico : blocca il rilascio di acetilcolina nelle giunzioni muscolari e agisce come veleno mortale. Tuttavia in piccole dosi trova impiego nella cosmetica (riduzione delle rughe) e in medicina (attenuazione dei tremori). Recettori muscarinici e nicotinici : Le denominazioni dei tipi di recettore derivano da due sostanze la muscarina (un veleno derivante da funghi velenosi) e la nicotina ognuna delle quali a differenza dell'acetilcolina che li attiva entrambi attiva selettivamente un solo tipo di recettore ovvero quello al quale da il nome senza avere effetti sull'altro. Linguaggio Il corpo umano, sia morfologicamente che funzionalmente, è basato sul principio di duplicazione bilaterale, nel senso che ad eccezione di pochi organi la maggior parte di essi sono doppi, uno a destra e uno a sinistra, e anche il cervello riflette questo principio generale di strutturazione e funzionamento. Il cervello umano presenta infatti la cosiddetta lateralizzazione funzionale, ciò significa che gli emisferi cerebrali sono simili morfologicamente ma non lo sono funzionalmente. Gli studi sulla lateralizzazione funzionale hanno evidenziato che la funzione cognitiva più lateralizzata è il linguaggio. Gli ambiti di studio che hanno permesso di approfondire maggiormente il tema della lateralizzazione funzionale sono gli studi sul linguaggio, sui pazienti split-brain ossia i pazienti sottoposti a commessurotomia. La scoperta e lo studio della lateralizzazione funzionale è avvenuta nella prima metà dell’800 ed è stata effettuata da un medico Marc Dax il quale aveva studiato pazienti cerebrolesi che presentavano problemi di linguaggio evidenziando che nessuno di loro presentava danni esclusivamente nell’emisfero destro. Negli anni successivi infatti vi è stato un riscontro frequente di danni corticali all’emisfero sinistro associati ad afasia che è un deficit di comprensione o di produzione del linguaggio o di entrambi e che è 31 imputabile a danni della corteccia frontale inferiore dell’emisfero sinistro detta area di Broca, ma anche ad aprassia, cioè la difficoltà a svolgere determinati movimenti quando ne viene richiesta l’esecuzione anche se non mostrano la stessa difficoltà quando li eseguono spontaneamente. Le prove che l’emisfero sinistro svolgesse un ruolo cruciale sia nel linguaggio che nel movimento volontario portò al concetto di dominanza cerebrale secondo il quale un emisfero di solito quello sinistro assume un ruolo dominante nel controllo di tutti processi comportamentali e cognitivi complessi. La dominanza manuale cioè il fatto di essere destrimani o mancini influisce sulla probabilità che una lesione unilaterale produca afasia. Questo concetto ha portato all’abitudine di riferirsi all’emisfero sinistro come all’emisfero dominante e al destro come all’emisfero minore. Due test sono stati utilizzati come prove di dominanza cerebrale : il test dell’amital sodico e il test dell’ascolto dicotico. Il test dell’amital sodico, o test di Wada, viene utilizzato spesso per determinare la dominanza linguistica nei pazienti che devono subire un intervento di neurochirurgia al fine di avere dati che consentano di evitare di danneggiare le aree della corteccia che sono ritenute responsabili del linguaggio. Il test consiste in una iniezione di una piccola dose di amital sodico che è un barbiturico in una delle due arterie carotidee del collo per anestetizzare per qualche minuto l’emisfero ipsilaterale consentendo cosi la valutazione delle capacità linguistiche dell’altro emisfero. Si chiede infatti al paziente di recitare a voce alta alcune serie ben apprese, alfabeto - giorni della settimana – ecc , oppure indicare il nome di alcuni oggetti comuni. Dopodiché il test viene ripetuto per il lato opposto. In genere quando viene anestetizzato l’emisfero dominante il paziente rimane muto per qualche minuto e quando gli effetti dell’anestesia scompaiono si manifestano errori di ordine nella serie e di denominazione. Quando invece ad essere anestetizzato è l’emisfero minore non si ha mutismo e gli errori sono pochi. E’ un test che permette quindi di confrontare le abilità linguistiche dei due emisferi nello stesso soggetto e si è visto che la maggior parte dei pazienti destrimani hanno l’emisfero sinistro dominante per il linguaggio, la maggior parte dei mancini e degli ambidestri senza danni emisferici hanno una dominanza emisferica sinistra per il linguaggio e danni precoci all’emisfero sinistro riducono. Il test dell’ascolto dicotico invece non è invasivo e per questo motivo può essere somministrato anche a soggetti sani. Nella versione standard di questo test vengono presentate tre coppie di numeri, simultaneamente a ciascun orecchio pronunciati a voce alta per mezzo di cuffie. Per cui ad un soggetto che potrebbe quindi sentire ad un orecchio i numeri 2.4.8 e contemporaneamente all’altro orecchio 1,6,9 viene chiesto di ripetere i numeri uditi. Kimura ha osservato che la maggior parte delle persone riesce a ripetere una maggiore percentuale di numeri ascoltati con l’orecchio destro rispetto a quelli ascoltati con il sinistro, che indica una dominanza dell’emisfero sinistro nel linguaggio. Secondo l’autrice inoltre le informazioni acustiche di ogni orecchio raggiungono tutti e due gli emisferi ma le connessioni contro laterali sono più forti di quelle ipsilaterali e prevalgono nel momento in cui due messaggi simultanei arrivano insieme ai centri corticali uditivi. Utilizzando per questo test una versione melodica si è visto che lì orecchio sinistro ha una superiorità per il riconoscimento di stimoli musicali; infatti persone che avevano lesioni del lobo temporale destro avevano una più frequente alterazione della discriminazione musicale essendo il lobo contro laterale l’orecchio che presentava dominanza. Vi sono altri test per osservare la lateralizzazione del linguaggio in soggetti normali, fra cui il test che consiste nel porre a confronto le abilità del soggetto, nell’identificare delle parole presentate nel campo visivo destro o nel campo visivo sinistro. Al soggetto viene chiesto di fissare un punto al centro di uno schermo su uno dei cui lati comparirà una parola per un intervallo di tempo inferiore a 0.1 secondi, che è il tempo sufficiente affinché i soggetti riescano a riconoscere la parola ma non abbastanza lungo per permettere l’inizio dei movimenti oculari, che avrebbero confuso l’interpretazione dei risultati. Tale limite metodologico viene superato attraverso una lente, detta lente Z, che limita l’input visivo di un paziente split brain a un emisfero durante l’osservazione di materiale visivo complesso. E’ una lente a contatto opaca su un lato, che permette l’entrata dell’input visivo ad un solo emisfero indipendentemente dal movimento oculare. Zaidel, l’ideatore, ha impiegato tale lente per confrontare appunto le capacità dei due emisferi di pazienti split brain di svolgere diversi compiti non esclusivamente visivi (ad esempio per esaminare l’abilità 32 dell’emisfero destro di comprendere dei comandi orali, come metti il quadrato verde sotto il cerchio rosso, veniva impartita l’istruzione e quindi valutata la capacità dell’emisfero destro di comprendere il comando consentendo solo ad esso di osservare i gettoni colorati mentre veniva svolto il test). Le parole vengono presentate verticalmente per annullare la tendenza ad esplorare l’immagine da sinistra verso destra perché in questo modo si avvantaggerebbe la decodifica degli stimoli presentati nell’emicampo visivo destro. Con questo tipo di test è stata osservata una tendenza a identificare più velocemente le parole presentate nel campo visivo destro il cui vantaggio per stimoli verbali lateralizzati dipende dal fatto che l’informazione visiva viene trasmessa più direttamente all’emisfero sinistro che è quello dominante per il linguaggio. Il campo visivo destro non evidenzia vantaggi nell’identificare invece materiale non verbale come immagini. Con questo test sono state analizzate le asimmetrie motorie che accompagnano il linguaggio parlato. La lateralizzazione della gestualità di solito accompagna le attività orali verbali e non le attività orali non verbali come canticchiare ed è stato osservato che soggetti destrimani tendono a fare movimenti più ampi con il lato destro della bocca. Ciò indica che l’emisfero sinistro controlla tutti i movimenti motori complessi di cui il linguaggio è soltanto un esempio. Di recente la lateralizzazione funzionale è stata osservata con l’uso di tecniche di visualizzazione funzionale del cervello o brain imaging attraverso il quale l’attività del cervello in un soggetto viene controllata con la PET o la RMF quando questi è impegnato in qualche compito; si è visto che nei compiti linguistici vi è un aumento dell’attività dell’emisfero sinistro piuttosto che del destro. Sono state inoltre osservate le differenze di genere nella lateralizzazione funzionale, e tali studi sono stati effettuati ad opera di Mc Glone il quale ha mostrato che il cervello è più lateralizzato nei maschi che nelle femmine. Questa ipotesi si basa su due dati : le lesioni unilaterali a sinistra producono danni al linguaggio più frequentemente nei maschi che nelle femmine, e che la probabilità che una lesione unilaterale produca afasia è 3 volte superiore nei maschi che nelle femmine. Tale differenza porta a d un diverso grado di lateralizzazione fra maschi e femmine che giustificherebbe la tendenza delle donne a dare migliori prestazioni in compiti verbali mentre i maschi hanno migliori prestazioni in compiti visuo spaziali. Ricerche successive non hanno però portato conferma alle ipotesi di Mc Glone perché i sono osservati casi in cui lesioni dell’emisfero sinistro determinavano deficit nei compiti di tipo verbale sia negli uomini che nelle donne e che l’incidenza di afasia è superiore negli uomini ma di poco e non maggior di 3 volte. Un avanzamento negli studi della lateralizzazione emisferi si è avuto con lo studio di pazienti spli-brain cioè sottoposti a commessurotomia. La commessurotomia consiste in una resezione della commessura anteriore, di quella ippocampale e del corpo calloso, struttura intermedia fra i due emisferi che conduce le informazioni apprese da un emisfero all’altro, che porta gli emisferi a funzionare indipendentemente (punti base delle ricerche di Myers e Sperry). La commessurotomia venne usata come terapia per pazienti epilettici con convulsioni gravi, che vennero detti appunto pazienti spit-brain in quanto sembravano possedere due cervelli, in quanto si pensava che la gravità delle convulsioni poteva essere ridotta se le scariche potevano esser circoscritte all’emisfero di origine. I benefici terapeutici si sono mostrati maggiori di quanto si potesse prevedere. Tali pazienti venivano poi posti ad una valutazione neuropsicologica per osservare il funzionamento successivo all’intervento. Tale valutazione neuropsicologica evidenziò la lateralizzazione funzionale, ossia l’emisfero destro è specializzato per comprendere istruzioni brevi e semplici, per la ricezione di informazioni sensoriali quindi tattili, visive, uditive dall’emicampo sinistro e per il controllo di risposte motorie effettuate dalla mano sinistra, mentre l’emisfero sinistro presenta un controllo maggiore del linguaggio, della ricezione di informazioni sensoriali quindi tattili, visive, uditive dall’emicampo destro, controllo di risposte motorie effettuate dalla mano destra anche se però l’emisfero sinistro sembra controllare la ricezione di informazioni sensoriali di tipo tattile in modo più efficace rispetto al destro. Nei pazienti split brain sono stati condotti ulteriori studi per verificare l’indipendenza funzionale emisferica, come ad esempio se si fa comparire l’immagine di un cucchiaio nel campo visivo destro di un soggetto split brain l’emisfero sinistro si trova di fronte a due possibilità: essendo specializzato per il linguaggio può portare il paziente a riferire verbalmente circa l’immagine vista 33 oppure il paziente può scegliere toccando fra una serie di oggetti nascosti da un pannello il cucchiaio con la mano destra. Analogamente se il cucchiaio viene presentato all’emisfero sinistro ponendolo nella mano destra del paziente questi può riferire verbalmente circa l’oggetto oppure prendendo con la mano destra un altro cucchiaio fra gli oggetti posti dietro al pannello Diversamente se viene richiesta all’emisfero destro di riconoscere verbalmente un oggetto presentato al campo visivo sinistro l’emisfero destro non potrà svolgere il compito. Pertanto un paziente che ha un oggetto nella mano sinistra è consapevole di avere qualcosa in mano ma è incapace di dire di cosa si tratta. L’emisfero sinistro può parlare, l’emisfero destro vede lo stimolo. Oltre che riguardo le esperienze percettive è stato effettuato un test per dimostrare che nei pazienti split brain anche l’esperienza emotiva può essere circoscritta a un emisfero soltanto. Il test consiste nel sottoporre un soggetto ad una visione molto rapida tachistoscopica di un nudo umano nel campo visivo sinistro del paziente stesso chiedendogli di descrivere l’oggetto visto. L’emisfero sinistro portava il paziente a dire di non aver visto nulla poiché non aveva registrato nulla, mentre l’emisfero destro che invece aveva registrato l’informazione portava il paziente a sorridere divertito non riuscendo però a spiegare perché. Sebbene in un paziente split brain le vie neurali dirette di comunicazione non ci siano più talvolta gli emisferi sembrano comunicare attraverso un processo detto cross cuing (suggerimenti crociati). Un esempio di cross cruing si è verificato in una serie di esperimenti per indagare la capacità dell’emisfero sinistro di rispondere a colori presentati nel campo visivo sinistro. Per fare tale verifica viene presentato uno stimolo rosso o verde nel campo visivo sinistro ed il soggetto doveva riferirne il colore. Inizialmente il soggetto svolgeva il compito in modo casuale più o meno al 50%, dopo un certo intervallo di tempo la prestazione migliorava suggerendo che l’informazione relativa al colore veniva trasferita in qualche modo attraverso dei percorsi neuronali dall’emisfero destro al sinistro. Questi risultati si rivelarono però legati ad una particolare strategia che il paziente utilizzava, cioè se la luce presentata era rossa e il paziente diceva rosso confermava la risposta, se invece la luce era rossa ed egli diceva verde il paziente stesso aggrottava le ciglia e diceva di voler correggere la risposta. Ciò avveniva perché l’emisfero destro che si era accorto che il colore in realtà era rosso ma che aveva sentito dire verde sapendo che la risposta era sbagliata cominciava a mettere in atto una serie di risposte motorie tali da suggerire all’emisfero sinistro di correggere la risposta. Con riferimento ai pazienti spli brain si ritiene che se i due emisferi sono in grado di operare indipendentemente dovrebbero anche essere capaci di apprendere due cose diverse alo stesso tempo. Un esempio di apprendimento simultaneo nei due emisferi riguarda il fenomeno del completamento visivo. I soggetti sono spesso inconsapevoli di essere affetti da scotoma perché il cervello ha la capacità di completarli usando l’informazione che proviene dalle zone limitrofe del campo visivo. Alcuni studi che utilizzavano il test delle figure chimeriche (Chimera figura mitica formata da parti di diversi animali) hanno dimostrato che ciascun emisfero di un paziente split brain è in grado di svolgere indipendentemente il completamento visivo. Per ciò che riguarda le differenze fra l’emisfero sinistro e destro, bisogna dire innanzitutto che per molte funzioni non vi sono differenze e che quando ci sono non sono assolute ma implicano solo una maggiore capacità funzionale dell’uno rispetto all’altro. In ogni caso si può avere una superiorità funzionale dell’emisfero destro nella cognizione spaziale (neglect contro laterale e aprassia costruttiva tendono ad essere associati a lesioni dell’emisfero destro), nelle emozioni, le espressioni del volto e gli stati d’animo che trasmettono, ed in certi esperimenti si è visto che il contenuto emozionale di alcune immagini presentate all’emisfero destro si rifletteva sia nell’eloquio che nel comportamento non verbale di alcuni pazienti split brain indicando così che l’informazione emozionale veniva in qualche modo trasferita dall’emisfero destro al sinistro, l’emisfero destro è inoltre superiore nella cognizione musicale, nella percezione delle melodie. Entrambi gli emisferi hanno la capacità di ricordare, ma mentre il sinistro predomina nella memoria del materiale verbale, il destro ha un ruolo più importante nella memoria del materiale non verbale. Inoltre il sinistro cerca di dare un senso profondo ai propri ricordi, di interpretarli, mentre il destro si limita all’aspetto percettivo dello stimolo. E’ comunque importante sottolineare che queste differenze non sono assolute ma per esempio mentre l’emisfero sinistro è dominante nei giudizi spaziali 34 categorici come sopra e sotto, il destro lo è per i giudizi spaziali coordinati come distanze e angoli. Sono state sviluppate diverse teorie per spiegare l’asimmetria cerebrale, e ciascuna di esse si basa sul vantaggio rappresentato dal fatto che le aree cerebrali che svolgono funzioni simili sono localizzate nello stesso emisfero e sulla differenza funzionale fra i due emisferi. In particolare se ne possono citare tre : la teoria analitico-sintetica di Levy e Sperry che afferma che l’asimmetria cerebrale si basa sull’ esistenza di due modi di pensare, ossia analitico e sintetico, basati su circuiti neurali diversi che nell’evoluzione dell’essere umano si sono collocati all’interno rispettivamente dell’emisfero sinistro e destro. Secondo tale teoria l’emisfero sinistro opera in modo logico, analitico, analizzando informazioni in modo sequenziale come un computer focalizzandosi sui dettagli rilevanti, mentre l’emisfero destro è interessato alla configurazione complessiva dello stimolo. Poiché però è difficile stabilire il grado di elaborazione analitica o sintetica di un determinato compito è difficile sottoporre tale teoria a verifica empirica. La teoria motoria di Kimura, basata su test dell’ascolto dicotico, si basa invece sull’assunto che l’emisfero sinistro non è specializzato nella produzione del linguaggio ma nel controllo motorio fine che include quindi anche movimenti orali volontari. La comunicazione verbale si è poi evoluta da una prevalenza gestuale ad una prevalenza vocale. A sostegno di tale teoria vi è il fatto che le lesioni che causano afasia producono anche disturbi motori : ad esempio lesioni frontali causano disturbi nella capacità di produrr suoni linguistici singoli ma anche movimenti facciali, oppure soggetti con disturbi della lettura hanno anche difficoltà ad eseguire test nel quale si richiede di tamburellare con le dita (finger-tapping test). Infine abbiamo la teoria linguistica secondo cui il ruolo primario dell’emisfero sinistro è legato al linguaggio a differenza delle altre due teorie che invece considerano il linguaggio una specializzazione secondaria. Tale teoria è basata sullo studio di soggetti sordi che usano il linguaggio dei segni americano e soffrono di un danno cerebrale unilaterale attraverso i quali si è visto che il fatto che l’emisfero sinistro possa bloccare l’uso dei gesti linguistici ma non di quelli non linguistici suggerisce che la specializzazione dell’emisfero sinistro sia il linguaggio. Dal punto di vista neuro anatomico ci sono delle asimmetrie che portano ad affermare che l’emisfero sinistro sia strutturalmente specializzato per attività linguistiche; infatti nell’emisfero sinistro sono più estesi il planum temporale, che si trova nel lobo temporale posteriormente al solco laterale e a cui spesso si fa riferimento con il termine area di Wernicke la cui funzione si ritiene sia legata alla comprensione del linguaggio, il giro di Heschl (Escl) che si trova anteriormente al planum temporale e che costituisce la corteccia uditiva primaria, e l’opercolo frontale che si trova di fronte all’area anteriore della corteccia motoria primaria e che rappresenta l’area di Broca. Per quanto riguarda la localizzazione corticale del linguaggio si parla di localizzazione di centri del linguaggio intraemisferica e in questo ambito sono state individuate due aree : l’area di Broca localizzata nella corteccia prefrontale inferiore e che è considerata il centro della produzione del linguaggio come risultato dell’attivazione di programmi articolatori e di centri di controllo dei muscoli facciali e della cavità oro-faringea. Invece successivamente gi studi di Wernicke e di Geschwind hanno portato ad individuare un’altra area del linguaggio posta nel lobo temporale sinistro posteriormente alla corteccia uditiva primaria che venne chiamata area di Wernicke e alla quale si attribuì il ruolo della comprensione linguistica. L’osservazione di soggetti con danni a queste aree hanno confermato il ruolo di tali aree come centri del linguaggio. Infatti danni all’area di Broca producono afasia espressiva (afasia di Broca) caratterizzata da una comprensione normale sia del linguaggio parlato che scritto e da un’emissione che mantiene il significato ma che è lenta laboriosa frammentata e disarticolata. Una lesione all’area di Wernicke producono invece un’afasia ricettiva (afasia di Wernicke) caratterizzata da un deficit nella comprensione del linguaggio sia scritto che parlato e da una produzione priva di significato (detta insalata di parole) che conserva ritmo e intonazione dell’eloquio normale. Un danno al fascicolo arcuato sinistro che è un fascio di fibre che connette l’area di Broca e di Wernicke produce un altro tipo di afasia detta afasia di conduzione in cui la comprensione e produzione spontanea del linguaggio sono intatte ma c’è un deficit nel momento in cui si chiede al paziente di ripetere parole che gli vengono dette. Infine Dejerine individuò un’altra sede corticale del linguaggio attraverso esami post mortem che è il giro 35 angolare sinistro, un’area di confine fra corteccia parietale e temporale sinistra, implicata nella produzione e comprensione del linguaggio scritto. Lesioni a quest’area determinano alessia (deficit di lettura) e agrafia (deficit di scrittura) pur non essendoci deficit visivi e motori. Il modello che identifica queste aree corticali ad eccezione dell’area di Broca che era stata appunto identificata da Broca è chiamato modello di Wernicke-Gershwind che rappresenta la teoria principale e più influente della localizzazione del linguaggio. Tale modello individua sette elementi anatomo-funzionali come base corticale del linguaggio, ossia corteccia visiva primaria, giro angolare, corteccia uditiva primaria, area di Wernicke, fascicolo arcuato, corteccia motoria primaria e area di Broca, tutti collocati nell’emisfero sinistro. Secondo tale modello il processo del linguaggio avviene nel seguente modo : quando si ascolta una conversazione i segnali uditivi emessi dall’altra persona sono inviati alla corteccia uditiva primaria e convogliati nell’area di Wernicke dove vengono interpretati. Se deve essere data una risposta l’area di Wernicke genera la rappresentazione neurale del pensiero che tramite il fascicolo arcuato viene trasmessa all’area di Broca dove il segnale in ingresso attiva il programma di articolazione appropriato che a sua volta attiva i neuroni appropriati della corteccia motoria primaria e infine i muscoli articolatori. Quando invece si legge ad alta voce il segnale ricevuto dalla corteccia visiva primaria viene trasmesso al giro angolare sinistro che traduce la forma visiva delle parole nel codice uditivo e lo trasmette all’area di Werniche per la comprensione. A questo punto l’area di Wernicke genera la risposta appropriata e la invia tramite il fascicolo arcuato all’area di Broca e da qui alla corteccia motoria per produrre i suoni linguistici appropriati. Tale modello è quindi un modello seriale che implica una serie di risposte secondo una sequenza lineare attraverso diversi moduli di elaborazione. Gli altri modelli paralleli prevedono invece elaborazioni di informazioni su più canali contemporanei. Il modello di Wernicke-Gershwind è stato più volte criticato per il suo modo troppo semplice di trattare processi cognitivi superiori, cioè per mezzo di centri localizzati a livello della neocorteccia e connessi da relazioni lineari. Va detto che queste teorie sia quella di Broca che di Wernicke-Gershwind sono state confermate osservando le conseguenze di danni e lesioni emisferiche in pazienti cerebrolesi riscontrando le afasie. Bisogna però sottolineare che l’afasia di Broca e di Wernicke non esistono in forma pura, infatti quasi tutti i pazienti afasici presentano un insieme di sintomi sia a livello di espressione del linguaggio che a livello di ricezione, e quindi termini come afasia di Broca e afasia di Wernicke sono usati per indicare disturbi del linguaggio che sono principalmente ma non esclusivamente espressivi o recettivi. Questo rivelerebbe anche il fatto che tali sintomi non dipendono esclusivamente dall’area di Broca o di Wernicke. Sono stati osservati poi casi particolari che influiscono sulle competenze linguistiche, come rimozione chirurgica di tessuti corticali, danno cerebrale accidentale o conseguente a una patologia, TAC e RM dei pazienti afasici ed è stato osservato cosa succede in caso di stimolazione corticale dei centri indicati come sedi corticali del linguaggio. Nel caso di rimozione del tessuto corticale si è osservato che la rimozione dell’area di Broca porta deficit temporanei sull’eloquio che però sembrano essere dovuti più ad edema post operatorio che non alla rimozione stessa. Anche nel caso di rimozione dell’area di Wernicke ci sono soltanto dei deficit temporanei di ricezione. Così anche la rimozione chirurgica del tessuto corticale del giro angolare o del fascicolo arcuato non da luogo a nessun deficit. In caso di lesioni cerebrali da incidente o malattia gli esami post mortem hanno portato ad osservare che i disturbi linguistici prevalentemente articolatori che le persone presentavano erano disturbi articolatori temporanei dovuti fondamentalmente a lesioni piccole e medie dell’area di Broca, mentre lesioni piccole dell’area di Wernicke non producono alcun deficit, e lesioni più estese portano a forme di afasia però non pure. Per quanto riguarda i risultati della TAC o della RM ciò che si è evidenziato è che pazienti che presentavano lesioni sottocorticali specialmente nell’emisfero sinistro avevano disturbi di produzione se la lesione era nella parte anteriore, disturbi di comprensione se la lesione era nella parte posteriore e afasia globale, quindi deficit di produzione e comprensione, se le lesioni erano sia anteriori che posteriori coinvolgendo anche porzioni importanti di sostanza bianca sottocorticale. Infine la stimolazione corticale veniva effettuata per definire una mappa dei centri corticali impiegati nel linguaggio al fine di non danneggiarli durante le operazioni 36 chirurgiche. Tale mappa veniva costruita registrando le risposte coscienti dei pazienti in anestesia locale, a stimolazioni in vari punti della corteccia. Ciò che è stato osservato è che stimolazioni della corteccia dell’emisfero sinistro determinano fondamentale disturbi o cessazione del linguaggio, mentre stimolazioni della corteccia dell’emisfero destro non ne determinano. In particolare le aree della corteccia la cui stimolazione disturba il linguaggio si estendono ben oltre le aree del modello Wernicke-Gershwind, ogni test linguistico era compromesso dalla stimolazione di siti ampiamente distribuiti, ed esistono grandi differenze tra soggetti per quanto riguarda l’organizzazione delle abilità linguistiche. Applicati al linguaggio vi sono anche studi di neuropsicologia cognitiva, che studia le basi neurali dei processi cognitivi, studi basati su determinate ipotesi; innanzitutto sull’ assunto della modularità, secondo il quale i processi cognitivi sono il risultato dell’attività combinata di sottosistemi neurali specializzati per specifiche funzioni che si chiamano moduli. Per i processi cognitivi implicati nella lettura a voce alta è stato proposto il modello del doppio accesso cioè un modello secondo cui vi sono due sistemi di accesso e due vie neurali che mediano i processi cognitivi implicati nella lettura ad alta voce e che sono l’accesso lessicale, che si basa su informazioni contenute nella memoria a lungo termine che riguardano la pronuncia di specifiche parole del vocabolario della lingua di appartenenza, e non lessicale, o fonetico, che si basa su regole generali di pronuncia che consentono di pronunciare parole non familiari o non parole, ossia insiemi di sillabe che non hanno significato. Utilizzando questo modello si è visto che pazienti neurologici con danni all’emisfero sinistro soffrono di due diverse forme di dislessia : superficiale e profonda. La dislessia superficiale è un disturbo in cui l’accesso non lessicale rimane intatto ma viene persa la capacità di pronunciare parole che nella lingua di appartenenza sono irregolari, cioè non seguono le regole comuni della pronuncia. Nella nostra lingua ci sono poche parole irregolari e quindi la dislessia superficiale non si evidenzia. Questi pazienti sono però incapaci di distinguere parole omofone, ad esempio le parole lago e l’ago che si pronunciano allo stesso modo vengono poi scritte commettendo degli errori. Nel caso della dislessia profonda il paziente ha perso la capacità di applicare le regole della pronuncia durante la lettura (accesso fonetico) ma è in grado di pronunciare parole concrete sulla base della memoria specifica di esse (accesso lessicale). Di conseguenza questa pazienti sono incapaci di leggere le non parole e hanno difficoltà a pronunciare parole poco comuni o il cui significato è astratto. In genere usano diverse strategie per leggere come considerare l’aspetto globale della parola (velo-vela), il suo significato (soldato-bersagliere) o una derivazione della parola stessa (vero-verità). Il modello del doppio accesso è un modello di elaborazione in parallelo che rappresenta una contestazione al modello seriale di Wernicke-Gershwind secondo cui le informazioni percorrono in successione un’ unica via. Sono state effettuate delle osservazioni anche per quanto riguarda la misurazione del flusso ematico corticale nel corso di attività linguistiche per stimare l’attività di varie aree corticali partendo dal presupposto che le aree corticali più attive hanno bisogno di un maggior apporto di ossigeno e sangue. Sono state utilizzate diverse tecniche : le prime, che restituivano una mappa bidimensionale, come la scintigrafia, consistevano nell’iniettare un gas inerte radioattivo nella carotide e poi veniva misurata la dispersione di questo gas nella corteccia ipsilaterale tramite scintigrafia, che serve a misurare la radioattività tramite un banco di contatori di scintillazione posti vicino al cranio. Queste misure venivano effettuate mentre il paziente era impegnato in compiti verbali e avevano già dato risultati interessanti, che sono stati successivamente confermati attraverso prove più sofisticate che utilizzano la tomografia a emissione di positroni PET che restituisce una immagine tridimensionale del flusso ematico in tutta la corteccia. Si basa sull’iniezione di acqua radioattiva che si distribuisce molto rapidamente rendendo possibile somministrare diversi test a 10 minuti di distanza l’uno dall’altro. La sostanza radioattiva viene iniettata per endovena e non attraverso la carotide distribuendosi cosi equamente in tutti e due gli emisferi che possono essere studiati contemporaneamente. Si utilizza inoltre un metodo computerizzato di sottrazione delle variazioni di flusso ematico durante attività di tipo diverso. Il flusso ematico viene studiato in soggetti sottoposti a stimoli visivi e uditivi per i quali venivano proposte 4 prove di complessità crescente. Nel caso di stimolo visivo al soggetto veniva chiesto 37 di mantenere lo sguardo fisso su una crocetta al centro di uno schermo; nella seconda prova il soggetto doveva mantenere lo sguardo su questa crocetta anche quando sullo schermo veniva presentato un nome; nella terza prova il soggetto doveva ripetere il nome continuando a tenere lo sguardo fisso sulla crocetta al centro dello schermo e nella quarta prova doveva dire un verbo appropriato al nome proiettato sullo schermo, per esempio musica-ascoltare, sempre tenendo lo sguardo fisso sulla crocetta. Le condizioni uditive erano uguali a quelle visive ad eccezione del fatto che i nomi erano presentati per via acustica. Durante la fissazione l’attività cerebrale veniva sottratta al livello di attivazione registrato durante la presentazione, l’attivazione durante l’osservazione passiva veniva sottratta a quella registrata durante la ripetizione e l’attivazione durante la verbalizzazione di parole veniva sottratta a quella rilevata durante l’attività di associazione del verbo con la parola. Quello che si è visto è che nella fase di rilevazione di nomi c’è maggiore flusso ematico e quindi maggiore attivazione della corteccia uditiva primaria, della corteccia visiva secondaria e della corteccia associativa. Durante la ripetizione a voce alta c’è un maggiore flusso ematico nella scissura centrale e laterale solo a destra, e nell’associazione verbo-nome c’è un maggiore flusso ematico della corteccia prefrontale sinistra e della corteccia mediale. Questo sembra confermare quali siano le sedi corticali del linguaggio ma non il fatto che il processo cognitivo linguistico sia in termini di produzione che di ricezione segua un modello lineare e seriale come quello proposto da Wernicke-Gershwind, ma aprì la strada a modelli di elaborazione dell’informazione su canali paralleli come poteva essere il modello del doppio accesso. La dislessia La dislessia è una difficoltà patologica di lettura che non risulta da deficit generali visivi, motori o intellettivi. Può essere di due tipi : evolutiva che si manifesta quando il bambino impara a leggere, e acquisita provocata da danni al cervello in individui già capaci di leggere. Fra le due la dislessia evolutiva ha cause meno evidenti. Nonostante molte anomalie strutturali siano state evidenziate nel cervello di pazienti che soffrono di dislessia evolutiva, come asimmetria nelle dimensioni del planum temporale e anomalie del cervelletto, vi sono tre problemi che hanno ostacolato la scoperta delle basi nervose di questo disturbo . le anomalie strutturali riscontrate non hanno un ruolo essenziale, ci sono molti tipi di dislessia evolutiva che hanno cause diverse, è difficile escludere la possibilità che anomalie cerebrali nei dislessici evolutivi siano i sintomi e non la causa. Alcuni esperti credono che i deficit sensoriali e motori siano primari e che la dislessia evolutiva ne sia la conseguenza, altri credono che tali deficit siano troppo inconsistenti per provocare difficoltà di lettura e che il deficit primario nella dislessia evolutiva sia legato al linguaggio. In ogni caso c’è una componente genetica della dislessia evolutiva, la percentuale di ereditarietà è di circa il 50%. Sebbene sia stato accertato che la dislessia evolutiva è influenzata da fattori genetici ed è associata ad anomalie della funzione cerebrale, per molto tempo la si considerava come un disturbo psicologico piuttosto che neurologico ma studi sul cervello di studenti universitari normali e dislessici di varie culture ha mostrato che anche se la dislessia può presentarsi in modi diversi nelle persone che parlano lingue diverse (ad esempio fra gli inglesi vi è una percentuale di dislessici più alta rispetto agli italiani), la patologia nervosa che sottende a questo disturbi sembra essere la stessa. Disturbi neuropsicologici Per quanto riguarda i disturbi neuropsicologici è importante ottenere più dati possibili attraverso una diagnosi accurata affinché più accurate possano essere sia le diagnosi successive sia il trattamento di quel paziente specifico. Fra i principali disturbi neuropsicologici abbiamo : EPILESSIA 38 Il sintomo principale dell’epilessia è rappresentato da crisi epilettiche spontanee ricorrenti che sono determinate da una patologia cerebrale cronica. Infatti non tutti coloro che soffrono di crisi epilettiche sono affetti da epilessia. Le crisi epilettiche più conosciute prendono il nome di convulsioni (crisi motorie) caratterizzate da tremori (clono), rigidità (ipertono), perdita dell’equilibrio e della coscienza. Molte crisi epilettiche non presentano però queste manifestazioni ma comportano sottili alterazioni del pensiero, dell’umore, o del comportamento che sono facilmente distinguibili dalle normali attività fisiologiche. Molte sono le cause delle crisi epilettiche, come virus, traumi cranici, neurotossine, tumori ma anche errori delle sinapsi inibitrici ce innescano simultaneamente l’attivazione di un gran numero di neuroni. La diagnosi di epilessia si basa per lo più sui risultati dell’elettroencefalografia nella quale le crisi epilettiche si associano a scariche EEG fasiche dette punte di notevole ampiezza spesso evidenti durante un attacco della malattia e in cui scariche isolate sono presenti nei soggetti epilettici anche negli intervalli fra attacchi. L’assenza di queste scariche epilettiche spontanee nell’EEG non sta però sempre a significare che il paziente non sia epilettico. Può darsi che lo sia ma che durante l’esame non abbia avuto scariche o che le stesse non siano state registrate dagli elettrodi. Alcuni pazienti epilettici possono manifestare alcune alterazioni psicologiche particolari, dette aure, prima di una crisi convulsiva, come ad esempio avvertire un cattivo odore, avere un pensiero particolare, un’allucinazione o un senso di costrizione toracica. Le aure epilettiche sono importanti perché la natura dell’aura fornisce importanti informazioni sulla localizzazione del focolaio epilettico e perchè le aure epilettiche tendono ad essere sempre uguali e quindi avvertono il paziente di un imminente attacco. L’epilessia diagnosticata ad un individuo può appartenere ad una di due categorie generali : epilessia parziale o generalizzata. Le crisi parziali sono crisi epilettiche che non coinvolgono l’intero cervello. I neuroni del focolaio epilettico cominciano a scaricare insieme e questa attività sincrona può rimanere confinata al focolaio epilettico fino alla fine della crisi oppure estendersi ad atre regioni cerebrali ma mai a tutto il cervello e pertanto non sono mai accompagnate da perdita totale di coscienza o di equilibrio. Ci sono due tipi principali di crisi parziali: semplici e complesse. Nelle prime prevalgono sintomi sensoriali e/o motori e a volte sono denominate crisi jacksoniane dal nome del famoso neurologo Jackson; si verificano in questo modo: man mano che le scariche si propagano attraverso le strutture sensoriali e motorie del cervello i sintomi si diffondono sistematicamente lungo le varie parti del corpo. Le crisi parziali complesse invece sono di solito limitate al lobo temporale, particolarmente suscettibile alle scariche epilettiche, e sono dette epilessia del lobo temporale. Durante questa crisi il paziente appare impegnato in comportamenti ripetitivi e compulsivi semplici detti automatismi, come allacciarsi e slacciarsi un bottone o in comportamenti più complessi che sembrano quasi normali ma di cui il paziente ricorderà poco o nulla. Circa metà dei casi di epilessia parziale sono di tipo complesso. Le crisi generalizzate invece coinvolgono l’intero cervello. Alcune crisi iniziano come scariche che si propagano gradualmente all’intero cervello, in altri casi invece la scarica sembra iniziare simultaneamente in tutto il cervello. Queste forme di epilessia generalizzata possono essere la conseguenza di patologie cerebrali diffuse o iniziare da strutture come il talamo che proiettano ad ampie zone corticali. Anche le crisi generalizzate assumono forme diverse. Possono essere crisi di grande male i cui principali sintomi sono perdita di coscienza associata a violente convulsioni tonico-cloniche, e a manifestazioni come la morsicatura della lingua, incontinenza urinaria e cianosi (colorito bluastro della cute dovuto all’eccessivo consumo di ossigeno durante la crisi). L’ipossia ovvero la riduzione di ossigeno ad un tessuto, che accompagna la crisi di grande male può essere essa stessa la causa di danni cerebrali che si sviluppano gradualmente dopo la crisi, mediati probabilmente dall’eccessivo rilascio di aminoacidi eccitatori. Vi sono poi le crisi di piccolo male che non si associano a convulsioni e il cui principale sintomo comportamentale è l’assenza cioè l’interruzione di qualsiasi attività comportamentale associata ad alterazione dello stato di coscienza, sguardo vuoto e a volte ammiccamenti palpebrali ripetuti. L’EEG del piccolo male è caratterizzato da complessi punta-onda bilaterali e simmetrici alla frequenza di 3 cicli al secondo. Il piccolo male è comune nei bambini e di solito cessa alla pubertà, ma poiché spesso sfugge alla diagnosi i bambini che ne sono affetti vengono 39 considerati dei sognatori. La terapia farmacologia può ridurre l’intensità e la frequenza delle crisi epilettiche mentre la terapia chirurgica diviene necessaria solo in quei casi in cui la crisi può essere pericolosa per il paziente. MORBO DI PARKINSON Il morbo di Parkinson è un disturbo del movimento che colpisce circa lo 0,5% degli adulti ed è più frequente nei maschi. I sintomi iniziali sono lievi, leggero aumento del tono muscolare o tremore delle dita, ma rapidamente si aggravano con il passare degli anni. I sintomi più comuni sono il tremore, più evidente a riposo che nello svolgimento di azioni volontarie o durante il sonno, la rigidità muscolare, la difficoltà ad iniziare movimenti volontari (acinesia), la lentezza dei movimenti (bradicinesia) e animia facciale. Talvolta si presenta quella che viene chiamata "festinazione", cioè il paziente tende a strascicare i piedi a terra e ad accelerare il passo, come se inseguisse il proprio baricentro, per evitare la caduta. In questo modo la camminata diventa simile ad una corsa a passo molto breve. Per il paziente con festinazione diviene difficile arrestare il cammino una volta che è arrivato a destinazione. Prima che i sintomi diventino gravi spesso compaiono dolori e una tendenza alla depressione ma in genere la demenza non fa parte del disturbo. Anche il morbo di P. come l’epilessia non ha una causa singola, fattori scatenanti possono essere alterazioni genetiche, neurotossine, traumi cranici, umori, infezioni cerebrali, disturbi vascolari, ma spesso la causa è ignota ed è assente una predisposizione familiare per la malattia. E’ associato alla degenerazione della sostanza nera i cui neuroni, che rilasciano dopamina, proiettano al nucleo striato dei gangli della base. Nei paziente affetti dal morbo di P. vi è una quasi totale assenza di dopamina nella sostanza nera e nel nucleo striato. I sintomi del morbo di P possono essere alleviati con la somministrazione di L-Dopa, il precursore chimico della dopamina, che non rappresenta però una soluzione definitiva perché con l’uso diventa sempre meno efficace. Circa 10 mutazioni genetiche sono associate al morbo di P. ma ognuna di queste mutazioni è stata individuata in famiglie diverse in ognuna delle quali ci sono membri che soffrono di una forma rarissima di morbo di P. ad esordio precoce che non sembrano essere quindi i fattori causali delle forme classiche della malattia. Sono state effettuati anche autotrapianti della midollare del surrene, anch’essa fonte di dopamina, ovvero si sostituisce il tessuto danneggiato con tessuto della midollare del surrene del medesimo paziente, e i risultati ottenuti a livello di miglioramento comportamentale o remissione dei sintomi del Parkinson sono considerati interessanti, anche se modesti, per eventuali ulteriori autotrapianti e di sviluppo del trattamento. MALATTIA DI HUNTINGTON E’ un disturbo progressivo delle funzioni motorie della mezza età e della vecchiaia per il quale non esiste cura, e a differenza del morbo del P. è rara, ha una forte base genetica ed è associata a grave demenza. All’inizio i sintomi sono rappresentati da una irrequietezza progressiva, poi con il passare del tempo essi peggiorano fino a che il paziente è dominato dall’incessante esecuzione di una varietà di movimenti involontari rapidi, complessi e a scatti che interessano tutti gli arti e che somigliano ad una danza e per questo tale malattia viene chiamata anche Corea di Huntigton, dal termine greco corea che significa appunto danza. Alla fine il deterioramento intellettivo e motorio è cosi grave che il malato è incapace di nutrirsi da solo, di controllare l’intestino e di riconoscere i propri figli. Questa malattia si trasmette da una generazione all’altra attraverso un singolo gene dominante (tutti i portatori del gene sviluppano la malattia) e la facilità di trasmissione dipende dal fatto che i primi sintomi della malattia non compaiono fino a che il genitore non abbia superato di molto il picco del suo periodo fertile cioè i 40 anni. Il gene dominante anomalo che provoca la malattia è stato identificato e descritto nel 1993 cosi come è stata individuata e descritta anche la proteina anormale prodotta dal gene di Huntigton. Non è ancora chiaro però l’effetto specifico di questa proteina detta huntigtina; tale proteina è prodotta in tutte le parti del cervello dei pazienti, ma il danno cerebrale è limitato allo striato e alla corteccia cerebrale. La probabilità di un figlio di contrarre la malattia da un genitore malato è del 50%. Gli studiosi di genetica medica hanno 40 scoperto la localizzazione cromosomica del gene della malattia di H. e messo a punto un test che permette di stabilire se i familiari dei pazienti affetti dalla malattia di H. sono o meno portatori del gene patologico. Il vantaggio di tale test è che permette ai soggetti a rischio che non hanno ereditato il gene di avere figli senza timore di trasmettere loro la malattia. SCLEROSI MULTIPLA E’ una malattia progressiva che colpisce la mielina del sistema nervoso centrale e che solitamente inizia nei primi anni della vita adulta. All’inizio vi sono piccole aree di necrosi delle guaine mieliniche ma pian piano si assiste ad una distruzione completa sia della mielina che degli assoni e al formarsi di numerose aree di tessuto cicatriziale duro (sclerosi = indurimento). La diagnosi della sclerosi multipla è difficile perché le manifestazioni della malattia dipendono dalla dimensione, dal numero e dalla sede delle lesioni sclerotiche. Sintomi comuni nei casi più avanzati della malattia sono disturbi visivi, perdita di forza, la sensazione di intorpidimento, formicolio, punture (parestesie sensoriali), i tremori e la perdita di coordinazione motoria (atassia). Studi sulla sclerosi multipla hanno dimostrato che sia fattori ambientali che genetici sono causa della malattia. Ambientali perché si è visto che l’incidenza della malattia è più alta nei soggetti che passano l’infanzia in climi freddi anche se poi si spostano in paesi con climi più caldi. Genetici perché invece si è visto che è più rara in certi gruppi etnici come zingari e asiatici anche quando vivono in ambienti dove la malattia è diffusa. La ricerca dimostra che c’è una forte predisposizione genetica alla sclerosi multipla che comporta un gran numero di geni diversi ognuno dei quali da il suo contributo. La sclerosi m. è un disturbo autoimmune, ovvero un disturbo in cui il sistema immunitario attacca una parte del corpo come se si trattasse di un elemento estraneo. La mielina è il centro della reazione immune anomala. Un modello animale di sclerosi multipla, detto encefalite autoimmune sperimentale, può essere sviluppato negli animali da laboratorio mediante l’iniezione di un preparato che stimola la reazione immunitaria dell’organismo. Ci sono molti farmaci che ritardano la progressione della sclerosi multipla o bloccano qualcuno dei sintomi ma non esiste una cura; anche la riemielinizzazione, applicata agli animali e ai primi stadi della malattia nell’essere umano, alla fine fallisce. MORBO DI ALZHEIMER Il morbo di A. è una patologia terminale ed è la causa più frequente di demenza. In alcuni casi la malattia inizia verso i 40 anni, ma la probabilità che si manifesti aumenta con il progredire dell’età. Ne sono affetti circa il 10% sopra i 65 anni e tale percentuale sale fino al 35% oltre gli 85 anni. I primi sintomi sono rappresentati da un declino selettivo della memoria, gli stadi intermedi sono caratterizzati da confusione, irritabilità, ansia e alterazioni del linguaggio. Negli stadi avanzati il soggetto ha difficoltà anche a svolgere compiti semplici come deglutire o controllare la vescica. La diagnosi definitiva viene effettuata con l’esame autoptico. Le caratteristiche neuropatologiche principali della malattia sono i fasci neurofibrillari, strutture filamentose proteiche presenti nel citoplasma del neurone, e le placche di amiloide, che sono accumuli di tessuto cicatriziale composto da neuroni degenerati immersi in una matrice proteica detta amiloide che è presente nei cervelli normali in piccolissime quantità. Inoltre si osserva anche una sostanziale morte neuronale. Queste caratteristiche tendono comunque a prevalere in alcune strutture cerebrali, come ad esempio nell’amigdala e nell’ippocampo, che sono strutture cerebrali implicate in vari aspetti della memoria. Oppure possiamo trovarle maggiormente nella corteccia temporale inferiore, parietale posteriore e prefrontale che mediano funzioni cognitive più complesse. C’è però una difficoltà nello studio di questa malattia ed è rappresentata dal fatto che i pazienti spesso muoiono per cause naturali prima che si presentino i sintomi; è comunque noto che il morbo di A. ha una forte componente genetica, infatti i familiari di coloro ce ne sono affetti hanno il 50% di possibilità di contrarre la malattia se vivono fino a 80-90 anni. La ricerca sulle basi genetiche del morbo si concentra sulle rare forme familiari di malattia a esordio precoce in cui tutti i geni associai all’A. sono coinvolti nella sintesi dell’amiloide o della proteina tau che è presente nei fasci neurofibrillari. La ricerca di una cura per l’A. è 41 alimentata dalla gravità del problema e dal fatto che essendo il morbo di A. una malattia della vecchiaia il numero dei casi potrebbe essere ridotto mediante un trattamento che ne ritardi la comparsa di 5 anni. Ma un fattore che complica la ricerca di una cura è che non è ben chiaro quale sia il sintomo principale. Il sintomo primario sembra essere rappresentato dalle placche di amiloide che una volta sviluppatesi provocherebbero poi gli altri sintomi. Ci sono invece altri ricercatori che ritengono che il sintomo primario sia rappresentato dalle proteine tau e dai fasci neurofibrillari, mentre altri ipotizzano come possibile causa un blocco nella regolazione del calcio. Fra i primi approcci terapeutici al morbo di A. vi fu la prescrizione di agonisti colinergici per limitare l’abbassamento del livello di acetilcolina che era uno dei primi cambiamenti neurochimici che si verifica nei pazienti. Ma risultò comunque inefficace. Un altro approccio terapeutico è l’approccio immunoterapeutico applicato ad un modello di topo transgenico che si è servito di un vaccino di amiloide per ridurre i depositi sulla placca e migliorare le prestazioni di memoria. Gli stessi tentativi sull’uomo hanno evidenziato risultati diversi : si sono avuti effetti terapeutici ma anche pericolose infiammazioni del SNC nel 5% dei casi. Nella ricerca neuropsicologica, poiché la sperimentazione di laboratorio è raramente possibile sull’uomo, svolgono un ruolo molto importante i modelli animali delle malattie che vanno comunque usati con cautela perché in genere manifestano solo alcuni tratti della malattia che prendono come modello. Ciascun modello dovrà essere esplorato completamente per poterlo valutare e per poterne capire l’effettiva utilità, e solo alcuni consentiranno di comprendere e prevenire alcuni disturbi neuropsicolgici. Fra i modelli animali più usati vi sono : il modello del kindling dell’epilessia, il modello del topo transgenico affetto da morbo di A., il modello di MPTP del morbo di Parkinson, e il modello anfetaminico della schizofrenia. Modello del kindling o innesco delle crisi epilettiche. Nel 1969 alcuni studiosi (Goddard, McIntyre e Leech) somministrarono ogni giorno una debole scarica elettrica ad alcuni ratti mediante elettrodi impiantati nell’amigdala. Alle prime stimolazioni non seguirono risposte comportamentali ma presto si osservarono risposte convulsive che man mano si diffusero dal muso a tutto al corpo. Il progressivo sviluppo ed intensificarsi delle convulsioni a seguito delle stimolazioni cerebrali successive è noto come fenomeno dell’accensione (kindling). Tale fenomeno è stato studiato anche su topi, gatti, cani, conigli, ed è stato prodotto sia dalla stimolazione di molti siti cerebrali diversi dall’amigdala ma anche dalla somministrazione ripetuta di dosi inizialmente sottosoglia di farmaci convulsivanti. Il fenomeno presenta due aspetti importanti: il primo è che le modificazioni neuronali responsabili del fenomeno sono permanenti (il soggetto anche se lasciato per diversi mesi senza stimolazione reagisce a stimolazioni di basa intensità con convulsioni generalizzate); il secondo è che il fenomeno è prodotto meglio da somministrazioni distribuite nel tempo piuttosto che concentrate ( in circostanze normale il fenomeno del kindling non si verifica se l’intervallo fra una stimolazione e l’altra è inferiore a 20 minuti). L’interesse per il kindling è dovuto al fatto che le convulsioni provocate negli animali sono molto simili a quelle osservate in alcuni tipi di epilessia nell’uomo e che tale fenomeno è paragonabile all’epilettogenesi (sviluppo dell’epilessia) che può seguire ad un trama cranico, ovvero convulsioni che si verificano solo dopo alcune settimane dal trauma e che possono intensificarsi con il passare del tempo. Il modello del kindling applicato in laboratorio non è isomorfo, in quanto le convulsioni sono indotte, ma le differenze tra le crisi epilettiche spontanee e quelle indotte sono state superate con un modello in cui i soggetti vengono sottoposti a stimolazioni per un periodo molto lungo inducendo una sindrome epilettica simile a quella umana, nel senso che i soggetti manifestano crisi spontanee anche quando le stimolazioni sono interrotte. Uno studio molto interessante ed utile è lo studio del kindling applicato al comportamento che si verifica negli epilettici fra una crisi e l’altra (comportamento intercritico o interictale), i cui cambiamenti patologici sono più devastanti e difficili da curare delle crisi stesse. Modello del topo transgenico affetto da morbo di A. Il problema nello studio del morbo di A. è che solo l’uomo e alcuni primati sviluppano le placche di amiloide che molti considerano il sintomo primario anche se i loro ruolo causale non stato ancora chiarito. Alcuni ricercatori pensano che il deposito di 42 amiloide provochi una degenerazione dei neuroni che provoca i sintomi comportamentali, altri pensano invece che le placche di amiloide siano il risultato e non la causa della degenerazione nervosa. Nella ricerca delle possibili cause importante è il ruolo del modello del topo transgenico. Il termine transgenico si riferisce ad animali a cui sono stati iniettati geni di un’altra specie. In uno di questi modelli i geni che accelerano la sintesi di amiloide umana sono iniettati negli ovuli fecondati del topo che vengono poi iniettati nella madre portatrice. Quando i topi transgenici si sviluppano i loro cervelli contengono placche di amiloide concentrate soprattutto in strutture come amigdala, ippocampo e corteccia entorinale. Questo modello presenta comunque dei problemi come ad esempio il fatto che i topi non hanno fasci neurofibrillari e la compromissione della memoria varia poco quando il topo cresce e presenta un numero maggiore di placche. Un modello animale tuttavia per essere utile non deve riprodurre tutte le caratteristiche del disturbo umano. Modello MPTP del morbo di Parkinson. Il principale modello del morbo di Parkinson ha avuto origine da uno sfortunato incidente accaduto ad un gruppo di giovani tossicodipendenti che dopo aver assunto un tipo di eroina sintetica, in cui l’agente patogeno ipoteticamente identificato fu l’MPTP, presentavano praticamente sia tutti i sintomi motori tipici del morbo sia anche sintomi più sottili come seborrea e micrografia. Partendo da questo sfortunato episodio si stabili che diversi primati rispondevano all’MPTP come l’uomo: i loro cervelli mostravano danni selettivi della sostanza nera analoghi a quelli dei pazienti parkinsoniani ed in entrambi i casi era stata dunque rilevata una riduzione di dopamina. In alcune scimmie tuttavia è stato riscontrato che una deplezione cerebrale di dopamina non sempre induce la comparsa di gravi deficit motori. Lo sviluppo del modello animale MPTP, considerato attualmente il migliore, ha già prodotto effetti benefici sui pazienti, infatti si è trovato che il deprenyl, un agonista monoaminergico, blocca gli effetti dell’ MPTP negli animali e che la sua somministrazione in pazienti con Parkinson iniziale ritarda notevolmente la progressione della malattia. Disturbi psichiatrici Vi è anche un rapporto fra stress e malattie mentali dove per malattie mentali si intendono i disturbi psichiatrici. Un disturbo psichiatrico è un disturbo della funzione psicologica sufficientemente grave da richiedere un trattamento con uno psichiatra o uno psicologo clinico. I disturbi psichiatrici sono influenzati da fattori legati all’esperienza come lo stress, sono il risultato di forme più sottili di patologie cerebrali e tendono ad essere difficilmente compresi. Vi sono disturbi psichiatrici più gravi che richiedono ospedalizzazione, chiamati psicosi, e disturbi psichiatrici meno gravi chiamati nevrosi. Fra i disturbi psichiatrici rientrano la schizofrenia, i disturbi affettivi della sfera delle emozioni, i disturbi d’ansia e sindrome di Tourette. La schizofrenia, che è un disturbo psicotico, è un termine che significa separazione delle funzioni psichiche e il sintomo primario è rappresentato dal venir meno dell’integrazione fra emozione, pensiero e azione. Spesso è associato al concetto di follia. E’ una patologia che presenta diverse forme, infatti vi sono forme con sintomi diversi e complessi che si possono sovrapporre fra loro o si possono sovrapporre ad altri disturbi psichiatrici e spesso si modificano durante l’evoluzione del disturbo. In genere la ricorrenza di uno dei sintomi della schizofrenia rappresenta la base per una diagnosi di questo disturbo. I sintomi della schizofrenia, che non è detto che si manifestino in tutti i casi, sono : fissazioni bizzarre, ossia la convinzione di essere controllati, manie di persecuzione, di grandezza, manifestazioni affettive non appropriate, ossia l’incapacità di reagire con livelli appropriati di emotività ad eventi positivi o negativi, allucinazioni cioè voci immaginarie che istruiscono la persona su quello che deve fare o che commentano in modo negativo il suo comportamento, pensiero incoerente cioè pensieri illogici, associazioni bizzarre fra idee, credenza in forze sovrannaturali, e comportamento bizzarro, ossia lunghi periodi di assenza di movimento, mancanza di igiene personale, eloquio in rima, evitamento dell’interazione sociale. Sono stati effettuati diversi studi circa i fattori causali della schizofrenia per identificare ad esempio una possibile base genetica o comunque ereditaria familiare. In questo senso l’ipotesi attuale è che alcune persone ereditano un potenziale sviluppo della schizofrenia 43 che può essere o meno attivato dall’esperienza. A favore di questa ipotesi si può citare un confronto dei discendenti di un grande campione di gemelli omozigoti che erano essi stessi discordanti rispetto alla schizofrenia, cioè uno ne era affetto e l’altro no. L’incidenza della schizofrenia era ripartita in modo uguale tra i discendenti dei gemelli affetti da schizofrenia e quelli non affetti dal disturbo. Molti fattori legati all’esperienza precoce sono coinvolti nello sviluppo della schizofrenia come infezioni precoci, tossine, reazioni autoimmuni,episodi di ordine traumatico e stress. Per quanto riguarda la relazione con lo stress si è visto che eventi stressanti precedono spesso gli attacchi schizofrenici e che c’è spesso una correlazione fra intensità dello stressor e l’attacco. In generale ciò che queste ricerche permettono di ipotizzare è che negli schizofrenici è evidente un eccessivo sviluppo della corteccia prefrontale e poiché lo stress attiva le proiezioni dopaminergiche alla corteccia prefrontale e questa è appunto molto sviluppata negli schizofrenici questo può probabilmente determinare una risposta esagerata allo stressor. La schizofrenia in genere viene curata con farmaci fra cui il primo ad essere stato individuato negli anni 50 è stata la clorpromazina. Inizialmente si notò che questo farmaco somministrato prima di interventi per limitare il gonfiore, aveva effetti calmanti su alcuni pazienti portando alla scoperta che la clorpromazina allevia i sintomi schizofrenici anche se non porta alla guarigione. Analogamente sono stati riscontrati effetti antischizofrenici anche nella reserpina, un componente vegetale, che però non viene più somministrata poiché provoca un pericoloso abbassamento della pressione sanguigna alle dosi necessarie per sortire gli effetti benefici. Nonostante la struttura chimica diversa i due farmaci sono simili per il fatto che cominciano ad agire dopo un trattamento di almeno due o tre settimane, e inoltre entrambi determinano la comparsa di effetti motori simili a quelli del morbo di Parkinson come tremore a riposo, rigidità muscolare, diminuzione del movimento volontario. Diverse ricerche sulla schizofrenia basate sugli studi del morbo di Parkinson hanno portato all’elaborazione di una teoria, chiamata teoria dopaminergica, secondo cui poiché la schizofrenia sarebbe causata da un eccesso di dopamina , i farmaci antischizofrenici (neurolettici) esercitano i loro effetti diminuendo i livelli di dopamina. Studi successivi hanno poi portato a delle revisioni di questa teoria : inizialmente si ipotizzò che il fattore principale non fosse un alto livello di dopamina cerebrale ma piuttosto un livello elevato di attività dei recettori dopaminergici, per arrivare poi a dimostrare che la schizofrenia è causata dall’iperattività selettiva di un certo tipo di recettori dopaminergici, il tipo D2, e non ai recettori dopaminergici in generale, tant’è che i farmaci antischizofrenici efficaci, come l’aloperidolo, hanno un’alta affinità per i recettori dopaminergici di tipo D2. Allo stato attuali i risultati delle ricerche effettuate in quest’ambito hanno portato a sostenere che sebbene una attività eccessiva dei recettori dopaminergici D2 sia uno dei fattori del disturbo, in realtà non è sicuramente l’unico, ma vi sono altri fattori causali che vanno ancora individuati. Le 4 scoperte alla base di quest’ultima affermazione sono : 1) che i recettori D2 non sono i soli ad essere coinvolti nella schizofrenia ma ve ne sarebbero altri come i recettori del glutammato, del GABA e della serotonina che hanno portato allo sviluppo di farmaci neurolettici atipici che risultano anche più efficaci; 2) che occorrono più settimane di trattamento per avere effetti riduttivi del disturbo mentre in realtà la trasmissione dopaminergica viene bloccata dopo poche ore; 3) che la schizofrenia è associata ad un danno cerebrale diffuso e non a specifici danni di circuiti dopaminergici; 4) che i neurolettici sono efficaci solo nei confronti di alcuni schizofrenici, mostrando maggior efficacia nel trattamento dei sintomi positivi come incoerenza, allucinazioni, manie, la cui causa si ritiene sia un aumento dell’attività neuronale, rispetto a quelli negativi come impoverimento affettivo e riduzione dell’eloquio, la cui causa si ritiene essere una diminuzione dell’attività neuronale. Vi sono poi studi sul rapporto fra disturbi affettivi e lo stress. Fra i disturbi affettivi o disturbi dell’umore rientra la depressione che è una reazione normale a perdite dolorose come la perdita di una persona cara, di beni o della salute. Vi sono però persone in cui la depressione è sproporzionata, che spesso cadono in una disperazione estrema spesso senza una ragione apparente e per i quali diviene impossibile far fronte a qualsiasi necessità come mantenere un lavoro, livelli decenti di igiene personale, o avere contatti sociali, sono persone che appaiono con un tono di umore basso, fanno fatica ad addormentarsi, sono apatiche. Tale depressione prende il nome di 44 depressione clinica. La depressione viene spesso divisa in due categorie : la depressione reattiva che è la reazione ad una esperienza molto negativa, la depressione endogena che invece non lo è. Oltre alla depressione un altro grave disturbo è la mania che è un disturbo affettivo caratterizzato da eccessiva fiducia in se, impulsività frequenti distrazioni ed eccesso di energia. Durante i periodi di media entità le persone sono impulsive positive piene di energia e possono risultare molto efficaci in alcuni lavori; ma quando la mania diventa estrema si presenta un problema clinico serio. In questi casi il soggetto passa senza sosta da un argomento all’altro, ritiene che nulla sia impossibile, nessun compito per lui è difficile, si sente esageratamente fiducioso, potente, lasciando dietro di se una scia di progetti incompiuti, relazioni interrotte, conti non saldati. Molti pazienti depressi vanno incontro a periodi di mania e in questo caso si parla di disturbi affettivi bipolari. Nel caso invece in cui i pazienti sono affetti solo da depressione e non da mania si avrà un disturbo affettivo unipolare. Per quanto riguarda i fattori causali dei disturbi affettivi si è visto innanzitutto che i fattori genetici contribuiscono a differenziare gli individui rispetto allo sviluppo di questa malattia. Ma anche lo stress rientra fra le cause di questi disturbi, ossia le esperienze stressanti possono provocare attacchi di depressione in individui già depressi. E’ stato comunque difficile confermare l’ipotesi che esperienze stressanti infantili aumentino la probabilità di sviluppare depressione in età adulta. Sono state sviluppate 4 categorie di farmaci per il trattamento dei disturbi affettivi : 1) gli inibitori delle monoaminossidasi come l’iproniazide che inizialmente venne sviluppato come farmaco per il trattamento della tubercolosi per il quale risultò inefficace. Si vide invece che i pazienti affetti da tubercolosi a cui veniva somministrato questo farmaco risultavano meno preoccupati per la loro malattia e questo spinse a provare il farmaco in pazienti depressi. Gli inibitori delle MAO hanno molti effetti collaterali il più pericoloso dei quali è noto come effetto formaggio. Accade infatti che gli individui che assumono gli inibitori delle Mao e consumano alimenti, come formaggio, sottaceti e vino, ricchi di tiramina che agisce in modo potente sull’innalzamento della pressione del sangue corrono il rischio di essere colpiti da un infarto cerebrale provocato dallo sbalzo di pressione. Gli inibitori delle MAO aumentano 2) gli antidepressivi triclici come l’imipramina, che inizialmente era un farmaco antischizofrenico; gli antidepressivi triciclici bloccano il riassorbimento della serotonina e della noradrenalina aumentandone il livello cerebrale.3) il litio che è un metallo ionico semplice e che si considera essere uno stabilizzante dell’umore ossia un farmaco che blocca la rapida transizione tra la depressione e la mania. 4) gli inibitori selettivi della ricaptazione delle monoamine fra cui il Prozac, fluoxetina, che è stato il primo inibitore selettivo della ricaptazione della serotonina. Il Prozac non è più efficace dell’imipramina nel trattamento della depressione ma oltre ad avere pochi effetti collaterali si è dimostrato efficace anche nel trattamento di una varietà più ampia di disturbi psicologici. Nel trattamento della depressione si sono rilevati efficaci anche gli inibitori selettivi della ricaptazione di norepinefrina cosi come altri farmaci che inibiscono la ricaptazione di numerosi neurotrasmettitori di monoamine. La ricerca dei meccanismi nervosi dei disturbi affettivi si è focalizzata sulla depressione. La teoria dominante della depressione è la teoria monoaminergica che sostiene che al depressione è associata a un basso livello delle sinapsi serotoninergiche e noradrenergiche, implicando un deficit nel rilascio di monoamine, pertanto quando in una sinapsi vi è il rilascio di una quantità insufficiente di neurotrasmettitore di solito c’è un aumento compensatorio nel numero dei recettori di queso neurotrasmettitore. Questo processo di proliferazione di recettori è chiamato regolazione per eccesso. Una seconda teoria della depressione è il modello di diatesi-stress secondo la quale alcuni individui ereditano una diatesi ossia una predisposizione genetica che di per se è incapace di dare inizio al disturbo. L’idea centrale di questo modello è che i soggetti predisposti vengono a contatto con lo stress in stadi precoci della vita o che i loro sistemi si sensibilizzano in modo permanente e reagiscono in modo abnorme ad agenti di stress anche poco significativi nel corso di tutta la loro vita. Una scoperta sorprendente e sconcertante è che più del 50% dei pazienti depressi manifestano miglioramenti straordinari dopo una notte di deprivazione di sonno, pur riapparendo al ritorno al normale modello di sonno. I soggetti con una diagnosi di depressione mostrano danni in molte parti del cervello ma più 45 frequentemente in tre aree. Due di esse sono l’amigdala e la corteccia prefrontale la terza comprende molte sezioni terminali del sistema mesotelencefalico della dopamina. Infine l’ansia invece viene definita come una paura cronica persistente in assenza di minacce reali ed è un correlato psicologico comune dello stress; l’ansia ha una funzione adattiva quando mette in atto comportamenti reattivi efficaci di fronte alla percezione di un pericolo, quando invece incide negativamente sul proprio normale funzionamento diventa un disturbo d’ansia. Generalmente l’ansia presenta sintomi evidenti come nausea, disturbi del sonno, difficoltà respiratorie, tachicardia, ipertensione ed elevati livelli di glucocorticoidi e si accompagna a sensazioni angosciose come paura, sconforto e preoccupazione. Le cinque classi principali dei disturbi ansiosi sono : i disturbi d’ansia generalizzata caratterizzati da risposte allo stress e da sensazioni di estrema ansia che si manifestano in assenza di qualsiasi stimolo scatenante evidente, i disturbi fobici d’ansia, come l’agorafobia – paura patologica dei luoghi affollati, che sono scatenati dall’esposizione ad oggetti particolari, come uccelli o ragni, o a situazioni particolari come l’oscurità, i disturbi di panico caratterizzati da attacchi di paura estrema che si instaurano rapidamente accompagnati da gravi sintomi di stress come soffocamento, palpitazioni, i disturbi ossessivo compulsivi caratterizzati dalla ricorrenza frequente e incontrollabile di pensieri ansiogeni (ossessivi) e impulsi (compulsivi) ed è la risposta a questi pensieri che porta a dissipare l’ansia associata, i disturbi post traumatici da stress che è un modello persistente di disagio psicologico conseguente a un forte stress. Come altri disturbi psichiatrici anche i disturbi ansiosi hanno una componente genetica significativa, ma importante nel provocare il disturbo è anche il ruolo dell’esperienza. Esistono due categorie di farmaci efficaci contro i disturbi ansiosi : le benzodiazepine e gli agonisti della serotonina. Le benzodiazepine come il diazepam sono prescritti per il trattamento dell’ansia, ma anche come ipnotici, anticonvulsivanti e miorilassanti. Hanno diversi effetti collaterali come sedazione, tremore, nausea, compromissione dell’attività motoria e dipendenza. Gli effetti comportamentali delle benzodiazepine sono mediati dalla loro azione agonista sui recettori GABA a. Gli agonisti della serotonina invece come il buspirone agiscono selettivamente su un sottotipo di recettori della serotonina il 5-HT1a. Il buspirone ha un effetto ansiolitico senza provocare rilassamento muscolare ne sedazione, ma ha altri effetti collaterali come nausea, capogiri, emicrania e insonnia. I modelli animali dell’ansia hanno svolto un ruolo importante nello studio dell’ansia e nella valutazione del potenziale ansiolitico di nuovi farmaci. I tre comportamenti animali che servono da modello per lo studio dell’ansia sono: la prestazione nel labirinto sopraelevato dove la misura dell’ansia deriva dalla proporzione di tempo che i ratti trascorrono nei due corridoi provvisti di pareti rispetto a quelli aperti cioè senza pareti; lo scavo difensivo in cui la misura dell’ansia corrisponde alla quantità di tempo che il ratto passa a scavare e a gettare il materiale del fondo della gabbia contro un cilindro di legno fissato ad una corda che o colpisce; la valutazione del rischio in cui la misura dell’ansia dipende dal tempo che il ratto trascorre nell’immobilità e nei comportamenti di valutazione del rischio. Questi modelli animali sono però modelli di quell’ansia che può essere trattata con le benzodiazepine e perciò potrebbero non essere validi per farmaci ansiolitici che agiscono tramite un meccanismo diverso, come ad esempio il buspirone. La sindrome di Tourette rappresenta un altro disturbo psichiatrico costituito da tic, ossia movimenti o vocalizzi involontari ripetitivi e stereotipati. Di solito si sviluppa durante l’infanzia per divenire più complessa e grave in età adulta. I tic motori più comuni comprendono gesti osceni, picchiare e toccare oggetti vari, accovacciarsi, saltare e roteare. I tic verbali più comuni includono suoni inarticolati come abbaiare tossire grugnire, esprimere oscenità (coprolalia), ripetizione delle parole degli altri (ecolalia), e ripetizione delle proprie parole (palilalia). Alcuni pazienti con la sindrome di Tourette manifestano anche disturbi da deficit di attenzione e iperattività, disturbi ossessivo compulsivi. Anche se i sintomi sono involontari possono essere attenuati o eliminati per brevi periodi con lo sforzo e la concentrazione del paziente. Tuttavia se sono repressi inducono disagi e tensioni che alla fine sfociano in attacchi frequenti e intensi. Nei pazienti con sindrome di Tourette che hanno represso i loro sintomi sono state osservate molte anomalie con la visualizzazione funzionale del cervello, ma sono state per lo più osservate nei gangli delle base e nella corteccia 46 associativa e nel sistema limbico. I risultati di questi studi suggeriscono che la sindrome di Tourette ha sede nel circuito di feedback gangli della base-talamo-corteccia. I sintomi di questo disturbo di solito vengono trattati con neurolettici anche se ci sono scarsi studi che ne dimostrano l’efficacia. Un discorso particolare da affrontare è quello del rapporto fra stress e condizioni di lavoro, includendo sia le mansioni da svolgere che l’ambiente fisico ed emotivo e come questo possa determinare due patologie abbastanza attuali che sono la sindrome di burn out e il mobbing. Per sindrome di burn out si intende un disturbo dell’adattamento come indicato dal DSM IV, manuale diagnostico statistico delle sindromi psichiatriche ed è un disturbo che coplisce molto spesso i professionisti impegnati nelle helping profession, cioè le professioni di aiuto in ambiente sociosanitario, come medici, psicologi, operatori sociali, educatori, insegnanti. Quindi figure professionali che si trovano a sopportare carichi eccessivi stress che si ripete e che non riesce ad essere scaricato. Per cui cominciano a manifestarsi alcuni sintomi come l’affaticamento fisico ed emotivo, un atteggiamento distaccato e apatico verso colleghi e pazienti/allievi ma anche nei rapporti privati, frustrazione e non realizzazione delle sue aspirazioni professionali, manifesta una diminuzione o una perdita della sua capacità di autocontrollo, ha quindi delle reazioni emotive violente, difficoltà a staccarsi mentalmente dal pensiero del lavoro che diventa ossessivo. Il mobbing non è tanto una patologia quanto un meccanismo particolare che determina una lesione dell’integrità psicofisica dell’individuo, si parla infatti di danno biologico. Il mobbing è un termine di origine latina mobile vulgus che significa movimento della plebe ma anche inglese dal verbo to mob che significa aggredire violentemente. Il termine mobbing è stato coniato agli inizi degli anni settanta dall'etologo Konrad Lorenz per descrivere un particolare comportamento aggressivo tra individui della stessa specie con l'obbiettivo di escludere un membro dello stesso gruppo. In etologia, particolarmente in ornitologia, mobbing indica anche il comportamento di gruppi di uccelli di piccola taglia nell'atto di respingere un rapace loro predatore. Quando questa sequenza comportamentale è stata messa in atto anche dagli esseri umani ha ripreso la stessa denominazione; oggi si parla di mobbing quando il soggetto, detto mobbato, viene isolato, deriso, snobbato, dequalificato, reso inutile sul lavoro da altri soggetti presenti nello stesso ambiente di lavoro, detti mobbers. Il mobber può essere un superiore e quindi in questo caso si parlerà di mobbing gerarchico o bossing, oppure può essere effettuato da colleghi e in questo caso parliamo di mobbing aziendale o orizzontale perché effettuato da individui che professionalmente parlando si trovano allo stesso livello. I sintomi sono generalmente cefalea, tremori, tachicardia, sudorazione fredda, gastrite, dermatosi, insonnia ma anche sviluppo di disturbi come nevrosi e depressione. Il danno psicosociale e psicofisico determinato dal mobbing viene definito danno biologico, ossia una lesione dell’integrità psicofisica che va ricondotta ad un tipo di rischio ampio che viene individuato nella costrittività organizzativa insita nell’attività che la persona svolge e quindi nell’ambiente di lavoro. Non si può quindi parlare di una malattia del lavoro equiparabile a quelle malattie legate all’esposizione sul luogo di lavoro al pericolo o al contatto con sostanze tossiche ma si tratta di essere esposti ad agenti stressanti di tipo sociale relazionale che però vanno a ledere l’integrità psicofisica della persona quindi un ambiente di lavoro che produce un danno sia psicologico che biologico. Le leggi vigenti in materia qualora il mobbing venga accertato e trattato in sede giuridica prevedono un risarcimento inerente solo al danno biologico e non morale. Sperimentazione clinica. La sperimentazione clinica consiste in ricerche condotte su soggetti umani al fine di valutare l’efficacia terapeutica di un farmaco o di un altro trattamento non ancora sperimentato. La sperimentazione dei farmaci nuovi sull’uomo e l’autorizzazione al commercio sono rigorosamente regolate dagli stati. Il processo per ottenere l’autorizzazione al commercio di uno psicofarmaco nuovo comincia con la scoperta del farmaco, con lo sviluppo delle procedure di sintesi efficaci, e con la raccolta dei dati tramite test su modelli animali che dimostrino, attraverso la ricerca comparata, che il farmaco è sicuro per il consumo da parte dell’uomo e ha vantaggi terapeutici potenziali. Queste fasi iniziali durano almeno 5 anni; dopodiché si richiede l’autorizzazione per iniziare la sperimentazione clinica che è posta sotto il 47 controllo da parte del governo. La sperimentazione poi ha inizio e dura all’incirca 7 anni; si divide in genere in tre fasi : controllo di sicurezza e ricerca delle dosi massimali alle quali il farmaco può essere tollerato, definizione delle dosi efficaci e programma del trattamento attraverso modelli a doppio cieco in cui ne soggetti ne medici sono a conoscenza del trattamento subito dal paziente, dimostrazione evidente che il farmaco è terapeutico attraverso test finali. Dopodichè vi è la richiesta di autorizzazione per la commercializzazione e il controllo dei risultati della sperimentazione da parte degli organi di governo e infine la vendita al pubblico affiancata da continui controlli sulla sicurezza del farmaco. La sperimentazione presenta però delle controversie derivanti da : necessità del modello a doppio cieco con placebo di controllo fondamentale nella valutazione di qualsiasi psicofarmaco poiché i disturbi psichiatrici spesso migliorano dopo la somministrazione di un placebo; necessità di placebo attivi ossia di un farmaco di controllo che non è terapeutico ma provoca effetti collaterali simili al farmaco sotto controllo; lentezza dei tempi di realizzazione, problemi economici derivanti dal fatto che le spese da sostenere sono molto alte e in genere solo il 20% dei farmaci potenzialmente efficaci ottengono l’autorizzazione definitiva. A causa della pressione economica che si sviluppa da questo fatto spesso si mette in dubbio l’imparzialità di coloro che portano avanti la ricerca. Le case farmaceutiche impediscono a scienziati e ricercatori di pubblicare o discutere in pubblico i risultati negativi senza l’autorizzazione delle compagnie, e raramente vengono messi a punto farmaci che curano patologie rare perché non procurano profitto. I farmaci per i quali il mercato è troppo limitato per cosituire fonte di guadagno sono chiamati farmaci orfani. Tra i principali disturbi mentali possiamo citare la schizofrenia che è un disturbo caratterizzato da deliri, allucinazioni, pensiero incoerente, appiattimento dell’affettività e comportamenti bizzarri. I principali farmaci usati sono la cloropromazina e la reserpina. La cloropromazina era inizialmente usata come antistaminico e sedativo e produce sui sintomi schizofrenici una remissione. La resepina invece è un antagonista dopaminico e i suoi effetti su pazienti schizofrenici hanno portato a formulare la teoria dopaminergica della schizofrenia secondo cui la schizofrenia sarebbe causata da un eccesso di attività dopaminergica soprattutto a livello del mesencefalo e del sistema limbico. Per quanto riguarda il ruolo della dopamina nella schizofrenia sono stati fatti degli studi per accertare tali meccanismi. Innanzitutto si è visto che la reserpina che è un antagonista della dopamina è capace di vuotare il cervello della dopamina mentre i farmaci che possono scatenare episodi schizofrenici come le anfetamine e la cocaina fanno aumentare l’attività della dopamina facilitandone il rilascio e bloccando il riassorbimento. Sono stati fatti poi degli studi per individuare i recettori dopaminici specifici per legami con farmaci antischizofrenici. Quindi è stata valutata la capacità di questi farmaci di bloccare i legami con la dopamina e valutare quindi il grado in cui essi si legano ai recettori dopaminici. I farmaci che hanno efficacia per i sintomi schizofrenici hanno anche un’alta affinità per i recettori della dopamina, tranne un’eccezione che è costituita dall’aloperidolo che ha un effetto potente come antischizofrenico ma ha una bassa affinità per i recettori dopaminici. Si è visto che esistono due tipi recettoriali per la dopamina : D1 e D2. Ai recettori D2 si legano l’aloperidolo e altri antischizofrenici, quindi si ipotizza che la schizofrenia sia dovuta ad una iperattività dei recettori D2 e non dei recettori dopaminici in generale. Sono stati usati anche farmaci antischizofrenici di potenza diversa più potenti se efficaci a dosi basse e si è visto che la potenza dei farmaci come antischizofrenici è sempre legata alla potenza del legame fra questi farmaci e i recettori D2. Si è cercato di identificare la sede neurali di queste sinapsi D2 impiegate nella schizofrenia che sono collocate a livello della via mesolimbica dopaminergica. I corpi cellulari di questa via dopaminica si trovano nel mesencefalo vicino alla sostanza nera e proiettano alla corteccia frontale e a molte strutture limbiche coinvolte nella memoria e nelle emozioni. Si è cercato poi di capire perché alcuni pazienti schizofrenici reagiscono positivamente ad alcune terapie farmacologiche invece altri traggono giovamento da altre terapie farmacologiche. Sono stati distinti due tipi di schizofrenia : schizofrenia con sintomi positivi, come incoerenza, allucinazione, deliri dovuti probabilmente ad iperattività dei neuroni a cui si accompagna quindi l’ iperattività dei recettori D2 per cui questi pazienti traggono maggiore 48 beneficio da quei farmaci che bloccano i recettori dopaminici D2., e schizofrenia con sintomi negativi, affettività spenta, catatonia, povertà di linguaggio che implicano una attività neurale diminuita. Infine si è cercato di capire come mai gli effetti terapeutici di terapie farmacologiche antischizofreniche si verificano solo dopo lunghi intervalli. E’ stato dimostrato che i neurolettici non hanno effetti in quanto bloccano direttamente i recettori D2 ma il blocco di questi recettori D2 innesca nel cervello dei cambiamenti compensatori a lento sviluppo che mediano gli effetti della terapia. Un'altra patologia mentale importante è la depressione nel caso della depressione si distinguono disturbi di umore unipolare e bipolare. Nel disturbo bipolare la depressione è associata alla mania ossia vi è una alternanza di episodi depressivi ed episodi maniacali che si trovano ai due estremi opposti della scala dell’umore, nel senso che nell’episodio depressivo la persona si dimostra triste apatica con disturbi del sonno, dell’alimentazione, tendenza al ritiro dai contatti sociali, poca cura della propria persona arrivando anche a perdere aspetti essenziali della vita quotidiana come il lavoro e lo studio. Nel caso della mania i pazienti sono invece loquaci, energici, impulsivi, positivi, hanno una fiducia in se stessi che arriva a sfiorare il delirio di onnipotenza. Per quanto riguarda i farmaci antidepressivi si conoscono la iproniàzide, gli antidepressivi triciclici, e il litio. L’iproniazide rientra nel gruppo degli inibitori della monoaminossidasi, ossia inibiscono questo enzima che scinde i neurotrasmettitori monoaminici nel citoplasma neurale. E’ un farmaco usato inizialmente per la tubercolosi e poi per la depressione. Gli antidepressivi triciclici hanno una struttura chimica a tre anelli e sono agonisti delle monoamine : ne inattivano il riassorbimento nel neurone presinaptico. L’ipotesi monoaminica della depressione si è basata proprio sullo studio di questi farmaci triciclici che hanno un effetto antidepressivo ma non sono inibitori della monoaminossidasi, non aumentano il rilascio di neurotrasmettitori monoaminici, sono agonisti delle monoamine : ne inattivano il riassorbimento nel neurone presinaptico con un meccanismo di inattivazione insieme alla degradazione enzimatica. Inibiscono il riassorbimento della serotonina e noradrenalina ma non della dopamina : per cui la depressione è considerata un disturbo che non si ricollega al sistema dopaminergico. Prove a favore della teoria monoaminica sono quelle per cui l’assunzione di un antagonista monoaminico come la reserpina per curare la tensione arteriosa porta poi alla depressione; per cui le persone che assumono questo farmaco per curare la tensione arteriosa hanno poi sintomi di depressione e nei soggetti depressi sono stati riscontrati molti metaboliti della serotonina nel liquido cerebrospinale. Tuttavia la teoria monoaminergica delle depressione ha presentato anche dei punti critici ancora studiati : la debole correlazione fra la capacità dei triciclici di bloccare il riassorbimento e la loro efficacia antidepressiva, gli effetti agonistici sulla trasmissione della serotonina e della noradrenalina sono immediati mentre gli effetti terapeutici sono invece lenti, la spiegazione che è stata data è che l’azione di questi farmaci consiste nell’aumentare il livello di serotonina e noradrenalina e ridurre alcuni sottotipi recettoriali con un meccanismo che è definito down regulation. E’ una terapia che non rende conto tra l’altro degli effetti terapeutici del litio, uno ione metallico che ha un effetto calmante sui sintomi di ipereccitazione della mania. E’attualmente considerato potenzialmente terapeutico perché la remissione dei sintomi maniacali è accertata ma è anche considerato uno ione metallico non brevettabile perché non è stato individuato ancora il meccanismo su cui si basa. I sistemi sensoriali esterocettivi La percezione è quel processo mediante il quale l’organismo raccoglie informazioni dall’esterno e dall’interno tramite specifici sistemi sensoriali. In psicobiologia si tende a suddividere il concetto di percezione in due fasi distinte : la sensazione e la percezione. Il termine sensazione sta ad indicare il processo di rilevazione della presenza di uno stimolo semplice e il termine percezione invece ad un processo di ordine superiore di integrazione, riconoscimento e interpretazione di organizzazioni complesse di sensazioni. I sistemi sensoriali rispondono a dei principi di organizzazione generale comuni che sono 6: 49 1) sono sistemi gerarchici. Ciascun livello di una gerarchia sensoriale riceve i suoi input dal livello inferiore, in cui predomina la componente sensoriale, e dopo averli elaborati li trasferisce al livello gerarchico superiore, che ha una componente percettiva maggiore. Tale organizzazione risulta evidente confrontando gli effetti delle lesioni a diversi livelli di un sistema di senso : più alto è il livello colpito dalla lesione maggiore è la complessità e selettività dei deficit che ne risultano. Segregazione funzionale. L’organizzazione dei sistemi sensoriali è caratterizzata dalla segregazione funzionale e non dalla omogeneità funzionale delle diverse aree corticali di un dato sistema. Quindi ciascuno dei tre livelli del sistema sensoriale contiene aree funzionalmente distinte ciascuna delle quali è specializzata per un diverso tipo di analisi. 2) sono sistemi in parallelo. ovvero l’informazione è trasmessa da un componente all’altro attraverso una molteplicità di vie che elaborano simultaneamente i diversi attributi di un segnale. Nei nostri sistemi sensoriali esistono due modalità parallele diverse per l’analisi : una influenza il comportamento senza che ne siamo consapevoli e l’altra lo influenza con la nostra partecipazione cosciente. 3) proiettano tutti alla neocorteccia attraverso il talamo, infatti al di la delle differenze per quanto riguarda i percorsi compiuti dai segnali per ascendere attraverso i vari livelli del sistema nervoso, in tutti i sistemi sensoriali vi è una via principale che collega il talamo e i nuclei di relè talamici alla neocorteccia. 4) la corteccia sensoriale è organizzata in colonne, in cui i neuroni di una data colonna di tessuto corticale sono sensibili allo stesso tipo di informazioni sensoriali. 5) la superficie della corteccia sensoriale è disposta in modo sistematico, ossia la corteccia del sistema visivo, uditivo e somatosensoriale sono organizzate rispettivamente in modo retinotopico, tonotopico e somatotopico. Il vantaggio di questa organizzazione è che viene facilitata l’interazione fra le colonne adiacenti, per esempio questo facilita l’aumento di contrasto fra aree adiacenti del campo visivo. 6) nella corteccia ogni sistema sensoriale ha una rappresentazione multipla, cioè vi sono più aree sensoriali rispetto a quelle individuate inizialmente e che aree considerate parti di una singola area comprendono invece mappe corticali diverse. Uno stimolo complesso è normalmente percepito come unico e non come la somma di attributi indipendenti. Questo genera il cosiddetto binding (bainding) problem (problema dell’integrazione), in riferimento al quale una possibile soluzione può essere l’ipotesi dell’esistenza di un’area corticale in cima alla gerarchia sensoriale che riceve i segnali provenienti da tutte le altre aree sensoriali e li combina insieme dando origine a una percezione unica. I neuroni trasmettono per lo più informazioni dai livelli inferiori a quelli superiori ma a volte ciò avviene anche in senso inverso. In quest’ultimo caso tali gruppi di neuroni vengono chiamati vie corticofugali che rappresentano uno dei modi con cui i processi cognitivi come l’attenzione influiscono sulla percezione (dall’alto verso il basso). I sistemi sensoriali esterocettivi sono quei sistemi sensoriali deputati all’analisi degli stimoli sensoriali provenienti dall’ esterno. L’olfatto e il gusto sono detti sensi chimici in quanto la loro funzione primaria è quella di tenere sotto controllo le componenti chimiche dell’ambiente esterno. Infatti attraverso le risposte del sistema olfattivo alle molecole che si liberano nell’aria si riesce a percepire l’odore di una determinata sostanza. Ugualmente il gusto di una sostanza dipende dalla risposta del sistema gustativo alle molecole che si sciolgono nella bocca attraverso la saliva e che vanno a stimolare recettori che si trovano nella lingua e nel cavo orale. Il gusto e l’olfatto sono sensi chimici che agiscono sinergicamente infatti in genere le molecole di cibo eccitano sia i recettori del gusto che quelli dell’olfatto producendo la sensazione integrata che conosciamo come sapore. L’ incapacità di sentire il gusto, un deficit molto raro probabilmente perché l’input sensoriale è portato da tre vie distinte, viene detta ageusia. In genere comunque un’ageusia nella parte anteriore della lingua può derivare da un danno all’orecchio dello stesso lato rispetto alla zona dove si riscontra un deficit della funzione. Pazienti affetti da ageusia si rilevano poi anche affetti da anosmia cioè incapacità di percepire odori, e la causa più frequente è il 50 trauma cranico che provoca uno spostamento del cervello entro il cranio tale da strappare i nervi che passano attraverso la lamina cribrosa prima di entrare nel bulbo olfattivo. Altre cause che determinano deficit dell’olfatto meno importanti sono il morbo di Alzheimer, di Parkinson, la sindrome di Down e la malattia di Korsakoff. Il gusto e l’olfatto sono meno conosciuti rispetto agli altri sistemi esterocettivi perché essendo attivati da stimoli chimici sono più difficili da studiare con disegni di ricerca sperimentale perché è più difficile controllare o somministrare uno stimolo chimico rispetto ad uno stimolo non chimico come la luce o il suono. Inoltre si è sempre ritenuto che la perdita della percezione gustativa o olfattiva non fosse tanto invalidante per la vita quotidiana come la perdita della vista o dell’udito o del tatto. Tuttavia è stato scoperto che questi sistemi hanno un ruolo importante nella determinazione del comportamento sociale; infatti è stato osservato tramite ricerche che i membri di molte specie rilasciano i feromoni che sono agenti chimici che hanno effetti notevoli sul comportamento di membri della stessa specie, come ad esempio il comportamento sessuale ed aggressivo del criceto. Si è ipotizzata la possibilità che anche l’uomo possa rilasciare feromoni e in quest’ambito vi sono state scoperte interessanti come il fatto che le donne hanno una sensibilità olfattiva maggiore nel periodo ovulatorio o che i cicli mestruali delle donne che vivono insieme tendono a sincronizzarsi. Non ci sono invece prove che gli odori rappresentino un fattore di attrazione sessuale nell’uomo. Un’ altra caratteristica di interesse dei sensi chimici riguarda il loro ruolo in alcun forme di apprendimento: ad esempio è stato dimostrato che i ratti sviluppano delle preferenze per i sapori che hanno trovato nel latte della madre o nell’alito di altri ratti. Inoltre il sistema olfattivo ha una particolarità poiché è l’unico sistema sensoriale in cui le informazioni sono trasmesse prima alla paleo corteccia e poi al talamo mentre negli altri sistemi avviene il contrario. Oggi è accreditata una teoria secondo cui la percezione dell’olfatto si basa su codifiche di elementi componenti. Si ritiene che vi sia la combinazione dell’attività di 7 tipi di recettori ognuno sensibile a molecole di una particolare dimensione e forma. Nel sistema olfattivo i recettori sono localizzati, apparentemente senza organizzazione, nella parte superiore della cavità nasale all’interno di uno strato di tessuto ricoperto di muco chiamato mucosa olfattiva. Gli assoni di questi recettori passano attraverso un’area porosa del cranio (lamina cribrosa) ed entrano nel bulbo olfattivo (primo dei nervi cranici) dove fanno sinapsi con neuroni che proiettano nella paleo corteccia olfattiva (o meglio alla corteccia piriforme che si trova nel lobo temporale adiacente all’amigdala) attraverso il tratto olfattivo. Da questa regione partono due vie olfattive principali: una proietta alle strutture del sistema limbico per mediare la componente emotiva della risposta agli odori, mentre l’altra proietta attraverso il talamo alla corteccia olfattiva primaria per mediare la percezione cosciente degli odori. Le cellule dei recettori olfattivi sono però diverse da quelle degli altri sistemi sensoriali per un aspetto: nel corso della vita di individuo le cellule olfattive deteriorate vengono sostituite con cellule olfattive nuove che crescono sviluppando assoni che raggiungono i siti appropriati nel bulbo olfattivo. Nel sistema gustativo i recettori sono situati sulla lingua e in alcune parti della cavità orale in gruppi di circa 50 a formare strutture dette bottoni gustativi. Sulla lingua i bottoni gustativi sono disposti intorno a piccole protuberanze dette papille gustative. I recettori gustativi non hanno un loro assone e ciascuno dei neuroni che trasmettono impulsi da un bottone gustativo riceve input a numerosi recettori. Anche per la codifica del gusto vale il principio della codifica per componenti, quindi tutti i sapori sono prodotti dalla combinazione di 4 gusti primari (dolce, amaro, aspro, salato) i bottoni gustativi rispondono a tutti e 4 i sapori su tutti i lati della lingua ma alcune aree della lingua sono più sensibili ad alcuni sapori rispetto ad altri : la parte anteriore della lingua è sensibile al salato e al dolce, le parte laterali all’aspro la parte posteriore all’amaro. I segnali generati dai recettori del gusto tramite le molecole che si legano ad essi vanno a stimolare i neuroni sensoriali che li innervano: le afferenze gustative lasciano la bocca tramite i nervi cranici facciale glossofaringeo e vago che trasportano le informazioni dalla parte anteriore della lingua, dalla parte posteriore e dal retro della cavità orale. Queste fibre terminano nel nucleo del tratto solitario del midollo allungato dove fanno sinapsi con neuroni che proiettano al talamo. Da qui i neuroni proiettano alla corteccia gustativa primaria e secondaria. Anche il sistema gustativo proietta ad alcune 51 parti del sistema limbico che è implicato nella regolazione emotiva. A differenza delle proiezioni di altri sistemi sensoriali le proiezioni del sistema gustativo e olfattivo sono principalmente ipsilaterali. Oltre ai gusti primari si è scoperto un ulteriore gusto, l’unami, che è il gusto piccante o saporito. UDITO La funzione del sistema uditivo consiste nella percezione dei suoni, o meglio nella percezione di oggetti ed eventi attraverso il suono che essi producono. I suoni sono vibrazioni delle molecole d’aria che stimolano il sistema uditivo ; gli esseri umani possono udire solo vibrazioni comprese fra 30 e 20.000 hertz o cicli al secondo. L’ ampiezza, la frequenza e la complessità delle vibrazioni delle molecole d’aria sono percepiti come potenza sonora, tono e timbro. Nella vita reale il suono è dato sempre dalla combinazione di numerose onde sinusoidali diverse, mentre il suono puro può essere prodotto solo in laboratorio. Secondo alcuni studiosi il sistema uditivo trasformerebbe gli stimoli sonori in onde sinusoidali semplici mediante un’analisi analoga a quella di Fourier. L’organo dell’udito è formato dall’orecchio suddiviso in tre parti: orecchio esterno, medio ed interno. Il suono arriva dunque all’orecchio esterno per poi passare all’orecchio medio che amplifica i suoni e successivamente all’orecchio interno che trasduce i suoni in stimoli nervosi. L’orecchio esterno consiste di un padiglione auricolare che è un sistema protettivo e di un condotto uditivo detto meato esterno che incanala le onde sonore che provocano la vibrazione della membrana timpanica o timpano, una membrana circolare, di tessuto fibroso, coperta da un sottile strato di pelle che vibra in risposta ai mutamenti di pressione dell’aria dando origine ai suoni interagendo con altre strutture dell’orecchio medio. (L’orecchio medio è collegato anche mediante un canale interno di ventilazione la tromba di Eustachio che conduce alla parte posteriore del naso). Le vibrazioni vengono poi trasmesse a tre ossicini dell’orecchio medio : il martello, l’incudine e la staffa che trasmette le vibrazioni ad una membrana detta finestra ovale che a sua volta le trasmette al liquido contenuto nella coclèa (dal greco chiocciola) facente parte dell’orecchio interno. La coclea è un lungo tubo a spirale con al centro una struttura membranosa sede dell’organo recettivo uditivo, l’organo del Corti formato da due membrane : la membrana basilare, sulla quale vi sono i recettori uditivi formate dalle cellule ciliate, e la membrana tettoria che poggia sulle cellule ciliate. Le cellule ciliate sono formate da stereo ciglia immerse in un liquido e sono deputate a registrare la posizione e la direzione nello spazio fino a portare le informazioni verso le strutture centrali. Dalle cellule ciliate si originano le fibre nervose che si uniscono formando il nervo cocleare che è il secondo ramo del nervo acustico (ottavo nervo cranico). Le vibrazioni quindi dopo essere passate nella scala vestibolare attraverso l’elicotrema ripercorrono indietro i giri cocleari per essere poi disperse dalla finestra rotonda. Queste onde viaggiando avanti e indietro lungo la coclea deformano la membrana interna in particolari punti in base alla frequenza delle vibrazioni; tale deformazione stimola l’organo del Corti che è contenuto al’interno. Il principio più importante del funzionamento della coclea è che frequenze diverse di un’ onda sonora producono la massima deformazione in punti diversi della membrana basilare, frequenze più alte producono piegamenti vicino alle finestre e frequenze più basse verso l’apice della coclea, quindi suoni di frequenze differenti attivano cellule ciliate differenti e i segnali cosi prodotti vengono portati dall’orecchio al cervello attraverso neuroni diversi. Inoltre all’interno dell’orecchio ci sono i canali semicircolari che sono gli organi recettori del sistema vestibolare. Il sistema vestibolare non ha una funzione uditiva ma è deputato al mantenimento dell’equilibrio mediante informazioni sulla intensità e direzione dei movimenti della testa fornite al sistema motorio (utricolo= equilibrio verticale e sacculo= equilibrio orizzontale). E’ quindi un sistema sensoriale interocettivo e non esterocettivo come vista, olfatto, udito, gusto e tatto. L’organizzazione del sistema uditivo è tono topica, al contrario di quella visiva che è retino topica, cioè a tutti i livelli del sistema i neuroni che compongono ogni struttura sono organizzati sulla base delle frequenze a cui sono sensibili. I segnali che provengono da ciascun orecchio sono trasmessi sia alla corteccia uditiva ipsilaterale sia a quella controlaterale per vie diverse, ma prima passano una serie di centri specializzati come i nuclei cocleari, il complesso dell’oliva 52 superiore, il collicolo inferiore, e il nucleo genicolato mediale. Essendo questo il modo di funzionalità del sistema uditivo è difficile dire se un suono è equidistante dalle due orecchie o se è difronte o dietro di noi. Nell’uomo la corteccia uditiva primaria è localizzata nel lobo temporale, all’interno della scissura di Silvio, nelle vicinanze vi è un’altra area, che si estende alla corteccia posteriore o associativa che appartiene alla corteccia uditiva secondaria. Le porzioni frontali della corteccia uditiva primaria rispondono a toni ad alta frequenza mentre quelle posteriori rispondono a toni progressivamente sempre più bassi. Vi sono due importanti principi su cui è basata l’organizzazione della corteccia uditiva primaria: la corteccia uditiva primaria è organizzata in colonne funzionali (i neuroni che penetrano verticalmente la corteccia rispondono a suoni appartenenti allo stesso intervallo di frequenze) ed è organizzata tonotopicamente (neuroni che compongono ogni struttura sono organizzate sulla base delle frequenze a cui sono sensibili). La localizzazione dei suoni nello spazio è mediata dall’oliva superiore laterale e da quella mediale, ma la prima risponde al suo massimo se vi sono deboli differenze di ampiezza nei suoni ricevuti dalle due orecchie mentre la seconda è sensibile alle minime differenze nel tempo di arrivo dei segnali alle due orecchie. La funzione generale dei collicoli superiori sembra essere invece quella di localizzare le fonti dei segnali sensoriali nello spazio. L’individuazione dei danni alla corteccia uditiva è resa difficile dalla sua collocazione nella profondità della scissura laterale, che ne impedisce anche facili danneggiamenti e che comunque li mantiene circoscritti, e per questo molti degli studi sugli effetti delle lesioni alla corteccia uditiva sono basati su lesioni sperimentali prodotte nelle cavie. In ogni caso in situazioni di ampie lesioni bilaterali della corteccia uditiva possono produrre comunque un danno pur non producendo sordità. Un danno può essere l’ag-nosia acustica cioè un deficit nella capacità di riconoscere i suoni non verbali in assenza di una perdita significativa di udito, di un deterioramento intellettivo, o di difficoltà legate al linguaggio. I casi di ag-nosia acustica sono pochi ed è difficile valutare se questo fatto indichi che se si tratti o meno di una patologia rara oppure che in realtà pochi pazienti sono stati sottoposti ad una valutazione sistematica e adeguata delle loro capacità uditive. I due tipi più comuni di ag-nosia acustica sono amusia, ossia compromissione di una delle capacità implicate nel riconoscimento della musica (tono, ritmo, ecc) e ag-nosia per i suoni, cioè difficoltà nel riconoscere i suoni non verbali (suono delle campane). In numerose specie di mammiferi le lesioni complete della corteccia uditiva primaria alterano la capacità di localizzare suoni di breve durata e di riconoscere sequenze complesse e rapide di suoni. Il sistema visivo La visione è un processo che dipende dall’esperienza visiva e le informazioni dall’esterno arrivano attraverso i recettori sensoriale neuroni specializzati nella recezione di stimoli fisici che traducono tali stimoli in potenziali graduati lenti. Il sistema visivo è costituito dai globi oculari, dal nervo ottico, dal chiasma ottico e dalle vie corticali. Gli occhi compiono diversi tipi di movimento : i movimenti di vergenza, ovvero movimenti coordinati di entrambi gli occhi che permettono di mantenere lo sguardo fisso su un oggetto, movimenti saccadici, ovvero movimenti rapidi e improvvisi per osservare più punti di una scena visiva, i movimenti di inseguimento, ovvero movimenti più lenti che servono a mantenere sulla fòvea l’immagine di un oggetto in movimento e l’accomodamento, che è un processo compiuto per mettere a fuoco sulla retina oggetti vicini e lontani. Gli occhi, che si trovano nelle orbite, sono distanti circa 7-8 cm fra loro e forniscono indicazioni diverse sulla realtà che percepiscono, che viene definita visione stereoscopica. Sono tenuti insieme da sei muscoli extra oculari mascherati dalla congiuntiva e attaccati alla sclera, che è un rivestimento biancastro opaco che riveste l’occhio e non permette alla luce di entrare; vi è poi la cornea che è uno strato trasparente sulla parte anteriore dell’occhio che lascia passare la luce, la pupilla cioè un’apertura sull’iride posta dietro la cornea che filtra la luce, il cristallino cioè una lente naturale trasparente e biconvessa del’occhio, l’umor vitreo che è la massa gelatinosa e trasparente che riempie i 4/5 posteriori del globo oculare, la retina che è un tessuto composto da neuroni 53 e fotorecettori che si trova sulla superficie interna e posteriore dell’occhio, la fòvea che è la regione centrale della retina che consente una visione precisa ed accurata e contiene solo coni, il disco ottico che è il punto di uscita dalla retina delle fibre delle cellule gangliari che formano il nervo ottico, responsabile della macchia cieca, punto privo di fotorecettori. Ciò che ci consente di vedere gli oggetti circostanti è la luce che tali oggetti riflettono, infatti neanche gli animali definiti notturni riescono a vedere nella completa oscurità. Le due principali proprietà della luce sono la lunghezza d’onda, importante nella percezione dei colori, e l’intensità importante per la percezione della luminosità. La quantità di luce che arriva alla retina, passa prima attraverso la cornea, l’umor vitreo, la pupilla e il cristallino, ed è regolata da bande contrattili circolari dette iride che conferiscono all’occhio il suo colore e all’interno del quale vi è un foro detto pupilla attraverso il quale passa la luce. Le variazioni di dimensione della pupilla in risposta a cambiamenti di luminosità rappresentano un compromesso tra sensibilità (capacità di rilevare oggetti poco illuminati) e acuità (capacità di vedere i dettagli più fini degli oggetti). Quando il livello di illuminazione è elevato le pupille sono costrette, le immagini sulla retina sono più nitide e si ha una maggiore profondità focale, quando invece il livello di illuminazione è più basso le pupille si dilatano per far entrare più luce anche se l’acuità e la profondità focale delle immagini si riducono. Dietro ciascuna pupilla vi è una lente, chiamata cristallino, il cui compito è mettere a fuoco la luce sulla retina attraverso un processo detto accomodazione. Attraverso questo processo quando guardiamo un oggetto vicino i muscoli ciliari si contraggono e la lente mantiene la sua naturale posizione cilindrica, quando invece guardiamo qualcosa in lontananza i muscoli ciliari si rilassano e la lente si appiattisce. I movimenti dei nostri occhi sono coordinati attraverso movimenti di convergenza degli occhi stessi, ma la posizione delle immagini retiniche nei due occhi non è mai la stessa poiché i due occhi non guardano il mondo dalla stessa posizione. Tale differenza di posizione della stessa immagine visiva sulle due retine viene detta disparità binoculare ed è maggiore per gli oggetti vicini più che per quelli lontani. Il sistema visivo è in grado di utilizzare i diversi gradi di disparità binoculare per costruire una percezione tridimensionale partendo da due immagini retiniche bidimensionali. La struttura cellulare della retina è formata da 5 diversi strati di cellule : i recettori, le cellule orizzontali, le cellule bipolari, le cellule amàcrine e le cellule retiniche gangliari. Il funzionamento del sistema visivo viene osservato mediante diversi test di verifica fra cui uno è il test della perimetria o esame perimetrico o campimetria. E’ un test in cui la testa del paziente viene sostenuta da un appoggio in modo che non si muova, il paziente deve fissare con un solo occhio un punto su uno schermo e un piccolo punto luminoso viene fatto lampeggiare in diversi punti dello schermo. Il paziente ogni volta che vede questo punto luminoso deve premere un pulsante. La stessa procedura si effettua con entrambi gli occhi e si ottiene come risultato una mappa del campo visivo in grado di indicare anche la presenza di eventuali aree cieche. Quando si verifica un danno in una regione della corteccia visiva primaria si parla di scotoma cioè un’area di cecità nel campo visivo contro laterale. Generalmente l’area intorno al centro del campo visivo viene risparmiata per un fenomeno detto preservazione della macula cosicchè le informazioni fornite dai recettori che circondano la macula possono riempire il vuoto dell’immagine retinica. L macula è la parte centrale della retina, che comprende la fovèa e contiene un pigmento giallastro e che essendo priva di recettori è detta per questo motivo macchia cieca. Numerosi pazienti con scotomi sono inconsapevoli di questo disturbo e ciò è dovuto al fenomeno del completamento che si basa su capacità residue visive nello scotoma. Questo fenomeno è stato studiato osservano pazienti che avevano scotomi estesi ma che non erano assolutamente consapevoli di questo deficit. Uno dei fattori che permetteva questa mancanza di consapevolezza era appunto questo fenomeno di completamento Alcuni pazienti con scotomi che erano sottoposti alla visione di una figura complessa che aveva una parte che si trovava nel loro scotoma riferivano di vedere l’immagine completa. Ciò era appunto dovuto a capacità residue visive nello scotoma ma anche quando questa ipotesi veniva esclusa il completamento si verificava ugualmente. Pazienti che hanno perso la totalità della corteccia visiva primaria riferiscono di essere completamente ciechi però alcuni di essi che hanno una cecità corticale possono eseguire compiti che richiedono la vista, per 54 esempio indicare la traiettoria di un oggetto anche se non lo vedono. Questa capacità viene chiamata visione cieca. Il blindsight o visione cieca è un fenomeno presente in pazienti affetti da scotoma ed è la capacità di questi pazienti di rispondere a stimoli visivi nello scotoma anche se non hanno alcuna consapevolezza dello stimolo : per esempio il soggetto può tendere le mani e afferrare un oggetto in movimento pur affermando di non vederlo. I recettori retinici sono di due tipi: i coni, deputati alla visione diurna o fotopica che prevale in condizioni di buona illuminazione e che consente una percezione visiva del mondo ad alta acuità e a colori, e i bastoncelli, deputati alla visione notturna o scotopica che prevale in condizioni di scarsa illuminazione e che è molto più sensibile anche se consente una percezione priva di colore e meno dettagliata. L’essere umano presenta circa 130 milioni di bastoncelli e circa 6 milioni di coni. La differenza fra visione diurna e notturna dipende in parte dalle connessioni dei due tipi di recettori. Infatti mentre parecchie centinaia di bastoncelli possono convergere su un’unica cellula gangliare non è insolito che solo alcuni coni convergano su una stessa cellula gangliare. Di conseguenza gli effetti di una luce poco intensa che stimola simultaneamente molti bastoncelli possono sommarsi ed influenzare la frequenza di scarica della cellula gangliare retinica connessa con i bastoncelli stimolati, mentre la stessa debole luce proiettata su una serie di coni non può dare luogo allo stesso grado di sommazione e la cellula gangliare potrebbe non rispondere affatto alla luce. Coni e bastoncelli differiscono anche nella loro distribuzione sulla retina. Infatti la fovea contiene solo coni la cui distribuzione diminuisce a favore dei bastoncelli man mano che ci si allontana dal centro della fovea. Nella periferia retinica ci sono più bastoncelli vicino al naso che vicino alle tempie. La percezione della luminosità è influenzata non solo dall’intensità ma anche dalla lunghezza d’onda; infatti poiché il nostro sistema visivo non è ugualmente sensibile a tutte le lunghezze d’onda, luci di uguale intensità ma di differenti lunghezze d’onda possono differire in luminosità. Il grafico della luminosità relativa di luci di uguale intensità ma di differente lunghezza d’onda si chiama curva di sensibilità spettrale. La maggior parte dei neuroni del sistema visivo risponde a stimoli dinamici piuttosto che statici, ovvero rispondono vigorosamente a stimoli che appaiono si muovono scompaiono ma rispondono debolmente a stimoli continui che non variano mai. Una delle funzioni dei movimenti oculari è appunto quella di modificare continuamente la posizione dell’immagine sui recettori retinici in modo tale che recettori e neuroni ricevano una stimolazione che varia continuamente. Quando l’immagine si stabilizza una parte del sistema visivo smette di rispondere allo stimolo visivo che quindi scompare. La visione scotopica è mediata dalla presenza di una molecola proteica sensibile alla luce contenuta nei bastoncelli, la rodopsina, che assorbe luce in varie condizioni. La perdita di colore e di assorbimento rappresentano il primo momento di passaggio alla visione scotopica. A favore di questa ipotesi vi è il risultato di alcuni esperimenti che mostrano come la percezione visiva nell’uomo sia correlata al grado con cui la rodopsina. In condizioni di bassa illuminazione la nostra sensibilità a luci di diverse lunghezze d’onda è conseguenza della capacità della rodopsina di assorbirle. La trasduzione della luce da parte dei bastoncelli mette in risalto un aspetto importante del sistema nervoso : i segnali nervosi sono spesso trasmessi mediante un processo di inibizione. Sul pigmento dei coni si conosce meno ma la sua struttura e la sua funzione sono simili a quelli della rodopsina. Ad esempio quando sono stimolati i coni si iperpolarizzano e riducono il rilascio di glutammato. Le informazioni visive vengono trasmesse al cervello attraverso molte vie. La principale è la via retino-genicolo-striata, che trasmette i segnali visivi dalla retina alla corteccia visiva primaria mediante i nervi ottici passando per i nuclei genicolati laterali del talamo. Tutti i segnali visivi che originano nel campo visivo sinistro raggiungono la corteccia striata destra sia dallo stesso lato che dal lato opposto, Al contrario i segnali visivi del campo visivo destro raggiungono la corteccia visiva sinistro. Il sistema retino-genicolo-striato è retinotopico, ovvero ciascun livello del sistema è organizzato secondo una mappa retinica , cioè stimoli presentati in aree retiniche adiacenti eccitano neuroni adiacenti nei vari livelli del sistema visivo. Tale mappa ha però una rappresentazione sproporzionata della regione foveale, sebbene la fovea occupi in realtà solo una piccola 55 parte della zona retinica. Il sistema retino genicolo striato comprende due canali di comunicazione indipendenti : uno passa attraverso gli strati parvocellulari o strati P, e uno attraverso gli strati magnocellulari o strati M. I neuroni parvocellulari sono più numerosi e rispondono in particolare al colore e a dettagli fini di stimoli statici o che si muovono lentamente. Al contrario i neuroni magnocellulari rispondono selettivamente e stimoli in movimento. La maggioranza degli input del sistema P è fornita da coni mentre i bastoncelli forniscono l’input principale del sistema M. I bordi rappresentano l’informazione più significativa di una scena visiva poichè definiscono la dimensione e la posizione dei vari oggetti. Ogni margini che vediamo viene accentuato da meccanismi del nostro sistema nervoso che ne aumentano il contrasto rendendo la percezione dei contrasti stessi migliore di quanto non lo sia in realtà. Il fenomeno dell’aumento di contrasto può essere osservato attraverso le cosiddette bande di Mach ovvero una serie di bande omogenee di diversa intensità che vengono percepite in maniera diversa dalla realtà. In corrispondenza dei margini la banda più luminosa sembra più chiara e quella meno luminosa sembra più scura. Le strisce illusorie più chiara e più scura aumentano il contrasto in corrispondenza di ciascun margine rendendone più semplice la visione. Ogni cellula gangliare riceve informazioni da una specifica zona della retina, detta campo recettivo, costituita da due zone: la zona on e la zona off in ognuna delle quali sono collocati i coni e i bastoncelli. Il campo recettivo di un neurone è quella regione entro cui uno stimolo visivo è in grado di influenzare la frequenza di scarica di quel neurone. I neuroni visivi tendono ad esser sempre attivi anche in assenza di input visivi. Alcuni studi hanno mostrato che : i campi recettivi nell’area della fovea della retina sono più piccoli di quelli nella periferia, che tutti i neuroni hanno campi recettivi circolari, che tutti i neuroni sono monoculari cioè hanno un campo recettivo in un occhio ma non nell’altro, e che molti neuroni hanno campi recettivi che comprendono sia una zona di eccitazione che di inibizione, ovvero a seconda della posizione dello stimolo nel campo recettivo il neurone può mostrare un aumento di scarica quando a luce è proiettata al centro del campo recettivo (scarica all’on) oppure un aumento di scarica quando la luce viene proiettata alla periferia (scarica all’off). Nella corteccia visiva primaria vi sono specifiche aree deputate all’analisi delle caratteristiche salienti come colore e orientamento e le cellule si dividono in due tipi: cellule semplici e complesse. Le cellule semplici hanno campi recettivi rettangolari e non circolari e rispondono meglio ad esempio a barre luminose in un campo scuro o viceversa. Le cellule complesse sono più numerose di quelle semplici, hanno campi recettivi rettangolari ma più grandi, e rispondono a stimoli lineari con un preciso orientamento e non alla luce diffusa e sono binoculari, cioè rispondono a stimoli provenienti da entrambi gli occhi. In alcuni esperimenti con delle scimmie si è notato che molte cellule binoculari manifestano un certo grado di dominanza oculare, cioè rispondono più intensamente alla stimolazione di un occhio rispetto alla stimolazione dell’altro svolgendo un ruolo fondamentale nella percezione della tridimensionalità e profondità degli stimoli visivi. Lo studio dei campi recettivi della corteccia visiva primaria ha condotto a due conclusioni: 1) il flusso di segnali va da neuroni con campi recettivi semplici a quelli con campi più complessi; 2) la corteccia visiva primaria è organizzata in una serie di colonne funzionali verticali, in cui le cellule di ciascuna colonna rispondono a stimoli lineari con il medesimo orientamento in cui metà delle colonne di un gruppo è dominata da stimoli provenienti dall’occhio destro e l’altra metà dallo occhio sinistro (bande alternate di dominanza oculare). Un’altra teoria importante è quella della frequenza spaziale secondo cui la corteccia visiva primaria analizza frequenze spaziali e non margini e linee. A favore di questa teoria vi è l’osservazione che i neuroni corticali visivi rispondono più intensamente a grate sinusoidali piuttosto che a margini e linee. Una grata sinusoidale è un insieme di bande parallele di uguale ampiezza in cui bande chiare e scure si alternano regolarmente secondo una sequenza sinusoidale. Per quanto riguarda la visione dei colori, il nero viene percepito quando c’è assenza di luce, il bianco è percepito sulla base di una miscela di numerose lunghezze d’onda in uguale proporzione, il grigio è prodotto dalla medesima miscela di lunghezze d’onda ma di minore intensità. La percezione dei colori cromatici, o tinte, dipende in larga parte dalla lunghezza d’onda, o meglio dalla complessa miscela di 56 lunghezze d’onda, della luce che esso riflette nei nostri occhi. Secondo la teoria dei componenti della visione dei colori, o teoria tricromatica, proposta da Young e perfezionata da Von Helmholtz, vi sono tre tipi di recettori per il colore (coni), ciascuno con una diversa sensibilità spettrale, la cui attivazione determina la codifica del colore dello stimolo. Secondo gli studiosi qualunque colore dello spettro visibile può essere ottenuto mescolando insieme, in proporzioni differenti, tre diverse lunghezze d’onda. Un’ altra teoria fu quella dell’opponenza cromatica proposta da Hering secondo cui nel sistema visivo ci sono tre classi di cellule, due per la codifica del colore e una per la codifica della luminosità. Hering ipotizzo che ciascun tipo di cellula codificasse la percezione di due colori complementari ( ad esempio una classe di cellule segnalava il rosso quando la sua attività cambiava in una direzione (es:depolarizzazione), oppure segnalava il verde, colore complementare al rosso, quando la sua attività cambiava in direzione opposta (es:iperpolarizzazione). Vengono definiti colori complementari quelle coppie di colori che, quando sono combinati in ugual misura, producono il grigio o il bianco (es: rosso e verde). Hering basava la sua teoria sul fatto che i colori complementari non possono trovarsi contemporaneamente nella stessa tinta e che l’immagine postuma dopo aver fissato per esempio il verde è il rosso. Esistono tre diverse classi di coni : quelli sensibili alle lunghezze d’onda corte, sensibili a quelle medie e sensibili a quelle lunghe. Ci sono inoltre cellule che rispondono in una direzione a lunghezze d’onda di un colore, e che rispondono in direzione opposta quando si presentano lunghezze d’onda del color complementare. La costanza del colore è la tendenza di un oggetto a restare dello stesso colore nonostante le ampie variazioni nelle lunghezza d’onda che esso riflette; il colore percepito di un oggetto non è dunque semplice funzione della lunghezza d’onda che esso riflette. La costanza del colore accresce la nostra capacità di riconoscere gli oggetti in modo da poter interagire con loro adeguatamente. Se il loro colore cambiasse ad ogni variazione delle condizioni di illuminazione sarebbe per noi molto difficile riconoscerli ogni volta e la visione del colore avrebbe uno scarso valore per la sopravvivenza. Secondo la teoria retinex di Land il colore di un oggetto è determinato dalla sua reflettanza, cioè la proporzione delle diverse lunghezze d’onda riflesse da una superficie. Nella visione dei colori è implicato un tipo particolare di neurone corticale che risponde al contrasto di colore, le cosiddette cellule a opponenza doppia della corteccia visiva, che rispondono al contrasto di colore tra aree adiacenti del campo visivo. La visione è dunque un sistema creativo, dove il sistema retino genicolo striato non fornisce immagini visive intatte ma fornisce informazioni su alcuni tratti decisivi come posizione, movimento, contrasto del colore e da queste crea una percezione migliore dell’immagine retinica sotto ogni aspetto e migliore anche della realtà esterna. Il sistema visivo comprende l’intera corteccia occipitale, dove è posta la corteccia visiva primaria e parte di quella secondaria (corteccia prestriata), parte di quella parietale, dove troviamo le aree associative che ricevono input visivi (corteccia parietale posteriore) e temporale dove è collocata parte della corteccia visiva secondaria (corteccia inferotemporale). Anche il sistema visivo è organizzato gerarchicamente: l’informazione viene analizzata prima dalla corteccia visiva primaria e poi inviata alle aree secondarie ed associative. Tra i deficit della funzione visiva possiamo parlare di ag-nosia visiva, che è un deficit nel riconoscimento di stimoli visivi, ovvero si è in grado di percepire gli stimoli ma non si sa di cosa si tratta. Le agnosie visive a volte sono specifiche per una categoria di stimoli visivi o per un aspetto dell’input visivo, e vengono denominate in base al tipo di stimolo che non viene riconosciuto (ag-nosia per il movimento, per i colori, ecc…). Si ritiene che ogni forma specifica di ag-nosia visiva derivi dalla lesione di una determinata area della corteccia visiva secondaria. La prosopag-nosia nello specifico è la difficoltà a riconoscere i volti, ovvero riconoscono un volto in quanto tale ma hanno problemi a capire di che volto si tratti. Ma un’analisi accurata dei prosopag-nosici ha rivelato però che il loro deficit di riconoscimento a volte non si limita ai volti ma essi hanno un problema generale di riconoscimento specifico rispetto ad oggetti appartenenti a 57 categorie complesse. La diagnosi di prosopoagnosia è di solito associata a danni nella parte ventrale dell’area di giunzione fra i lobi occipitale e temporale. Tale deficit sembra comunque confermare la teoria “controllo del comportamento vs. percezione consapevole” in quanto sembra da alcuni test che questi pazienti siano comunque in grado di riconoscere inconsciamente i volti familiari, il che indicherebbe che la funzione della via dorsale sia intatta. La corteccia parietale posteriore sembra essere implicata nell’individuazione degli oggetti nello spazio indipendentemente dalla modalità sensoriale attraverso cui vengono percepiti. Alcune parti della corteccia associativa sono composte da aree diverse ognuna specializzata in un tipo particolare di analisi visiva, alcune per esempio rispondono più efficacemente al colore, altre al movimento o alla forma, sono diverse anatomicamente, e lesioni selettive in aree diverse producono disturbi visivi diversi. Queste aree presentano inoltre un alto numero di connessioni attraverso le quali il flusso delle informazioni procede dalle aree più semplici a quelle più complesse. Le informazioni visive raggiungono la corteccia visiva che poi proietta alle diverse aree funzionali della corteccia visiva secondaria attraverso due sistemi principali: la via ventrale e dorsale. La via dorsale origina dalla corteccia visiva primaria e termina nella regione parietale posteriore; la via ventrale origina dalla corteccia visiva primaria e termina nella corteccia infero temporale. Si ritiene che queste due vie svolgano funzioni differenti : mentre la via dorsale è importante nell’analisi della posizione dello stimolo (via del dove) la via ventrale sarebbe implicata nel riconoscimento dello stimolo (via del cosa). Lesioni che colpiscono la via dorsale determinano difficoltà a raggiungere gli oggetti ma non a riconoscerli mentre lesioni che colpiscono la via ventrale determinano la situazione opposta. Altri studiosi sostengono invece che la differenza fra la via dorsale e frontale non è tanto nel diverso tipo di informazione analizzata quanto nel diverso uso che ne fa il cervello. Secondo questo punto di vista la funzione del sistema dorsale è quella di dirigere e controllare le interazioni comportamentali con gli oggetti, mentre la funzione del sistema ventrale è quella di mediare la percezione consapevole degli stimoli visivi (controllo del comportamento vs. percezione consapevole anziché dove vs cosa). Pertanto pazienti con lesioni alla via ventrale sono in grado di interagire visivamente con gli oggetti anche se non riescono a vederli, mentre pazienti con lesioni alla via dorsale sono coscienti di vedere gli oggetti ma non sono in grado di interagire con essi. Sensazioni somatiche : tatto e dolore Le sensazioni che provengono dal nostro corpo sono chiamate somato sensazioni. Il sistema somatosensoriale è composto da tre sistemi distinti ma interconnessi : un sistema esterocettivo, che rileva stimoli esterni applicati alla cute, un sistema propriocettivo che controlla le informazioni che riguardano la posizione delle varie parti del corpo e provengono dai recettori muscolari e articolatori, e un sistema introcettivo che dirige le informazioni sulle condizioni interne al corpo come temperatura e pressione sanguigna. Il sistema esterocettivo comprende a sua volta un sistema per la percezione degli stimoli meccanici (tatto) un sistema per gli stimoli termici (caldo e freddo) e un sistema per gli stimoli nocicettivi (dolore). Nella pelle ci sono 6 tipi di recettori presenti sia nella pelle con peli che glabra, come il palmo della mano, fra cui i recettori cutanei più semplici sono le terminazioni nervose libere, cioè prive di recettori specializzati, che appaiono particolarmente sensibili al tatto e al dolore. La pelle glabra contiene 4 tipi di recettori : due ad adattamento rapido che si adattano rapidamente e rispondono meglio a stimoli tattili di breve durata come i corpuscoli di Pacini più grandi e profondi e i corpuscoli di Meissner che invece si trovano subito sotto lo strato superficiale della pelle, e due ad adattamento lento come I recettori di Merkel e i corpuscoli di Ruffini che non presentano adattamento e rispondono in modo tonico agli stimoli tattili lunghi ed invarianti come rispettivamente la pressione e la trazione prolungata della cute. La pelle con peli comprende invece corpuscoli di Pacini, di Ruffini e recettori di Merkel e i recettori piliferi che sono recettori ad adattamento rapido che si trovano vicino alla base del pelo. La differenza fra adattamento rapido e lento può essere rappresentata dall’esempio in cui un oggetto appuntito preme sulla pelle in modo prolungato e costante. Tale stimolo all’inizio produce un incremento di scarica in tutti 58 i recettori che evoca la sensazione di essere stati toccati e dopo pochi millisecondi rimangono attivi solo i recettori ad adattamento lento e quindi cambia il tipo di sensazione che si produce. Di solito non siamo consapevoli di stimoli meccanici costanti finchè non vi poniamo attenzione, e quando dobbiamo identificare degli oggetti mediante il tatto li manipoliamo con le mani in modo che la configurazione degli stimoli vari continuamente nel tempo. L’identificazione degli oggetti mediante il tatto è detta stereog-nosi. Le fibre nervose che trasportano le informazioni dai recettori somatosensoriali si raccolgono nei nervi periferici ed entrano nel midollo spinale attraverso le radici dorsali. L’area del corpo innervata dalle radici dorsali di un dato segmento del midollo spinale è chiamato dermatoma; data la sovrapposizione tra dermatomi adiacenti la distruzione di una singola radice dorsale produce in genere solo la parziale perdita dell’ informazione diretta alla corteccia somatosensoriale. le informazioni somatosensoriali sono trasmesse al SNC attraverso due vie principali ascendenti : il sistema colonna dorsale-lemnisco mediale, che trasporta alla corteccia informazioni che riguardano tatto e propriocezione, e il sistema anterolaterale, che veicola informazioni concernenti dolore e temperatura. Nel sistema colonna dorsale lemnisco mediale i neuroni sensoriali entrano nel midollo spinale attraverso le radici dorsali salgono dallo stesso lato costituendo le colonne dorsali del midollo e fanno sinapsi nei nuclei delle colonne dorsali del midollo allungato. A questo punto passano controlateralmente e salgono mediante il lemnisco mediale verso il talamo che proietta alla corteccia somatosensoriale primaria e secondaria. Il nucleo ventrale posteriore riceve input anche dai nervi facciali in particolare il trigemino. La maggior parte dei neuroni del sistema anterolaterale fa sinapsi nella sostanza grigia delle corna dorsali non appena entra nel midollo. Da qui gli assoni della maggior parte dei neuroni sale contro lateralmente verso il cervello viaggiando nella regione anterolaterale del midollo; alcuni neuroni invece non decussano e salgono dallo stesso lato. Il sistema anterolaterale comprende tre tratti: il tratto spino talamico che proietta ai nuclei ventrali posteriori del talamo, il tratto spino reticolare, che proietta alla formazione reticolare e poi al talamo, e il tratto spinotettale che proietta al tetto del mesencefalo. I tre rami del trigemino che portano informazioni sul dolore e sulla temperatura della pelle della faccia proiettano agli stessi siti talamici. Da qui l’informazione è poi distribuita alle varie parti del cervello. L'informazione che deve essere trasmessa rapidamente e con un'alta fedeltà spaziale e temporale prende la via del sistema colonne dorsali-lemnisco mediale, mentre quella che non necessita di una trasmissione veloce ne di una grande fedeltà spaziale è affidata al sistema anterolaterale. Attraverso alcuni esperimenti effettuati applicando stimolazioni elettriche sulla superficie corticale di pazienti coscienti prima di un intervento neurochirurgico, Penfield analizzò la relazioni fra siti corticali stimolati e le parti del corpo in cui era evocata una sensazione tattile e scoprì che la corteccia somatosensoriale primaria dell’uomo è organizzata in modo somatotopico cioè le diverse parti del corpo inviano proiezioni a diverse parti della corteccia somatosensoriale. In tale mappa, che è comunemente detta homunculus somatosensoriale, le regioni più estese sono quelle relative alle parti del corpo deputate alle discriminazioni tattili fini come mani, lingua labbra. Al di sotto dell’area somatosensitiva primaria si estende quella secondaria, riceve molti dei suoi input dall’area primaria e a differenza dell’area primaria che riceve input prevalentemente contro laterali la secondaria riceve input da entrambi le parti del corpo. Vi sono prove che anche la corteccia primaria somatosensitiva sia organizzata gerarchicamente in 4 aree disposte parallelamente e tramite colonne, cioè ogni neurone di una particolare colonna risponde allo stesso tipo di stimoli e ha il proprio campo recettivo nella stessa parte del corpo. I campi recettivi di molti neuroni della corteccia somatosensoriale primaria possono essere suddivisi in aree eccitatorie e inibitorie in antagonismo tra loro. I deficit che si presentano dopo una lesione alla corteccia somatosensitiva primaria sono comunque modesti e sono bilaterali solo se tale lesione coinvolge anche la corteccia somatosensoriale secondaria. Uno dei deficit più ricorrenti derivanti da lesioni della corteccia somatosensoriale sono le ag-nosie. Ad esempio dopo la rimozione unilaterale della corteccia somatosensoriale primaria in pazienti epilettici si è riscontrata una ridotta abilita nel rilevare una lieve stimolazione tattile e nell’identificare gli oggetti 59 mediante il tatto, detta astereoag-nosia. Oltre all’astereoag-nosia vi è anche un altro tipo di agnosia somatosensoriale detta asomatoag-nosia, cioè l’incapacità di riconoscere parti del proprio corpo. Di solito interessa il lato sinistro del corpo e si associa comunemente ad ampie lesioni del lobo parietale posteriore destro. Spesso è accompagnata anche da anosoag-nosia cioè l’incapacità di rendersi conto dei propri sintomi neurologici, e a volte anche da negligenza controlaterale (neglect) ovvero la tendenza a non rispondere a stimoli posti nello spazio controlaterale alla lesione dell’emisfero destro. La percezione del dolore, benché negativa, è molto importante per la nostra sopravvivenza, quindi ha una funzione adattiva. Non ha una rappresentazione corticale; gli stimoli dolorosi provocano attivazione sia della corteccia somatosensoriale primaria che secondaria ma l’asportazione di entrambi queste aree non determina alcuna modificazione nella soglia del dolore. L’area corticale più frequentemente associata ala dolore è la corteccia cingolata anteriore che risulta da alcuni studi essere associata più alle reazioni emotive al dolore che alla percezione del dolore stesso. Generalmente è dovuto ad un danno somatico e la percezione del dolore infine può essere soppressa da vie discendenti di controllo. In questo senso è stata proposta la teoria della barriera di controllo o teoria del gate control di Melzac e Wall che per primi hanno sviluppato una teoria delle basi neurali del dolore che poteva spiegare come fattori emotivi e cognitivi potessero bloccarne la percezione; tale teoria implica che segnali discendenti del cervello potessero attivare dei circuiti di soglia nel midollo spinale che potevano bloccare l’ingresso dei segnali del dolore prima che essi raggiungessero il cervello. Viene però contrastata da quei ricercatori che ritengono che il dolore sia funzione diretta dei danni dei tessuti e che quindi fattori cognitivi ed emotivi non possono avere potere analgesico. Attraverso il contributo di Reinolds sono state fatte scoperte che hanno condotto alla scoperta dei circuiti di controllo del dolore: si è visto che la stimolazione elettrica in particolare del grigio periacqueduttale (PAG) ha effetti analgesici; si dimostrò poi che il PAG ed altre aree cerebrali presentano recettori specializzati per gli analgesici oppiacei come la morfina; e vennero isolati diversi oppiacei endogeni come le endorfine. Queste tre scoperte portarono ad ipotizzare che farmaci analgesici e fattori psicologici riducano la percezione de dolore attraverso circuiti discendenti dell’analgesia sensibili alle endorfine che scendono dal PAG, nei quali neuroni serotoninergici dei nuclei del rafe proiettano lungo le colonne dorsali del midollo ed eccitano interneuroni midollari sensibili agli oppiacei bloccando cosi l’ingresso dei segnali dolorifici. ATTENZIONE SELETTIVA. Rispetto alla moltitudine di stimoli che arrivano ai nostri organi sensoriali noi ne percepiamo solo una piccola parte attraverso quel processo denominato attenzione selettiva. Mentre da un lato l’attenzione selettiva migliora la percezione degli stimoli selezionati dall’altra riduce la percezione di quelli che non rientrano nel nostro fuoco di attenzione. Essa infatti funziona rinforzando gli attributi a cui si presta attenzione e indebolendo gli altri. In generale l’anticipazione di uno stimolo aumenta l’attività nervosa dei circuiti utilizzati dallo stimolo stesso. Ci sono due modi di attivare l’attenzione: con processi cognitivi interni in cui l’attenzione endogena è mediata da meccanismi nervosi che agiscono dall’alto verso il basso e con avvenimenti esterni in cui l’attenzione esogena è mediata da meccanismi nervosi che agiscono dal basso verso l’alto. (attenzione ad un tavolo per cercare le chiavi – endogena, o perché il gatto ha rovesciato qualcosa – esogena). L’attenzione è un aspetto molto importante della percezione e possiamo averne un’idea attraverso il fenomeno della change blindness (cecità al cambiamento). Per studiare tale fenomeno si mostra al soggetto una fotografia sullo schermo di un computer e gli si chiede di riferire ogni variazione percepita dell’immagine. In realtà l’immagine è composta da due immagini che si alternano con un intervallo di meno di 0,1 secondo e che differiscono solo per un dettaglio grossolano. In genere i pazienti ci mettono un po’ prima di capire che l’immagine compare e ricompare e questo avviene perchè non hanno assolutamente ricordi delle parti della scena che non attirano la loro attenzione e ciò li rende inconsapevoli del cambiamento. Il fenomeno della change blindness non avviene però senza i brevi intervalli tra le immagini, perché senza di essi non è richiesta memorizzazione e i cambiamenti sono percepiti immediatamente. Sono stati effettuati diversi esperimenti per dimostrare gli effetti 60 dell’attenzione sull’attività nervosa del sistema visivo sia sulle scimmie che sull’uomo. In quest’ultimo caso, utilizzando tecniche di visualizzazione funzionale del cervello, è stato chiesto ai soggetti di differenziare gli stimoli presentati in base alla forma, al colore e al movimento e si è visto che l’attenzione alla forma e al colore provocava un aumento dell’attività nelle aree della via ventrale, mentre l’attenzione al movimento provocava un aumento dell’attività in un’area della via dorsale. Lo stesso avveniva se a soggetti venivano mostrati dei volti, quando prestavano attenzione all’identità si attivavano aree della via ventrale mentre quando prestavano attenzione alla posizione del volto rispetto alla cornice erano più attive le aree della via dorsale. Un altro aspetto dell’attenzione selettiva è messo in evidenza dal fenomeno del cocktail party che si riferisce al fatto che anche quando siamo intensamente concentrati su una conversazione tanto da non sapere cosa accade intorno a noi, la nostra attenzione può essere improvvisamente catturata da qualcuno che grida il nostro nome. Ciò indica che il nostro cervello esclude dalla coscienza gli stimoli irrilevanti tenendo comunque inconsciamente sotto controllo gli stimoli esclusi nel caso si presentasse qualcosa a cui è necessario porre attenzione. La simultag-nosia è la difficoltà di prestare attenzione a più di uno stimolo per volta ed è un danno bilaterale associato alla via dorsale responsabile della localizzazione degli oggetti nello spazio. I movimenti oculari hanno un ruolo importante nell’attenzione visiva che può essere modificata anche senza spostare la direzione dello sguardo. In questo caso ci si riferisce ad una covert attention o attenzione implicita in cui lo spostamento dell’attenzione visiva non corrisponde a un movimento oculare, mentre in caso contrario ci si riferisca ad una overt attention o attenzione esplicita. Sistema senso motorio Il sistema sensori motorio è il sistema che rileva input sensoriali che vengono poi integrati per pianificare programmare organizzare ed eseguire una sequenza motoria. I principi su cui si basa sono tre: è organizzato in modo gerarchico, l’output motorio è guidato dall’input sensoriale, l’apprendimento può modificare la natura e il locus del controllo sensori motorio. Nell’organizzazione gerarchica gli ordini, che riguardano scopi generali più che specifici piani d’azione, partono dal livello più alto, cioè la corteccia associativa, per proseguire verso i livelli più bassi, cioè i muscoli. Il sistema sensori motorio è un sistema gerarchico che opera in parallelo, cioè il fluire delle informazioni segue percorsi molteplici tra i diversi livelli. Un’altra caratteristica della gerarchia sensori motoria è la segregazione funzionale, cioè ognuno dei livelli gerarchici tende a essere costituito da diverse unità ognuna con una funzione diversa. La differenza fra i sistemi sensoriali ed il sistema sensori motorio consiste nel fatto che nei sistemi sensoriali l’informazione fluisce principalmente verso l’alto mentre nel sensori motorio fluisce principalmente verso il basso. Per quanto riguarda l’output motorio Il sistema sensori motorio monitora continuamente l’esecuzione delle nostre risposte corporee attraverso gli occhi, gli organi dell’equilibrio, insieme ai recettori che si trovano nella pelle nei muscoli e nelle articolazioni; le informazioni raccolte vengono poi mandate di nuovo ai circuiti sensori motori attraverso il cosiddetto feedback sensoriale importante per portare a termine le risposte che l’hanno provocato. Le sole risposte normalmente non influenzate da un feedback sensoriale sono i movimenti balistici cioè movimenti brevi, ad elevata velocità, con un’esecuzione del tipo tutto o nulla. (scacciare una mosca). L’output motorio in assenza di un feedback sensoriale può indicare problemi senso motori e portare a difficoltà nel fornire risposte complesse perché non essendoci il feedback c’è una difficoltà ad adattare il gesto motorio ad eventuali disturbi esterni imprevisti. Molte correzioni dell’output motorio in risposta al feedback sensoriale sono controllate dai livelli inferiori della gerarchia senza il coinvolgimento dei livelli più alti. Molte delle abilità sensori motorie dipendono da un apprendimento durante le cui fasi iniziali ogni risposta è sotto il controllo cosciente, ma con la pratica queste risposte singole sono organizzate in sequenze di azioni integrate, continue e armoniose, modulate da feedback sensoriali che non richiedono una regolazione cosciente. Il sistema sensomotorio è sistema organizzato in base ad una gerarchia di programmi senso motori centrali, la cui combinazione produce i cosiddetti movimenti complessi. E’costituito dalla corteccia 61 associativa o parietale posteriore, dalla corteccia motoria secondaria e primaria, dai nuclei motori del tronco encefalico e dai circuiti motori spinali. La corteccia associativa svolge un ruolo importante nell’integrazione delle informazioni spaziali per compiere un movimento volontario e nel dirigere l’attenzione. Infatti per poter iniziare un movimento il sistema nervoso deve conoscere la posizione di partenza delle parti del corpo che devono essere mosse e le posizioni degli oggetti esterni con cui si deve interagire. Quest’area riceve input da tre diversi sistemi sensoriali deputati alla localizzazione del corpo e degli oggetti esterni nello spazio : visivo, uditivo e somatosensoriale, invia una gran parte degli output ad aree della corteccia motoria. Una lesione della corteccia parietale posteriore può produrre deficit sensori motori legati a disturbi della percezione e della memoria di relazioni spaziali, della precisione di gesti di avvicinamento e prensione, del controllo dei movimenti oculari e dell’attenzione. Le conseguenze più importanti sono comunque l’aprassia, il neglect o eminattenzione contro laterale e la astereog-nosia. L’astereog-nosia è la difficoltà nel riconoscimento di oggetti posti nella mano controlaterale alla lesione. L’aprassia è un disturbo del movimento volontario : I pazienti affetti da aprassia hanno difficoltà ad eseguire movimenti specifici quando viene loro espressamente richiesto, in particolare quando tali movimenti sono estrapolati dal loro contesto naturale. In condizioni naturali invece sono in grado di effettuare gli stessi movimenti senza difficoltà. Sebbene i sintomi siano bilaterali, questo deficit è spesso causato da un danno cerebrale unilaterale del lobo parietale posteriore sinistro, mentre le lesioni di quello destro provocano invece aprassia costruttiva ovvero una disorganizzazione dei movimenti finalizzati alla costruzione di un oggetto unico attraverso più elementi. Per rilevare la aprassia esistono due test che sono il Kimura box test e il Serial arm movement and coping test. Può essere anche utilizzato il sub test del disegno a cubetti della scala Weschler versione adulti ed il subtest della ricostruzione di figure sempre della scala Weschler versione adulti che però rilevano aprassia costruttiva. Il neglect controlaterale invece è un disturbo nella capacità di rispondere a stimoli visivi, uditivi e somatosensoriali somministrati nella parte del corpo contro laterale al lato della lesione cerebrale. Il disturbo è spesso associato a lesioni importanti del lobo parietale posteriore destro infatti molti dei pazienti affetti da neglect contro laterale hanno difficoltà a reagire agli stimoli che provengono dalla sinistra del loro corpo, detta sinistra egocentrica (parzialmente definita dal campo gravitazionale). L’incapacità di percepire coscientemente un oggetto non significa necessariamente che tale oggetto non sia stato effettivamente percepito. Nei pazienti affetti da neglect contro laterale ci sono due fatti che dimostrano che gli oggetti anche se non coscientemente sono stati in realtà percepiti :1) quando gli oggetti sono presentati a sinistra del paziente in modo ripetuto e sempre nello stesso punto sebbene non vengano percepiti in modo cosciente i pazienti mostrano di guardare in quello stesso punto nelle prove successive; 2) i pazienti possono identificare più prontamente frammenti di immagini visti a destra se la versione completa delle immagini è stata presentata prima a sinistra dove non potevano essere percepiti cosciamente. Poi vi è la corteccia associativa prefrontale dorso laterale che sembra rivestire un certo ruolo nella valutazione degli stimoli e nell’inizio della risposta volontaria ad essi. L’attività di alcuni neuroni dipende dalle caratteristiche dell’oggetto, quella di altri dalla loro posizione. Le proprietà dei neuroni di quest’area ed i modelli di connessione con le altre aree suggeriscono che sia proprio qui che ha inizio la decisione di dare inizio ad un movimento volontario. Riceve proiezioni dalla corteccia parietale posteriore e proietta a sua volta alla corteccia motoria secondaria. La corteccia motoria secondaria ha il ruolo di pianificare l’azione motoria specificando le sequenze di contrazione muscolare necessarie per ottenere lo scopo desiderato. Alcuni studi che si avvalgono della visualizzazione funzionale del cervello hanno mostrato che l’attività del cervello è stata rilevata mentre il soggetto immaginava di realizzare una serie di movimenti oppure progettava la loro realizzazione. Riceve la maggior parte dei segnali dalla corteccia associativa e invia la maggior parte dei segnali alla corteccia motoria primaria. La corteccia motoria secondaria si divide in due parti : l’area motoria supplementare e la corteccia premotoria. L’area motoria supplementare ha la funzione di programmare e coordinare i movimenti volontari. La corteccia premotoria ha invece una funzione di programmazione visuomotoria 62 complessa e i suoi neuroni rispondono sia a stimoli tattili che visivi e per questo vengono detti neuroni bimodali (attivati da stimoli in due diverse modalità), in cui il campo recettivo visivo è sempre adiacente al suo campo recettivo somatosensoriale. Qualora vi siano lesioni a questi livelli il deficit che maggiormente si può rilevare fa riferimento ad un riflesso di prensione esagerato. La corteccia motoria primaria è posta nel lobo frontale e rappresenta il maggiore centro di convergenza e partenza dei segnali corticali sensorimotori. Riceve input sensoriali e motori indiretti dalla corteccia parietale, dalla corteccia motoria secondaria, mentre riceve input diretti dalla corteccia somatosensoriale e a sua volta invia segnali ai livelli bassi del sistema senso motorio. La corteccia motoria primaria ha una organizzazione somatotopica e la mappa somatotopica di quest’area è chiamata homunculus motorio. Tale mappa è stata individuata attraverso la stimolazione di vari siti della corteccia motoria primaria che determinava la produzione di movimenti nelle parti del corpo corrispondenti alle aree corticali stimolate. La maggior parte della corteccia motoria primaria è deputata al controllo di parti del corpo che svolgono movimenti complessi, come mani e bocca. Ricerche effettuate alle aree della mano sulla mappa somatotopica delle scimmie hanno rivelato che molti dei neuroni della corteccia motoria primaria corrispondenti alle dita non controllano un singolo dito ma sono implicati nel movimento di diverse dita, rivelando così una notevole sovrapposizione spaziale tra questi neuroni. Lesioni ridotte della zona della mano della corteccia motoria primaria non interrompono mai selettivamente l’attività di un singolo dito. Ciascuna area della corteccia motoria primaria controlla i movimenti di uno specifico gruppo di muscoli e attraverso la corteccia somatosensoriale riceve informazioni di feedback dai recettori di questi muscoli e delle articolazioni sulle quali essi operano. Ad esempio I neuroni della corteccia motoria primaria che si trovano nell’area corrispondente al braccio raggiungono la massima attivazione quando il braccio esegue movimenti di raggiungimento (reaching) in una particolare direzione, ovvero tali neuroni hanno una selettività direzionale specifica. Una lesione estesa della corteccia motoria primaria rende il paziente incapace di muovere una parte del corpo, per esempio un dito, indipendentemente dalle altre, e inoltre riduce la velocità, l’accuratezza e la forza dei movimenti. Può provocare astereog-nosia , ma non causa la perdita del movimento volontario. Sono stati effettuati inoltre studi sul flusso sanguigno corticale e si è scoperto che il flusso sanguigno aumenta in quelle regioni del sistema nervoso che divengono più attive nell’esecuzione di una attività senso motoria. Per misurare il flusso sanguigno in soggetti umani coscienti veniva iniettata nella carotide una sostanza chimica inerte leggermente radioattiva, lo xenun 133, dopodichè si misurava l’accumulo di radioattività in varie zone della corteccia ipsilaterale a quella dove era stata fatta l’iniezione utilizzando i contatori di scintillazione posti vicino al cranio. Per ogni soggetto il flusso sanguigno corticale di area veniva misurato dopo un periodo di 45 secondi di rilassamento ad occhi chiusi poi dopo 20 minuti veniva effettuata e la misurazione questa volta veniva fatta dopo 45 secondi in cui il soggetto era impegnato in qualche attività. L’output di ogni scintillatore veniva inviato ad un computer che calcolava le variazioni di flusso sanguigno fra la condizione di riposo e la condizione di attività. Ciò che si è visto è che vi era un incremento di flusso sanguigno nell’emisfero sinistro durante l’esecuzione di sequenze motorie con le dita della mano destra. E’ stato anche misurato il flusso sanguigno in cui i soggetti rimanevano immobili ma immaginavano di eseguire la sequenza motoria precedentemente effettuata e gli incrementi in questo caso erano circoscritti all’area motoria supplementare perché la sequenza motoria era svolta su un attività di ideazione. I livelli subcorticali del funzionamento senso motorio includono il cervelletto, i gangli della base e le vie motorie discendenti. Le vie motorie discendenti sono vie costituite da gruppi di assoni attraverso i quali i segnali nervosi sono trasmessi dalla corteccia motoria primaria ai motoneuroni del midollo spinale attraverso 4 vie differenti, che concorrono al controllo del movimento volontario: due vie dorso-laterali, implicate nel controllo della prensione svolta dagli arti, e due vie ventro-mediali, implicate nel controllo della postura e nel controllo motorio globale. Una delle vie dorso-laterali, diretta, è il tratto cortico spinale dorsolaterale i cui neuroni più importanti sono le cellule di Betz , neuroni piramidali molto grandi della corteccia 63 motoria primaria, i cui assoni terminano nelle regioni inferiori del midollo spinale su motoneuroni che proiettano ai muscoli delle gambe. La maggior parte degli assoni di questo tratto fanno sinapsi con piccoli interneuroni della sostanza grigia che a loro volta sono in contatto sinaptico con i motoneuroni dei muscoli distali del polso, della mano e delle dita della mano e del piede. La seconda via dorsolaterale, indiretta, è il tratto cortico rubro spinale dorsolaterale (dove rubro fa riferimento al nucleo rosso) in cui gli assoni fanno sinapsi con interneuroni che terminano sui motoneuroni che innervano i muscoli distali delle braccia e delle gambe. Per quanto riguarda le due vie ventro-mediali, anch’esse una diretta e una indiretta, la prima è il tratto corticospinale ventromediale in cui nella loro discesa gli assoni innervano molti circuiti interneuronali di segmenti spinali differenti da ambo le parti della materia grigia spinale. Il tratto cortico tronco encefalo spinale ventromediale è costituito da neuroni in connessione sinaptica con interneuroni di segmenti spinali diversi che controllano i muscoli prossimali del tronco e degli arti. Le strutture del tronco encefalico coinvolte in questo tratto sono 4 : il tetto che riceve informazioni spaziali uditive e visive, il nucleo vestibolare che riceve informazioni relative all’equilibrio dai recettori dei canali semicircolari dell’orecchio interno, la formazione reticolare che contiene tra l’altro i programmi motori per movimenti complessi come camminare, nuotare o saltare, e i nuclei motori dei nervi cranici che controllano i muscoli della faccia. Le vie dorsolaterali e ventromediali si differenziano per due aspetti: 1) i tratti ventromediali sono molto più diffusi e innervano bilateralmente diversi segmenti del midollo spinale, mentre i tratti dorsolaterali hanno terminazioni controlaterali su un solo segmento spinale e talvolta innervano direttamente un motoneurone. 2) i motoneuroni attivati dai tratti ventromediali proiettano ai muscoli prossimali del tronco e degli arti (es:spalle), mentre quelli attivati dai tratti dorsolaterali proiettano ai muscoli distali (es:dita). Il cervelletto costituisce solo il 10% del cervello ma contiene più della metà dei suoi neuroni ed è organizzato in lobi, colonne e strati. Si pensa che il cervelletto riceva informazioni riguardanti i piani di azione dalla corteccia motoria primaria e secondaria, informazioni riguardo i segnali motori provenienti dai nuclei motori del tronco encefalico e informazioni di feedback sulle risposte motorie attraverso i sistemi somatosensoriale e vestibolare. Si ritiene che il cervelletto metta a confronto questi tre tipi di informazioni e corregga i movimenti in corso di esecuzione che deviano rispetto quanto pianificato. Si ritiene inoltre che il cervelletto svolga un ruolo importante nell’attività cognitiva e nell’apprendimento soprattutto di sequenze di movimento in cui la sincronizzazione è un elemento importante. Un soggetto con un danno cerebellare perde l’abilità di controllare in maniera accurata la direzione, la forza, la velocità , l’ampiezza dei movimenti e la capacità di variare le risposte motorie al variare delle condizioni esterne. Il paziente ha difficoltà a mantenere una postura per esempio stare in piedi e gli sfori che fa per riuscirci portano tremore;vi sono anche gravi disturbi dell’equilibrio, della deambulazione, dell’articolazione della parola e del controllo dei movimenti oculari. Inoltre l’apprendimento di nuove sequenze motorie è molto difficoltoso. I gangli della base non contengono tanti neuroni come il cervelletto ma per alcuni versi sono più complessi. Sono costituiti da un’organizzazione labirintica di corpi cellulari, assoni e dendriti. Ciò suggerisce che essi abbiano una attività modulatoria dei movimenti lenti. Una prova di questo è stata ottenuta attraverso studi sul morbo di Parkinson, in cui i gangli della base sono implicati, in cui si è visto che sono difficili i movimenti lenti e finalizzati mentre quelli di rapida risposta semplici sono possibili. Anche studi sulle scimmie hanno portato a queste evidenze, in questi studi le scimmie sane venivano portate a spingere velocemente una leva in risposta ad una luce, e a spingerne un'altra più lentamente in risposta ad un altra luce, e si è visto che i gangli della base erano più attivi durante i movimenti lenti mentre quelli del cervelletto erano più attivi durante i movimenti rapidi. Ricevono informazioni da varie aree della corteccia e le ritrasmettono attraverso il talamo alle diverse aree della corteccia motoria. Inizialmente si pensava che i gangli della base avessero un ruolo nella modulazione delle risposte motorie, ma oggi si pensa che come il cervelletto siano coinvolte anche in attività cognitive. I muscoli 64 I circuiti spinali senso motori sono costituiti dai muscoli, dai loro componenti e dalle loro funzioni. La prima componente da definire è l’unità motoria, cioè l’ unità più piccola di tutto il sistema motorio formata da un singolo motoneurone e da tutte le fibre dei muscoli scheletrici da esso innervati. Quando il motoneurone scarica, tutte le fibre muscolari di quella unità si contraggono contemporaneamente. Ogni unità motoria ha un diverso numero di fibre muscolari: le dita e la faccia ne contengono il minor numero consentendo che il controllo motorio venga esercitato con il più alto grado di selettività. Un muscolo scheletrico è formato da centinaia di migliaia di fibre muscolari molto sottili raccolte da una membrana resistente e fissate all’osso da un tendine. L’insieme dei motoneuroni che innervano le fibre di un muscolo è denominato pool motorio. L’acetilcolina che viene rilasciata dai motoneuroni nella giunzione neuromuscolare attiva la placca motoria di ciascuna fibra muscolare provocando la contrazione. La placca motoria è l’area recettiva sulla fibra muscolare della giunzione neuromuscolare. Le fibre muscolari si dividono in due categorie : rapide e lente. Le prime si contraggono e si rilasciano velocemente, sono in grado di generare una notevole forza ma si affaticano velocemente poiché sono caratterizzate da una bassa vascolarizzazione che conferisce loro un colore pallido. Le fibre lente invece sono più deboli ma in grado di contrarsi più a lungo perché maggiormente vascolarizzate e da qui il loro colore rosso. A seconda della loro funzione i muscoli sono costituiti da un diverso numero di fibre rapide e lente. Molti muscoli scheletrici si dividono in flessori, che agiscono per piegare o flettere un’articolazione, ed estensori che agiscono per stirarla o estenderla. Due muscoli la cui contrazione produca lo stesso movimento vengono detti muscoli agonisti o sinergici mentre quelli che agiscono in opposizione come il bicipite ed il tricipite sono detti muscoli antagonisti. La contrazione di due muscoli può essere di due tipi: isometrica o statica quando il muscolo sviluppa tensione quindi si contrae ma non modifica la propria lunghezza e non produce lavoro, dinamica quando invece il muscolo varia la propria lunghezza senza che la tensione si modifichi, come nel caso della contrazione isotonica. Quando singole scosse ripetute aumentano la forza di contrazione di un muscolo si verifica quello che viene definito un fenomeno di sommazione, che può essere sommazione spaziale quando aumenta il numero di unità motorie che si contraggono simultaneamente, o sommazione temporale quando aumenta la frequenza delle contrazioni, che se ripetuta ad intervalli sempre più brevi può causare una contrazione tetanica, in cui la contrazione del muscolo nel suo insieme appare priva di oscillazioni e continua. L’attività dei muscoli scheletrici è controllata da due tipi di recettori : gli organi tendinei del Golgi, che si trovano all’interno dei tendini che collegano ciascun muscolo scheletrico all’osso, e i fusi neuromuscolari, che sono posti all’interno dello stesso tessuto muscolare. Gli organi tendinei del Golgi rispondono all’aumento della tensione del muscolo, ma sono insensibili alle variazioni della sua lunghezza, mentre i fusi neuromuscolari rispondono alle variazioni di lunghezza senza rispondere a quelle di tensione. Il ruolo degli organi tendinei del Golgi è, oltre a quello di fornire al sistema nervoso informazione relative alla tensione muscolare, anche quello di avere una funzione protettiva. Quando infatti la tensione di un muscolo è cosi esagerata da costituire un rischio di danneggiamento, gli organi tendinei eccitano gli interneuroni inibitori nel midollo spinale che provocano la decontrazione dl muscolo. Il fuso neuromuscolare, che si basa su un circuito a feedback, è formato invece da un muscolo intrafusale innervato da un proprio motoneurone intrafusale, ed ha il compito di rispondere ad ogni piccola variazione di lunghezza del muscolo extrafusale (muscolo scheletrico); il motoneurone intrafusale ha la funzione di correggere la lunghezza del muscolo intrafusale mantenendo in questo modo un grado appropriato di tensione del fuso neuromuscolare indipendentemente dalla lunghezza del muscolo scheletrico. I fusi neuromuscolari sono agganciati in parallelo rispetto ai muscoli mentre gli organi tendinei del Golgi sono agganciati in serie. La funzione più esemplare del fuso neuromuscolare è il riflesso di stiramento o miotatico del muscolo, un riflesso evocato da una forza esterna improvvisa che stira un muscolo, come ad esempio il riflesso tendineo patellare che avviene quando il medico percuote il ginocchio di un paziente seduto su un lettino con un martelletto di gomma. In questo caso il muscolo estensore lungo il femore viene stirato, ciò distende i recettori di 65 stiramento dei fusi neuromuscolari che a loro volta inviano una serie di potenziali di azione al midollo spinale attraverso i neuroni che passano nelle radici dorsali. Questi potenziali di azione eccitano i motoneuroni delle corna anteriori del midollo i quali rispondono inviando potenziali d’azione al muscolo il cui stiramento li aveva originariamente eccitati. Il ritorno di questi impulsi al punto di partenza si traduce in una contrazione muscolare di compensazione e in una estensione della gamba. Nella vita di tutti i giorni la funzione del riflesso di stiramento è quella di mantenere la stabilità degli arti, come ad esempio se si tiene in mano un bicchiere e il bicipite ha un livello di contrazione moderato considerando l’ipotesi in cui una mano possa premere inaspettatamente sul braccio c’è in questo caso uno stiramento del bicipite e quindi un aumento dell’eccitazione del fuso muscolare afferente che porta ad un eccitazione del neurone motorio che aumenta la tensione nel bicipite controbilanciando così la forza esercitata dalla pressione della mano per poter mantenere il braccio nella posizione originaria. Il meccanismo attraverso cui ciò avviene si basa su due importanti principi: il feedback sensoriale nella regolazione dell’output motorio e la capacità dei circuiti inferiori della gerarchia motoria di assolvere autonomamente compiti inferiori. Un altro riflesso tipico è il riflesso di ritrazione che si ha quando si tocca qualcosa che provoca dolore. Quando si applica ad esempio uno stimolo doloroso ad una mano le prime risposte sono registrate nei motoneuroni dei muscoli flessori del braccio dopo circa 1.6 millisecondi, che è il tempo necessario per attraversare due sinapsi. A differenza del riflesso di stiramento non è monosinaptico, poiché coinvolge diverse vie multisinaptiche, alcune delle quali coinvolgono la corteccia, che portano all’eccitazione di interneuroni eccitatori ed inibitori che a loro volta eccitano ed inibiscono i motoneuroni del bicipite e del tricipite del gomito per indurre una rapida flessione dello stesso. Quindi un singolo input sensoriale produce un pattern coordinato di risposte motorie attraverso i circuiti posti all’interno del midollo spinale. Principio importante del sistema di circuiti del midollo spinale è l’innervazione reciproca, che si riferisce al fatto che i muscoli antagonisti sono innervati in modo tale che quando uno viene contratto l’altro si rilascia per consentire una risposta armoniosa. I movimenti sono più veloci quando c’è un’eccitazione simultanea di tutti i muscoli agonisti e un’inibizione completa di tutti gli antagonisti. Normalmente comunque la maggior parte dei muscoli ha sempre un certo grado di contrazione e i movimenti vengono effettuati correggendo il livello di cocontrazione relativa tra i muscoli antagonisti, che previene anche gli effetti derivanti dall’insorgere improvviso di una forza esterna. La maggior parte dei riflessi sono comunque molto più complessi basti pensare al programma di riflessi deputato al controllo della deambulazione che prevede una integrazione di informazioni visive provenienti dagli occhi e somatosensoriali provenienti da piedi, ginocchia braccia ecc… e che deve essere altamente flessibile per potersi adeguare alla variazioni esterne ( pendenza del terreno, forze esterne). Al riguardo è stato dimostrato che negli animali la deambulazione è controllata ampiamente dal midollo spinale (esperimento sui gatti in cui cervello e midollo sono separati chirurgicamente ma che una volta ricevuto il feedback sensoriale iniziano a camminare opportuno), mentre negli esseri umani un ruolo importante è rivestito dalle vie motorie discendenti Le fibre muscolari e i motoneuroni che le innervano hanno comunque bisogno di momenti di riposo. Affinchè ciò avvenga ogni motoneurone prima di abbandonare il midollo spinale di dirama inviando un ramo collaterale a contrarre sinapsi con un interneurone inibitorio che inibisce lo stesso motoneurone che ha inviato il segnale, e in quel momento la contrazione del muscolo viene affidata ad altri motoneuroni del pool motorio. L’inibizione prodotta da questi circuiti a feedback viene detta inibizione collaterale ricorrente e i piccoli interneuroni inibitori sono chiamati cellule di Renshaw. **La teoria dei programmi sensori motori centrali suggerisce che tutti i livelli del sistema sensori motorio tranne i più alti contengano programmi di attività e che i movimenti complessi derivino dall’attivazione dell’appropriata combinazione di questi programmi. Se la corteccia associativa decide di svolgere un’azione attiva dei programmi di alto livello che a loro volta attivano programmi motori spinali specifici che controllano i vari elementi della sequenza di movimenti e portano i muscoli al raggiungimento dell’obiettivo. Una volta attivato ogni livello del sistema sensori motorio è in grado di operare sulla base 66 del feedback sensoriale del momento senza il controllo dei livelli superiori. La maggior parte delle risposte che vengono eseguite sono svolte senza il coinvolgimento corticale e senza esserne consapevoli. Il sistema sensori motorio mediante cervelletto e gangli della base si assicura che i programmi di azione siano ben coordinati ed efficaci nei diversi livelli gerarchici. Uno stesso movimento non sempre viene però svolto nello stesso modo, ma può essere realizzato mediante modi diversi e muscoli diversi : ciò prende il nome di equivalenza motoria. Ad esempio si impara a scrivere il proprio nome con determinati movimenti della mano ma se si prova a scriverlo con il piede la firma manterrà comunque alcune delle sue principali caratteristiche; ciò avviene perché i programmi sensori motori centrali utilizzati sono immagazzinati nei livelli alti della gerarchia sensori motoria e cioè nella corteccia motoria secondaria che controlla la mano più usata e che viene attivata anche quando ad essere usato per la firma è il piede. L’informazione sensoriale che controlla i programmi sensori motori centrali non è necessariamente cosciente è ciò è dimostrato in primis dal fatto che vi sono pazienti che rispondono agli stimoli visivi senza che ne siano coscienti e pazienti che non sono in grado di interagire con oggetti di cui invece hanno coscienza. Ma una dimostrazione della separazione della percezione cosciente e del controllo sensoriale del comportamento in soggetti sani è stata data attraverso un esperimento in cui è stata mostrata a soggetti sani una versione tridimensionale di un’illusione visiva che mostra i1 disco circondato da 5 dischi più grandi e un disco uguale al precedente circondato da altri dischi più piccoli. Quando ai soggetti veniva chiesto di indicare con il pollice e l’indice destri le dimensioni dei due dischi, in realtà uguali, posizionati al centro delle due figure, i soggetti indicavano come più grande il disco circondato da dischi più piccoli, ma se si chiede loro di prendere i dischi con le stesse dita l’apertura delle dita stesse rispecchia le dimensioni reali e non quelle percepite. Alcuni dei programmi senso motori centrali basilari non sono appresi e ciò è stato dimostrato attraverso un esperimento su ratti ai quali erano stati amputati gli avambracci sin dalla nascita, e che esibivano ugualmente i movimenti delle spalle, coordinato correttamente con lingua, testa e occhi, tipico della tolettatura. Nonostante questo però la pratica permette di creare o modificare alcuni di questi programmi. Sono due i processi che influenzano i programmi senso motori centrali : il raggruppamento delle risposte, ovvero l’esercizio raggruppa il controllo centrale delle singole componenti della risposta in programmi singoli che controllano lunghe sequenze dette chunks comportamentali. Tali chunks possono essere combinati a loro volta in chunks di ordine superiore, Vi è poi lo spostamento del controllo a livelli inferiori del sistema sensori motorio che può condurre a due vantaggi : i livelli superiori vengono resi più liberi di dedicarsi ad aspetti più creativi della prestazione, e vi è un aumento della velocità di esecuzione in quanto diversi circuiti dei livelli inferiori possono operare simultaneamente senza interferire fra loro. Attraverso le tecniche di visualizzazione funzionale del cervello sono state elaborate ipotesi sui ruoli delle diverse strutture dell’apprendimento sensori motorio. Risultati interessanti sono stati raggiunti con la registrazione mediante PET dell’attività cerebrale mediante di soggetti che compivano due diverse sequenze di risposte, ognuna delle quali implicava 4 diversi tipi di risposte, in cui dovevano premere 4 diversi tasti. Le risposte erano eseguite con la mano destra, una ogni 3 secondi, e un suono indicava quando premere o se la risposta era corretta. Le condizioni erano tre : condizione di controllo a risposo, condizione in cui il soggetto eseguiva un sequenza appena appresa, e condizione in cui il soggetto eseguiva una sequenza nota. I risultati della ricerca furono i seguenti: 1) la corteccia parietale posteriore è attiva sia durante l’esecuzione della sequenza appena appresa che di quella nota, anche se nel primo caso è più attiva ( la corteccia parietale posteriore è più attiva quando i soggetti sono più attenti agli stimoli come avviene nelle prime fasi di un apprendimento motorio); 2) la corteccia prefrontale dorso laterale è attiva durante l’esecuzione di una sequenza appena appresa ma non nel caso di una sequenza nota, ha quindi un ruolo fondamentale nell’esecuzione di sequenze motorie sotto il controllo cosciente; 3) la corteccia premotoria contro laterale è più attiva durante sequenze appena apprese (ruolo prevalente quando l’esecuzione è guidata da stimoli sensoriali), mentre l’area motoria supplementare è più attiva bilateralmente durante una sequenza ben nota (ruolo prevalente quando l’esecuzione è indipendente da stimoli sensoriali ed è 67 automatica); 4) le cortecce primaria contro laterale e somatosensoriale sono ugualmente attivate sia nel caso di sequenze apprese da poco che note ( gli elementi motori sono gli stessi); 5) I gangli della base contro laterali sono attivati in entrambe le esecuzioni; 6) il cervelletto è attivato bilateralmente in entrambe le esecuzioni ma è più attivo nel caso di sequenze apprese da poco (ruolo fondamentale nell’apprendimento motorio). Cause delle lesioni cerebrali Fra le possibili cause di lesioni cerebrali troviamo: tumori, disturbi cerebrovascolari, traumi cranici chiusi, infezioni cerebrali , neurotossine e fattori genetici. TUMORE. Un tumore o neoplasia è una massa cellulare che cresce indipendentemente dal resto del corpo. Circa il 20% dei tumori sono meningiomi, ovvero tumori che originano dalle meningi, le tre membrane che ricoprono il SNC. Tutti i meningiomi sono tumori incapsulati, cioè dotati di un guscio esterno di tessuto fibroso. Sono particolarmente facili da rilevare con la TAC e possono disturbare le funzioni del cervello solo mediante la pressione che esercitano sul tessuto cerebrale circostante. Si tratta di tumori benigni che possono cioè essere rimossi chirurgicamente con scarso rischio di una loro ulteriore crescita. I tumori incapsulati che si sviluppano sull’VIII nervo cranico si chiamano neurinomi acustici ( un neurinoma è un tumore che si sviluppa s un nervo o su un fascio di fibre nervose). La maggior parte dei tumori cerebrali sono però infiltranti, che crescono diffusamente entro il tessuto nervoso e sono solitamente maligni. E’ difficile eliminarli o rimuoverli in modo completo e ogni frammento di tessuto canceroso che rimane nel corpo dopo l’intervento chirurgico può essere fonte di una nuova crescita tumorale. Circa il 10% dei tumori sono poi metastatici (il termine metastasi si riferisce alla trasmissione di tumori maligni da un organo all’altro), ovvero tumori cerebrali che non originano nel cervello ma da cellule cancerose che provengono da altri organi del corpo e che raggiungono il cervello attraverso il flusso ematico. La gran parte dei tumori cerebrali metastatici ha origine da tumori maligni del polmone; è ovvio che un tumore maligno che ha già interessato due o più organi non ha una probabilità alta di guarire. ICTUS. Il termine ictus, che significa colpo, attacco grave ed improvviso, è riferito alla comparsa improvvisa di disturbi cerebrovascolari che sono causa di lesioni cerebrali, e che negli Stati Uniti costituisce la terza causa più frequente di morte. Tuttavia non tutte le patologie ad attacco ed esordio grave ed improvviso sono di natura vascolare ne tutte le patologie cerebrovascolari hanno un esordio grave e improvviso. I principali disturbi circolatori responsabili dell’ictus sono l’ emorragia cerebrale e l’ischemia cerebrale. Le frequenti conseguenze dell’ictus cerebrale sono l’amnesia, i disturbi del linguaggio o afasie, la perdita di forza o paralisi e il coma. L’area costituita da tessuto morto o in necrosi in seguito ad un ictus si chiama infarto cerebrale. Emorragia cerebrale letteralmente significa sangue nel cervello ed è dovuto alla rottura di un vaso cerebrale con conseguente fuoriuscita di sangue che invade e danneggia il tessuto cerebrale. La rottura di aneurismi rappresenta la causa più frequente di emorragia cerebrale. Un aneurisma è un rigonfiamento sferico della parete di un vaso sanguino che si crea in regioni dove l’elasticità della parete vascolare è difettosa. Gli aneurismi possono essere congeniti ovvero presenti alla nascita oppure derivare dall’esposizione ad agenti tossici o infettivi. I soggetti a cui è stata diagnosticata la presenza di aneurismi dovrebbero mantenere la pressione arteriosa entro livelli normali. L’ ischemia cerebrale invece è il venir meno dell’apporto di sangue ad un’area cerebrale con conseguente interruzione dell’apporto di glucosio e ossigeno e morte dei tessuti. L’area danneggiata dall’ischemia viene chiamata infarto e le tre cause dell’ischemia cerebrale sono la trombosi, che è dovuta 68 al formarsi di un coagulo di sangue, ma anche da tessuto adiposo, bolle d’aria, da cellule metastatiche o da ogni loro combinazione, detto trombo che ostacola o impedisce il flusso di sangue verso una regione cerebrale, l’embolia, che è simile alla trombosi tranne che per il fatto che il coagulo, detto embolo, si forma in un grande vaso e viene condotto dal flusso ematico in un vaso più piccolo dove si ferma, si tratta essenzialmente di un trombo mobile, e l’arteriosclerosi, che si ha quando la parete dei vasi sanguigni affetti si ispessisce, di solito a causa del deposito di grassi, producendo un restringimento del diametro dei vasi che a volte può condurre ad una ostruzione completa e si può rilevare con una angiografia. Prima che una lesione cerebrale provocata da ischemia si manifesti ci vogliono almeno un giorno o due e si ritiene che il danno cerebrale sia legato soprattutto all’eccessivo rilascio di alcuni neurotrasmettitori del cervello, in particolare gli aminoacidi eccitatori come il glutammato. Infatti a causa dell’ostruzione vascolare numerosi neuroni ischemici diventano iperattivi e rilasciano una maggiore quantità di glutammato, che a sua volta determina una aumentata attività dei recettori presenti sulla membrana postsinaptica, con conseguente aumento del flusso di sodio e calcio nel neurone postsinaptico. I recettori per il glutammato maggiormente coinvolti sono i recettori NMDA (N-metil-D-aspartato). L’aumento della concentrazione intracellulare di sodio e calcio agisce in due modi : da un lato determina l’aumento del rilascio di glutammato dai neuroni postsinaptici, cha ha l’effetto di amplificare e diffondere gli eventi tossici, e dall’altro induce la morte dei neuroni postsinaptici attraverso una serie di reazioni interne alla cellula. La scoperta del ruolo del glutammato nell’ictus cerebrale induce a pensare che sia possibile ridurre il danno cerebrale bloccando la cascata glutamminergica Si sta infatti cercando di individuare un antagonista del glutammato ed alcune sostanze si sono rivelate utili nelle cavie ma finora nessuna di esse sembra ridurre i danni cerebrali provocati da ictus.Le lesioni cerebrali provocate da ischemia hanno tre caratteristiche principali: impiegano un certo lasso di tempo a svilupparsi, non si distribuiscono in modo uniforme in tutto il cervello ma particolarmente vulnerabili sono i neuroni di alcune aree dell’ippocampo, i meccanismi delle lesioni provocate da ischemia variano da una struttura cerebrale all’altra. TRAUMI CRANICI CHIUSI. I traumi più gravi sono prodotti da proiettili, frammenti di granate che penetrano nelle ossa craniche e quindi nel tessuto nervoso. Affinché si crei un danno cerebrale serio non è necessario che ci sia una lesione penetrante delle ossa craniche ma bisogna sempre porre estrema attenzione alla presenza di segni neurologici come confusione, deficit sensomotori o perdita di coscienza. Le contusioni sono traumi cranici chiusi che determinano danni al sistema circolatorio cerebrale provocando emorragie che evolvono in ematoma. Per ematoma si intende una raccolta localizzata di sangue coagulato all’interno di un organo o in un tessuto. Le contusioni si verificano quando il cervello urta contro le dure pareti interne del cranio; in queste lesione il sangue può accumularsi nello spazio subdurale, incluso tra la dura madre e la membrana aracnoidea, provocando una grave compressione del circostante tessuto nervoso. Le contusioni solitamente si verificano nel lato opposto alla sede del trauma; la causa di queste lesioni da contraccolpo è che il trauma spinge il cervello contro la parete cranica opposta. Quando a seguito del trauma si verifica un disturbo dello stato di coscienza senza che vi siano segni di contusione o di altro danno strutturale si parla di concussione. Si ritiene che la concussione causi una temporanea alterazione del normale funzionamento cerebrale senza che si instaurino lesioni neurologiche, ma non bisogna mai prenderla in considerazione con leggerezza. La sindrome della demenza pugilistica infatti sembra indicare il contrario. Questa sindrome si riferisce allo stato di demenza (deterioramento intellettivo cerebrale) e di lesioni cerebrali cicatriziali che si verificano nei pugili e in altri soggetti che hanno subito ripetute concussioni, che sommandosi possono produrre gravi danni neurologici. INFEZIONI CEREBRALI. Si definisce infezione cerebrale l’invasione del cervello da parte di microrganismi, mentre lo stato infiammatorio associato all’infezione è detto encefalite. Le forme più comuni di infezioni cerebrali sono quelle batteriche e quelle virali. Le infezioni batteriche spesso conducono alla formazione di ascessi cerebrali (formazione di pus nel cervello). I batteri possono anche invadere le meningi causando malattie 69 note come meningiti, che sono letali nel 25% degli adulti. La penicillina e gli altri antibiotici eliminano i microrganismi ma non fanno regredire il danno cerebrale dovuto all’infezione. La sifilide è una delle più note infezioni cerebrali in cui i batteri sono trasmessi da un soggetto all’altro attraverso il contatto sessuale. Dopo uno stato di inattività di molti anni i batteri diventano infettivi colpendo diverse parti del corpo compreso il cervello. La sindrome di demenza e deficit neurologici dovuta all’infezione sifilitica è detta paralisi generale o demenza paralitica. La sifilide è una malattia arrivata dall’America dopo che i primi europei sbarcarono in quel continente, depredarono i nativi di tutto il loro oro a proprio attraverso questo bottino riportarono indietro i batteri di questa malattia. Le infezioni virali del sistema nervoso, la cui funzione è spesso difficile da individuare nella causa del disturbo poichè possono rimanere latenti per molti anni prima di provocare sintomi, sono d due tipi : le infezioni neurotròpiche prodotte da virus particolarmente affini per il tessuto nervoso, come ad esempio la rabbia trasmessa dal morso di un animale infetto; nonostante gli effetti cerebrali del virus siano letali c’è da dire che il virus non invade il cervello per almeno un mese dal contagio permettendo così di intervenire con una vaccinazione preventiva, e infezioni pantròpiche che colpiscono tutti gli organi senza una particolare selettività per il sistema nervoso, come ad esempio il virus della parotite e dell’herpes che di solito interessano altri organi ma quando si diffondono nel cervello hanno effetti devastanti. NEUROTOSSINE. Il sistema nervoso può essere danneggiato dall’esposizione a numerosi agenti tossici che penetrano nel sistema circolatorio generale dal tratto gastrointestinale, dal polmone o attraverso la cute. Ad esempio i metalli pesanti come il mercurio o il piombo possono provocare danni strutturali responsabili di psicosi tossiche (Cappellaio matto) A volte anche i farmaci che vengono usati per la cura di malattie neurologiche si rivelano neurotossici. Ad esempio alcuni farmaci antipsicotici introdotti nei primi anni 50 portavano a disturbi motori noti come dis-cinesie tardive i cui sintomi principali consistono in movimenti involontari delle labbra, protusione e retroazione della lingua, movimenti laterali della mandibola e delle guance. Attualmente non sono ancora disponibili farmaci antipsicotici che non abbiano effetti collaterali. I danni cerebrali dovuti alle cosiddette droghe ricreative (recreational drugs) rappresentano un problema molto serio, come ad esempio l’alcol che provoca danni cerebrali in particolare disturbi di memoria identificati come sindrome di Korsakoff, con una combinazione dei suoi effetti neurotossici diretti e dei suoi effetti sul metabolismo della tiamina. Alcune sostanze neurotossiche sono endogene cioè prodotte dall’organismo, come alcuni anticorpi prodotti dal sistema immunitario del corpo che poi attaccano il suo stesso sistema nervoso come nel caso della sclerosi multipla.. FATTORI GENETICI. Le cellule umane normali hanno 23 coppie di cromosomi : 22 coppie comuni ad ambo i sessi mentre il 23imo è costituito dai cromosomi sessuali diversi a livello morfologico dovendo determinare il sesso dell’individuo. Nella donna c’è una coppia di cromosomi a forma di X, nell’uomo c’è una coppia di cromosomi uno a forma di X e l’altro a forma di Y. Durante la divisione cellulare possono però verificarsi errori che portano l’uovo fecondato ad avere un cromosoma anormale o un numero anormale di cromosomi normali. In seguito alle ripetute divisione a cui va incontro l’uovo fecondato durante lo sviluppo questa anomalia si duplica in ogni cellula del corpo. La maggior parte dei disturbi di origine genetica è provocata da geni recessivi anormali che sono trasmessi dai genitori ai figli. I disturbi neuropsicologici ereditari sono difficilmente associati ai geni dominanti perché quelli che compromettono la funzione neuropsicologica tendono ad essere eliminati dal patrimonio genetico poichè qualsiasi soggetto che ne possiede uno ha gravi rischi di sopravvivenza e riproduzione; invece i soggetti che ereditano un gene recessivo anormale non manifestano il disturbo e dunque il gene si trasmette alla generazione successiva. Ci sono comunque due situazioni in cui i disturbi neuropsicologici possono essere associati a geni dominanti : quando il gene dominante anormale si manifesta solo in alcune rare circostanze ambientali, e quando il gene dominante anormale non si esprime finchè il soggetto non supera la pubertà. Un esempio comune di malattia causata da incidente genetico e non da un gene 70 anormale è la sindrome di Down (0,15% dei neonati che aumenta con l’avanzare dell’età della madre)). La causa più comune di questa anomalia è la mancata disgiunzione dei cromosomi che si verifica durante la divisione meiotica nell’ovulo, per cui si viene ad avere un cromosoma supplementare, il cromosoma 21. In questo modo quando l’ovulo viene fecondato nello zigote si avranno re cromosomi 21 anzichè 2. Le conseguenze di un cromosoma 21 in più sono disastrose: oltre alle tipiche alterazioni dell’aspetto fisico (dita corte, naso e cranio appiattiti) il bambino presenta ritardo mentale e gravi patologie di altri organi e a elevata probabilità che la persona muoia prima di aver raggiunto l’età adulta. La probabilità che nasca un bambino down è correlata all’avanzare dell’età della mamma. Alcune malattie neurologiche sono legate invece ad una ereditarietà mediata dai geni. I geni controllano la fabbricazione delle proteine che sono la base strutturale e funzionale del sistema nervoso. Ogni coppia di geni ha un gene dominante e un gene recessivo; qualora il bambino erediti due geni recessivi da entrambi i genitori può sviluppare può sviluppare la patologia di cui essi sono portatori. E’ il caso della fenilchetonuria che viene trasmessa con un gene recessivo e che porta l’individuo ad essere privo di un enzima che metabolizza l’aminoacido fenilalanina che se si accumula nell’organismo provoca un danno delle funzioni neurologiche. Bisogna sempre distinguere se la patologia è ereditaria o è legata alla familiarità, che vuol dire che tutti i membri di una famiglia vivendo nello stesso ambiente sono esposti alle stesse carenze dietetiche, alle stesse sostanze inquinanti, allo stesso ambiente e alle sue influenze ma non necessariamente c’è una base ereditaria genetica. Sono stati compiuti rapidi progressi nel localizzare e caratterizzare i geni patologici responsabili di alcuni disturbi neuropsicologici. I neuroni e le altre cellule sono programmati geneticamente per l’autodistruzione, questo processo si chiama apoptosi. L’apoptosi ha un ruolo importante nello sviluppo precoce poiché elimina i neuroni in eccesso inizialmente creati. Ha anche una funzione nelle lesioni cerebrali, infatti ciascuna delle cause di queste lesioni sembrano produrre i propri effetti anche attivando in parte programmi di autodistruzione. In passato si credeva che la morte dei neuroni in seguito ad una lesione cerebrale fosse solo necrotica (necrosi = morte passiva delle cellule che risulta da una lesione), invece è stato osservato che se le cellule non sono gravemente compromesse tenteranno di raccogliere tutte le forze per autodistruggersi. L’apoptosi è più adattiva della necrosi ed è per questo che i meccanismi apoptotici si sono sempre più evoluti. Nella necrosi i neuroni si gonfiano e si spezzano, cominciando dagli assoni e dai dendriti e finendo al soma. Questa frammentazione provoca infiammazioni che possono danneggiare le cellule vicine. La morte cellulare necrotica è rapida e di solito si completa in poche ore mentre quella apoptotica lenta e richiede un giorno o due. L’apoptosi del neurone procede gradualmente cominciando con il restringimento del corpo cellulare, poi mentre parti del neurone cominciano a morire, i residui sono immagazzinati in vescicole; non vi è quindi infiammazione e il danno alle cellule vicine è limitato. Circuiti della gratificazione L’abuso di droga costituisce un problema grave legato a criminalità, decessi, sforzi legislativi, crescenti spese mediche e calo della produttività a danno della società. Gli esperti considerano inefficace l’attuale sistema di controllo del fenomeno della droga e propongono alcune raccomandazioni come: cercare di diminuirne la richiesta, porre maggiore attenzione alla cura dei tossicodipendenti invece che perseguirli, rafforzare le leggi che controllano l’uso delle droghe in base al rischio ad esse connesso, maggiore discrezionalità nelle sentenze, divieto di qualsiasi pubblicità per sigarette o alcol, legalizzare l’uso di piccoli quantitativi di droga, creare cliniche sperimentali. Il fenomeno della tossicodipendenza inizialmente è stato attribuito alla dipendenza fisica. Le teorie basate sulla dipendenza fisica sono quelle teorie secondo cui l’assunzione di droga serve a prevenire o a bloccare i sintomi dell’astinenza. L’idea di base è quella per cui quando le persone assumono quantità di droga tali da indurre dipendenza fisica i sintomi di astinenza li portano a ricorrere alla droga ogni volta che cercano di diminuirne l’uso. Come terapia si usava l’ospedalizzazione e l’astinenza coatta in modo da portare la persona a ridurre gradualmente l’assunzione di droga e quindi ad avere sintomi di astinenza 71 meno gravi. Però una volta dimessi quasi tutti i tossicodipendenti disintossicati tornavano al loro vizio iniziale. In merito a queste ricadute sono state formulate delle teorie secondo cui i sintomi dell’astinenza possono essere condizionati, ossia se il tossicodipendente dopo un lungo periodo di lontananza dalla droga, si ritrova in una situazione nella quale in precedenza si era drogato si verificano degli effetti d’astinenza condizionati opposti a quelli della droga. (risposta condizionata di Siegel). L’insuccesso delle teorie basate sulla dipendenza fisica hanno portato allo sviluppo di teorie basate sull’incentivo positivo, ossia sulla ricerca degli effetti piacevoli della droga. Queste teorie sostengono infatti che il fattore principale nella maggior parte dei casi di tossicodipendenza sia il desiderio irrefrenabile della capacità di produrre piacere (proprietà di incentivo positivo). Un altro assunto su cui si basano le teorie dell’incentivo positivo è che il valore incentivante delle droghe che danno dipendenza aumenta con l’uso della droga che sensibilizza il loro valore incentivante motivando all’uso di droga il consumatore e spingendolo a ricercare stimoli associati ad essa. Secondo la teoria incentivo-sensibilizzazione di Robinson e Berridge non è il piacere della droga in se a provocare dipendenza ma il piacere anticipato connesso alla sua assunzione ossia il valore incentivante della droga. Sono stati formulati modelli sulla tossicomania basati sulla teoria dell’incentivo positivo fondati sullo studio del fenomeno dell’autostimolazione intracranica e dei siti del cervello che mediano questo fenomeno che spesso vengono chiamati circuiti cerebrali della gratificazione. Per comprendere le basi neurali della teoria dell’incentivo positivo, secondo cui appunto le persone si drogano non per sfuggire alle spiacevoli conseguenze dell’astinenza, sia voluta che obbligata, ma per gli effetti piacevoli della droga, Olds e Milner hanno effettuato uno studio sulla auto stimolazione intracranica da cui si è visto che animali premevano ripetutamente una leva per provocarsi brevi scariche di corrente elettrica attraverso elettrodi impianti in punti particolari del cervello. Ne dedussero che i circuiti cerebrali alla base dell’autostimolazione intracranica sono gli stessi che mediano gli effetti piacevoli degli stimoli incentivanti come il cibo, l’acqua e il sesso. I primi studi sull’autostimolazione intracranica partivano dal presupposto che tale fenomeno fosse unitario, ossia che le sue proprietà fondamentali fossero le stesse indipendentemente dal sito di stimolazione. Attraverso ripetute ricerche vennero individuate le strutture cerebrali implicate ossia il fascicolo mediale pro encefalico ed il sistema dopaminergico mesotelencefalico. Il fascicolo mediale pro encefalico è un fascio di fibre che decorre attraverso l’ipotalamo laterale e innervano il setto, includendo molti assoni ascendenti, discendenti e interneuroni. Regola solo alcune auto stimolazioni intracraniche nelle sessioni sperimentali, e cosi è stato attribuito un ruolo preponderante solo ad una delle sue componenti cioè il sistema dopaminergico mesotelencefalico. Questo sistema è un insieme di neuroni che rilasciano dopamina e che proiettano dal mesencefalo a varie regione del telencefalo. Decorre attraverso l’ipotalamo mediale e i neuroni che lo compongono hanno i corpi cellulari in due nuclei mesencefalici : la sostanza nera e l’area tegmentale ventrale. I loro assoni proiettano a diverse zone telencefaliche incluse la corteccia limbica, il tubercolo olfattivo, l’amigdala, il setto, lo striato, alcune regioni della corteccia prefrontale e il nucleo accumbens. Attraverso alcune ricerche sperimentali si è visto che le soglie di auto stimolazione in queste zone neurali erano più basse e le frequenze di risposta più elevate. I risultati di diverse ricerche hanno dato sostegno all’ipotesi che il sistema dopaminergico mesotelencefalico sia implicato nell’autostimolazione intracranica fra cui il fatto che molte aree del cervello dove avviene l’autostimolazione fanno parte di questo sistema, che l’autostimolazione intracranica è spesso associata al rilascio di dopamina nella via mesolimbica (proiezione da area tegmentale a siti limbici) che gli agonisti della dopamina aumentano l’autostimolazione e gli antagonisti la riducono, e che le lesioni del sistema dopaminergico la bloccano. La maggior parte delle ricerche sui meccanismi neurali della dipendenza è stata portata avanti su cavie utilizzando due paradigmi comportamentali : il paradigma di auto somministrazione di droga e il paradigma della posizione preferita condizionata. Negli esperimenti che usano il paradigma di auto somministrazione di droga, la cavia è indotta a somministrarsi piccole quantità della sostanza in aree cerebrali specifiche attraverso una cannula impiantata premendo una leva imparando rapidamente a somministrarsi 72 iniezioni endovenose. Una volta imparato ad assumere droga in questo modo assumono lo stesso comportamento del tossicodipendente umano. Ciò ha mostrato che i substrati neurali della gratificazione legata alla tossicodipendenza sono rappresentati dal sistema dopaminergico mesotelencefalico. Negli esperimenti che impiegano invece il paradigma della posizione preferita condizionata le cavie ricevono ripetutamente droga all’interno di uno dei due compartimenti di una gabbia. In seguito vengono posti di nuovo nella gabbia senza essere invece sotto l’effetto della droga. A questo punto viene misurata la percentuale di tempo che trascorrono nel compartimento associato alla somministrazione di droga rispetto al tempo che passano nell’altro compartimento che funge da controllo. Di solito i ratti preferiscono il primo invece del secondo. Il vantaggio principale di questo paradigma è che i soggetti sono valutati quando non sono sotto l’effetto della droga e quindi la misura del valore incentivante della droga non viene confuso con altri effetti che la droga potrebbe avere sul comportamento. Una grande quantità di dati sostiene il coinvolgimento della dopamine e del nucleo accumbens nella gratificazione e nella dipendenza, ma diverse ricerche successive suggeriscono che la dopamina sia coinvolta nell’aspettitativa di una gratificazione più che nella gratificazione stessa. Per quanto riguarda le condotte tossicomaniche nell’infanzia e nell’adolescenza. Per quanto riguarda l’infanzia dati epidemiologici di evidenze cliniche portano ad affermare che si verifica un consumo di droghe alcol e tabacco e inalazione di solventi solitamente iin gruppi che assumono le caratteristiche della banda in una età compresa fra i 9 e gli 11 anni. Il primo contatto con l’alto spesso avviene n famiglia in occasioni di feste e i bambini che assumono droghe tabacco alcol ecc sembrano avere nella loro storia personale passata dei fattori predisponenti ad esempio il sesso di appartenenza, i maschi tendono più facilmente ad assumere droghe rispetto alle femmine, in genere in famiglia vi è un alcolista o un tossicodipendente, c’è alle spalle una situazione di disagio familiare e sociale, molti di questi bambini appartengono alla classe media ed hanno una struttura familiare non solo caratterizzata da disagi ma anche molto rigida nelle relazioni personale e nel modo di affrontare questi disagi. Questi bambini sviluppano dipendenza nei confronti di queste sostanze e presentano problemi di salute, complicanze renali, epatiche, cardiache, polmonari ed ematiche e a livello comportamentale vi è una interruzione e abbandono degli studi (drop out scolastico). Per quanto riguarda l’adolescenza dati epidemiologici di evidenze cliniche portano ad affermare che tra gli 11 e i 19 anni si verifica abuso di alcol di tabacco di farmaci contro l’insonnia e nervosismo, di sostanze illegali come hashis anfetamine eroina e cocaina, Si riscontra l’uso consecutivo o associato di sostanze diverse e un incremento progressivo di assunzione della droga. Il consumo di droga e alcol inizia spesso in gruppo per integrarsi ed essere accettati dagli altri, paradossalmente l’assunzione di droghe e alcol porta spesso il soggetto si allontana dal gruppo. Si riscontrano nella vita di questi adolescenti anche delle difficoltà nel gestire situazioni problematiche, come famiglie allargate ricomposte o disperse, e quindi assenza o alternanza delle figure genitoriali, presenza di condotte tossicomani nelle famiglie e inserimenti culturali multipli, quindi adolescenti che si sono trovati ad affrontare l’integrazione in una cultura diversa o che si trovano in conflitto tra la cultura della famiglia di provenienza e la cultura del gruppo di adolescenti a cui appartengono che spesso sono appartenenti al nuovo contesto culturale i cui l’adolescente si trova ad esempio per fenomeni di immigrazione ed emigrazione della famiglia di origine. Molti adolescenti raccontano della loro esperienza di tossicodipendenza un desiderio di ricerca di sensazioni che sembra essere il fattore motivante, quindi la ricerca della sensazione di pericolo, di avventura, di trasgressione, di esperienze, di fuga dalla noia e di gratificazione rapida molto spesso compensatoria di fallimenti o frustrazioni che l’adolescente può sperimentare nel suo primo confrontarsi con il mondo e con una serie di esperienze. Gli adolescenti manifestano un iper investimento sulla droga, cioè tutta la giornata viene organizzata intorno all’acquisto e all’assunzione della droga, che quindi assume connotazioni del tipo ossessivo compulsivo. I tossicomani adolescenti si possono dividere in impulsivi e compulsivi appunto, gli impulsivi sono quelli che sia nell’assunzione di droga che nei comportamenti successivi manifestano un passaggio all’atto, quindi la tossicodipendenza e assunzione di droga è per loro un modo per liberarsi da una forma di emozione che 73 non riescono a tollerare, i compulsivi sono invece quelli che assumono la droga ma che poi sperimentano un senso di colpa e incompetenza perché essendo il meccanismo diventato compulsivo non sono più loro a gestirlo ma è il meccanismo a gestire loro e quindi si sentono incapaci di uscirne fuori e di gestirlo, ogni assunzione di droga è un ammissione di fallimento. Per molti adolescenti la droga sembra avere la funzione di colmare vuoti nell’ interazione emotiva fra l‘individuo e l’ambiente nel corso dello sviluppo. Sia nel caso di bambini che di adolescenti le misure che si propongono sono di tre tipi : misure di intervento preventive, che prevedono interventi di educazione alla salute nelle scuole o in luoghi di aggregazione per diffondere informazioni sui rischi legasti all’assunzione della droga e sulle possibili strategie per gestire problematiche tipiche dell’adolescenza senza ricorrere alla droga, di intervento terapeutiche e misure di intervento immediate, che sono fondamentalmente quelle ospedaliere cioè di trattamenti d’urgenza per far fronte a sintomi di intossicazione acute, come depressione respiratoria, reazioni psicotiche acute, crisi di astinenza, stato confusionale e coma, setticemie, epatiti, ascessi, tetano o AIDS, o misure di intervento specifiche sono misure che prevedono la sostituzione della sostanza tossica con farmaci antidolorifici, spasmolitici, con tranquillanti o sedativi a dosaggi decrescenti, si può usare il metadone che è una terapia detta terapia di svezzamento, ma comunque misure più articolate che includono specialisti non solo di tipo medico ma anche psicologico e in cui trattandosi di minori venga coinvolta anche la famiglia in un percorso terapeutico attento ed adeguato. Psicologia fisiologica, emozioni e stress La psicologia fisiologica e la psicobiologia si sono occupate di studiare anche le emozioni , soprattutto quelle negative, per l’impatto che esse hanno sulla salute sul benessere psicofisico. Infatti sia eventi che pensieri che anticipano o rievocano tali eventi possono determinare un impatto emotivo. Infatti diverse ricerche hanno evidenziato che lo stress associato alla paura o all’ansia aumentano la predisposizione a disturbi fisici, come ulcera e infezioni, e psicologici. Vi sono diversi approcci teorici alle emozioni, in particolare la teoria evoluzionistica di Darwin, la teoria di James e Lange e la teoria di Cannon e Bard. La teoria evoluzionistica di Darwin afferma che in tutti i membri di una specie le medesime risposte emotive sono associate ai medesimi stati emotivi e che l’espressione delle emozioni è un prodotto dell’evoluzione e quindi va compreso confrontando le diverse specie. Nel 1872 Darwin pubblicò un testo dal titolo L’espressione delle emozioni nell’uomo e negli animali nel quale l’autore sviluppò tali presupposti teorici. Egli infatti suggeriva che certe risposte emotive come le espressioni facciali dell’uomo possono essere associate agli stessi stati emotivi in tutti i membri di una specie. La sua teoria sull’evoluzione delle espressioni emotive si basa su tre principi fondamentali : 1) l’espressione delle emozioni si sviluppa da comportamenti che indicano l’azione che un animale sta per compiere, 2) se i segnali forniti da tali comportamenti costituiscono un vantaggio per l’animale che li esibisce essi evolveranno in modo da sottolineare la loro funzione comunicativa mentre la loro funzione iniziale si perderà, 3) i messaggi opposti vengono spesso comunicati da movimenti e da posture opposti (principio dell’antitesi), per esempio osservando i cani si può vedere che la postura aggressiva prevede le orecchie orientate in avanti il dorso eretto la piloerezione e la coda alzata, invece il cane che esibisce sottomissione avrà le orecchie piegate all’indietro, il dorso piegato verso il basso e pelo e coda sono abbassati. Darwin per spiegare l’evoluzione delle espressioni emotive si è basato sulla spiegazione del comportamento dell’esibizione della minaccia. Inizialmente le componenti del combattimento implicavano il porsi di fronte al nemico ergersi di fronte a lui e mostrargli le proprie armi. Quando i nemici iniziano a riconoscere in questi comportamenti i segnali di un imminente attacco, l’animale che attacca raggiunge un vantaggio evolutivo potendo comunicare in modo efficace e intimidatorio l’aggressione senza giungere necessariamente al combattimento. Quindi le modalità di esibizione della minaccia e non di attuazione della minaccia si sono evolute in modo sempre più sofisticato e sono diminuiti i combattimenti. Per essere veramente efficaci i segnali di aggressione e di sottomissione devono essere riconoscibili, per questo motivo tali segnali hanno subito un’evoluzione tendente verso due direzioni opposte: ad esempio i primati per comunicare 74 aggressione fissano con lo sguardo, per esprimere invece sottomissione lo distolgono. Un altro approccio teorico alle emozioni è rappresentato dalla teoria fisiologica delle emozioni è quella proposta da James e Lange nel 1884 secondo cui gli stimoli sensoriali emotigeni vengono interpretati dalla corteccia che provoca variazioni negli organi viscerali attraverso il SNA e nei muscoli scheletrici attraverso il SNS. Le risposte del SNA e del SNS provocano l’esperienza emotiva nel cervello. Questa teoria in realtà ribaltava la concezione comune di emozione, in quanto secondo gli autori l’attività del SNA e il comportamento provocati dallo stimolo emotigeno, ad esempio aumento della frequenza cardiaca, producono la sensazione dell’emozione e non il contrario. Nel 1915 Cannon e Bard proposero una teoria alternativa a quella di James e Lange secondo cui gli stimoli emotigeni hanno due effetti eccitatori indipendenti, ossia eccitano sia la sensazione dell’ emozione sia l’espressione comportamentale dell’emozione nel SNA e nel SNS, che sono per gli autori due processi paralleli, senza relazione causale di nessun tipo. Da queste teorie derivano poi previsioni diverse sul ruolo svolto dal feedback del sistema nervoso autonomo e somatico nell’emozione. La teoria di James e Lange prevede che l’esperienza emotiva dipenda completamente dal feedback proveniente dall’attività del SNA e SNS, mentre la teoria di Cannon Bard prevede che l’esperienza emotiva sia totalmente indipendente da questo tipo di feedback. Si tratta di due posizioni antitetiche che attraverso ricerche successive non sono state confermate. Tali ricerche infatti affermano che nell’esperienza emotiva vi è la partecipazione di tre fattori che si influenzano fra loro : la percezione dello stimolo emotigeno, le reazioni autonome e somatiche allo stimolo e l’esperienza dell’ emozione. Sono state studiate le basi psicofisiologiche dell’emozione e per quanto riguarda il ruolo delle strutture neurali della esperienza emotiva Bard, sulla base di esperimenti condotti su gatti ai quali erano stati asportati gli emisferi cerebrali le cui reazioni aggressive, identificate sotto il termine di falsa rabbia, erano esagerate e generalizzate, concluse che l’ipotalamo è la struttura cruciale per l’espressione delle condotte aggressive e che il ruolo della corteccia consiste nell’ inibire e direzionare tali risposte aggressive. Ulteriori ricerche hanno sottolineato il ruolo del sistema limbico, affermato da Papez (papè) nel 1937. L’autore suggerì che l’espressione emotiva è controllata da diverse strutture neuronali interconnesse che egli chiamò appunto sistema limbico, cioè un insieme di nuclei e di fibre poste al confine con il talamo (limbico significa confine). Alcune di queste strutture chiave sono l’amigdala, che sembra avere una funzione nella regolazione nella percezione del pericolo, nell’espressione della paura e nella attivazione ed espressione dell’aggressività, i corpi mammillari, l’ippocampo, il fornice, la corteccia cingolata, il setto, il bulbo olfattivo e l’ipotalamo, che sembra avere un ruolo regolatore nell’espressione delle risposte aggressive. Papez riteneva che gli stati emozionali venissero espressi attraverso l’azione esercitata dalle altre strutture limbiche sull’ipotalamo e che venissero esperiti grazie all’azione esercitata dalle strutture limbiche sulla corteccia. Un’ altra struttura neurale coinvolta nella regolazione delle emozioni è il SNA che ha una attività associata alle diverse emozioni che però non è ne totalmente generalizzata ne totalmente specifica. Questo vuol dire che il sistema nervoso autonomo presenta dei pattern di attività quando si sperimentano degli eventi emotivi però non c’è ne una attività specifica per ogni emozione ne un unico pattern di attività generico valido per tutte le emozioni. C’è una specificità relativa maggiore per alcune emozioni e minore per altre. Nell’ambito della ricerca sul ruolo del SNA nelle emozioni assume importanza il principio di specificità su cui si differenziano le teorie di James-Lange e Cannon-Bard. Infatti la prima sostiene che stimoli emotigeni diversi inducono diversi pattern di attività del SNA che a loro volta producono diverse esperienze emotive. La seconda invece sostiene che tutti gli stimoli emotigeni producono lo stesso pattern generale di attivazione simpatica che prepara l’organismo all’azione, ad esempio aumento della frequenza cardiaca, respiratoria, della pressione sanguigna, ecc... In ogni caso le prove sperimentali suggeriscono che il ruolo del SNA nelle emozioni rientra tra una specificità totale ed una generalità totale, ossia non sembrerebbe esserci ne un unico pattern ne diversi pattern di attività. Sul principio di specificità ad ogni modo si fondano due tecniche che vengono utilizzate principalmente in ambito giuridico - criminologico : la poligrafia e la conoscenza della colpevolezza. La poligrafia è un metodo che utilizza gli indici emotivi del SNA per trarre 75 conclusioni sulla sincerità della risposta del soggetto sottoposto a interrogatorio. Il test del poligrafo può essere un utile supporto alla procedura dell’interrogatorio ma non è comunque infallibile. Un fattore critico nella valutazione dell’efficacia della poligrafia è che nella vita quotidiana raramente si sa con certezza se un soggetto è colpevole o innocente, per questo motivo negli studi della poligrafia si usa quella che viene chiamata procedura del falso crimine, la cui frequenza di successo è di circa l’80%, ossia alcuni soggetti volontari partecipano ad un falso crimine e vengono poi sottoposti ad un test poligrafico da uno sperimentatore che non è a conoscenza della loro colpevolezza o innocenza. Il metodo investigativo classico consiste nella tecnica della domanda di controllo in cui viene confrontata la risposta fisiologica alla domanda cruciale tipo “lei ha rubato la borsetta?”con quelle ad alcune domande di controllo le cui risposte sono note come “lei è mai stato in prigione?”. L’assunto alla base di questa tecnica è che la menzogna sarà associata ad una maggiore attivazione del sistema nervoso simpatico. Nonostante venga spesso chiamata macchina della verità, in realtà la poligrafia rileva le emozioni e non la verità ed è per questo motivo che nella vita reale domande del tipo Ha rubato lei la borsa possono provocare reazioni in tutti i sospetti sia che siano innocenti sia che siano colpevoli rendendo difficile individuare la menzogna. Al fine di evitare questo problema Likken ha sviluppato la tecnica per la conoscenza della colpevolezza. Per usare questa tecnica l’esaminatore dovrebbe conoscere un’informazione legata al crimine che è nota solo a chi ha commesso il crimine stesso. A questo punto l’esaminatore valuta la reazione del sospettato a una lista di dettagli veri o falsi del crimine. Una persona innocente reagisce allo stesso modo a tutti i dettagli poiché non ne conosce nessuno, il colpevole reagisce in modo differenziato. In uno studio che utilizzava questa tecnica i soggetti aspettavano che l’impiegata si recasse in bagno per entrare nella stanza e rubare la borsetta dalla scrivania togliere da essa i soldi e poi buttarla nell’armadietto. La domanda cruciale dell’interrogatorio era del tipo Dove pensa che abbiamo trovato la borsetta sulla scrivania, nell’armadietto, nella toilette?. Con l’uso di questa tecnica venne individuato l’88% dei falsi criminali e nessun innocente venne giudicato colpevole. Questa tecnica non è solo importante nel confermare il ruolo del SNA nelle emozioni ma può avere anche una certa utilità per rendere efficaci le procedure in ambito giuridico. Per quanto riguarda le espressioni facciali delle emozioni gli studi più noti sono quelli di Ekman e dei suoi colleghi di ricerca che già dagli anni 60 avevano cominciato ad analizzare film e fotografie di persone che stavano provando emozioni reali e avevano compilato un atlante delle espressioni facciali associate alle diverse emozioni. Le espressioni facciali incluse nella loro raccolta sono fotografie di modelli che erano stati istruiti a contrarre specifici muscoli della faccia sulla base dei risultati della loro analisi. Per esempio per riprodurre l’espressione della sorpresa i modelli erano stati istruiti a inarcare le sopracciglia in modo da spalancare gli occhi e corrugare la fronte e a distendere i muscoli intorno alla bocca. Da questi studi Ekman ha estrapolato alcuni principi di base che sono l’universalità delle espressioni facciali, le espressioni facciali primarie e l’ipotesi del feedback facciale. Per universalità delle espressioni facciali, tesi sostenuta anche da Darwin, si intende il fatto che persone appartenenti a culture diverse mostrano espressioni facciali simili in situazioni analoghe e che è possibile identificare in modo corretto il significato emotivo di una espressione facciale di persone di culture diverse. Il più convincente fra questi studi è stato condotto sui membri di una tribù della Nuova Guinea che non aveva avuto nessun contatto con il resto del mondo e quindi non potevano aver appreso le espressioni facciali collegate alle diverse emozioni. I risultati di questi studi confermarono la tesi darwiniana di universalità delle espressioni facciali, anche se questo non implica escludere che esistano lievi differenze dovute alla cultura. Nell’ambito degli studi sulle espressioni facciali vennero individuate 6 espressioni facciali primarie associate alle emozioni della sorpresa, rabbia, paura, tristezza, disgusto e gioia. Tutte le altre espressioni facciali di emozioni reali sono il risultato di una combinazione in proporzioni diverse delle sei espressioni primarie. Inoltre, alla fine degli anni 80, è stata formulata anche l’ipotesi che le nostre espressioni facciali influenzino la nostra esperienza emozionale, tale ipotesi è detta ipotesi del feedback facciale. In uno studio teso a verificare questa ipotesi i soggetti sono stati istruiti ad assumere inconsapevolmente uno di due pattern di 76 contrazione facciale, uno corrispondente alla rabbia e uno alla felicità, mentre osservavano una serie di diapositive . Quando il pattern prodotto era quello corrispondente alla felicità i soggetti riferivano di sentirsi più felici e meno arrabbiati, al contrario riferivano di sentirsi più arrabbiati e meno felici. Se dopo qualche secondo durante il quale si contraggono i muscoli che attivano il pattern dell’espressione facciale della rabbia capita di sentirsi leggermente arrabbiati significa che si è provato su se stessi l’effetto del feedback facciale. Poiché è possibile esercitare un controllo volontario sui muscoli facciali è possibile inibire espressioni facciali genuine e sostituirle con espressioni false. Vi sono molte ragioni che possono indurre ad assumere espressioni facciali false, alcune sono positive come un sorriso falso per tranquillizzare un amico preoccupato, o negative come un sorriso falso per mascherare una bugia. Esistono due modi per distinguere le espressioni vere da quelle fasulle : primo può accadere che microespressioni, cioè espressioni facciali di breve durata, dell’emozione reale si presentino nell’espressione falsa; tali microespressioni durano al massimo 0.05 secondi ma con l’esercizio possono essere individuate senza l’aiuto di strumenti specifici (fotografia temporizzata); secondo ci sono spesso sottili differenze tra una espressione facciale autentica e una simulata che possono essere individuate da un osservatore esperto. L’anatomista francese Duchenne (diuscenn) è stato colui che maggiormente ha studiato queste differenze fra espressioni autentiche e simulate. Egli affermava che un sorriso di gioia può essere distinto da un sorriso volontario esaminando i due muscoli facciali che vengono contratti durante il sorriso autentico : l’orbicularis oculi che circonda l’occhio ed esercita una trazione della pelle dalle guance e dalla fronte verso il bulbo oculare, e lo zigomatico principale che solleva gli angoli della bocca. Secondo Duchenne l’orbicularis oculi può essere contratto solo da una gioia autentica per cui l’inerzia di questo muscolo smaschera una espressione falsa. A questo proposito Ekman ha chiamato il sorriso autentico sorriso di Duchenne. Non tutte le emozioni sono accompagnate da espressioni facciali. Tuttavia l’elettromiografia facciale può rilevare piccole variazione dell’input motorio ai muscoli del volto che non potrebbero essere osservate nella contrazione muscolare. In uno studio di Cacioppo e colleghi è stata registrata l’attività EMG di molti muscoli facciali mentre i soggetti guardavano delle diapositive che veniva correlata al grado di piacevolezza che i soggetti associavano a ciascuna diapositiva. Per esempio i muscoli del sorriso tendevano ad essere maggiormente attivi quando i soggetti osservavano delle diapositive per loro piacevoli. Sono stati condotti anche studi per valutare l’effetto dell’osservazione delle espressioni facciali altrui sui muscoli facciali dell’osservatore. E’ stato notato che le persone tendono a mimare le espressioni facciali che vedono negli altri persino se non sono consapevoli di quel che vedono. Sono stati effettuati degli studi su soggetti che avevano avuto danni corticali per comprendere il ruolo della corteccia e per individuare possibili lateralizzazioni e localizzazioni specifiche nella espressione facciale delle emozioni. E’ stata individuata una dominanza emisferica destra, in particolare del lobo temporale e frontale, nella percezione delle espressioni emotive facciali degli altri e nella sensibilità alla prosodia cioè la componente emozionale del tono della voce. E’ stata invece individuata una dominanza emisferica sinistra, in particolare del lobo frontale, per quanto riguarda la frequenza nella verbalizzazione delle emozioni ossia nell’esprimere a parole le emozioni esperite. Inoltre è stata rilevata una specificità del lobo frontale nella regolazione dell’espressione emotiva facciale spontanea. Tra le emozioni maggiormente studiate vi è la paura, questo perché la paura che è la reazione emotiva alla minaccia ed è una forza motivazionale nell’attivare comportamenti difensivi, che sono quei comportamenti la cui funzione primaria è quella di proteggere l’organismo dalla minaccia o dal dolore. Al contrario i comportamenti aggressivi la cui funzione primaria consiste nel minacciare o procurare danno. La paura si può cronicizzare e può indurre dei disturbi. Per lo studio del comportamento aggressivo e difensivo è stato utilizzato, nell’ambito di una ricerca etosperimentale, il modello di aggressività e difesa all’interno di una colonia di ratti che ha permesso di raccogliere ricche descrizioni dei comportamenti intraspecific aggressivi e difensivi nel ratto osservando le interazioni fra il maschio dominante alpha e un piccolo maschio intruso in una colonia ben strutturata composta da entrambi i sessi. Una ricerca etosperimentale è un ricerca che descrive in maniera sistematica delle sequenze comportamentali 77 minime osservate in laboratorio quindi in condizioni controllate e si tratta di sequenze strutturate per simulare eventi cruciali dell’ambiente naturale dei soggetti. In questo modo vengono estrapolati dei principi che permettono di comprendere il comportamento osservato. Nella ricerca basata sul modello di aggressività e difesa all’interno di una colonia sono stati osservati i comportamenti condotti da questi animali e si è visto che il maschio alpha annusa l’estraneo per vedere se è un maschio o una femmina, e quando si accorge che è un maschio ciò induce pilo erezione che è una forma di segnale di espressione aggressiva. Dopodichè il maschio dominante morde l’intruso, lo insegue, lo morde di nuovo, finchè l’intruso si ferma e si pone davanti al suo aggressore si erge sulle zampe posteriori e con quelle anteriori cerca di allontanarlo. A questo punto il maschio dominante comincia a muoversi lateralmente per far perdere l’equilibrio all’intruso e cerca di morderlo alla schiena. L’intruso che è stato attaccato più volte abbandona la posizione eretta e giace sulla schiena mentre il maschio alpha cerca di morderlo ancora. Attraverso questa alternanza di morsicature, fuga, inseguimento, confronto frontale, attacchi laterali e posizione supina alla fine l’intruso viene espulso. Questi comportamenti sono stati riscontrati anche in altre specie quindi comportamenti di attacco e difesa si manifestano in forma abbastanza stereotipata e comune a molte specie. L’analisi dei comportamenti di attacco e difesa ha portato allo sviluppo del concetto della zona dell’obiettivo, ovvero dell’idea che i comportamenti aggressivi e difensivi di un animale sono spesso pianificati per attaccare zone specifiche del corpo di un altro animale proteggendo contemporaneamente specifiche parti del proprio corpo. Ad esempio l’attacco laterale sembra essere messo in atto per mordere la schiena e contemporaneamente proteggere il proprio muso. Nell’essere umano sono state fatte ipotesi di correlazione fra aggressività e testosterone che però non sono state confermate infatti nella pubertà il comportamento aggressivo non aumenta parallelamente all’aumento dei livelli di testosterone, non viene eliminato dalla castrazione e non aumenta con iniezioni di testosterone. Tuttavia alcuni studi hanno evidenziati che criminali violenti e atleti maschi aggressivi tendono ad aver livelli di testosterone leggermente più alti della norma. Questa debole correlazione riflette probabilmente il fatto che gli scontri aggressivi aumentano il livello di testosterone piuttosto che il contrario. Il fatto che l’aggressività umana sembra essere indipendente dal livello di testosterone ematico potrebbe significare che la sua regolazione ormonale e neuronale sia diversa da quella di altri mammiferi, ad esclusione dei primati che sembrano avere caratteristiche simili a noi. Tuttavia la confusione potrebbe nascere dal fatto che i ricercatori studiano l’aggressività dell’uomo non riuscendo spesso a distinguere tra aggressività sociale, legata a livelli di testosterone in molte specie, da quella difensiva, che invece non lo è. Nell’essere umano la maggior parte delle reazioni aggressive sono reattive cioè sono reazioni ad una minaccia reale e quindi sono reazioni difensive e non di aggressività sociale. Quindi in realtà non c’è mancanza di correlazione fra aggressività e livello ematico di testosterone ma mancanza di correlazione fra attacco difensivo e livello di testosterone perché nella maggior parte dei mammiferi quando si parla di aggressività si parla di aggressione sociale e non difensiva. In particolare per individuare i meccanismi neuronali alla base della paura sono state fatte delle ricerche fra cui quella sulla paura condizionata, ossia sull’induzione della paura in risposta ad uno stimolo precedentemente neutro (stimolo condizionato) presentandolo più volte prima di uno stimolo negativo (stimolo incondizionato). E’ una ricerca che ha evidenziato come la paura condizionata sia mediata dall’amigdala e possa essere estinta dal ruolo inibitore della corteccia cerebrale. Indurre la paura in modo condizionato significa applicare il modello di condizionamento classico di Palvov stimolo-risposta; il soggetto, in genere un ratto, sente un suono e poi riceve una leggera scossa elettrica alle zampe e dopo diverse associazioni fra il suono che è lo stimolo condizionato e la scossa elettrica che è lo stimolo incondizionato, il semplice suono evoca dei comportamenti difensivi, per esempio immobilità o maggiore suscettibilità alla paura, e risposte correlate del sistema nervoso simpatico, come aumento delle frequenza cardiaca e della pressione sanguigna. Attraverso alcune ricerche è stato studiato il circuito neuronale che media questa forma di condizionamento uditivo della paura, e si è visto per esempio che lesioni delle vie uditive come il nucleo genicolato mediale impediscono l’instaurarsi della paura condizionata mentre una lesione 78 della corteccia uditiva non produce lo stesso effetto. Anche lesioni dell’amigdala impediscono l’instaurarsi della paura condizionata. L’amigdala, che è composta da una decina di aree distinte e per questo è chiamata complesso dell’amigdala, riceve afferenze da tutti i sistemi sensoriali ed è ritenuta essere la struttura nella quale viene appreso e mantenuto il significato emozionale dei segnali sensoriali. Nel circuito cerebrale ritenuto responsabile del controllo del condizionamento della paura a stimoli uditivi i segnali sonori raggiungono l’amigdala dal nucleo genicolato mediale del talamo sia direttamente che attraverso la corteccia uditiva. L’amigdala valuta il significato emozionale del suono sulla base delle precedenti esperienze e in seguito attiva i circuiti per le risposte comportamentali e simpatiche appropriate rispettivamente nel grigio periacqueduttale e nell’ipotalamo. Per un periodo di tempo sono stati effettuati interventi di psicochirurgia che prevedevano l’amigdalectomia, cioè la distruzione chirurgica dell’amigdala, per effettuare una sorta di trattamento terapeutico della violenza nell’essere umano; in alcuni pazienti tale interventi ha avuto efficacia nel ridurre il comportamento violento, però oltre a non essere efficace in tutti i casi non è comunque etico rimuove parti del cervello di una persona fintanto che la parte è sana e comunque a meno che la terapia non sia efficace nel 100% dei casi. L’asportazione dell’amigdala comunque non porta solo ad una riduzione del comportamento aggressivo ma anche ad un appiattimento delle reazioni emotive per cui la persona vive come se fosse sempre sotto sedativo. Lesioni dell’amigdala sembrano essere la causa della sindrome di Kluver-Bucy, osservata in diverse specie, che si manifesta con ingestione di qualsiasi cosa che risulti commestibile, tendenza ad esplorare ripetutamente oggetti noti spesso con la bocca, accresciuta attività sessuale diretta spesso verso oggetti non appropriati, assenza di paura. L’ambiente o contesto in cui si viene a contatto con stimoli che inducono paura può di per se provocare paura. Il processo con cui i contesti vengono associati a stimoli che provocano paura prende il nome di paura condizionata contestuale. Poiché l’ippocampo ha un ruolo importante nella memoria della localizzazione spaziale sembra che sia implicato nella paura condizionata contestuale. Tale ipotesi sembra essere stata confermata da esperimenti in cui lesioni bilaterali dell’ippocampo prima del condizionamento hanno bloccato lo sviluppo di una risposta di paura allo stimolo condizionato esplicito, es il suono, mentre lesioni bilaterali dell’ippocampo dopo il condizionamento hanno bloccato il mantenimento della risposta di paura senza compromettere il mantenimento della risposta di paura allo stimolo condizionato esplicito. Parlando delle basi fisiologiche e biologiche della emotività e del suo impatto sulla salute ci si può riferire al concetto di stress, ovvero variazioni fisiologiche reattive ad agenti che minacciano l’organismo. Tutti gli agenti stressanti o stressors, di natura sia psicologica (perdita lavoro) che fisica (esposizione prolungata al freddo), producono essenzialmente lo stesso pattern di variazioni fisiologiche, anche se lo stress cronico determina più frequentemente conseguenze sulla salute. Il primo a descrivere la risposta allo stress fu Selye (Sili) negli anni 50. L’intensità della risposta allo stress non dipende solo dagli agenti stressanti e dall’individuo ma anche dalle strategie che gli individui adottano per affrontare lo stress e che vengono generalmente sono note con il termine di coping. Le reazioni allo stress possono essere di due tipi: a breve termine in cui vengono prodotte variazioni adattive che aiutano l’animale a rispondere allo stressor come l’inibizione dei processi infiammatori, e a lungo termine in cui però lo stress produce variazioni antiadattive come ulcera gastrica e aumento di suscettibilità all’infezione. La risposta allo stress è regolata dall’attivazione deI sistema della corteccia adrenergica, nella porzione anteriore dell’ipofisi. Gli agenti stressanti infatti stimolano il rilascio dell’ormone adrenocorticotropo dell’adenoipofisi il quale a sua volta stimola il rilascio dei glucocorticoidi della corteccia surrenale che producono gran parte degli effetti della risposta allo stress. Gli agenti stressanti attivano anche il sistema nervoso simpatico che aumenta il rilascio di adrenalina e noradrenalina dalla midollare del surrene. Tutte le più comuni forme di stress si associano a un livello elevato di sostanze circolanti come appunto glucocorticoidi, adrenalina e noradrenalina che a loro volta sono implicati in molti disturbi fisici come l’ictus, il diabete e l’ipertensione. Il rapporto fra paura cronica, stress e disturbi della salute è evidente negli animali sottoposti a stress da sottomissione, ossia quella forma di stress derivante da una minaccia 79 durevole nella vita quotidiana d parte dei membri della propria specie. Molte ricerche hanno mostrato che animali, appartenenti soprattutto a specie che formano gerarchie di gruppo, sottoposti a stress da sottomissione hanno maggiore tendenza ad aggredire i più giovani, ad avere testicoli di dimensioni ridotte, una vita più breve, livelli di testosterone più bassi e livelli di corticosterone più alti. Il modello di Selye sullo stress ha portato ad approfondire lo studio sui disturbi psicosomatici cioè quei disturbi che hanno sintomi principalmente fisici ma con cause parzialmente fisiche e parzialmente psicologiche. Fra questi disturbi psicosomatici la patologia derivante dallo stress maggiormente studiata è l’ulcera gastrica. Consiste in lesioni dolorose alla mucosa dello stomaco e del duodeno (ulcera duodenale) che in alcuni casi può essere letale. E’ una patologia che ha un’incidenza abbastanza elevata ed è prevalente in persone che vivono in situazioni stressanti. Per cui soggetti sani se sottoposti ad alti livelli di stress possono sviluppare ulcera. L’ulcera gastrica è dovuta a secrezioni gastriche, ossia quotidianamente ogni individuo adulto produce da due a tre litri di succhi gastrici che sono i costituenti dell’acido cloridrico il quale ha la funzione di frantumare il cibo durante la digestione e in condizioni normali ha una concentrazione tale da riuscire a dissolvere alcuni metalli. I casi di ulcera gastrica sono invece associati a concentrazioni a normali, ossia troppo elevate, di acido cloridrico. Infatti la maggior parte dei farmaci per curare l’ulcera gastrica sono antagonisti dell’ istamina che inibiscono la secrezione acida gastrica. Vi sono però anche individui affetti da ulcera gastrica che non hanno concentrazioni elevate di acido cloridrico; osservando questi casi si è visto che lo stress facilita l’ulcera gastrica sia incrementando la produzione di acido cloridrico sia indebolendo le difese del tratto gastrointestinale. Tali difese includono una membrana mucosa che impedisce la penetrazione dell’acido cloridrico nella parete gastrointestinale e la vascolarizzazione della membrana che rimuove ogni molecola di acido che riesce a passare la parete gastrointestinale. Quando però si verifica un evento stressante e quindi c’è una attivazione del sistema nervoso simpatico questo indebolisce le difese del tratto gastrointestinale nei confronti dell’acido cloridrico richiamando il sangue dal tratto gastrointestinale verso i muscoli scheletrici e quindi diminuendo l’efficienza della barriera della mucosa. Pertanto la reazione del sistema parasimpatico che è conseguenza dello stress aumenta la secrezione dell’acido cloridrico. Si è visto che è fondamentalmente l’amigdala ad avere un ruolo di influenza nel rilascio di acido cloridrico e nella riduzione di livello ematico nella mucosa gastrica. Dal punto di vista psicosomatico la sequenza che porta all’ulcera gastrica è la seguente: lo stress attiva l’amigdala che determina l’aumento di rilascio dell’acido cloridrico e diminuzione del livello ematico nella mucosa gastrica che porta all’ulcera gastrica. Alcuni studi che hanno scoperto che l’ulcera gastrica è provocata da batteri hanno messo in discussione la concezione che l’ulcera gastrica sia un disturbo psicosomatico. Si è visto che tali batteri, chiamati helicobacter pylori, sono responsabili di tutti i casi di ulcera tranne che di quelli provocati da sostanze antinfiammatorie non steroidee come l’aspirina. Ciò escluderebbe lo stress come causa dell’ulcera ma ulteriori studi hanno dimostrato che nonostante l’infezione da helicobacter pylori danneggi le pareti dello stomaco e nonostante il trattamento antibiotico dell’ulcera sia una terapia efficace, tale infezione da sola non è sufficiente a provocare il disturbo in molti soggetti. In molti pazienti affetti da ulcera le condizioni migliorano anche a seguito di terapie psicologiche e questo senza ridurre le infezioni da helicobacter pylori. Pertanto deve esistere un altro fattore che aumenta la vulnerabilità delle pareti dello stomaco, e questo fattore sembra essere lo stress. Le interazioni tra fattori psicologici, sistema nervoso e sistema immunitario, sono state studiate nell’ambito della psiconeuroimmunologia che attraverso ricerche su cavie e studi correlaionali sull’essere umano, ha evidenziato come lo stress possa ridurre la resistenza di un individuo alle infezioni, disturbi che fino ad allora erano stati considerati solo fisici, ossia possa ridurre sia l’ immunità cellulo-mediata che quella anticorpale. Le basi fisiologiche sono le seguenti : lo stress determina una attivazione del sistema nervoso simpatico (attività nervosa) e del sistema adenoipofisario (attività ormonale) che induce una depressione immunitaria. Il sistema immunitario impedisce che il corpo venga invaso dai microrganismi che sono presenti generalmente nel corpo stesso e che riescono a proliferare perché trovano un clima adeguato che abbia cioè una certa temperatura e un 80 certo livello nutritivo. Il sistema immunitario come prima cosa deve poter distinguere le cellule estranee da quelle del corpo. Questa funzione essenziale nelle reazioni immunitarie specifiche è svolta dagli antigeni, ossia molecole proteiche poste sulla superficie di una cellula che la identificano come estranea o propria dell’organismo. Le barriere del sistema immunitario contro le infezioni sono di due tipi : barriere non specifiche, come le membrane mucose e i fagociti (cellule specializzate nella distruzione degli organismi estranei e dei prodotti di scarto), che agiscono in modo generale contro la maggior parte degli organismi estranei, barriere specifiche che agiscono in modo selettivo contro alcune famiglie particolari di microrganismi invasori. Possono essere di due tipi, cellulo-mediata e anticorpale, ciascuna delle quali è difesa da una diversa categoria di linfociti che sono globuli bianchi specializzati del sangue che vengono prodotti nel midollo osseo e che sono immagazzinati nel sistema linfatico. L’immunità cellulo-mediata dipende dai linfociti T, quella anticorpale dipende dai linfociti B. Le reazioni immunitarie cellulo-mediate si hanno quando un macrofago, ossia un grande fagocita, ingloba un microrganismo estraneo. Il macrofago espone gli antigeni di questo microrganismo sulla superficie della sua membrana cellulare e quindi attira i linfociti T. I linfociti T possiedono due tipi di recettori sulla loro superficie, uno per le molecole che si trovano normalmente sulla superficie dei macrofagi e degli altri corpi cellulari e un altro per un antigene specifico estraneo. Sui linfociti T esistono milioni di recettori diversi per gli antigeni estranei ma ne esiste uno solo su ogni tipo di cellula T ed esistono solo poche cellule T per ogni tipo di recettore. Dopo la fagocitosi del microrganismo e dell’esposizione del suo corredo antigenico una cellula T provvista di un recettore per l’antigene estraneo, si lega alla superficie del macrofago infetto dando inizio ad una serie di reazioni. Tra queste vi è la moltiplicazione della cellula T legata che crea numerose altre cellule T dotate del recettore specifico necessario alla distruzione di tutti i microrganismi estranei e di tutti i corpi cellulari infettati dagli estranei. Vengono inoltre prodotte delle cellule T di lunga durata che sono i linfociti T della memoria che rendono il sistema immunitario in grado di reagire più rapidamente a quello stesso antigene se dovesse introdursi di nuovo nell’organismo. Invece la reazione immunitaria anticorpale comincia quando una cellula B si lega a un antigene estraneo per il quale possiede un recettore specifico. Ciò provoca una moltiplicazione delle cellule B e la sintesi di una forma letale delle sue molecole recettoriali, dette anticorpi, che vengono rilasciate nel liquido intracellulare dove si legano agli antigeni estranei e distruggono o disattivano i microrganismi estranei. Durante questo processo vengono prodotte anche cellule B di memoria per l’antigene specifico che hanno una vita lunga ed accelerano l’immunità anticorpale se in seguito si verifica una infezione ad opera dello stesso microrganismo. La prima volta in cui un antigene estraneo viene riconosciuto entrambi i processi durano per molti giorni ma le risposte immunitarie ad una successiva invasione di microrganismi con lo stesso antigene sono molto più veloci grazie alle cellule T e B di memoria. Questo è il motivo per cui spesso la vaccinazione (l’iniezione di un piccolo campione di un microrganismo infettivo in individui sani) è una misura preventiva efficace contro gli effetti di un’ulteriore infezione. Sono stati effettuati molti studi, alcuni dei quali basati su una meta analisi di Segerstrom e Miller cioè uno studio che analizza e correla i risultati di un gruppo di studi già pubblicati, per verificare la relazione fra stress e difese immunitarie e si è visto che fattori stressanti acuti brevi, che durano per esempio meno di 100 minuti come il fatto di parlare in pubblico o le competizioni atletiche in realtà provocano un miglioramento della funzione immunitaria; gli agenti stressanti cronici come l’isolamento sociale, la sovrappopolazione, la separazione da un genitore, la deprivazione di sonno, il divorzio, curare una persona affetta da una malattia grave, l’esame finale di un percorso formativo, e in particolare il lutto sono gli eventi stressanti che maggiormente determinano quelle reazioni di attivazione nervosa e ormonale che possono determinare una depressione delle reazioni immunitarie determinando una maggiore suscettibilità alle infezioni. Ci sono però alcune situazioni in cui l’indebolimento del sistema immunitario può non provocare un aumento delle infezioni : il sistema immunitario infatti ha molte componenti ridondanti per cui la compromissione di una di esse ha effetto scarso o nullo sulla vulnerabilità alle infezioni, inoltre nei giovani di buona salute i cambiamenti prodotti dallo stress nella funzione immunitaria possono essere 81 troppo brevi per avere effetti su una probabilità di infezione, infine il declino di alcuni aspetti della funzione immunitaria può indurre un aumento compensatorio di altri. L’esperienza precoce allo stress, che comincia anche prima della nascita e che viene chiamato stress prenatale, può avere molti effetti negativi sullo sviluppo. Per esempio bambini sottoposti a maltrattamenti o ad altre forme di stress grave manifestano una serie di anomalie al cervello ed al sistema endocrino. Lo stress precoce aumenta l’intensità delle risposte allo stress e presumibilmente amplifica gli effetti negativi degli agenti stressanti. Si pensa inoltre che la comparsa di alcuni disturbi psichiatrici dipenda dall’interazione tra predisposizione genetica al disturbo ed esperienza precoce ad una forma grave di stress. Alcuni studi hanno evidenziato che la carenza di cure materne ha effetti negativi duraturi sulle risposte allo stress della prole. La ricerca sugli effetti negativi dello stress sul cervello è agli inizi ma alcuni risultati suggeriscono che l’ippocampo sia coinvolto in questi effetti. La ragione di questo coinvolgimento sembra essere l’alta concentrazione di dei recettori di glucocorticoidi nell’ippocampo. Gli studi sui meccanismi cerebrali dell’emozione negli esseri umani sono di due tipi : studi neuropsicologici dei cambiamenti emotivi nei pazienti con lesioni al cervello, e gli studi di visualizzazione funzionale del cervello. Anche se tali studi sono all’inizio bisogna notare come risulti sempre il coinvolgimento dell’amigdala e della corteccia prefrontale nelle emozioni. Va anche detto comunque che sembra che particolari strutture del cervello siano coinvolte solo in alcune emozioni, ad esempio l’amigdala pare si coinvolta particolarmente nell’emozione della paura e in altre emozioni negative. Ad esempio la malattia di Urbach-Wiethe è un disturbo genetico che deriva dalla calcificazione dell’amigdala e di altre strutture della parte mediale del lobo temporale. I pazienti affetti da questa malattia non hanno la capacità di riconoscere l’espressione facciale della paura, di descrivere situazioni che provocano paura o disegnare espressioni di paura. Anche se la ricerca recente si è focalizzata sul ruolo dell’amigdala nel riconoscimento di espressioni facciali negative, soggetti con danno all’amigdala hanno anche difficoltà a riconoscere altri stimoli (forme, paesaggi) soprattutto quelli che dicono di amare meno. Anche la corteccia prefrontale è coinvolta nelle emozioni. La RMF indica per esempio che le emozioni negative producono una forte attivazione mediale prefrontale, mentre emozioni positive producono una forte attivazione laterale prefrontale. Nell’ambito degli studi sulla lateralizzazione cerebrale delle emozioni, vi sono dati che evidenziano una dominanza dell’emisfero destro nella percezione dell’emozione, sia per quanto riguarda l’espressione facciale che la prosodia (tono emotivo della voce). Ciò tuttavia non significa che l’emisfero sinistro non sia affatto coinvolto. Tale dominanza sembra essere suggerita anche dal fatto che le emozioni sembrano comparire prima e con maggiore intensità sul lato sinistro del viso che è controllato dall’emisfero destro. Bisogna comunque sottolineare che vi sono differenze individuali nell’organizzazione dei meccanismi nervosi dell’emozione. Sonno e sogni Il sonno viene definito come stato di riposo opposto alla veglia. Non significa però che il sonno sia uno stato di totale inattività ma si tratta di un processo fisiologico attiva che coinvolge l’interazione di strutture multiple del SNC e SNA. Le tre misurazioni psico-fisiologiche standard per definire gli stadi del sonno e per evidenziare la loro regolarità o meno sono l’elettrooculogramma, cioè la misurazione dei movimenti oculari, l’elettroencefalogramma, cioè la misurazione dell’ attività neurale, e l’elettromiogramma, cioè la misurazione dell’attività muscolare ( contrazione e rilassamento). La prima notte in un laboratorio è spesso caratterizzata da variabilità e i disturbi del sonno ch si osservano durante la prima notte vengono denominati effetto prima notte. Il sonno sulla base di queste misurazioni viene diviso in 4 stadi : quando il soggetto chiude gli occhi prima di addormentarsi si ha un tracciato EEG con onde a bassa ampiezza e ad alta frequenza tipiche della veglia attiva che però comincia ad essere interrotto da onde alpha che sono onde lente, con ampiezza elevata e frequenza bassa. Quando il soggetto comincia ad addormentarsi si ha il passaggio allo stadio 1 che presenta ancora onde alpha piccole e frequenti; nel passaggio dallo stadio 1 allo stadio 2 si hanno onde più ampie e meno frequenti e 82 la comparsa dei cosiddetti complessi K, che sono formati da una singola ampia onda negativa, ovvero una deflessione verso l’altro, seguita da una singola ampia onda positiva, ovvero una deflessione verso il basso; gruppi di onde intermittenti che durano 1 o 2 secondi sono chiamati fusi del sonno. Successivamente vi è il passaggio allo stadio 3 che corrisponde ad un tracciato EEG caratterizzato da onde ampie e lente, onde delta, che costituiscono dal 20 al 50 % del tracciato EEG. Lo stadio successivo è lo stadio 4 che è caratterizzato da onde delta che costituiscono più del 50% del tracciato EEG. Dopo la stadio 4, nel quale rimane per un certo periodo, il soggetto sembra tornare allo stadio 1 anche se questa volta tale stadio è molto diverso da quello iniziale. Si può distinguere quindi uno stadio 1 iniziale, che non è caratterizzato da alcuna attività elettrooculografica o elettromiografia di rilievo, e uno stadio 1 emergente caratterizzato invece da attività REM e perdita del tono muscolare. Per attività REM durante il sonno si intende quell’attività caratterizzata da rapidi movimenti degli occhi sotto le palpebre chiuse. Ogni ciclo completo di sonno va dal 1 stadio iniziale al 1 stadio emergente e dura in media circa 90 minuti, e una normale notte di sonno presenta circa 5 cicli completi di sonno. Con il progredire dello stato di sonno sempre più tempo è impiegato nello stadio 1 emergente rispetto agli altri stadi., in particolare 4 e 3; durante il sonno possono anche presentarsi brevi stati di veglia che al mattino difficilmente sono però ricordati. Il sonno associato allo stadio 1 emergente è chiamato sonno REM, ma anche sonno paradosso o desincronizzato o attivo. Questo perché, nonostante il corpo sia addormentato, ci sono però delle misure elettroencefalografiche e elettrofisiologiche che rivelano tratti di attività tipica della veglia in concomitanza con i rapidi movimenti oculari, un incremento del flusso ematico, un incremento del consumo di ossigeno cerebrale legato al fatto che il cervello è attivo, un incremento della pressione sanguigna e del ritmo respiratorio, una irregolarità del battito cardiaco, l’erezione del pene nell’uomo e del clitoride nella donna. Mentre gli altri stadi del sonno sono definiti sonno NonREM, o sincronizzato o a onde lente delta. Si è verificata una correlazione fra le fasi REM e NREM del sonno ed la presenza dei sogni. L’80% dei soggetti che vengono svegliati durante la fase REM ricordano il sogno. Questo loro ricordo viene definito dreaming report perché i soggetti ricordano un sogno vivace a carattere allucinatorio, drammatizzato, con coinvolgimento emotivo-affettivo e distorsioni spazio temporali, quindi eventi che si realizzano in contesti diversi da quelli che ci si aspetterebbe, vengono quindi riferiti contenuti tipicamente onirici cioè contenuti tipici dell’attività di sogno. Se invece i soggetti vengono svegliati nella fase del sonno NREM il 7% ricorda un sogno che in questo caso viene chiamato thinking report in quanto perché il sogno viene ricordato sotto forma di evento astratto e legato ad episodi di vita quotidiana. Freud credeva che i sogni fossero scatenati da desideri inaccettabili repressi, l’alternativa moderna a questa teoria è la teoria dell’attivazione-sintesi di Hobson che si basa sull’osservazione che durante i periodi di sonno REM molti circuiti del tronco cerebrale si attivano e bombardano la corteccia cerebrale con segnali nervosi. Il fulcro di questa teoria è che l’informazione che giunge alla corteccia durante il sonno REM è in gran parte causale e che i sogni sarebbero il risultato dello sforzo della corteccia di dare un senso a questi segnali causali. Secondo questa teoria chi sogna aggiunge qualcosa di se alla confusione dei segnali nervosi per creare una storia coerente e non perché vi sia un doloroso messaggio nascosto. Esistono anche dei sogni detti sogni lucidi in cui la distinzione fra sogno e realtà e meno netta di quanto lo sia in genere. Sembrerebbe che durante questi sogni colui che sogna è consapevole che sta sognando e può influenzare il corso del sogno. Diverse ricerche sull’attività onirica hanno permesso di focalizzare diverse caratteristiche: ad esempio che sensazioni provocate da stimoli esterni sono incorporate nel sogno (es. dell’acqua), che i sogni si svolgono in tempo reale anche se sembra durare molto poco, che vi sono persone che dicono di non sognare mai, persone not recorders, ma in realtà tutti sognano solo che alcuni non riescono a ricordare i sogni e a raccontarli, ciò che sperimentano sono le cosiddette esperienze ipnopompiche simile al thinking report ed hanno la stessa quantità di attività REM di coloro che sognano, e che il sonnambulismo ed il parlare nel sonno (sonniloquio) non sono necessariamente legati al contenuto del sogno tant’è che si verificano meno frequentemente nel sonno REM e più nello stadio 4. Altre ricerche hanno invece provato a sviluppare 83 teorie sulla funzione del sonno a livello biologico. Le teorie sono due : la teoria ristorativa e la teoria circadiana. La teoria ristorativa del sonno si basa sul fatto che le attività svolte nel periodo di veglia determinano uno squilibrio dell’omeostasi (stabilità fisiologica interna) del corpo e che il sonno ne consente il recupero. La teoria circadiana sostiene che il sonno non sia una reazione agli effetti disturbanti dello stato di veglia ma è regolato da un meccanismo neurale interno che fa dormire il soggetto nei periodi in cui non è impegnato in attività fondamentali per la sopravvivenza. Si ipotizza quindi l’esistenza di un orologio interno biologico che spinge a dormire in determinate ore per conservare energia ed evitare incidenti quando l’organismo è al di sotto del livello di risorse energetiche necessarie e si è più vulnerabili. Entrambi le teorie hanno dovuto affrontare l’esigenza di spiegare le differenze nella quantità di sonno fra le varie specie, si passa ad esempio dalle 20 ore di sonno del bradipo gigante, alle 8 ore dell’uomo, del maiale o del coniglio, alle due ore del daino o del cavallo. E quindi sono state sviluppate diverse ricerche, in particolare sui cicli circadiani e sulla deprivazione del sonno, per cercare di capire se il sonno ha una funzione circadiana o ristorativa. Per quanto riguarda lo studio dei cicli circadiani del sonno viene osservato che nel nostro habitat naturale c’è una oscillazione continua tra luce e buio con un ciclo di 24 ore. La maggior parte degli esseri viventi si sono adattati a questo cambiamento regolare del loro ambiente sviluppando una varietà di ritmi circadiani, cioè che durano circa 1 giorno, ad esempio molte specie mostrano un regolare ciclo sonno-veglia : gli uomini sfruttano il giorno per soddisfare i loro bisogni biologici e dormono la notte, gli animali notturni invece come i ratti dormono quasi tutto il giorno e stanno svegli la notte. L’analisi comparata del sonno ha permesso di trarre alcune conclusioni interessanti : il fatto che tutti i mammiferi e gli uccelli dormano suggerisce che il sonno abbia altre funzioni oltre quella di proteggere gli animali da incidenti e di conservare l’energia e che non sia una prerogativa dell’uomo; il fatto che per quanto essenziale alla sopravvivenza il sonno non è obbligatoriamente necessario in grandi quantità; il fatto che non sembrano esserci correlazioni tra il periodo di sonno di una specie e il suo livello di attività, le dimensioni del corpo e la temperatura corporea. La maggior parte dei processi fisiologici, comportamentali o biochimici hanno tutti una qualche ritmicità circadiana, quindi tutti gli organismi cercano di adeguarsi in modi diversi per soddisfare le richieste dell’ambiente in condizioni di luce e buio. Tuttavia il fatto che ci siano dei cicli sonno-veglia regolari non è di per se una prova del fatto che ci sia un orologio interno fisiologico che regoli questo ciclo. Sonno e veglia secondo alcuni potrebbero essere regolati da stimoli ambientali come l’alba e il tramonto, o l’ora di assunzione dei pasti. A tal fine i ricercatori hanno studiati animali che vivono in condizioni costanti isolati da stimoli ambientali, come uomini che vivono in grotte sotterranee o in laboratori isolati acusticamente o privi di finestre. I soggetti sperimentali in queste condizioni di isolamento, quindi privi di inizi temporali, mantengono tutti i loro i ritmi circadiani. Tali ritmi in ambienti costanti sono detti ritmi free running e la loro durata viene definita periodo free running. I periodi free running hanno 3 caratteristiche importanti : 1) hanno lunghezza variabile da soggetto a soggetto all’interno di una data specie; 2) hanno durata relativamente costante in ogni dato soggetto, 3) sono normalmente più lunghi di 24 ore - 25 ore nella maggior parte degli uomini. Ciò che sembra evidenziarsi quindi è che tutti gli uomini abbiano tutti un orologio biologico interno che va più lentamente quando non è trascinato o sincronizzato da indicatori temporali forniti dall’ambiente. I nostri cicli circadiani mantengono il loro ciclo di 24 ore grazie ad alcuni elementi ambientali. Gli indicatori ambientali che in qualche modo riescono a controllare la temporizzazione, cioè a sincronizzare (trascinare) i ritmi circadiani sono chiamati Zeitgebers (Zaitghebers) che in tedesco significa “che dà il tempo”. Un esempio di Zeitgeber può essere quindi dato dalla luce. La caratteristica più importante dei cicli circadiani free running è che sono endogeni. Osservando ad esempio il ciclo circadiano sonno veglia possiamo vedere che la relazione fra la durata di un periodo di sonno e la durata di un periodo di veglia precedente presenta una correlazione negativa anche in condizioni free running, quindi quando un soggetto rimane sveglio più a lungo del solito la durata del sonno successivo tende a d essere più breve. Sembrerebbe quindi che gli individui siano programmati per avere cicli sonno veglia di una certa lunghezza. Ciò è 84 contrario però alla teoria ristorativa secondo cui un prolungato ritmo di veglia altera l’omeostasi e quindi richiede un sonno più prolungato. In condizioni naturali quando c’è una varietà di riferimenti temporali esterni elevata per indicare le ore del giorno i ritmi circadiani delle varie funzioni biologiche hanno una durata di 24 ore. La maggior parte dei soggetti dorme durante la fase discendente del ciclo circadiano della temperatura corporea e si sveglia durante la fase ascendente. Questo suggerisce l’esistenza di una connessione causale tra il ciclo sonno veglia e il ciclo della temperatura corporea. Tuttavia quando i soggetti si trovano i un ambiente costante i due cicli possono anche dissociarsi, cioè svilupparsi a velocità diverse, e quindi i due cicli perdono questa loro correlazione chiamata relazione di fase. Questo fenomeno viene detto anche desincronizzazione interna. Il fenomeno della desincronizzazione fa pensare che ci siano oscillazioni biologiche circadiane diverse per i diversi cicli circadiani legati a differenti funzioni biologiche. Nelle città industrializzate per il tipo di ritmo di vita che viene sostenuto sono state individuate due fonti di desincronizzazione delle ritmicità circadiane : una è il jet lag, o sfasamento da volo transmeridiano, in cui gli indicatori di tempo o Zeitgebers che controllano le fasi di diversi ritmi circadiani sono accelerati dopo i voli verso oriente (avanzamento di fase) o decelerati dopo voli verso occidente (ritardo di fase), e l’altra sono i turni di lavoro in cui gli indicatori del tempo rimangono invariati ma gli operai sono costretti a modificare il loro naturale ciclo sonno veglia in modo da potersi adattare a orari di lavoro che cambiano. Entrambe queste condizioni producono disturbi del sonno, fatica, malessere generale e deficit riscontrabili in test fisici e cognitivi. Il disturbo può durare diversi giorni: ad esempio ci vogliono di solito 10 giorni per riadattarsi completamente dopo un volo Tokyo-Boston (avanzamento di fuso di circa 10 ore e mezza). E’ più difficile adattarsi ad un avanzamento di fase piuttosto che a un ritardo di fase, è anche più difficile riadattarsi dopo voli diretti verso est e cambiamenti nei turni di lavoro che richiedono un anticipo di fase. Sono stati proposti diversi approcci per ridurre i disturbi provocati da jet lag e turni di lavoro. Nel primo caso sono stati proposti due approcci; Uno consiste nello spostare gradualmente il proprio ciclo di sonno veglia nei giorni precedenti il volo, mentre l’altro si basa sull’applicazione di alcuni trattamenti da seguire dopo il volo per agevolare lo spostamento del ritmo circadiano, ad esempio l’esposizione ad una luce intensa durante la mattina presto dopo voli verso est o l’assunzione di benzodiazepine si sono dimostrati utili nell’anticipo del ciclo sonno veglia se vengono somministrate appena prima del periodo di sonno oppure possono ritardarlo se la loro somministrazione avviene subito dopo il sonno. Nell’ambito delle teorie della ristorazione e dei ritmi circadiani sono stati studiati anche gli effetti della deprivazione di sonno. Dal momento che le teorie ristorative si basano sull’ipotesi che il sonno sia una risposta agli effetti debilitanti della veglia esse ipotizzano che prolungati periodi di veglia dovrebbero produrre rilevanti disturbi fisiologici e comportamentali, che questi disturbi peggioreranno con l’aumento della deprivazione di sonno e che dopo la fine del periodo di deprivazione verrà recuperata gran parte del sonno perso. Invece secondo la teoria circadiana la deprivazione di sonno non ha effetti particolarmente debilitanti ma causa un incremento della tendenza a dormire, che sarà maggiore in quelle fasi di ciclo circadiano in cui il soggetto dorme e ci dovrebbe essere una scarsa o addirittura assente compensazione per la perdita di sonno dopo il periodo di deprivazione. La maggior parte delle ricerche fatte confermano la teoria circadiana. Un soggetto che per stabilire un record si sottopose alla deprivazione di sonno andò a dormire 264 ore e 12 minuti dopo la fine della sua ultima notte di sonno e si osservò che dopo 11 giorni di veglia la prima notte dormi solo 14 ore per tornare nei giorni successivi alle sue normali 8 ore di sonno. Lo stress e l’alterazione dei ritmi circadiani potrebbero contribuire o essere comunque responsabili di molti effetti nocivi comunemente attribuiti alla mancanza di sonno. Osservando gli studi che prendono in considerazione le misure elettrofisiologiche standard, come battito cardiaco, pressione sanguigna ecc.. hanno portato ad evidenziare che ci sono scarse prove sul fatto che la deprivazione di sonno anche per periodi che sperano le 200 ore produca alterazioni fisiologiche marcate. Un’altra aspettativa che si potrebbe avere in relazione alla deprivazione di sonno è che le abilità cognitive complesse degli esseri umani possano essere sensibili alla deprivazione : si è visto ad esempio che dopo una deprivazione di 85 sonno i test sulle capacità mentali più semplici specie quelli che richiedono attenzione continua danno cattivi risultati, mentre test che prevedono prove di ragionamento astratto, logico o su relazioni spaziali non mostrano deficit. Tuttavia si è detto che il soggetto tende ad avere periodi di predisposizione all’addormentamento, infatti dopo 2-3 giorni di deprivazione di sonno si avranno i cosiddetti micro sonni, periodi di 2-3 secondi durante i quali le palpebre si abbassano e i soggetti diventano meno reattivi agli stimoli esterni anche se restano seduti o addirittura in piedi. I micro sonni compromettono le prestazioni nei test passivi come test di vigilanza ma non sono necessariamente associati a basse prestazioni. Alcuni studi di laboratorio sono stati condotti utilizzando apparati a dischi rotanti per deprivare di sonno dei ratti; questi studi suggeriscono che questa deprivazione potrebbe non comportare conseguenze cosi lievi come evidenziavano ricerche su soggetti umani. In questo esperimento due ratti , uno sperimentale e uno di controllo, venivano posti in due stanze separate di questo apparato e ogni volta che l’attività elettroencefalografica del ratto sperimentale evidenziava che questo stava dormendo il disco che fungeva da pavimento per entrambi gli scompartimenti iniziava a ruotare lentamente facendo cadere in una vasca d’acqua sottostante il ratto sperimentale che dormiva se questo non aveva la prontezza di svegliarsi subito. Il ratto di controllo è nelle stesse condizioni ma se non sta dormendo può evitare il tuffo camminando nella direzione opposta a quella di rotazione del disco, mentre i ratti sperimentali non riuscivano ad avere questa prontezza nella gestione della situazione e quindi morirono dopo alcuni giorni mentre invece i ratti di controllo continuavano a stare abbastanza bene. Tuttavia la morte dei ratti sperimentali potrebbe comunque non essere un effetto della deprivazione di sonno bensì dallo stress e dai danni fisici riportati durante l’esperimento. Quindi sicuramente è una ricerca che contrasta con l’ affermazione che la deprivazione di sonno non comporta pericolo per il soggetto, soprattutto in relazione alla sua reattività agli stimoli ambientali come si evidenzia ad esempio nell’essere umano in caso di incidenti automobilistici dovuti a stanchezza marcata. Tuttavia ricerche sull’essere umano hanno dato quasi sempre almeno in termini di parametri elettrofisiologici e in termini di risultato a test di performance dei risultati differenti. E’ stata studiata anche la deprivazione selettiva di sonno attraverso esperimenti in cui si consentiva ai soggetti di dormire quanto volevano ma che venivano sottoposti a deprivazione di sonno solo in uno stadio di sonno particolare. Nella maggior parte degli esperimenti questo stadio corrispondeva alla fase REM, una fase che ha destato molto interesse per il suo aspetto paradossale e per la collocazione in questa fase dell’ attività onirica. Vi sono 3 teorie per quanto riguarda la deprivazione di sonno nella fase REM : una teoria è quella che ipotizza che il sonno REM sia necessario per il mantenimento della salute mentale dell’essere umano, un’altra teoria ipotizza che il sonno REM sia necessario per mantenere adeguati livelli di motivazione e un’altra che ipotizza che il sonno REM sia necessario per l’elaborazione dei ricordi . La deprivazione di sonno REM ha 2 effetti stabili: il primo è che se un soggetto viene deprivato di sonno REM ad ogni notte successiva ci sarà una maggiore tendenza del soggetto ad entrare in fase REM, il secondo invece è che dopo le prime due o tre notti dopo la fine della deprivazione vi è una sorta di effetto rimbalzo cioè i soggetti trascorrono più tempo del solito in sonno REM. Non hanno però ricevuto conferma le ipotesi secondo cui la deprivazione di sonno REM causerebbe disturbi della personalità, motivazionali e di memoria. Sono stati osservati pazienti che assumono farmaci antidepressivi triciclici : nonostante questi farmaci sopprimano il sonno REM, non sono stati riscontrati effetti collaterali attribuibili alla perdita di sonno REM. Una teoria recente sul sonno REM, detta teoria per difetto del sonno REM, si basa sull’assunzione che questo tipo di sonno non abbia alcuna funzione fondamentale, ma in realtà poichè è difficile rimanere costantemente nel sonno NREM il cervello periodicamente passa da uno stato all’altro. Se c’è un immediato bisogno fisiologico il cervello passa allo stato di veglia altrimenti passa ad uno stato per difetto, ovvero il sonno REM. Una conferma indiretta di questa teoria deriva dalle numerose analogie tra sonno REM e stato di veglia. Al fine di confermare la teoria ristorativa o la teoria circadiana è stata formulata anche una ipotesi di integrazione del modello ristorativo e di quello circadiano, quindi un modello di come i fattori circadiani e la lunghezza della veglia possano interagire per determinare la propensione al sonno. Borbely è colui che ha proposto un modello 86 di regolazione del sonno che integra gli effetti dei fattori circadiani e di deprivazione del sonno. Viene ipotizzato un fattore circadiano che assume la forma di una sinusoide con punta minima o bradi fase in una determinata ora della giornata e punta massima o profase esattamente 12 ore dopo. Le variazioni della sonnolenza provate dal soggetto sono funzioni della somma della sonnolenza regolata dal fattore circadiano e sonnolenza dovuta al perdurare della veglia, considerando che questo soggetto doveva fare una normale notte di sonno e poi essere sveglio per due giorni consecutivi. Uno dei risultati più importanti della ricerca sulla deprivazione del sonno nell’uomo è che quando gli individui sono privati di sonno hanno poi un sonno più efficace, in particolare il loro sonno ha una proporzione maggiore di sonno ad onde lente delta, proprio delle fasi 3 e 4, che ha la funzione ristorativa principale. Questa ipotesi è confermata da una serie di riscontri ad esempio il fatto che dopo un periodo di deprivazione il soggetto recupera solo una piccola quantità del sonno perduto soprattutto dello stadio 4, che i soggetti a cui è imposta una riduzione del tempo totale di sonno riducono soprattutto gli stadi 1 e 2 ma non il 3 e il 4, quelli in cui prevalgono appunto le onde lente, dopo una deprivazione l’elettroencefalogramma del sonno ad onde lente è caratterizzato da una proporzione persino maggiore del normale sonno ad onde lente, che coloro che dormono poco di solito manifestano più sonno ad onde lente dei forti dormitori, che se i soggetti fanno un sonnellino supplementare la mattina dopo una notte completa di sonno l’EEG durante il sonnellino mostra una minore quantità di onde lente e non riduce la durata del sonno della notte successiva, che i soggetti che si svegliano più volte durante il sonno REM non manifestano maggiore sonnolenza durante il giorno successivo mentre i soggetti che si svegliano ripetutamente durante il sonno ad onde lente manifestano maggiori effetti collaterali. Le conseguenze negative della mancanza di sonno non indicano se i soggetti hanno veramente bisogno del sonno perduto, ma solo quando i soggetti dormono con la massima efficacia è possibile determinare di quanto sonno hanno effettivamente bisogno. Dal punto di vista psicobiologico dello studio del sonno è importante stabilire quali sono le basi fisiologiche e neurochimiche del sonno. Tali basi sono state identificate nel sistema reticolare attivante, nei nuclei del rafe, nella regione basale del proencefalo, nella formazione reticolare caudale e nei nuclei soprachiasmatici. La prima scoperta importante sulle basi fisiologiche del sonno è stata effettuata da Bremer il quale ipotizzò che il sonno fosse legato ad una mancanza di input sensoriali che arrivavano al cervello. Egli tagliò il tronco encefalico di alcuni gatti tra i collicoli superiori e inferiori allo scopo di separare il diencefalo dagli input sensoriali ascendenti. Questo preparato chirurgico fu detto preparazione cerveau isolè (servò isolè) o cervello isolato. Osservando l’elettroencefalogramma corticale del cervello isolato Bremer vide che indicava la presenza quasi continuativa di sonno. Solo quando venivano somministrati stimoli visivi o olfattivi forti le onde lente di grossa ampiezza potevano essere desincronizzate cioè diventavano onde di bassa ampiezza e alta frequenza. Questa attivazione però durava solo poco oltre la somministrazione dello stimolo. Questa teoria formulata da Bremer fu detta teoria passiva del sonno poiché non si basa sulla ipotesi di un meccanismo attivo di mediazione e regolazione del sonno ma vede il sonno come conseguenza passiva del fatto che gli input sensoriali non possono accedere al cervello. Successivamente venne formulata un’altra teoria che prevede invece un meccanismo attivo di regolazione del sonno e che è il meccanismo di arousal della formazione reticolare, cioè attribuisce un ruolo importante al sistema reticolare attivante. Questa teoria si basa su tre scoperte : la prima deriva da uno studio in cui il preparato servò isolè venne sostituito dal preparato encèphale isolè (ensefal isole) in cui il cervello fu separato dal resto del sistema nervoso attraverso una sezione caudale del tronco encefalico quindi interrompeva le stesse fibre sensoriali che erano state interrotte con il preparato cerveau isolè. Tale resezione non mostrò alcuna compromissione del ciclo sonno veglia, suggerendo che la struttura in grado di mantenere la veglia era localizzata in una posizione compresa fra le due sezioni. Inoltre si scoprì che la sezione parziale a livello del cerveau isolè alterava il ciclo sonno veglia dell’EEG corticale solo quando il taglio interessava la formazione reticolare al centro del tronco mentre invece aree più laterali non avevano effetti sull’EEG corticale. Infine si vide che stimolando elettricamente la formazione reticolare il soggetto che dormiva si svegliava. Da ciò si propose 87 il ruolo del sistema reticolare attivante nella regolazione del sonno, cioè che bassi livelli di attività nella formazione reticolare producono sonno, mentre alti livelli di attività producono veglia. Sulla base di questa teoria sono state effettuate altre 3 scoperte importanti : il fatto che il sonno non è uno stato di calma neurale nel senso che non c’è una totale inattività, che ci sono circuiti che promuovono il sonno nel cervello che deriva da una riduzione dei livelli di attività di questi circuiti che hanno il ruolo primario di mantenere lo stato di veglia, e che i diversi correlati del sonno sono dissociabili, ad esempio il sonno REM e il sonno ad ode lente possono essere trattati separatamente e non come una condizione unitaria. Successivamente la ricerca si è spinta ad individuare non solo quelle strutture cerebrali che mediano la veglia e il sonno ma anche quelle strutture che mediano il sonno e i sogni. Queste strutture sono state individuate nei nuclei del rafe, nella regione basale del proencefalo, la formazione caudale del tronco e i nuclei sopraschiasmatici. I nuclei del rafe sono un gruppo di nuclei serotoninergici che si trovano in una strisca caudale della formazione reticolare e che se vengono distrutti in una percentuale fra il 9 e l’80% provocano insonnia totale per 3-4-giorni con un recupero parziale di circa 2 ore e mezzo caratterizzato sempre da sonno a onde lente. Inoltre una singola iniezione di paraclorofenilalanina nei nuclei del rafe blocca la sintesi di serotonina portando insonnia. Se questa iniezione viene effettuata ogni giorno sia il sonno REM che il sonno ad onde lente tornano all’80% del livello normale anche se i livelli di serotonina rimangono bassi. Per quanto riguarda la regione basale del proencefalo che si trova di fronte all’ipotalamo, anche se è stata oggetto di ricerche minori, alcune di esse hanno mostrato che lesioni bilaterali in quest’area portano ad una riduzione del tempo di sonno giornaliero, mentre una stimolazione elettrica di quest’area porta ad una sincronizzazione dell’ EEG corticale con sonnolenza e sonno. Il sonno REM sembra essere controllato da aree sparse nella formazione reticolare ognuna responsabile del controllo di uno dei diversi indici che controllano il sonno REM, un sito per il controllo del tono della muscolatura, un sito per il controllo dei movimenti oculari rapidi e cosi via. Gli studi dei nuclei soprachiasmatici sono nati dall’osservazione del fatto persiste in assenza di segnali ambientali e ciò indica che il sistema fisiologico che regola il sonno è controllato da un meccanismo di temporizzazione interno, il cosiddetto orologio circadiano. Tale orologio circadiano endogeno è stato individuato attraverso gli studi Richter i quali hanno messo in luce che ampie lesioni dell’ipotalamo mediale compromettono i cicli circadiani del mangiare del bere e dell’attività. Successivamente fu dimostrato che lesioni specifiche dei nuclei soprachiasmatici dell’ipotalamo mediale alteravano diversi ritmi circadiani compresi quelli sonno veglia. Lesioni dei NSC non portano ad una riduzione della durata totale del sonno ma ne alterano la ritmicità circadiana. Ciò suggerisce che vi sia più di un meccanismo di regolazione circadiana nel cervello. L’interesse per questi nuclei è legato anche alla loro posizione rispetto al chiasma ottico. Infatti l’interesse per il chiasma ottico e per gli occhi è legato al fatto che gli occhi sono il punto di partenza per capire come il ciclo luce-buio di 24 ore può sincronizzare il ciclo sonno veglia e gli altri cicli circadiani. Gli occhi sono infatti quegli organi di senso che ci permettono di avere informazioni sulla luce e sul buio per inviarle all’orologio biologico. La recisione dei nervi ottici nel punto in cui lasciano gli occhi elimina la capacità del ciclo luce-buio di trascinare i ritmi circadiani. Quando invece i nervi sono recisi nel punto in cui lasciano il chiasma ottico questa capacità non viene alterata. Da un esame accurato delle proiezioni del nervo ottico si sono scoperti due piccoli fasci di neuroni visivi che lasciano il chiasma ottico e proiettano all’ipotalamo. Questi tratti detti retino-ipotalamici terminano ai nuclei soprachiasmatici. Alcuni esperimenti hanno mostrato ratti transgenici che mancano di coni e bastoncelli mostrano cicli circadiani ancora sincronizzati alla luce. Queste scoperte suggeriscono che il SNC possa ottenere informazioni sulla luce e sul buio da altri recettori. Recenti ricerche hanno rivelato che questi recettori sono neuroni con specifiche proprietà funzionali che nel corso dell’evoluzione hanno sacrificato la loro capacità di rispondere immediatamente a cambiamenti di illuminazione in favore della capacità di reagire a cambiamenti lenti di illuminazione dello sfondo e di adattare le dimensioni pupillari a tali cambiamenti. Il loro foto pigmento si chiama melanopsina. Nello studio della genetica dei ritmi circadiani importante fu anche la scoperta di geni 88 circadiani fra cui i primi ad essi identificati furono il gene tau e clock. In specie di tempi evolutivi diversi si sono trovati gli stessi geni circadiani o almeno molto simili e inoltre l’identificazione dei geni circadiani ha fornito un metodo più diretto per esplorare le capacità di temporizzazione circadiana di parti del corpo diverse dal SNC. Diversi problemi legati al sonno hanno portato allo sviluppo di farmaci ipnotici, in grado di aumentare il sonno, e anti ipnotici, in grado di ridurlo. Un’altra categoria di farmaci che agiscono sul sonno comprende quelli che influenzano la ritmicità circadiana, fra cui il principale è la melatonina. Per molto tempo come farmaci ipnotici sono stati prescritti i barbiturici che però avevano molti effetti collaterali pericolosi. Tali farmaci sono stati sostituiti dalle benzodiazepine. A breve termine essi aumentano la sonnolenza, diminuiscono il tempo per addormentarsi, riducono il numero dei risvegli durante una notte di sonnoe aumentano il tempo totale di sonno. La loro prescrizione per il trattamento cronico non è consigliata perché vi è un possibile sviluppo di tolleranza al loro effetto, perché l’interruzione di una prolungata terapia con benzodiazepine produce insonnia, perchè il loro uso prolungato produce dipendenza e perché disturbano il normale andamento del sonno (aumentano la fase 2 ma riducono la fase 3, 4 e del sonno REM. La possibilità di utilizzare farmaci serotoninergici per uso ipnotico fu permessa dalla teoria secondo cui i nuclei del rafe che sono serotoninergici promuovono il sonno. Per quanto riguarda i farmaci antipnotici vi sono due classi : gli stimolanti (x es. cocainea e anfetamina) e gli antidepressivi triciclici. Tali farmaci riducono il sonno incrementando l’attività delle catecolamine (noradrenalina, adrenalina e dopamina) aumentandone la secrezione o inibendone l’assorbimento a livello sinaptico. Questi farmaci possono sopprimere il sonno REM anche con dosi che hanno un effetto minimo sulla durata del sonno. L’uso di farmaci stimolanti produce comunque una forte dipendenza e una varietà di effetti collaterali come la perdita di appetito, e possono interferire con il sonno normale se non sono assunti in dosi corrette. La melatonina invece è un ormone sintetizzato dalla serotonina nella ghiandola pineale situata nella parte posteriore del corpo calloso. E’ stato dimostrato che la melatonina esogena ha un ruolo nella terapia di due tipi di disturbi del sonno : la somministrazione di melatonina prima di coricarsi migliora il sonno di chi soffre di insonnia e ha carenze di melatonina endogena e dei pazienti ciechi che hanno problemi di sonno docuti alla mancanza degli effetti sincronizzati del ciclo luce-buio. Gli studi sui farmaci antipnotici hanno riavviato anche gli studi sulle sostanze chimiche endogene che inducono sonno e che sono chiamati appunto fattori endogeni del sonno. Sono state isolate due sostanze nell’ambito di questi studi : il fattore S, estratto da animali deprivati di sonno, e il DSIP peptide ipno inducente delta, estratto da animali durante il sonno, e si è visto che iniezioni di queste sostanze inducono il sonno in numerose specie. Per quanto riguarda i disturbi del sonno, molti di essi sono stati definiti iatrogeni, cioè causati dal medico, ad esempio se vengono prescritti dei farmaci per trattare l’insonnia e questi farmaci portano inizialmente un effettivo incremento del sonno può accadere che il paziente sviluppi assuefazione, a causa della quale il paziente può avere difficoltà a smettere di assumere questo farmaco e arrivare addirittura ad avere crisi di astinenza. Poiché il principale effetto della crisi di astinenza è appunto l’insonnia si riproduce il sintomo per cui il farmaco era stato prescritto. Questi disturbi possono essere classificati in due categorie complementari : l’insonnia, che comprende i disturbi dell’addormentamento e del mantenimento del sonno, e l’ipersonnia, che include i disturbi in cui vi è tendenza a dormire troppo o eccessiva sonnolenza. Un terzo gruppo di disturbi include quelli legati al sonno REM. Fra i disturbi legati all’insonnia abbiamo l’apnea del sonno durante la quale il paziente smette di respirare molte volte durante ogni notte, può avere collasso o spasmi dei muscoli della gola e l’inspirazione viene bloccata per 500 volte a notte. Ogni volta il paziente si sveglia ricomincia a respirare e si rimette a dormire con la conseguente sensazione di aver dormito molto male e poco e quindi può inizialmente essere diagnosticata come insonnia. Ma può essere anche diagnosticata come ipersonnia perché i pazienti, inconsapevoli dei continui risvegli, lamentano una eccessiva sonnolenza diurna. Le apnee del sonno possono essere di due tipi : quelle che derivano da una ostruzione delle vie respiratorie dovuta allo spasmo muscolare o assenza di tono muscolare, e quelle che derivano da uno scorretto funzionamento dei centri del SNC deputati alla stimolazione del respiro. Si 89 ritiene che questo disturbo possa essere causa di morti infantili. Altri tipi di disturbo legati all’ insonnia, che coinvolgono entrambi le gambe, sono il mioclòno notturno e la sindrome delle gambe senza riposo. Il mioclono notturno è una periodica contrazione spasmodica dei muscoli durante il sonno localizzata principalmente alle gambe; i pazienti di solito sono ignari di questo disturbo e lamentano spesso di aver dormito male e di avere sonnolenza diurna. La sindrome delle gambe senza riposo presenta una tensione o dei fastidi alle gambe che il paziente, consapevole, ha difficoltà a descrivere e che non gli consentono di dormire. Per trattare questi disturbi in genere sono prescritte le benzodiazepine per il loro effetto ipnotico, ansiolitico, miorilassante e anticonvulsivante anche se la loro azione raramente è efficace. Molte persone che soffrono di insonnia in realtà dormono più di quanto sembra loro di dormire. Queste persone riferiscono infatti di impiegare circa un’ora per addormentarsi e di dormire più o meno 4 ore e mezzo a notte , invece registrando in laboratorio le loro notti di sonno si è visto che il tempo di addormentamento era di 15 minuti circa e che la durata media del loro sonno era di circa 6 ore e mezza per notte. L’insonnia in realtà non è necessariamente dovuta al dormire poco ma al troppo poco sonno tranquillo a causa per esempio di mioclono o apnea del sonno. Uno dei più efficaci trattamenti dell’insonnia è la terapia di limitazione del sonno, che consiste inizialmente nel ridurre il tempo trascorso a letto da parte di colui che soffre di insonnia dopodiché, dopo un periodo di limitazione del sonno, si aumenta gradualmente il tempo trascorso a letto in piccole quantità fin quando la latenza di inizio del sonno non raggiunge la media. Per quanto riguarda i disturbi legati all’ ipersonnia il più studiato è la narcolessia, che è caratterizzata da ripetuti e brevi (10-15 minuti) attacchi di sonno diurno. I narcolettici dormono in genere 1 o 2 ore in più rispetto alla media, ma è l’inappropriatezza dei loro episodi di sonno che determina la condizione poiché i narcolettici si addormentano mentre mangiano, parlano, o sono coinvolti in diverse attività e hanno come sintomo prevalente la catalessi. La catalessi è una perdita improvvisa di tono muscolare innescata da eventi emozionali che nella forma più leggera obbliga il paziente a sedersi finchè non passa, mentre nella forma più estrema il paziente cade a terra di colpo e ci rimane 1 o 2 minuti pienamente cosciente. I narcolettici a differenza dei soggetti normali quando si addormentano entrano subito in fase REM, e ciò a portato a supporre che la narcolessia sia una anomalia del meccanismo che provoca il sonno REM (intromissione di sonno REM nella veglia). Quindi si ha una catalessi quando la perdita di tono muscolare tipica del sonno REM si manifesta durante la veglia. La narcolessia viene trattata con stimolanti somministrati la mattina mentre la catalessi viene trattata con antidepressivi triciclici somministrati la sera che sopprimono la fase di sonno REM. Attraverso studi sistematici sulla riduzione di sonno a lungo termine in cui ai soggetti veniv chiesto di dormire molto poco circa 5 ore e mezzo per notte per almeno due mesi e venivano poi sottoposti a batterie di test di performance, test medici e per la valutazione dell’umore dimostrando solo lievi deficit in una prova di vigilanza acustica. Per quanto però riguarda le condizioni e i ritmi abituali facendo riferimento al valore incentivante del sonno più si ha la possibilità di dormire più ne viene fatto uso rispetto alla reale necessità. Infine possiamo dire che quasi tutti i lattanti e i mammiferi manifestano cicli di sonno polibasici, cioè dormono regolarmente più di una volta al giorno, mentre la maggior parte degli esseri umani adulti manifesta cicli di sonno monobasico cioè dormono una volta al giorno. Comportamento sessuale Gli ormoni influenzano il sesso in due modi : 1) regolando dal concepimento all’inizio della maturità sessuale lo sviluppo delle caratteristiche anatomiche, fisiologiche, comportamentali che differenziano uomo e donna, 2) attivando negli adulti sessualmente maturi i comportamenti necessari alla riproduzione. (il principio secondo cui gli uomini sono uomini e le donne sono donne è fondamentalmente sbagliato). Si distinguono due tipi di ghiandole: le ghiandole esocrine, come quelle sudoripare, che secernono sostanze all’interno dei dotti e le trasportano all’esterno, e le ghiandole endocrine, che secernono i loro 90 prodotti chimici, detti ormoni, nel sistema circolatorio all’interno del quale viaggiano fino a raggiungere i proprio obiettivo dove esercitano i loro effetto. Gli ormoni sono rilasciati anche da stomaco, fegato e intestino. Gli ormoni si possono dividere in tre categorie : derivati degli aminoacidi, peptidi e proteine, steroidi. Gli ormoni derivati dagli aminoacidi sono ormoni sintetizzati con poche trasformazioni a partire dalle molecole di aminoacidi, come l’epinefrina che è secreta dalla midollare del surrene ed è sintetizzata a partire dalla tirosina. Gli ormoni peptidici (ormoni tropici e stimolanti) e proteici sono catene di aminoacidi, rispettivamente corte e lunghe. Gli ormoni steroidei sono sintetizzati a partire dal colesterolo, un tipo di grasso ed hanno un ruolo fondamentale nel comportamento e nello sviluppo sessuale. Poiché gli ormoni steroidei possono attraversare la membrana cellulare possono influenzare l’espressione dei geni in modo più diretto rispetto agli altri ormoni che invece non passano attraverso la membrana cellulare. Di conseguenza possono avere effetti più vari e di lunga durata sulla funzione cellulare. Gli ormoni si distinguono in neurormoni, ormoni gonadali, ormoni della corteccia surrenale, ormoni tropici. I neurormoni sono ormoni che interessano il sistema nervoso, sono simili ai neurotrasmettitori nel senso che sono sostanze chimiche che influenzano l’attività neurale. In ugni caso i neurormoni vengono rilasciati nel sistema circolatorio generale e solo raramente nelle sinapsi, quindi l’effetto che esercitano sul sistema nervoso è lento, più duraturo nel tempo, e si esercita su lunghe distanze rispetto alla provenienza. Per ogni neurormone esistono recettori in siti diversi del SN quindi i suoi effetti sono più diffusi. Le differenze fra neurormoni e neurotrasmettitori sono abbastanza sfumate, tutti gli ormoni sintetizzati e prodotti dal sistema neuroendocrino sono gli stessi che sono sintetizzati e prodotti dal cervello, l’unica differenza è la modalità di raggiungimento del sito bersaglio e quindi l’influenza che si esercita su di esso. Fra le ghiandole endocrine troviamo le gonadi, che sono i testicoli nell’uomo e le ovaie nella donna, la cui funzione principale è la produzione rispettivamente di spermatozoi e ovuli. Dopo il rapporto sessuale uno spermatozoo si può unire ad un ovulo dando vita ad una cellula detta zigote che contiene tutte le informazioni necessarie per la crescita di un organismo adulto completo. L’unione di spermatozoi e ovuli è chiamata fertilizzazione. Ogni cellula del corpo ha 23 paia di cromosomi, ad eccezione degli spermatozoi e degli ovuli che ne hanno la metà. Cosi quando spermatozoo e ovulo si uniscono lo zigote risultante avrà 23 paia di cromosomi completi, di cui per ogni paio un cromosoma sarà fornito dal padre e uno dalla madre. Nello specifico i cromosomi che contengono i programmi genetici che regolano la differenziazione sessuale sono detti cromosomi sessuali. Le cellule delle femmine hanno due grandi cromosomi a forma di ics maiuscola detti cromosomi X mentre quelle dei maschi hanno un cromosoma X e uno più piccolo a forma di ics minuscola detto cromosoma Y. Di conseguenza il cromosoma sessuale di ogni ovulo è un cromosoma X, mentre metà degli spermatozoi hanno cromosomi X e metà cromosomi Y. Il sesso del nuovo individuo è determinato dal cromosoma dello spermatozoo che è riuscito a fecondare l’ovulo : X femmina, Y maschio. Le gonadi non producono comunque solo spermatozoi e ovuli ma secernono anche gli stessi ormoni steroidei. Le due classi principali di ormoni secreti dalle gonadi sono gli androgeni e gli estrogeni. Fra i più comuni citiamo il testosterone fra gli androgeni e l’estradiolo fra gli estrogeni. Le ovaie in genere producono più estrogeni che androgeni e viceversa avviene per i testicoli a ciò non deve assolutamente far pensare che l’estrogeno debba essere definito come ormone sessuale femminile e l’androgeno come ormone sessuale maschile. Le gonadi producono anche un’altra classe di ormoni detti progestinici, fra cui il più comune è il progesterone che nelle femmine prepara l’utero e il seno per la gravidanza, mentre resta sconosciuta la sua funzione per l’uomo. Piccole quantità degli steroidi sessuali prodotti dalle gonadi vengono secreti anche dalla midollare del surrene, che comunque non è considerata una vera e propria ghiandola sessuale in quanto la sua funzione principale è quella di regolare i livelli di sale e zucchero nel sangue. Gli ormoni vengono secreti anche dall’ipofisi, o ghiandola pituitaria, che è considerata la ghiandola guida del sistema endocrino perché molti dei suoi ormoni, detti ormoni tropici, hanno la funzione principale di influenzare la secrezione ormonale di altre ghiandole. Ad esempio le gonadotropine sono ormoni tropici ipofisari che attraverso il sistema circolatorio raggiungono le gonadi 91 e stimolano la secrezione degli ormoni gonadici. L’ipofisi è formata da due ghiandole: l’ipofisi posteriore e anteriore, che si sono fuse insieme durane lo sviluppo embrionale. L’ipofisi posteriore si origina da una escrescenza del tessuto dell’ipotalamo che sporge verso il peduncolo ipofisario, che collega l’ipotalamo all’ipofisi; l’ipofisi anteriore ha origine dal tessuto embrionale da cui si svilupperà poi il palato, da cui si stacca per posizionarsi vicino all’ipofisi posteriore. Fra le due è comunque l’ipofisi anteriore che libera gli ormoni tropici e che guida quindi il sistema endocrino. La differenza principale fra la funzione endocrina degli uomini e delle donne è che nelle donne i livelli degli ormoni sessuali prodotti dalle gonadi e dall’ ipofisi hanno un ciclo che si ripete ogni 28 giorni circa e che controlla quello che è il ciclo mestruale femminile. Nei maschi invece tali ormoni cambiano poco da un giorno all’altro. Inizialmente si ritenne che alla base di questa differenza ci doveva essere una diversa organizzazione dell’ipofisi nei due sessi. Ma tale ipotesi fu smentita da una interessante studio condotto da Harris negli anni 50 il quale asportò una ipofisi ciclica da una femmina di ratto adulta e la trapiantò in un maschio di ratto adulto e la stessa cosa fece al contrario. Da questo osservò che l’ipofisi da ciclica diveniva stabile e viceversa. Ciò dimostrò che l’ipofisi anteriore non sono femminili o maschili, quindi cicliche o stabili a seconda che si trovino in una donna o in un maschio, ma il differente modo di liberare ormoni doveva essere controllato da qualche altra parte del corpo. La ricerca di una particolare struttura neurale che controllava l’ipofisi anteriore si rivolse all’ipotalamo, anche a seguito di esperimenti sul comportamento di uccelli femmina fertili solo durante specifici periodi della’anno. Si scoprì che erano le variazioni stagionali dei cicli luce-buio ad influenzare molti dei cambiamenti collegati alla fertilità; in qualche modo l’input visivo al sistema nervoso controllava il rilascio di ormoni tropici ipofisari. Esperimenti di lesione e stimolazione dell’ipotalamo dimostrarono che esso regola l’attività dell’ipofisi anteriore anche se non dimostrarono come lo fa. In seguito si arrivò ad individuare due meccanismi attraverso cui l’ipotalamo regola sia l’ipofisi anteriore che posteriore. Per ciò che riguarda l’ipofisi posteriore i due ormoni più importanti da essa secreti sono l’ossitocina che nelle donne stimola la contrazione dell’utero durante il travaglio e la produzione di latte durante l’allattamento, e la vasopressina o ormone antidiuretico, che facilita il riassorbimento dell’acqua da parte del rene. Questi due ormoni sono prodotti da cellule dei nuclei sopraottici e paraventricolari dell’ipotalamo, trasportati verso l’ipofisi posteriore dove vengono depositati in attesa di un potenziale d’azione che provochi il loro rilascio nel sangue. Il controllo neurale della secrezione ormonale da parte dell’ipofisi anteriore, che è priva di innervazioni, è regolato da un sistema detto sistema portale ipotalamo-ipofisario composto da due reti di capillari in serie, la prima che parte dall’ipotalamo e attraverso vene portali (vene che collegano reti di capillari) porta il flusso sanguigno verso il peduncolo ipofisario in un’altra rete di capillari situata nell’ipofisi anteriore. Si notò che recidendo le vene portali del peduncolo ipofisario si interrompeva la secrezione degli ormoni da parte dell’ipofisi anteriore finchè le vene danneggiate non si rigeneravano. Per quanto riguarda la regolazione degli ormoni gonadici, il cervello controlla la liberazione dall’ipotalamo di ormone stimolante le gonadotropine nel sistema portale ipotalamo ipofisario che lo trasporta all’ipofisi anteriore. Da qui questo ormone stimola la liberazione di gonadotropine che sono trasportate alle gonadi tramite il sistema circolatorio generale. In risposta alle gonadotropine le gonadi secernono androgeni, estrogeni e progestinici che producono un feedback positivo o negativo sull’ipofisi e sull’ipotalamo per regolare le successive secrezioni di ormoni gonadici. Gli ormoni ipotalamici possono sia favorire il rilascio degli ormoni ipofisari che inibirlo mediante un meccanismo a feedback negativo: nel primo caso si parlerà di fattori di rilascio o più precisamente di ormoni liberanti o stimolanti (RF) (ci si riferisce ad un ormone come fattore o sostanza solo fin quando non sia stato isolato e ne sia stata identificata la struttura chimica), nel secondo caso di fattori inibitori o più precisamente di ormoni inibenti (IF). Ad esempio l’ormone di rilascio della gonadotropina stimola la secrezione da parte dell’ipofisi anteriore dell’ormone follicolo stimolante, che stimola la maturazione delle cellule germinali, e dell’ormone luteinizzante, che stimola per esempio l’ovulazione e la spermatogenesi. Quando l’ipofisi viene stimolata secerne degli ormoni che agiscono sulle cellule e sulle 92 ghiandole periferiche le cui secrezioni a loro volta limitano o accentuano le secrezione ormonale ipofisaria tramite un meccanismo a feed back negativo che mantiene stabili i livelli degli ormoni nel sangue. Tale meccanismo di controllo può anche essere a feed back positivo nel senso che un aumento dei livelli ematici di un ormone porta ad un ulteriore incremento e viceversa. Si ipotizza che il passaggio da un meccanismo a feedback negativo ad un meccanismo a feedback positivo possa essere il fattore che porta ad un aumento rapido dei livelli ematici di progesterone ed estradiolo nelle donne che innesca l’ovulazione e determina le fluttuazioni ormonali tipiche del ciclo mestruale. Un altro esempio di feedback positivo si ha nell’aumento degli ormoni gonadali che avviene durante la pubertà. La secrezione degli ormoni è regolata da tre diversi segnali che provengono dal sistema nervoso, da altri ormoni, e dalle sostanze chimiche non ormonali del corpo. Tutte le ghiandole endocrine sono regolate dal sistema nervoso, tranne l’ipofisi anteriore e l’epifisi che sono regolate da neuroni cerebrali. Quelle situate al di fuori del SNC sono regolate dal SNA, con innervazioni simpatiche e parasimpatiche, che spesso hanno effetti opposti sulla secrezione ormonale. La secrezione ormonale è comunque mediata anche dall’esperienza. Anche i segnali provenienti dagli ormoni stessi influenzano la secrezione ormonale, ad esempio gli ormoni liberati dagli organi bersaglio in genere producono un effetto (feedback) sugli stessi organi che originariamente avevano innescato il loro rilascio, come ipofisi, ipotalamo, e altre zone del cervello. La funzione del feedback ormonale è quindi quella di mantenere i livelli ormonali stabili nel sangue (bassi livelli stimolano il rilascio, alti livelli lo inibiscono). Anche i livelli di glucosio, calcio e sodio (sostanze non ormonali) nel sangue influenzano il rilascio di ormoni particolari. Ad esempio l’aumento della glicemia aumenta la secrezione di insulina dal pancreas che a sua volta riduce la glicemia. Gli ormoni tendono ad essere rilasciati in modo intermittente, cioè sono secreti in grandi quantità più volte al giorno in episodi che in genere durano pochi minuti. Per cui i livelli ormonali nel sangue sono regolati dalla frequenza e durata di questi episodi. Una conseguenza della liberazione ormonale intermittente è che vi sono fluttuazioni considerevoli da un minuto all’altro dei livelli ormonali nel sangue. Gli ormoni controllano lo sviluppo delle caratteristiche fisiche che distinguono maschi e femmine, proprio sulla base di questa differenziazioni si dice che l’essere umano è dimorfo. La differenziazione sessuale nei mammiferi avviene durante la fertilizzazione con la produzione di due zigoti : uno con un paio di cromosomi XX (femmina) e uno con un paio di cromosomi XY (maschio). L’informazione genetica disposta sui cromosomi sessuali è ciò che normalmente determina se lo sviluppo sarà maschile o femminile. In ogni caso noi tutti siamo programmati per sviluppare corpi femminili infatti gli individui geneticamente maschi sviluppano corpi maschili solo perché il loro programma di sviluppo che è fondamentalmente femminile viene annullato. A sei settimane dal concepimento nel feto, indipendentemente dal suo sesso, la struttura delle gonadi è la stessa e sono chiamate gonadi primordiali, ognuna delle quali ha una corteccia esterna che può trasformarsi in ovaio e una parte interna o midollare che può trasformarsi in testicolo. Dopo 6 settimane dal concepimento il cromosoma Y del maschio favorisce la produzione di una proteina chiamata antigene H-Y che fa si che la midollare cresca e si sviluppi in testicolo. Poiché non esiste un corrisponde femminile dell’antigene H-Y a determinare lo sviluppo della corteccia delle gonadi in ovaie è l’assenza di questo antigene. Infatti se al momento appropriato si iniettano l’antigene HY in un feto geneticamente femmina ne risulterà una femmina genetica con i testicoli. 6 settimane dopo il concepimento sia i maschi che le femmine hanno entrambi due serie complete di dotti riproduttivi. Vi è l’apparato di Wolff capace di trasformarsi nell’apparato riproduttivo maschile interno, formato dai vasi deferenti che trasportano gli spermatozoi nelle vescicole seminali che contengono il liquido seminale, e l’apparato di Muller che ha la capacità di trasformarsi nell’apparato riproduttivo femminile, cioè l’utero, la parte superiore della vagina e le tube di Falloppio che portano le uova dalle ovaie all’utero. Nel terzo mese dello sviluppo di un feto maschile i testicoli secernono testosterone che stimola lo sviluppo dell’apparato di Wolff e la sostanza inibente l’appartato di Muller che fa in modo che esso degeneri e che i testicoli scendano nello scroto (sacca che contiene i testicoli all’esterno del corpo). Poiché è il testosterone e non i cromosomi sessuali ad innescare lo 93 sviluppo dell’appartato di Wolff individui geneticamente femmine a cui sia stato iniettato testosterone nel periodo fetale appropriato svilupperanno sia apparati riproduttivi femminili che maschili. Le ovaie sono invece quasi completamente inattive durante lo sviluppo fetale, per cui lo sviluppo dell’apparato di Muller avviene naturalmente in tutti quei feti che non siano stati esposti all’azione degli androgeni. Per cui i feti femminili normali, quelli a cui sono state asportate le ovaie (ovariectomia) e quelli a cui sono stati asportati testicoli (orchiectomia) sviluppano tutti apparati riproduttivi interni femminili. La castrazione o gonadectomia indica la rimozione delle gonadi, sia ovaie che testicoli. Mentre gli organi riproduttivi interni si sviluppano da precursori diversi (midollare e corteccia, apparato di Wolff e Muller), gli organi riproduttivi esterni, cioè i genitali, si sviluppano dallo stesso precursore, il precursore bi potenziale. Nel secondo mese di gravidanza il precursore bi potenziale degli organi riproduttivi esterni è formato da 4 parti : il tubercolo genitale, le pieghe uretrali, i corpi laterali e le protuberanze labioscrotali. In seguito poi comincia a differenziarsi : il tubercolo diventa la testa del pene, glande, nel maschio ed il clitoride nella femmina, le pieghe uretrali si saldano nel maschio e si allargano nella femmina per divenire le piccole labbra, i corpi laterali formano il corpo del pene nel maschio e il cappuccio della clitoride nella femmina e le protuberanze labioscrotali formano lo scroto nel maschio e le grandi labbra nella femmina. Anche lo sviluppo dei genitali esterni è controllato dal testosterone: se nel momento appropriato delle sviluppo fetale è presente dal precursore si sviluppano gli organi esterni maschili altrimenti si sviluppano quelli femminili. Fra uomini e donne vi sono anche differenze cerebrali: il cervello maschile è circa il 15% più grande di quello femminile, vi sono anche differenze sessuali importanti nel volume dei diversi nuclei e nei tratti nervosi, nel numero e nel tipo di cellule neurali e gliali che compongono le diverse strutture e nel numero e tipo di sinapsi che connettono le cellule. Il dimorfismo sessuale del cervello è stato studiato attraverso diverse ricerche. I primi tentativi si sono concentrati sui fattori che controllano lo sviluppo della secrezione di gonadotropine dall’ipofisi anteriore, ciclica nelle femmine e stabile nei maschi. I primi esperimenti su ratti neonati a cui erano stati asportate le gonadi o a cui erano stati trapiantati ovaie o testicoli portarono a scoprire che l’asportazione delle gonadi in ratti neonati di entrambi i sessi portava al loro sviluppo in femmine adulte con il rilascio ciclico di gonadotropine, mentre al contrario il trapianto di testicoli produceva individui adulti con un rilascio maschile stabile di gonadotropine, concludendo che il rilascio ciclico femminile si sviluppa normalmente a meno che tale ciclicità non sia modificata dal testosterone nel periodo perinatale. In seguito quando si scoprì che il rilascio di gonadotropine dall’ipofisi è regolato dall’ipotalamo si ebbe la prima prova del ruolo perinatale degli androgeni nella differenziazione dell’ipotalamo. Più avanti si scoprì però che tutti gli ormoni prodotti dalle gonadi e dalle surrenali sono composti steroidei, cioè derivano dal colesterolo, hanno la stessa struttura e sono facilmente trasformabili da uno all’altro. Sembrerebbe che il processo per la mascolinizzazione del cervello sia determinato in alcune specie dal testosterone, il quale non mascolinizza direttamente il cervello che sarebbe invece mascolinizzato dall’estradiolo derivato dal testosterone perinatale attraverso un processo detto di aromatizzazione. In favore di questa osservazione vi sono diversi dati desunti da esperimenti con ratti, come il fatto che iniezioni di estradiolo nel periodo neonatale mascolinizzano il cervello, il diidrotestosterone, un androgeno che non può essere trasformato in estradiolo, non ha effetti mascolinizzanti sul cervello, gli agenti che bloccano l’aromatizzazione del testosterone e dei recettori per gli estrogeni interferiscono con gli effetti mascolinizzanti del testosterone sul cervello. Un problema che si è posto è che se la mascolinizzazione del cervello dipende dall’aromatizzazione del testosterone in estradiolo allora anche i feti femmina dovrebbero essere mascolinizzati dall’estrogeno circolante della madre. Il fatto che ciò non avvenga viene legato all’ipotesi dell’azione dell’alfafetoproteina, cioè una proteina presente nel sangue dei neonati di cavie da laboratorio e che neutralizza l’azione dell’estradiolo circolante legandosi ad esso. Anche nei maschi potrebbe esserci l’effetto neutralizzante dell’alfafetoproteina perché anche nelle madri di feti maschi c’è estrogeno circolante nel sistema sanguigno. La barriera emato encefalica impedisce che questo avvenga. Poiché il testosterone è immune 94 all’alfafetoproteina può viaggiare liberamente dai testicoli al cervello dove entra nelle cellule e li viene trasformato in estradiolo. L’estradiolo non viene neutralizzato nel cervello perché l’alfafetoproteina non passa facilmente la barriera emato encefalica. Inizialmente si pensava che il meccanismo generale che guida la differenziazione degli organi riproduttivi guidasse anche la differenziazione del cervello, ma ci sono tre punti che giocano a sfavore di questa teoria: non ci sono prove sufficienti che i cromosomi sessuali contribuiscano direttamente al dimorfismo sessuale, il programma femminile dello sviluppo del cervello non si presenta automaticamente in assenza di estrogeni, e si ipotizza l’esistenza di un unico meccanismo che spiega lo sviluppo di tutte le differenze tra cervello maschile e femminile.. L’aromatizzazione del testosterone perinatale in estradiolo sembra essere molto importante sia per la defemminilizzazione che per la mascolinizzazione del comportamento copulatorio dei roditori. Infatti alcuni esperimenti hanno dimostrato che iniezioni perinatali di testosterone possono sia mascolinizzare che defemminilizzare il comportamento copulatorio di un adulto geneticamente femmina (si inietta testosterone a porcellini d’india in gravidanza, alla nascita della prole si ovariectomizzano le femmine, quando i porcellini raggiungono la maturità si inietta loro testosterone e si osserva che le femmine esposte a testosterone nel periodo prenatale avevano un comportamento copulatorio molto più simile ai maschi rispetto alle femmine non esposte a testosterone nella fase perinatale). Un altro studio complementare dimostrò invece che l’assenza di un’esposizione precoce al testosterone aveva effetti sia di femminilizzazione che di demascolinizzazione sul comportamento copulatorio dei maschi adulti. ( maschi castrati alla nascita quando venivano trattati con testosterone e avevano accesso ad una femmina sessualmente recettiva non riuscivano a produrre la normale sequenza copulatoria maschile. Gli ormoni perinatali influenzano oltre allo sviluppo del cervello anche lo sviluppo del comportamento. Per quanto riguarda gli effetti femminilizzanti o demascolinizzanti degli ormoni fetali si è visto anche che una eccessiva presenza di androgeni nelle femmine porta ad una maggiore aggressività, giochi sociali più turbolenti e un comportamento alterato al momento della maternità. E’ necessario sottolineare che la defemminilizzazione e la mascolinizzazione, cosi come la femminilizzazione e la demascolinizzazione, non sempre vanno di pari passo; inoltre gli effetti delle iniezioni di testosterone si limitano ad un periodo sensibile rappresentato dai primi 11 giorni dopo l nascita. Dopo tale periodo solo dosi multiple di testosterone possono avere effetti mascolinizzanti. Si tende anche a sottolineare che la differenziazione dell’attività sessuale legata alla riproduzione negli esseri umani e in altri primati vicini all’uomo non è influenzato soltanto dagli ormoni ma anche da fattori sociali. Quindi i risultati riportati per quanto riguarda la differenziazione cerebrale, la mascolinizzazione cerebrale e l’aromatizzazione benché interessanti vanno comunque ricondotti ai soggetti su cui sono stati sperimentati e cioè cavie da laboratorio. Per quanto riguarda quindi l’uomo e primati vicino ad esso bisogna considerare sia la loro reazione agli androgeni che possono mascolinizzare il comportamento ma non femminilizzarlo, sia la loro reazione in merito a comportamenti procettivi e comportamenti sociali in generale. Durante l’infanzia l’aspetto esteriore di maschi e femmine differisce di poco, ed il livello ematico ormonale è basso.. Con l’inizio della pubertà, che si ha intorno ai dodici anni, invece cominciano a svilupparsi quelli che sono detti caratteri sessuali secondari, che caratterizzano l’individuo sessualmente maturo: nei maschi sviluppo della muscolatura, comparsa dei peli su faccia e corpo, comparsa dei peli pubici e ascellari, crescita degli organi sessuali, scatto di crescita, la laringe si allarga, nelle femmine sviluppo del seno, comparsa di acne, di peli pubici e ascellari, crescita degli organi riproduttivi, inizio delle mestruazioni, arrotondamento dei contorni del corpo, scatto di crescita. Durante questo periodo vi è un aumento nella secrezione degli ormoni ipofisari, come l’ormone della crescita, l’unico ormone ipofisario a non avere una ghiandola endocrina come bersaglio primario, che agisce direttamente sui tessuti muscolari e ossei producendo lo scatto di crescita puberale, e l’ormone adrenocorticòtropo e le gonadotropine che producono un aumento della secrezione di ormoni da parte della corteccia surrenale e delle gonadi che a loro volta danno il via alla maturazione degli organi genitali e allo sviluppo dei caratteri sessuali secondari. Nei maschi in età puberale i livelli di androgeno sono più alti rispetto a quelli di estrogeno e 95 questo determina la mascolinizzazione fisica, nelle femmine invece predomina l’estrogeno che determina la femminilizzazione. E’ bene sottolineare però che ad esempio vi sono androgeni come l’androstendione, prodotto dalle cortecce surrenali, che è il responsabile della crescita dei peli pubici ed ascellari nelle femmine. Pertanto ritenere gli androgeni ormoni maschili non è propriamente esatto in quanto essi sono responsabili anche dello sviluppo di caratteristiche sessuali femminili. Nell’ambito dello sviluppo sessuale dell’uomo possono presentarsi dei disturbi fra i quali possiamo citare la sindrome da insensibilità agli androgeni e la sindrome adrenogenitale. Nella sindrome da insensibilità agli androgeni i problemi derivano dal fatto che al corpo mancano i recettori per gli androgeni. In questo caso durante lo sviluppo i testicoli liberano normali quantità di androgeni ma in assenza di recettori per gli androgeni lo sviluppo sessuale avviene come se questi ormoni non fossero liberati. Per cui durante lo sviluppo fetale i genitali esterni, il cervello ed il comportamento seguono il programma femminile poiché gli androgeni non possono agire per modificarlo : i testicoli non scendono esternamente al corpo, ma liberano la sostanza inibente i dotti di Muller non consentendo lo sviluppo degli organi interni riproduttivi femminili. Nella pubertà i testicoli liberano estrogeni sufficienti a femminilizzare il corpo in assenza degli effetti degli androgeni. Da un punto di vista comportamentale si è riscontrato che, in assenza dell’effetto mascolinizzante degli androgeni, i bambini che sembrano femmine e sono cresciuti come femmine imparano a comportarsi e a pensare come femmine anche se sono geneticamente maschi. La sindrome adrenogenitale invece è un disturbo dello sviluppo sessuale provocato da un’iperplasia congenita surrenale, ovvero una diminuzione nel rilascio del cortisolo che causa un’eccessiva secrezione di androgeni surrenalinici. Ciò ha effetti minimi sullo sviluppo dei maschi in quanto ne accelera la pubertà, ma ha effetti rilevanti sulle femmine che di solito nascono con un clitoride allargato e con le labbra parzialmente unite. I loro dotti interni sono invece generalmente normali dato che gli androgeni vengono rilasciati troppo tardi per stimolare lo sviluppo dei dotti di Wolff. Poiché questo disturbo è identificabile alla nascita, le anormalità vengono trattate chirurgicamente e con niezioni di cortisolo che riportano alla normalità i livelli di androgeni surrenalinici circolanti. Le ragazze adolescenti trattate con cortisolo presentano un alto livello di mascolinità e assenza di interesse per la maternità, giocano con i ragazzi, si vestono come loro, e i loro sogni per il futuro riguardano più la carriera che i figli. I loro interessi sessuali sembrano però essere normali, anche se a volte vi è un tendenza verso la bisessualità. Quando un individuo raggiunge la maturità sessuale gli ormoni delle gonadi cominciano ad avere un ruolo nel meccanismo della riproduzione. Per quanto riguarda il comportamento riproduttivo maschile il ruolo importante degli ormoni gonadici è dimostrato dagli effetti della castrazione, che provoca una effettiva riduzione dell’interesse e del comportamento sessuale, anche se il livello di questa diminuzione è variabile da soggetto a soggetto. Possono presentarsi anche mutamenti fisici come riduzione dei peli del tronco, delle estremità e del volto, accumulo adiposo al petto e alle anche, ammorbidimento della pelle, riduzione della forza. L’orchiectomia è l’asportazione dei testicoli, e poiché il testosterone è il principale ormone da loro prodotto si è supposto che i sintomi di questa asportazione fossero il risultato della mancanza di testosterone o di conseguenze chirurgiche non dovute agli ormoni. Iniezioni di sostituzione del testosterone confermarono questa ipotesi, anche se comunque libido sessuale e livelli di testosterone circolanti nel sangue in soggetti sani non sono correlati. Pertanto iniezioni di dosi massicce di testosterone non aumentano la libido. Poiché il diidrotestosterone, un androgeno non aromatizzabile, sembra non riesca a riattivare il comportamento sessuale maschile, è stato ipotizzato che tale attivazione da parte del testosterone sia dovuta all’estradiolo derivante dall’aromatizzazione del testosterone. Per quanto riguarda il comportamento riproduttivo femminile è stato osservato che il controllo ormonale del loro comportamento sessuale non è strettamente legato al loro ciclo mestruale e che l’asportazione delle ovaie ha effetti scarsi sul comportamento sessuale, determinando invece oltre che alla sterilità una riduzione della lubrificazione vaginale. Vi è una teoria secondo cui le ghiandole surrenali umane producono androgeni in quantità sufficienti a mantenere la motivazione sessuale anche nelle donne che hanno subito l’asportazione delle ovaie (ovariectomia) e pertanto il desiderio sessuale delle donne è sotto 96 il controllo degli androgeni e non degli estrogeni. A supporto di tale teoria vi sono tre fonti : esperimenti su femmine di primati non umani in cui iniezioni sostitutive di testosterone ma non quelle di estradiolo aumentano il comportamento procettivo (comportamenti di sollecitane all’accoppiamento) in scimmie reshus ovariectomizzate a cui sono state asportate le ghiandole surrenali; studi di correlazione in donne sane in cui è stato osservato che la motivazione sessuale è correlata a livelli di testosterone e non di estradiolo; studi clinici su donne isterectomizzate (rimozione organi interni riproduttivi) in cui iniezioni sostitutive di testosterone, ma non di estradiolo, aumentano la motivazione sessuale. Va inoltre sottolineato che il comportamento sessuale umano è influenzato sia da fattori ormonali che sociali, e ciò ha la sua importanza soprattutto per gli studi sulla direzione e a preferenza sessuali. Gli ormoni sono necessari al mantenimento del comportamento sessuale in un adulto ma non influiscono sulla direzione del comportamento sessuale. Infatti eterosessuali e omosessuali non differiscono rispetto ai livelli circolanti di ormoni. Attualmente gli studi di Money in ambito sessuologico affermano che l’orientamento nei confronti dell’eterosessualità o omosessualità o bisessualità non è influenzato direttamente dagli ormoni ma da circuiti neurali che si formano dall’interazione di ormoni perinatali e dalle esperienze. In età adulta i livelli ormonali possono mantenere tali circuiti che si sono ormai strutturati ma non possono influenzarne la direzione e la preferenza: si è visto per esempio che la castrazione riduce l’attività sessuale complessiva in eterosessuali omosessuali e bisessuali ma non influisce sui loro orientamenti sessuali e le iniezioni sostitutive ripristinano le preferenze presenti prima dell’intervento. La ricerca su individui omosessuali con gemelli ha comunque dimostrato che le differenze nell’orientamento sessuale hanno una base genetica. Il transessualismo è un disturbo dell’identità sessuale in cui il soggetto si sente intrappolato nel corpo dell’altro sesso. La disperazione di queste persone non le porta solo a pensare che la vita sarebbe migliore se il loro genere fosse diverso ma molti richiedono interventi per la riassegnazione di genere. Ad esempio nell’intervento per la riassegnazione di genere da maschio a femmina il primo passo è una valutazione psichiatrica e un colloquio per accertare se il soggetto e un vero transessuale e per prepararlo agli eventi. Poi si inizia la somministrazione di estrogeni che durerà tutta la vita per femminilizzare il corpo e mantenere i cambiamenti. Dopo di che si procederà all’asportazione del pene e dei testicoli e alla costruzione della vagina . Alcuni pazient sono anche sottoposti ad interventi di plastica facciale per femminilizzare il viso. In genere l’adattamento dei transessuali dopo l’intervento è buono. Attrazione sessuale, identità sessuale e tipo di corpo a volte non sono correlati. Assunzione di cibo e acqua Lo scopo principale dell’alimentazione è quello di introdurre nel corpo l’energia necessaria per lo svolgimento delle sue funzioni e la sopravvivenza. Con il termine digestione viene definito il processo gastrointestinale di demolizione e di assorbimento del cibo. Tale processo, che rientra nel comportamento oro-alimentare, consiste delle seguenti fasi : ingestione del cibo, masticazione del cibo che viene mescolato alla saliva, deglutizione che spinge il cibo verso lo stomaco attraverso l’esofago, demolizione del cibo in piccole particelle mediante l’acido cloridrico e scissione delle proteine in aminoacidi mediante la pepsina, assorbimento dei prodotti dello stomaco da parte del duodeno, scissione nel duodeno delle proteine in aminoacidi e delle molecole di zucchero in zuccheri semplici, trasmissione degli aminoacidi e degli zuccheri semplici al fegato, riduzione dei grassi in gocce da parte della bile prodotta dal fegato, assorbimento degli elettroliti e dell’acqua nel colon (intestino crasso) e espulsione dei residui dall’ano. Come conseguenza della digestione le sostanze energetiche introdotte nel corpo sono di tre tipi: lipidi (grassi), aminoacidi (prodotti di scissione delle proteine), glucosio (zucchero semplice = scissione carboidrati complessi in amidi e zuccheri). Il corpo utilizza energia continuamente ma si alimenta ad intervalli e pertanto è necessario che conservi tale energia da utilizzare durante questi intervalli. L’energia è accumulata in tre diverse forme: grassi, una delle principali cause del cambiamento del peso corporeo di un soggetto adulto, glicogeno e proteine. La maggioranza delle riserve energetiche 97 sono costituite dai grassi perché può conservare il doppio dell’energia rispetto al glicogeno e perché il glicogeno diversamente dal grasso attrae e trattiene una notevole quantità di acqua. Il metabolismo energetico include tre fasi : la fase cefalica, la fase di assorbimento e la fase del digiuno. La fase cefalica che è la fase preparatoria riguarda il periodo che intercorre fra vedere odorare o pensare al cibo e l’inizio del suo assorbimento nel flusso sanguigno. La fase dell’assorbimento è la fase relativa al periodo di tempo nel quale le sostanze nutritive vengono impiegate per far fronte agli immediati bisogni energetici del corpo. La fase del digiuno è lo spazio di tempo durante il quale tutte le calorie introdotte con il pranzo precedente sono state utilizzate ed il corpo ricava le energie dalle sue riserve energetiche. Termina con l’inizio della successiva fase cefalica. Il flusso di energia durante le tre fasi metaboliche è controllata da due ormoni prodotti dal pancreas: l’insulina, che viene rilasciata in gran quantità durante la fase cefalica e di assorbimento, e il glucagone. L’insulina svolge tre compiti : 1) consente l’utilizzazione del glucosio come principale fonte di energia per il corpo; 2) favorisce la conversione del glucosio in eccesso in glicogeno e grasso e degli aminoacidi in proteine; 3) promuove l’accumulo di glicogeno nel fegato e nei muscoli, di grasso nel tessuto adiposo e di proteine nei muscoli. In particolare l’insulina durante la fase cefalica abbassa i livelli ematici delle sostanze energetiche, principalmente glucosio, prima dell’immissione di principi nutritivi nel sangue, mentre nella fase di assorbimento impedisce che aumentino notevolmente i livelli ematici delle sostanze energetiche favorendo il loro uso e il deposito delle quantità in eccesso. La fase di digiuno è caratterizzata invece da alti livelli ematici di glucagone e bassi di insulina. Ciò consente al cervello di utilizzare il glucosio perchè la maggior parte delle cellule del sistema nervoso centrale non ha bisogno di insulina per assorbire il glucosio. I bassi livelli di insulina favoriscono anche la gluconeogenesi. Gli alti livelli di glucagone invece promuovono il rilascio di acidi grassi dal tessuto adiposo e il loro utilizzo come principale fonte di energia per l’organismo. Inoltre stimola la conversione di glicogeno e proteine in glucosio e degli acidi grassi liberi in chetoni che vengono utilizzati dai muscoli come energia durante la fase di digiuno. Durante un prolungato periodo di digiuno anche il cervello utilizza i chetoni consentendo un ulteriore risparmio delle riserve di glucosio. Molti attribuiscono la fame ad un deficit di energia e considerano l’alimentazione il mezzo per riportare le risorse energetiche dell’organismi al loro livello ottimale, definito valore di riferimento (set point). Pertanto dopo un pasto le risorse energetiche sono vicine al valore di riferimento e si riducono progressivamente a mano a mano che il corpo le usa per lo svolgimento delle proprie funzioni. Quando l’energia scende al di sotto del valore di set point la fame spinge il soggetto a iniziare un nuovo pasto. Tutti i sistemi con valori di riferimento includono tre componenti: un meccanismo che definisce il valore di riferimento, un meccanismo rivelatore in grado di misurare le deviazioni da questo valore e un meccanismo effettore in grado di correggere tali deviazioni. Tutti i sistemi controllati da un valore di riferimento sono sistemi a feedback negativo, Tali sistemi sono comuni nei mammiferi perché regolano l’omeostasi, cioè l’equilibrio interno essenziale per la sopravvivenza. Vi sono anche due teorie che controllano l’alimentazione interagendo fra loro. La teoria glucostatica si basa sul presupposto che l’obiettivo dell’alimentazione fosse il mantenimento di un adeguato livello di glucosio ematico dato che esso costituisce il principale combustibile del cervello. Successivamente questa teoria è stata sottoposta a diverse critiche è stato infatti dimostrato come il livello di glucosio ematico si mantenga costante durante le fasi metaboliche associate ad un pasto. La teoria lipostatica si basava invece sull’osservazione che la quantità di grasso corporeo si mantiene ad un livello relativamente costante nella maggior parte degli individui. Secondo questa teoria ogni individuo ha un valore critico genetico per il grasso corporeo che si fissa nel periodo prenatale e deviazioni da questo valore producono variazioni compensatorie nella quantità di cibo ingerito. Le critiche a tale teoria si basano su ricerche che hanno dimostrato che il corpo risponde a riduzioni o eccessi di risorse energetiche regolando l’efficienza con cui sfrutta tali risorse. Il meccanismo con cui l’organismo modifica l’efficienza della spesa energetica in risposta ai livelli di grasso è detto termogenesi alimentare, che controbilancia gli aumenti di peso con una quantità due volte maggiore di grasso bruno, che è il principale tessuto non muscolare che può generare calore. Le teorie 98 basate sui valori di riferimento sono però contraddette da fattori come l’epidemia di obesità e di altri disturbi alimentari; ma sono anche incompatibili con gli stili alimentari e le esigenze dei nostri progenitori che sopperivano alla mancanza di cibo ingerendone il più possibile quando se ne presentava l’occasione per conservare calorie sotto forma di grasso corporeo per poter sopravvivere. Inoltre in alcuni studi si è riscontrato che per stimolare la fame le riduzioni di glucosio e grassi devono essere di una quantità tale che difficilmente si osservano in condizioni naturali. Infine le teorie dei valori di riferimento non tengono conto degli effetti sulla fame e sull’alimentazione di fattori come gusto, l’apprendimento e le influenze sociali. Tutte le difficoltà incontrate dalle teorie dei valori di riferimento hanno portato alla formulazione di una teoria alternativa, nota come teoria dell’incentivo positivo, secondo cui l’uomo e gli altri animali non sono normalmente spinti a mangiare da un deficit energetico interno ma dall’anticipazione degli effetti piacevoli del cibo, cioè dal suo valore incentivante o appetibilità. Un gran numero di fattori possono influire sul valore incentivante del cibo, come l’anticipazione del sapore del cibo, la quantità di tempo trascorso dall’ultimo pranzo, la distanza dall’ora dei pasti, la quantità ed il tipo di cibo presenti nell’intestino, i livelli ematici di glucosio. Il valore incentivante di un cibo può essere ridotto dal consumo seguito da malessere, dal consumo recente ed eccessivo e aumentato dagli effetti piacevoli che procura, dalla deprivazione di quel cibo e del cibo in generale, e dall’attesa del pasto. Alcuni gusti hanno un alto valore incentivante per quasi tutti gli individui di una specie, come i gusti dolce, grasso e salato. Queste preferenze tipiche hanno un valore adattivo poiché i gusti dolce e grasso sono associati generalmente ad alimenti ad alto contenuto energetico, ricchi di vitamine e minerali, mentre il gusto salato si associa ad alimenti ricchi di sodio. Il gusto amaro invece verso cui generalmente si prova avversione si associa a sostanze tossiche. Oltre a preferenze ed avversioni condivise vi sono poi quelle apprese da ciascun individuo associando un sapore ad un buon apporto di calorie o ad malessere, ad una preferenza dei membri della stessa specie, o a preferenze legate alla cultura, come ad esempio vari tipi di insetti non tossici considerati prelibatezze in alcune culture. Tra i fattori che influenzano il numero di volte in cui un soggetto si alimenta durante il giorno vi sono le regole sociali, gli orari di lavoro, le abitudini familiari, le preferenze personali, lo stato sociale, e molti altri. Anche l’apprendimento è un modulatore del comportamento alimentare attraverso la possibilità di condizionare le risposte. Le risposte cefaliche come la salivazione possono essere condizionate, ricordiamo l’esperimento di Pavlov con i cani; è possibile stimolare il senso di fame tramite associazioni con stimoli esterni, ad esempio l’ora del pasto. Anche le avversioni o le preferenze possono essere apprese nel senso che gli individui possono avere preferenze nette per sapori associati al benessere e avversioni nette per sapori associati a malessere. Le carenze dietetiche influiscono molto sulle scelte alimentari e sono comuni nella nostra società per vari motivi : innanzitutto perché le industrie per massimizzare i profitti producono e vendono cibi che hanno lo stesso sapore di quelli a noi graditi, ma che mancano delle principali sostanze nutritive. Inoltre la quantità di sostanze diverse consumate ogni giorno da un individuo è cosi grande che risulta difficile se non impossibile capire quali cibi fanno bene e quali no. I meccanismi della sazietà svolgono un ruolo importante nel regolare la quantità di cibo che ingeriamo. Alcuni segnali di sazietà possono essere provocati dal cibo che entra nello stomaco e dal glucosio che penetra nel sangue che inibiscono ulteriore assunzione di cibo. Questi segnali dipendono dalla densità nutritiva, cioè dalla quantità di calorie per unità di volume, Attraverso lo studio complementare della nutrizione intragastrica si vide che gli animali imparavano a premere la leva in modo da autosomministrarsi più o meno la stessa quantità di cibo giornaliero, e quando veniva ridotto il valore nutritivo della dieta diluendo il cibo con acqua gli animali aumentavano il numero di pressioni per avere più cibo e mantenere costante l’apporto calorico giornaliero. Gli animali inoltre imparavano in base all’esperienza alimentare precedente quanto cibo consumare e che avevano dei meccanismi per individuare variazioni nel valore nutritivo della loro dieta e adattarsi. Inoltre era stata fatta l’ipotesi che la distensione delle pareti dello stomaco avesse un effetto inibitore sull’apporto di calorie. Oltre ai meccanismi periferici gastrici vi sono anche i meccanismi periferici orali che attribuiscono alla bocca il 99 ruolo di regolatore del comportamento alimentare. L’importanza data alla bocca deriva dal fatto che la bocca è la prima parte del tratto digerente che rileva i segnali chimici legati al cibo. In questo senso vi è lo studio sulla falsa alimentazione che prevede esperimenti in cui il cibo masticato e deglutito dal soggetto non viene inviato all’esofago e allo stomaco, ma viene inviato all’esterno del corpo mediante un tubo che collega un’estremità dell’esofago alla superficie corporea. Con questa tecnica è stato dimostrato che il controllo alimentare non è mediato da precedenti esperienze legate al gusto, ne dalla natura o dal volume del cibo ingerito. Le sensazioni di sazietà dipendono molto anche dal fatto di mangiare soli o in compagnia, che per esempio ha un effetto inibitorio sulla sazietà, come lo ha anche il cosiddetto effetto aperitivo, che si ha quando vengono servite piccole porzioni di cibo come aperitivo che hanno l’effetto di favorire la fame anziché ridurla Ma le influenze sociali possono anche ridurre il consumo di cibo poiché per esempio molte persone mangiano meno per corrispondere a determinati modelli sociali o perché ritengono che abbuffarsi in pubblico non sia un comportamento adeguato. La teoria dei valori di riferimento è anche chiaramente contraddetta dalla presenza di una varietà di gusti diversi a ogni pranzo che rappresenta un fattore critico per la quantità di cibo assunta nonché per il mantenimento del peso corporeo (dieta da ristorante). Ciò dipende principalmente dal fatto che la sazietà è in larga misura specifica per un certo gusto, cioè man mano che si mangia il valore incentivante del cibo si riduce e il risultato è che si diventa sazi. La sazietà senso specifica ha due tipi di effetti e di conseguenze. Gli effetti possono essere a breve termine e influenzano la scelta del cibo durante un singolo pasto, e a lungo termine che spingono scegliere un determinato cibo nel corso di una serie di pasti, anche se alcuni cibi come riso, pane e dolci sembrano relativamente immuni da questi effetti a lungo termine. Le conseguenze invece sono che da un lato l’animale è spinto a variare la sua dieta evitando possibili rischi di malnutrizione (conseguenza adattiva) e dall’altro è spinto, avendo la possibilità di accedere ad una grande varietà di cibi, di mangiarne in quantità maggiore (conseguenza disattiva). Meccanismi fisiologici fame e sazietà Verso gli anni 50 si pensava che il comportamento alimentare fosse controllato da due centri cerebrali, da due regioni dell’ipotalamo,: un centro della sazietà inibitore dell’assunzione di cibo situato nell’ipotalamo ventromediale e un centro della fame attivatore di assunzione di cibo situato nell’ipotalamo laterale. Questa teoria, che in seguito si rivelò falsa, si basava su esperimenti che fornirono i seguenti risultati: le lesioni bilaterali dell’ipotalamo ventromediale del ratto producevano iperfagia (eccessiva assunzione di cibo), e obesità. L’iperfagia di divide in due fasi: la fase dinamica che comincia subito dopo la lesione in cui il ratto mangia per settimane in modo esagerato e aumenta di peso fino al peso asintotico (massimo raggiungibile), e la fase statica in cui l’assunzione di cibo si riduce fino a consentire il mantenimento di un livello stabile di obesità, mentre le lesioni bilaterali dell’ipotalamo laterale producevano invece afagia (completa cessazione dell’assunzione di cibo) e adipsia (scomparsa del bere); da ciò si dedusse che tale regione doveva contenere i centri della fame. Per quanto riguarda la regolazione del comportamento oro alimentare i primi studi si sono focalizzati sul ruolo dei meccanismi periferici, ossia meccanismi gastrici e orali. I meccanismi gastrici prevedono che il ruolo regolatori dei centri della fame e della sazietà si debba attribuire allo stomaco, e ciò è stato dimostrato da una ricerca condotta da Cannon e Washbourne che ha portato alla conclusione che la fame è causata dalla contrazione dello stomaco vuoto, mentre la sazietà è avvertita quando lo stomaco è disteso. L’esperimento di Cannon e Washburn consisteva nel fare ingoiare ad uno dei due sperimentatori un palloncino legato ad un sondino e riempito successivamente di aria con una pompetta. L’altra estremità del sondino era posto in un tubo ad U pieno di acqua il cui livello aumentava ad ogni contrazione dello stomaco. Questa ipotesi venne comunque contraddetta da uno studio su pazienti ai quali era stato asportato lo stomaco e connesso l’esofago al duodeno. Tali pazienti continuavano a riferire sensazioni di fame e sazietà e mantenevano il loro peso corporeo mangiando più spesso ma in minor quantità. In un altro esperimento ad opera di Koopmans ad alcuni ratti furono trapiantati uno stomaco ad un segmento di intestino aggiuntivi e si notò che l’introduzione di cibo nello stomaco aggiuntivo la cui progressione era comunque impedita a livello di intestino spingeva il ratto a 100 ridurre l’alimentazione in base al volume e all’apporto calorico del cibo introdotto. Poiché il tratto gastrointestinale trapiantato era privo di connessioni nervose dovevano esistere segnali di sazietà che venivano trasmessi al cervello per via ematica e non nervosa. Tali segnali non potevano essere principi nutritivi perché non vi era assorbimento di cibo ma doveva trattarsi di sostanze chimiche rilasciate dallo stomaco. In seguito fu scoperto che lo stomaco ed alcune parti del tratto gastrointestinale rilasciano sostanze chimiche circolanti, i peptidi, che sembrerebbero legarsi a recettori celebrali, per fornire al cervello informazioni sulla quantità e natura del cibo presente nel tratto gastrointestinale e che tali informazioni abbiano un ruolo nella soppressione del consumo di cibo e nella sazietà. Sono stati individuati diversi peptidi intestinali fra i quali alcuni aumentano l’appetito (peptidi della fame),come il neuro peptide Y, ed altri che diminuiscono la fame e per questo sono detti peptidi della sazietà, tra cui la più studiata è la colecistochinina. E’ un ormone peptidico che difficilmente penetra la barriera ematoencefalica e che si ipotizza sia rilasciata dalle pareti del duodeno e che produca sazietà impedendo lo svuotamento dello stomaco. La scoperta dei peptidi della fame e della sazietà ha indicato innanzitutto che il sistema nervoso che controlla l’alimentazione reagisce a molti segnali diversi, per esempio non solo al glucosio e al grasso, e poi ha riacceso l’interesse per il ruolo dell’ipotalamo nel controllo della fame, dimostrato dal fatto che microiniezioni di particolari peptidi gastrici in alcuni siti dell’ipotalamo hanno effetti notevoli sul comportamento alimentare. Anche la serotonina ha un ruolo nella sazietà. Nell’uomo è stato osservato che riduce la fame, l’alimentazione e il peso corporeo in condizioni diverse, tant’è che viene usata nella cura dell’obesità. Si pensa che la teoria dei valori di riferimento non possa spiegare il comportamento alimentare ma possa regolare il valore del peso corporeo, sulla base dei livelli di tessuto adiposo dell’organismo. Secondo questa teoria quando i depositi di grasso scendono al di sotto del valore critico la fame ed il consumo di cibo aumentano fino a che non vengono ricostituite le riserve adipose. Al contrario quando gli accumulo di grasso aumentano sia la fame che l’alimentazione si riducono per favorire il ritorno del grasso corporeo al suo valore di riferimento. L’aumento dei livelli di grasso produce un aumento della temperatura corporea che richiede un ulteriore costo energetico per poter essere mantenuta, mentre la riduzione dei livelli di grasso ha effetti opposti, vengono prodotte dunque variazioni nel ritmo metabolico di base. Un modello rigidamente fondato sui valori di riferimento non può da solo spiegare i numerosi elementi della regolazione del peso corporeo; ciò rende necessario un modello più flessibile rappresentato dal cosiddetto modello di assestamento. La teoria basata su questo modello propone una regolazione non rigida di tipo omeostatico, nel senso che il peso corporeo rimane stabile finchè non subentrano modificazioni dei fattori che lo influenzano, i cui effetti a questo punto sono limitati da un meccanismo a feedback negativo che limita ulteriori cambiamenti di peso nella stessa direzione. Un esempio di valore di assestamento biologico è il potenziale di membrana a riposo. La teoria dei valori di assestamento può essere rappresentata schematicamente con l’analogia del modello del barile che perde. La quantità di acqua che dal rubinetto entra nel tubo rappresenta la quantità di cibo a disposizione del soggetto, la pressione con cui l’acqua esce dal tubo rappresenta il valore incentivante del cibo, la quantità di acqua che entra nel barile corrisponde alla quantità di energia assimilata, il livello dell’acqua nel barile rappresenta il livello del grasso corporeo, la quantità di acqua che fuoriesce da un foro del barile corrisponde alla quantità di energia consumata e il peso del barile che grava sul tratto di tubo che si trova sotto il barile stesso corrisponde all’intensità dei segnali di sazietà. Attraverso questo modello si possono spiegare alcuni fenomeni critici della regolazione del peso corporeo. 1) secondo la teoria dei valori di assestamento un peso corporeo costante non richiede ne implica un valore prefissato; secondo il modello del barile infatti quando l’acqua comincia a riempire il barile il peso dell’acqua nel barile aumenta e di conseguenze aumenta anche la quantità di acqua che esce dal foro; contemporaneamente si riduce l’acqua che entra nel barile perché aumenta la pressione del barile sul tubo di gomma. Alla fine il sistema si assesta su un valore di equilibrio in cui il livello dell’acqua rimane costante ma non perché questo livello sia predeterminato o attivamente mantenuto. 2) tale modello prevede inoltre che al verificarsi di cambiamenti prolungati dei fattori che influenzano il peso, esempio 101 aumento valore incentivante, il peso corporeo si assesta su un nuovo valore. 3) la riduzione dell’ assunzioni di cibo modifica il metabolismo per limitare la perdita di peso, ma non elimina quella già avvenuta; nel modello del barile ad esempio una riduzione del flusso di acqua riduce il livello dell’acqua nel barile, tale riduzione è però limitata dalla fuoriuscita ridotta dell’acqua stessa dal foro in seguito alla diminuzione della pressione del barile sul tubo. Alla fine viene raggiunto un nuovo livello di assestamento. 4) Dopo che un individuo ha perso una sostanziale quantità di peso c’è tendenza a recuperare il peso originario appena il soggetto riprende il normale stile alimentare e di attività. Il modello del barile mostra che riducendo il livello dell’acqua sia tramite una temporanea riduzione del flusso di acqua in ingresso (dieta) che tramite un aumento dell’efflusso (esercizio) sia prelevando acqua (liposuzione) si produce come risultato un temporaneo abbassamento del valore di assestamento che ritorna ai valori soliti appena sono ripristinate le condizioni iniziali. Il modello di assestamento consente dunque di prevedere meglio le condizioni che possono determinare variazioni di peso e di comprendere i meccanismi responsabili di tali variazioni. Obesità e anoressia Fra i disturbi alimentari più conosciuti possiamo citare l’obesità e l’anoressia. Per quanto riguarda i criteri diagnostici ci si riferisce ai criteri diagnostici del DSM IV, ossia il manuale diagnostico e statistico delle sindromi psichiatriche. L’obesità costituisce uno dei maggior problemi di salute in molte parti del mondo, e sia fattori ambientali che genetici partecipano alle differenze individuali di peso corporeo. Durante il corso dell’evoluzione la saltuaria disponibilità di cibo ha costituito una delle principali minacce alla sopravvivenza dell’uomo Di conseguenza avevano più alte possibilità di sopravvivere quegli individui che preferivano cibi ipercalorici, che riuscivano a conservare elevate quantità di calorie sotto forma di grasso, e che riuscivano a usare tali riserve energetiche nel modo più efficiente. Ad accrescere questi effetti evolutivi hanno contribuito anche pratiche culturali e credenze sociali, come ad esempio il ritenere che si debbano consumare tre pasti al giorno indipendentemente dalla fame. Al giorno d’oggi però il cibo con il più alto valore incentivante è facilmente e continuamente disponibile, e ciò determina un eccessivo consumo alimentare. Tuttavia pur vivendo nella stessa società non tutti i soggetti sono obesi e queste differenze individuali sono determinate per esempio dalla quantità di energia introdotta, che può dipendere da preferenze alimentari o dall’educazione alimentare, e della quantità di energia spesa, che può dipendere dall’esercizio fisico svolto o dal metabolismo di base. Un altro fattore nelle differenze individuali per quanto riguarda l’obesità si chiama NEAT , termogenesi per attività da non-esercizio, che è generata da attività come per esempio mantenimento della postura o tono muscolare. I programmi dimagranti spesso non portano ai risultati sperati perché gran parte del peso perso viene riacquistato alla fine del programma. Affinché ci sia una permanente riduzione di peso infatti è necessario un permanente cambiamento nello stile di vita. Inoltre contrariamente a quanto si pensa l’esercizio fisico influisce poco sulla perdita di peso sia perché l’80% dell’energia è utilizzata per il mantenimento dei processi fisiologici a riposo e per digerire il cibo, sia perché dopo l’attività fisica le persone tendono ad ingerire bevande e cibo contenenti più calorie di quelle spese. A volte i casi di obesità sono trattati chirurgicamente legando la mandibola con fili metallici per impedire la masticazione e ridurre ai soli liquidi la dieta, incollando porzioni dello stomaco per ridurre la capacità gastrica e la dimensione dei pasti, rimuovendo una parte del duodeno per ridurre l’assorbimento dei cibi. Attraverso degli esperimenti su topi obesi omozigoti, chiamati ob/ob, è stato scoperto un ormone proteico, chiamato leptina, che diminuisce il senso della fame (effetti anoressizzanti) ed aumenta la spesa energetica, favorendo la riduzione del peso corporeo e della massa grassa. Anche l’insulina ha un ruolo come segnale dei depositi di grasso; si riscontrò che iniezioni di insulina nel cervello, insufficienti per essere dannose e per influire sulla glicemia, riducevano l’impulso della fame ed il peso corporeo. Anche gli agonisti della serotonina che riducono il consumo di cibo nei soggetti umani e non umani sono importanti nel trattamento dell’obesità. Gli agonisti della serotonina, a differenza della leptina e dell’insulina, aumentano i segnali di sazietà a breve termine associati al consumo di un pasto. Si è scoperto che gli agonisti della serotonina nei pazienti obesi riducono il bisogno 102 di mangiare cibi ad alto potere calorico, il consumo di grassi, l’intensità soggettiva della fame, la consistenza dei pasti, il numero degli spuntini tra i pasti, e gli eccessi alimentari. Per questi motivi furono inizialmente utilizzati a scopo clinico ma in seguito furono ritirati dal mercato in quanto un consumo protratto provocava anche se in un piccolo numero di pazienti dei disturbi cardiaci. Un altro disturbo legato al consumo di cibo, in quantità però ridotte, è l’anoressia nervosa. I criteri di diagnosi dell’anoressia sono: rifiuto di mantenere il peso corporeo al di sopra del peso minimo normale per l’età e la statura, un calo ponderale del 15% rispetto al peso minimo normale per età e statura, paura di acquistare peso, una percezione corporea alterata, percezione esagerata di avere eccesso di grasso e quindi necessità di eliminarlo. Un criterio molto importante è che ci deve essere una assenza di tre cicli mestruali consecutivi o amenorrea per diagnosticare anoressia. Nel soggetto affetto da anoressia si presentano come conseguenza l’ipotermia cioè abbassamento di temperatura corporea, bradicardia cioè rallentamento del battito cardiaco e alterazione del metabolismo. Gli anoressici possono mangiare così poco da mettere a rischio la propria vita, ma vi è un 50% di soggetti anoressici che va incontro a periodi di un consumo frenetico di cibo, con una media minima di due a settimana per almeno tre mesi, seguito da purghe lassative o vomito autoindotto. Questo disturbo caratterizzato da cicli di digiuno, iperalimentazione e vomito autoindotto per evitare che tutto questo cibo venga assorbito e tradotto in grasso è chiamato bulimia (dal greco fame da bue) nervosa. Al momento non vi sono rimedi efficaci, pochi pazienti sono guariti del tutto e coloro che reagiscono al trattamento spesso hanno delle ricadute. Il rapporto degli anoressici con il cibo è ambiguo, poiché durante la fase cefalica manifestano desiderio e piacere nel preparare il cibo, nell’acquistarlo o anche nel discutere di cibo, ma poi quando si tratta di mangiarlo spesso sono disgustati dal sapore o stanno male subito dopo aver mangiato. Sono state elaborate diverse teorie riguardo lo studio delle cause dell’anoressia nervosa. La teoria dell’incentivo suggerisce che la progressiva rinuncia al cibo è la conseguenza della mancanza di incentivi positivi associati al cibo, ossia ogni pasto consumato da un anoressico può creare molte diverse avversioni al gusto che riducono la motivazione a mangiare. Da un punto di vista terapeutico pertanto tali pazienti non devono essere incoraggiati a consumare pasti o addirittura non bisogna permetterlo, ma anzi devono essere nutriti con piccole quantità di cibo a brevi intervalli durante l’intera giornata. Sono state formulate delle ipotesi neuro biologiche e biochimiche sui disturbi alimentari, è stata per esempio evidenziata una riduzione della secrezione dei neurotrasmettitori coinvolti nella regolazione del comportamento alimentare, cioè la noradrenalina, la serotonina e la dopamina. Sono state individuate delle alterazioni nella modalità di interazione fra i sistemi di questi neurotrasmettitori , nonché la disattivazione dei segnali di sazietà e del meccanismo omeostatico di mantenimento di un peso corporeo equilibrato e costante, modello set point. L’OMS ha definito la salute con un paradigma biopsicosociale ossia come equilibrio ed integrazione armoniosa della funzionalità sia a livello biologico che psicologico che sociale dell’individuo. Con il termine motivazione si intende un fattore dinamico che è causa o motivo di un comportamento o di una azione. Questi fattori motivazionali possono essere consci o inconsci, semplici o complessi, transitori o persistenti e si possono descrivere in termini psicologici o neurobiologici. Più precisamente si distinguono le motivazioni primarie o viscerogene fisiologiche legate alla sopravvivenza e le motivazioni secondarie o psicogene che sono invece di natura sociale. Liquidi corporei. Una fra le principali motivazioni di tipo neurobiologiche è la psicobiologia del bere, ossia la regolazione del comportamento di assunzione di liquidi corporei. Una delle prime teorie sviluppate è la teoria della cosiddetta bocca secca secondo cui la sensazione soggettiva di avere la bocca asciutta stimoli l’individuo a bere; anche se tale sensazione è legata ad un carenza di liquidi corporei e può indurre a bere, si è visto che non è la bocca secca lo stimolo primario all’assunzione di liquidi. Ad esempio producendo una secchezza cronica con l’asportazione delle ghiandole salivari si è visto che non si determina un aumento di assunzione di liquidi a meno che non ci sia un regime dietetico costituito solo da cibi secchi e molto caldi. Tale teoria è stata poi disconfermata dagli studi sul falso bere, che è una 103 situazione sperimentale che viene creata chirurgicamente tramite una fistola gastrica o duodenale per cui il liquido che viene ingerito è riversato subito all’esterno del corpo senza essere assorbito quindi il cavo orale non rimane mai asciutto. Nonostante ciò l’animale deprivato di liquidi continua a bere. Il 60% dei liquidi del corpo è formato da acqua e circa i due terzi dell’acqua corporea sono contenuti all’interno delle cellule (liquido intracellulare) e circa un terzo fuori di esse (liquido extracellulare). I liquidi extracellulari sono costituiti da fluidi interstiziali che circondano le cellule, da sangue e liquido cerebrospinale. Generalmente i liquidi intra ed extra cellulari hanno la stessa concentrazione di soluti e per questo sono dette soluzioni isotoniche. Se per qualche motivo la concentrazione dei soluti di uno dei due liquidi tende a diminuire o aumentare, entra in gioco una forza, detta pressione osmotica, che fa si che l’acqua, per un processo chiamato osmosi, si sposta dal compartimento a minore concentrazione (soluzione ipotonica) verso quello a maggiore concentrazione (soluzione ipertonica), per ristabilire le normali condizioni isotoniche. Per la sopravvivenza dell’individuo è importante che la concentrazione del liquido intra ed extra cellulare sia sempre regolata e per questo la maggior parte dei meccanismi di regolazione psicobiologici del bere sono incentrati sul bere in risposta a deficit nel volume dei due liquidi. L’acqua può essere eliminata attraverso l’urina ma anche attraverso la sudorazione, la respirazione la defecazione. Gli uomini eliminano una grande quantità di acqua e hanno una limitata capacità di conservarla all’interno del corpo, tant’è che è possibile vivere per settimane senza cibo ma non senza bere. Quando le risorse di acqua dell’organismo si riducono notevolmente il corpo conserva la ridotta quantità di acqua e stimola la sete attraverso due sistemi fisiologici : la disidratazione cellulare, riduzione del volume del liquido intracellulare, e l’ipovolemia, riduzione del volume ematico. Ad esempio la sete indotta dai cibi salati è causata da disidratazione cellulare: il sale non passa facilmente all’interno delle cellule ma si accumula nei liquidi extracellulare rendendoli ipertonici e quindi determinando uno spostamento dell’acqua dall’interno della cellula all’esterno. La disidratazione cellulare è studiata principalmente mediante iniezione di soluzione ipertonica di sale, o di altri soluti che non attraversano la membrana cellulare. Le cellule che rilevano la disidratazione cellulare sono detti osmocettori, che si ritiene siano situati nell’area preottica laterale dell’ipotalamo. Ci sono due meccanismi attraverso cui gli osmocettori provocano la sete: diretto e indiretto. Il meccanismo diretto è di tipo nervoso quando gli osmocettori sensibili alla disidratazione cellulare attivano circuiti neuronali che regolano la sete, il meccanismo indiretto è di tipo ormonale quando gli osmocettori sensibili alla disidratazione determinano da parte dell’ipofisi posteriore il rilascio dell’ormone antidiuretico (ADH), denominato vasopressina, che contribuisce a conservare i liquidi, ad aumentare il riassorbimento di acqua dall’urina e ad aumentare la sete. L’ipovolemia è un importante stimolo per la sete e sperimentalmente può essere prodotta prelevando sangue dal soggetto o iniettando colloidi, sostanze simili alla colla che non passano nella membrana cellulare, all’interno della cavità peritoneale. che producono una riduzione del volume ematico senza produrre disidratazione cellulare. L’ipovolemia viene rilevata dai barocettori (ricettori di pressione cardiaci) situati nelle pareti del cuore e da recettori di flusso renali, che misurano il flusso sanguigno. Quando il volume ematico si riduce sia i barocettori (cardiaci) che i recettori di flusso ematico (renali) danno inizio ad una serie di risposte renali che favoriscono la conservazione delle risorse idriche. I barocettori influenzano i reni attraverso l’aumento di ADH dall’ipofisi mentre i recettori di flusso agiscono sul rene direttamente. Nei casi di deprivazione di acqua sia gli osmocettori ipotalamici che i barocettori provocano il rilascio dell’ADH ipofisario, il quale influenza i reni in due modi: riducendo il volume di urina prodotta e aumentando il rilascio di renina. L’aumento di renina stimola la sintesi nel sangue di angiotensina II che a sua volta produce un aumento di pressione sanguigna sia attraverso la costrizione dei vasi che mediante il rilascio di aldosterone da parte della corteccia surrenale. L’aldosterone stimola il rene a riassorbire molto sodio che altrimenti sarebbe eliminato con le urine. Il mantenimento di livelli ematici di sodio alti è importante per evitare ulteriore cadute di volume ematico, poiché tanto più alta è la concentrazione di sodio nel sangue tanto più acqua sarà in esso ritenuta. L’assunzione spontanea di liquidi, che viene definito bere spontaneo, suggerisce che tale comportamento 104 è motivato dalle proprietà incentivanti delle bibite, il cui valore incentivante aumenta in caso di deprivazione di acqua, e dal sapore. Il bere è spesso associato anche all’assunzione di cibo secco o ricco di proteine, ma deriva anche da forme di apprendimento che consentono di prevenire carenze di acqua, come ad esempio bere prima di una corsa. Secondo la teoria dei valori di riferimento il segnale che elimina la sete ed interrompe l’azione del bere è il ritorno a normali livelli fisiologici delle riserve di liquidi corporei. La sazietà senso specifica svolge un importante effetto sulla sete : innanzitutto gli animali mostrano di preferire alle bevande sempre disponibili quelle che sono disponibili solo periodicamente. Come accade nel fenomeno conosciuto con il nome di effetto stimolante della saccarina, che si verifica quando ratti che hanno accesso sia ad acqua che ad una soluzione di saccarina hanno sin dall’inizio preferenze per quest’ultima, ma tale preferenza aumenta se la soluzione viene tolta per un po’ di tempo e poi ripresentata. E’ stato anche dimostrato che il consumo di acqua aumenta quando gli animali hanno a disposizione una grande varietà di bevande. L’eccesivo consumo di acqua viene definito polidipsia. Un’ altra motivazione con fondamenti neurobiologici che si evidenzia in ambito socio relazionale è l’aggressività. E’ una motivazione importante perché ha avuto un ruolo nell’evoluzione della specie. Esistono diverse forme di aggressività interpersonale che sono caratterizzate principalmente dal fatto che producono danno emotivo e/o fisico a chi lo riceve. Esistono tre forme di aggressività che corrispondono a tre sistemi neurali distinti ma interconnessi fra loro : aggressione difensiva, predatoria e sociale. L’aggressione difensiva è generalmente rivolta ad oggetti che sono percepiti come pericolosi; è stata osservata prima negli animali e poi negli esseri umani e si è visto che esistono delle posizioni e dei comportamenti di aggressività difensiva che inducono a loro volta nell’avversario comportamenti e posture di difesa, come la postura difensiva dorsale che permette di difendere la parte superiore più vulnerabile e attuare al tempo stesso comportamenti difensivi reattivi alla aggressività subita. L’aggressività predatoria è invece rivolta verso membri di altre specie per scopi alimentari, cioè per difendere il cibo, quindi vengono attaccati e uccisi membri di altre specie che vogliono in qualche modo competere a livello di scorte alimentari. A livello neurale sia l’aggressività difensiva che predatoria sono attivate dall’ipotalamo laterale e dall’amigdala, mentre invece vengono inibite dai nuclei dell’ipotalamo ventro mediale, dal nucleo accumbens, dai nuclei del rafe e dal setto. L’aggressività sociale non è un’aggressività reattiva ad una azione aggressiva ricevuta ed è diretta a con specifici per stabilire, modificare o mantenere una gerarchia sociale. Ad esempio la si può notare nelle colonie di animali formate da maschi e femmine che vivono insieme nel momento in cui arriva un maschio estraneo oppure si ci sono coppie di maschi che competono nella stessa colonia. Le strutture neurali implicate nell’attivazione dell’aggressività sociale sono l’ipotalamo ventro mediale, il setto, il nucleo accumbens e i nuclei del rafe mentre non è chiaro se ci siano e quali siano le strutture neurali che possono inibire tale aggressività. Vi è stato poi un altro studio basato sulla relazione fra aggressività e testosterone in cui si è visto che in molte specie il comportamento aggressivo compare più nei maschi che nelle femmine perché sembra vi siano dei pattern di comportamento aggressivo tipici del maschio che si attivano dopo la pubertà quando i livelli di testosterone in circolo aumentano. Sembra comunque che il ruolo organizzativo e attivante del testosterone sul comportamento aggressivo sarebbe minore sull’essere umano rispetto ad altre specie animali. Sono stati effettuati anche studi di stimolazione cerebrale dei siti neurali ricondotti al comportamento aggressivo per verificare che questo fosse effettivamente ottenuto. In particolare si è visto che la stimolazione stimola appunto aggressione sociale ma non spinge ad attaccare altri obiettivi rispetto a quello iniziale. Un’altra motivazione fondamentale per la sopravvivenza è la termoregolazione. Sono stati individuati due sistemi di termoregolazione : uno fondato su risposte comportamentali esplicite volte a regolare la temperatura corporea sempre intorno al valore critico per la sopravvivenza che per l’essere umano a riposo è intorno i 37 gradi C medi in un ambiente a temperatura costante, e uno fondato su risposte termoregolatorie riflesse come iperventilazione, sudorazione e brividi. Generalmente le informazioni 105 inerenti la regolazione della temperatura corporea sono raccolte e inviate dai termocettori che si trovano in tutto il corpo alle strutture neurali coinvolte che sono indicate l’ Area preottica e ipotalamo anteriore. Tutte le specie animali pluricellulari sono in grado di svolgere tutte le funzioni vitali entro una gamma ristretta di temperatura, per cui è necessario che la temperatura rimanga sempre e entro quella gamma. Nell’essere umano oltre al ritmo circadiano base di temperatura corporea che la mantiene intorno ai 37 gradi una specificità per quanto riguarda le donne è legata al ciclo mensile mestruale. Generalmente dopo l’ovulazione la temperatura è di 0.5 gradi C maggiore della temperatura prima dell’ovulazione . Si è inoltre visto che se la nostra temperatura subisce variazioni in eccesso o in difetto di circa 2.5 gradi C la capacità analitica e creativa cerebrale vengono perdute e si verifica confusione e compromissione del giudizio. Gli aumenti di temperatura sono molto più pericolosi delle diminuzioni. Rispetto alle variazioni di temperatura gli esseri viventi pluricellulari sono stati divisi in due categorie: omeotermi e poichilotermi. I mammiferi e gli uccelli sono classificati come omeotermi cioè animali a sangue caldo perché riescono a mantenere la temperatura interna ad un valore relativamente costante anche quando la temperatura esterna varia. I poichilotermi sono invece animali a sangue freddo che non è che non hanno la capacità di poter mantenere la temperatura corporea in via riflessa. Nei poichilodermi più complessi come i pesci i rettili e gli anfibi la loro risposta regolatoria è quella di spostarsi in ambienti più freddi quando il clima diventa troppo caldo e in ambienti più caldi quando diventa troppo freddo. le api quando l’alveare è troppo caldo o troppo freddo non si spostano invece ma collaborano per realizzare un sistema di condizionamento d’aria che mantenga l’alveare e le larve ad una temperatura costante. La termoregolazione nei poichilotermi predomina sulle altre attività perchè se il loro corpo si riscalda o raffredda troppo devono interrompere ogni attività ed iniziare una azione compensativa. Gli omeotermi invece rispondono a variazioni di temperatura corporea sia in eccesso che in difetto con azioni comportamentali esplicite. Hanno meccanismi di termoregolazione più complessi e diversificati, per esempio se diminuisce la temperatura l’essere umano può muoversi producendo calore con il lavoro muscolare, può indossare abiti pesanti, può ingerire bevande o cibi caldi, mentre altri mammiferi cercano il contatto fisico per potersi riscaldare. Gli omeotermi apprendono con facilità i comportamenti necessari per controllare la temperatura mettendo cosi in atto risposte regolatorie anticipatorie, ad esempio si può cambiare postura e quindi se ci si trova in un ambiente freddo si tenderà ad assumere una posizione più chiusa per non disperdere calore. Gli omeotermi riescono a regolare la temperatura anche attraverso risposte interne di tipo riflesso. Ad esempio i mammiferi hanno tre risposte di raffreddamento : aumento della respirazione cioè iperventilazione che aumenta l dispersione di calore attraverso i polmoni, aumento della traspirazione che aumenta la dispersione di calore attraverso l’evaporazione, vasodilatazione cioè dilazione dei vasi periferici che aumenta l’afflusso di sangue alla superficie del corpo facilitando la dispersione di calore. Anche i meccanismi di riscaldamento riflessi sono di tre tipi: il brivido che produce calore perché aumenta l’attività muscolare, la vasocostrizione periferica che riduce la perdita di calore contenendolo al centro del corpo e il rilascio di tiroxina da parte della tiroide che accelera la produzione di calore aumentando la velocità del metabolismo generale. Una manifestazione evidente del freddo è la pilo erezione che è una risposta di termo conservazione ereditata che serviva ai nostri antenati per aumentare le proprietà termoisolanti perché aumenta lo spessore dello strato del pelo. Le strutture neurali coinvolte nella termoregolazione sono l’area preottica e l’ipotalamo anteriore che fondano un meccanismo regolatorio a feedback centrato su un valore critico che è appunto quello di 37 gradi. Ad esempio quando tali strutture vengono raffreddate il soggetto sceglie una temperatura ambiente più alta e viceversa, come fossero sede di una sorta di termostato. Nell’essere umano fra le possibili variazioni di temperatura molto interessanti sono due fenomeni : la febbre, aumento di temperatura corporea, e la ipotermia, cioè l’abbassamento di temperatura. La febbre è in genere associata a infezioni o ferite, accelera tutti i processi metabolici del corpo per aumentare la velocità dei processi di riparazione e la capacità del sistema immunitario di affrontare gli agenti che hanno determinato infezione. Le infezioni che determinano la febbre si chiamano infezioni pirogene che, come le 106 ferite, non agiscono direttamente sul sistema termoregolatore ma inducono i tessuti colpiti a rilasciare un fattore chiamato fattore pirogeno endogeno che tramite il sangue arriva al cervello il quale induce la febbre innalzando il valore critico di temperatura. Generalmente la durata della febbre e la sua gravità dipendono molto dall’agente che ha causato l’infezione o la ferita. C’è quindi una prima fase in cui si presentano i brividi di freddo e aumento della temperature, poi i brividi scompaiono e la febbre si stabilizza . La terza e ultima fase è quella del decremento febbrile in cui il valore critico torna ai valori fisiologici del corpo e il corpo si libera dal calore immagazzinato in eccesso producendo anche una sudorazione molto profusa. L’ipotermia invece è una condizione in cui la temperatura corporea centrale scende al di sotto dei 35 gradi C. E’ la principale causa di morte in situazioni come disastri marittimi, spedizioni montane e polari, e nel caso di persone anziane che vivono in zone fredde o in abitazioni senza riscaldamento. I principali sintomi associati sono il tremito massimo, il sangue che viene spinto al centro del corpo, dopodiché vi è la cessazione del tremito la dilatazione della pupilla, l’apatia, confusione mentale e ridotta capacità di giudizio, subentrano poi allucinazioni, amnesie, diminuzione del tasso di metabolismo fino ad arrivare a perdita d coscienza diminuzione del battito cardiaco, aumento della rigidità muscolare, aumento della respirazione fino ad arrivare alla cessazione dell’attività cardiaca ed elettroencefalografica e quindi alla morte. Gli essere umani possono riaversi anche in seguito ad abbassamenti di temperatura corporea centrale al di sotto dei 27 gradi C anche se possono sembrare morti perché come abbiamo detto fra i sintomi c’è anche la mancata rilevazione del battito cardiaco, di respirazione e di attività elettrica corticale. L’unico segno certo di morte per ipotermia è la mancanza totale di recupero quando il corpo viene riscaldato e la temperatura viene riportata a livelli normali. Dipendenza farmaci e circuiti della gratificazione I farmaci psicoattivi sono farmaci che influiscono sul sistema nervoso e quindi sull’esperienza soggettiva che l’individuo ha circa gli stimoli ambientali e le situazioni ed influiscono anche sul suo comportamento. Vi è una differenza importante fra uso e abuso di questi farmaci : l’uso viene studiato nell’ambito dell’osservazione del sistema nervoso e del trattamento dei suoi disturbi, mentre l’abuso rientra nel campo di studi della tossicodipendenza e della dipendenza fisica e psicologica da farmaci. Le tre fasi dell’azione dei farmaci psicoattivi sul SNC sono: la somministrazione, la penetrazione nel sistema nervoso centrale, metabolismo ed eliminazione dei farmaci. La somministrazione può includere diverse modalità quali l’ingestione, l’iniezione, l’inalazione e l’assorbimento attraverso le membrane mucose. L’ingestione è una somministrazione per via orale quindi per bocca e generalmente è il tipo di somministrazione preferita. Una volta ingoiati i farmaci si dissolvono nei fluidi gastrici e vengono in questo modo condotti fino all’intestino dove vengono assorbiti nel circolo sanguigno. I farmaci che non sono subito assorbiti dall’apparato digerente o che prima di essere assorbiti sono scissi in metaboliti devono essere assunti per altra via. La somministrazione per via orale ha due vantaggi : è più semplice ed è relativamente più sicura. Il suo svantaggio è invece la sua imprevedibilità, ossia l’assorbimento dal tratto digestivo al sistema ematico può venire modificato da fattori incontrollabili come ad esempio il tipo e la quantità di cibo nello stomaco. I farmaci attraversano rapidamente la parete gastrica ed hanno quindi un effetto rapido perché non devono raggiungere l’intestino per essere assorbiti. La modalità per iniezione è anch’essa molto praticata in medicina perché ha effetti molto rapidi e più prevedibili rispetto ai farmaci somministrati per via orale. Generalmente l’iniezione viene effettuata o nel tessuto adiposo sotto la cute, detta iniezione sottocutanea, oppure nei grandi muscoli, detta iniezione intramuscolare, o direttamente nelle vene in punti in cui le vene decorrono sotto la cute, detta iniezione per via endovenosa. Molti tossicodipendenti preferiscono la via endovenosa perché il circolo ematico trasporta la sostanza iniettata direttamente al cervello. Tuttavia nonostante i vantaggi di una somministrazione diretta e veloce permessa dall’iniezione intravenosa, vi sono anche svantaggi perché dopo una iniezione per endovena ci sono poche possibilità di contrastare gli effetti del sovradosaggio quindi si può verificare facilmente l’overdose oppure non si possono contrastare gli effetti di una reazione allergica con 107 il conseguente shock anafilattico. Inoltre molti tossicodipendenti sviluppano cicatrici cutanee, infezioni e colassi venosi in corrispondenza dei punti del corpo dove è possibile più facilmente accedere alle vene di dimensioni maggiore. La somministrazione per inalazione consente l’assorbimento delle sostanze nel sistema ematico attraverso la fitta rete dei capillari dei polmoni. Vengono assunti per inalazione molti anestetici come avviene però anche per il tabacco o la marijuna. I due limiti principali di questa via di somministrazione dipendono dalla difficoltà nella regolazione precisa della dose della sostanza da inalare e dal fatto che molte sostanze che vengono inalate in modo prolungato danneggiano i polmoni. Infine l’ultima modalità di somministrazione è l’assorbimento dei farmaci attraverso le membrane mucose del naso, della bocca e del retto. La cocaina viene ad esempio assunta attraverso la membrana nasale comportando anche dei danni. Una volta che una sostanza è stata assorbita dal sistema ematico viene attraverso di esso trasportata ai vasi sanguigni del SNC. Esiste fortunatamente un filtro protettivo che impedisce il passaggio nel SNC di sostanze chimiche potenzialmente dannose per il SNC stesso, tale filtro è la barriera ematoencefalica. A questo punto avviene quello che è il fenomeno della penetrazione nel SNC. I farmaci agiscono sul SNC attraverso due meccanismi di azione : i meccanismi generalizzati, per esempio l’alcol e gli anestetici agiscono in questo modo cioè agiscono diffusamente sulle membrane neurali di tutto il sistema nervoso, e i meccanismi specifici in cui il farmaco forma legami con specifici recettori sinaptici oppure influenza la sintesi, il trasporto, la liberazione o la de attivazione di specifici neurotrasmettitori oppure esercita influenza su reazioni chimiche nei neuroni postsinaptici dopo l’attivazione dei recettori. Infine abbiamo il processo del metabolismo e l’eliminazione dei farmaci. Il metabolismo dei farmaci è un processo che viene stimolato dagli enzimi prodotti dal fegato e attraverso questo processo i farmaci vengono convertiti in sostanze inattive. Nella maggior parte dei casi il metabolismo elimina la capacità di una sostanza di passare attraverso le membrane lipidiche in modo da non poter ulteriormente attraversare la barriera emato encefalica, oppure il farmaco viene inattivato tramite legami con depositi lipidici e grandi molecole proteiche presenti nel sangue. L’eliminazione dal corpo invece può avvenire attraverso l’urina, il sudore, le feci, la respirazione e il latte materno. Nell’ambito dell’influenza dei farmaci psicoattivi sul SNC e quindi di conseguenza sull’esperienza soggettiva e sul comportamento dell’individuo che li assume sono importanti due processi : la tolleranza ai farmaci o assuefazione e l’astinenza dai farmaci. La tolleranza ai farmaci o tolleranza farmacologica o assuefazione è uno stato di ridotta sensibilità ad un farmaco in seguito alla sua assunzione. Questo comporta che una determinata dose di quel farmaco comincia a divenire meno efficace rispetto alle precedenti assunzioni tanto che per ottenere i medesimi effetti è necessario aumentare le dosi del farmaco. La rappresentazione grafica del fenomeno è data da una curva che descrive la relazione dose-risposta e che nel caso dell’assuefazione è una curva che si sposta verso destra con la conseguenza che nei soggetti assuefatti la stessa dose ha un effetto minore ed è quindi necessaria una dose maggiore per ottenere lo stesso effetto. Rispetto alla tolleranza farmacologica bisogna tener presente tre punti fondamentali : il primo è che l’assunzione di una sostanza può produrre un’assuefazione nei confronti di altre sostanze che agiscono con lo stesso meccanismo, questo fenomeno viene detto assuefazione crociata; il secondo punto consiste nel fatto che spesso l’assuefazione si sviluppa nei confronti di alcuni effetti della sostanza ma non di altri, infatti si può instaurare una tolleranza rispetto ad alcuni effetti di una sostanza mentre la sensibilità ad altri effetti della stessa sostanza può aumentare, tale incremento di sensibilità viene detto sensibilizzazione alla droga. Il terzo elemento è che l’assuefazione non è un fenomeno unitario cioè non esiste un singolo meccanismo responsabile delle diverse manifestazioni dell’assuefazione. Possiamo infatti distinguere : la tolleranza metabolica, la tolleranza funzionale, la tolleranza farmacologica contingente e una specificità situazionale della tolleranza. La tolleranza metabolica deriva dai cambiamenti che riducono la quantità di prodotto che raggiunge i siti di azione, mentre la tolleranza funzionale deriva da variazioni che riducono la reattività dei siti di azione della sostanza; in genere la tolleranza ai farmaci psicoattivi è spesso di tipo funzionale e può dipendere da diversi tipi di modificazioni neuronali. Per esempio l’assunzione protratta di una sostanza psicoattiva può 108 ridurre il numero dei recettori disponibili per quella stessa sostanza, diminuire l’efficienza con la quale si lega ai recettori esistenti oppure può diminuire l’effetto del legame recettoriale sull’attività della cellula oppure si producono mutamenti strutturali della membrana neurale. Questi mutamenti sono in genere studiati da neurochimici tramite esperimenti in cui culture di tessuti nervosi vengono esposte a concentrazioni precise di farmaco in ambienti chimici controllati strettamente, quindi in vitro, osservandone poi le conseguenze. Si studiano in questo modo i mutamenti appresi dovuti all’esposizione diretta al farmaco, oppure si studiano gli effetti comportamentali a seguito dell’assunzione ripetuta di un farmaco. In quest’ultimo caso oggetto di studio è il fenomeno dell’assuefazione contingente che fa riferimento al fatto che la tolleranza si sviluppa solo per quelle sostanze i cui effetti sono realmente esperiti. Nella maggior parte degli studi sull’assuefazione contingente si impiega il paradigma prima e dopo, in cui si osserva cosa fanno i soggetti prima della somministrazione del farmaco e cosa fanno dopo. In questo tipo di esperimenti si effettua la stessa serie di iniezioni di droga e la somministrazione di test a due gruppi di soggetti. Un gruppo però riceve la sostanza prima del test, e l’altro gruppo la riceve dopo. Alla fine dell’esperimento tutti i soggetti hanno avuto la stessa dose di farmaco e tutti sono stati sottoposti agli stessi test ma il farmaco agisce solo sul comportamento dei test eseguiti dopo la somministrazione e quindi il confronto fra i gruppi rivela l’effetto. Per esempio attraverso un esperimento su cavie si è studiata l’assuefazione contingente agli effetti anticonvulsivanti dell’alcol : due gruppi di cavie ricevono la stessa sequenza di iniezioni di alcol, una ogni due giorni per la durata dell’esperimento, durante la fase di sviluppo della tolleranza i ratti di uno dei gruppi riceveranno un’iniezione di alcol un’ora prima di una leggera stimolazione cerebrale convulsivante in modo da poter sperimentare l’azione anticonvulsivante dell’alcol. Ai ratti dell’altro gruppo tale iniezione veniva fatta un’ora dopo la stimolazione non potendo cosi esperire l’azione anticonvulsivante dell’alcol. Alla fine dell’esperimento tutti i ratti ricevevano una iniezione di alcol seguita un’ora dopo da una stimolazione convulsivante in modo da poter confrontare nei due gruppi il livello di assuefazione all’effetto anticonvulsivante dell’alcol. I ratti che durante l’esperimento avevano ricevuto l’iniezione prima della stimolazione presentavano assuefazione all’effetto anticonvulsivante dell’alcol, mentre i ratti dell’altro gruppo no. E’ stata sviluppata una teoria per spiegare il fenomeno della tolleranza contingente che è la teoria della tolleranza all’effetto farmacologico che spiega come in un soggetto possa svilupparsi una tolleranza ad un effetto di un farmaco ma non agli altri. Un’altra linea di ricerca che ha cercato di dimostrare l’importanza dell’apprendimento nella tolleranza farmacologica quindi l’importanza dell’esposizione protratta ad un farmaco per l’acquisizione della tolleranza farmacologica come meccanismo appreso, è una linea di ricerca che ha considerato gli effetti dell’ambiente in cui vengono provati gli effetti dei farmaci. Con il termine assuefazione condizionata si fa riferimento al fatto che gli effetti dell’assuefazione si manifestano maggiormente quando una sostanza viene somministrata nella stessa situazione nella quale era stata somministrata precedentemente. Un esempio di assuefazione condizionata è stato presentato in uno studio in cui due gruppi di ratti ricevevano venti iniezioni di alcol e di soluzione salina tutti i giorni in sequenza alternata. L’unico aspetto che differenziava i due gruppi era l’ambiente in cui avvenivano le somministrazioni: un gruppo riceveva le iniezioni di alcol in una stanza di laboratorio e le iniezioni di soluzione salina nella loro stanza abituale, mentre per l’altro gruppo avveniva il contrario. Alla fine dell’esperimento è stata valutata nei due ambienti l’assuefazione dei ratti agli effetti ipotermici dell’alcol, in quanto producono abbassamento di temperatura. L’assuefazione è stata rilevata solo nei ratti la cui temperatura in risposta all’alcol è stata misurata nello stesso ambiente dove avevano ricevuto le iniezioni di alcol, mostrando una selettività dell’assuefazione per una situazione particolare. E’ stata proposta una teoria da Siegel e colleghi abbastanza simile per soggetti tossicomani che sembrano essere suscettibili agli effetti letali di un sovradosaggio quando la droga viene assunta in un contesto nuovo. L’ipotesi è che i tossicodipendenti sviluppano un’assuefazione quando si autosomministrano la droga ripetutamente nello stesso contesto e sono portati ad assumere dosi sempre maggiori per controbilanciare la diminuzione dell’effetto della sostanza. Quindi se un 109 tossicodipendente assume la dose forte abituale in una situazione non abituale gli effetti dell’assuefazione non sono presenti e non controbilanciano quelli della sostanza, di conseguenza il rischio di morte per overdose aumenta. Secondo Siegel ogni assunzione di una sostanza corrisponde a una prova di condizionamento pavloviano nella quale diversi elementi ambientali, che predicono l’assunzione della droga, come bar, toilette, altri tossicodipendenti, costituiscono gli stimoli condizionati mentre gli effetti della sostanza sono gli stimoli incondizionati. L’assunto fondamentale su cui si basa la teoria di Siegel è che gli stimoli condizionati che predicono l’assunzione della sostanza sono in grado di evocare le risposte condizionate opposte agli effetti incondizionati della sostanza. Questa risposta condizionata viene detta da Siegel risposta condizionata compensatoria. Secondo questa teoria gli stimoli che predicono con regolarità l’assunzione della sostanza provocano risposte condizionate di compensazione sempre maggiori opponendosi con sempre maggiore efficacia agli effetti incondizionati della sostanza e inducendo lo sviluppo della tolleranza. Anche il fenomeno della sensibilizzazione può essere selettiva per la situazione. Dopo l’assunzione di una quantità notevole di una sostanza per un certo periodo di tempo, la sua eliminazione improvvisa può provocare una condizione di malessere, nota come sindrome d’astinenza. Gli effetti della sospensione dell’assunzione di una sostanza sono in linea di principio sempre opposti a quelli prodotti dalla sostanza stessa, ad esempio la sospensione di una sostanza ipnotica spesso provocherà insonnia. Se si manifestano reazioni di questo tipo alla sospensione di un farmaco siamo di fronte ad una dipendenza fisica da quel farmaco. Il fatto che gli effetti derivanti dall’astinenza siano opposti a quelli dipendenti dall’assuefazione indica che entrambi possono essere prodotti dalle stesse variazioni neuronali. Pertanto l’assunzione di una sostanza provoca variazioni compensatorie nel sistema nervoso che riducono gli effetti della sostanza producendo tolleranza, quando la sostanza viene eliminata dall’organismo queste variazioni neuronali compensatorie in assenza della sostanza che li annulla si manifestano come sintomi di astinenza opposti a quelli dell’assuefazione. La gravità dei sintomi d’astinenza dalla sostanza in questione, dalla durata e dalla quantità di sostanza assunta in precedenza e dalla velocità con la quale la sostanza viene eliminata dal corpo; in generale le crisi di astinenza più gravi sono quelle provocate dall’assunzione precedente di quantità considerevoli di una sostanza prolungata per lungo tempo la cui eliminazione è molto rapida. Sulla base della relazione nella teoria di Siegel fra assuefazione e risposta condizionata compensatoria, anche nel caso di privazione della sostanza l’ambiente dovrebbe produrre effetti opposti a quelli inizialmente provocati dalla sostanza stessa. Gli effetti d’astinenza che sono indotti dall’ambiente o da fattori associati alla sostanza sono detti effetti d’astinenza condizionati . Tali effetti sono stati riscontrati con uno studio condotto su tre gruppi di ratti dove ad uno dei gruppi venivano somministrate iniezioni di morfina in una stanza di laboratorio e iniezioni di soluzione salina nella gabbia abituale, all’altro la somministrazione veniva effettuata in condizioni opposte, nel terzo gruppo riceveva iniezioni di soluzione salina in entrambi gli ambienti. Alla fine dell’esperimento si notò che i ratti che avevano ricevuto iniezioni di morfina nella stanza di laboratorio mostrarono crisi di astinenza notevolmente superiori rispetto agli altri due gruppi. Le principali sostanze di abuso oltre ai farmaci, dover per farmaci si intendono delle sostanze chimiche di laboratorio prodotte per curare dei disturbi, i quali però quando si sviluppa tolleranza producono in modo incrementale proprio il disturbo che dovevano curare, ad esempio se una persona assume farmaci per l’insonnia in dosi massicce fino a sviluppare tolleranza avrà poi bisogno di dosi sempre maggiori per avere lo stesso effetto iniziale. Quando però si sviluppa una tolleranza molto elevata il farmaco a causa della sua assunzione massiccia produce proprio l’effetto opposto ossia la persona soffre di insonnia ancora di più perché neanche il farmaco può aiutarla. Bisogna dire comunque che la dipendenza fisica e l’astinenza non sono fattori principali motivanti della tossicodipendenza, ma esiste un notevole divario fra le evidenze basate sulla ricerca scientifica a proposito dei meccanismi che mediano la condotta a livello biologico del tossicodipendente, l’opinione pubblica in materia di tossicodipendenza e la legislazione in materia di abuso delle sostanze e di tossicodipendenza. Il tossicodipendente in realtà non può essere visto semplicisticamente come colui che è intrappolato in questo circolo vizioso di assunzione 110 di droga, sintomi di astinenza, e riassunzione di droga in quantità sempre maggiori per contrastare l’astinenza. Se cosi fosse queste persone potrebbero essere curate molto più facilmente ospedalizzandole per alcuni giorni e aspettando che i sintomi dell’astinenza scompaiano , ma un metodo simile non ha portato buoni risultati poiché molti tossicodipendenti dopo periodi anche abbastanza lunghi di astinenza forzata ricominciavano ad assumere droga. Per cui la tossicodipendenza non è equiparabile alla dipendenza fisica, dove per dipendenti si intendono coloro che continuano ad assumere droghe nonostante i loro effetti negativi sulla salute e sulla vita sociale e a dispetto degli sforzi messi in atto per arrestarne l’uso, ma ci sono anche altri fattori come l’ipotesi di una dipendenza psicologica ritenuta la causa di una qualsiasi assunzione compulsiva di droga in assenza di dipendenza fisica. Fra le sostanze di abuso che inducono dipendenza le 5 più note sono : tabacco, alcol, marijuana, cocaina e oppiacei (eroina e morfina). Il tabacco è la sostanza psicoattiva maggiormente utilizzata nella nostra società dopo la caffeina, si assume generalmente fumando sigarette e in questo modo si assorbe nei polmoni la nicotina che è l’ingrediente psicoattivo principale nel tabacco e si assorbono anche altre sostanza chimiche come il monossido di carbonio. Gli effetti del fumo possono verificarsi sia sui fumatori che sui non fumatori con delle differenze perché i fumatori sviluppano tolleranza ad alcuni degli effetti immediati spiacevoli del tabacco; ad esempio il non fumatore spesso reagisce con nausea, vomito, tosse, sudorazione, vampate di calore, vertigini, invece il fumatore dopo aver fumato si descrive più rilassato, più vigile e con minore appetito. I grandi fumatori potrebbero definirsi tossicodipendenti nel senso biologico del termine, anche nel fumatore c’è la ricerca compulsiva del tabacco e ci sono effetti di astinenza abbastanza conosciuti quando il fumatore cerca di smettere di fumare come depressione ansia irrequietezza irritabilità stitichezza difficoltà a dormire e a concentrarsi. Quindi c’è una vera e propria sindrome del fumatore che ha delle conseguenze abbastanza preoccupanti perché il fumatore abituale spesso presenta dolore al torace, respiro affannoso, tosse, e aumentata sensibilità alle infezioni delle vie respiratorie, enfisema (perdita elasticità polmonare), pleurite (infiammazione della pleura) e cancro polmonare, nonché una maggiore predisposizione all’infarto cardiaco e cerebrale e alle malattie cardiovascolari, ma anche rischio di cancro alla gola, alla laringe, alla bocca, all’esofago, ai reni, alla vescica, allo stomaco. Il potere di indurre dipendenza da parte della nicotina è rappresentato da quei pazienti che soffrono della sindrome di Buerger (Burger), che è una condizione nella quale i vasi sanguigni in particolare quelli delle gambe si restringono ogni volta che la nicotina entra nel circolo ematico finchè non si arriva alla cancrena e quindi all’amputazione degli arti. Come abbiamo detto gli effetti nocivi del fumo non si limitano ai fumatori, ma esistono prove inconfutabili che anche chi lavora o vive a contato con i fumatori ha maggiore probabilità di soffrire di disturbi cardiaci o di cancro. Il pericolo esiste anche per gli esseri non ancora nati, infatti durante la gravidanza il fumo aumenta la probabilità di aborto, di mortalità natale e neonatale. Il livello di nicotina contenuto nel sangue di un neonato allattato al seno spesso corrisponde a quello presente nel sangue materno. Molti fumatori sostengono che fumano malgrado gli effetti nocivi perché riduce la tensione, ma in realtà i fumatori sono più tesi dei non fumatori: la tensione è ad un livello normale quando fumano ma aumenta tra una sigaretta e l’altra. L’effetto apparentemente rilassante del fumo riflette solo una interruzione momentanea dello stress provocata dalla dipendenza del fumatore. Un’altra sostanza di abuso nota è l’alcol che si diffonde rapidamente in tutte le parti del corpo, infatti le molecole dell’alcol sono piccole e solubili sia nel grasso che nell’acqua e per questo motivo invadono tutto il corpo. L’alcol viene classificato come depressivo perché riduce l’attività dei neuroni. Tuttavia a dosi basse può stimolare l’attività neuronale e facilitare l’interazione sociale con sensazione di benessere e rilassamento, a dosi moderate la persona prova vari gradi di disturbi cognitivi, percettivi, verbali e motori con la possibilità di mettere in atto anche azioni socialmente indesiderabili. Dosi elevate portano invece alla perdita di coscienza e se il livello sanguigno di alcol raggiunge il livello di 0.5% si va incontro al rischio di decesso per collasso respiratorio. Infatti le tipiche guance rosse sono un segno rivelatore della dilatazione dei vasi sanguigni cutanei : questa dilatazione aumenta la quantità di calore che viene persa dal corpo con il conseguente abbassamento della temperatura corporea (ipotermia). L’alcol ha anche un 111 effetto diuretico, ossia aumenta la produzione renale di urina. Anche la dipendenza all’alcol come la nicotina ha una forte componente genetica. Anche l’alcol produce tolleranza e dipendenza fisica ed uno degli organi che risente maggiormente dell’assunzione protratta ed elevata di alcol è il fegato, che nei grandi bevitori metabolizza l’alcol più rapidamente rispetto ai non bevitori. Ma questo aumento metabolico contribuisce in minima parte alla tolleranza che è per lo più funzionale. Spesso la sospensione dell’assunzione di alcol provoca una leggera sindrome, chiamata and over, caratterizzata da nausea, mal di testa, vomito e tremori. Una sindrome da astinenza da alcol grave è composta da tre fasi: la prima fase comincia dopo 5/6 ore dalla sospensione di un lungo periodo di pesante assunzione di alcol e provoca forti tremori, agitazione, mal di testa, nausea, vomito, crampi addominali, sudorazione e talvolta allucinazioni. La seconda fase che in genere comincia dopo 15/30 dalla sospensione consiste in una attività convulsiva. La terza fase che di solito comincia dopo uno o due giorni viene chiamata delirium tremens, e comporta agitazione allucinazioni, confusione, ipertermia, forti tremori e tachicardia. Questa fase può durare anche 4 giorni e condurre alla morte. L’alcol attacca quasi tutti i tessuti corporei e il suo uso prolungato produce ampi danni cerebrali e porta alla sindrome di Korsakoff un disturbo caratterizzata da una grave perdita di memoria, disturbi motori e sensoriali e grave demenza. Inoltre provoca un vasto danneggiamento del fegato, detto cirrosi, che rappresenta la principale causa di morte nei grandi bevitori, lede il muscolo cardiaco aumentando il rischio di infarto, irrita la mucosa del tratto digestivo aumentando il rischio di cancro alla bocca e al fegato, di ulcera gastrica e di pancreatite e gastrite. Sono da sottolineare anche gli incidenti automobilistici e la violenza domestica come conseguenza degli effetti nefasti dell’alcol. Come la nicotina l’alcol attraverso la placenta e influenza il feto, con la conseguenza che i bambini nascono affetti da un disturbo noto come la sindrome alcolica fetale, che comporta danni cerebrali, ritardo mentale, coordinazione impoverita, ipotonia muscolare, basso peso alla nascita, ritardo nella crescita e deformazioni fisiche. L’alcol nei bevitori influenza il funzionamento del cervello in vari modi: riduce l’afflusso degli ioni calcio nei neuroni, provoca l’apoptosi, interferisce con la funzione dei secondi messaggeri nei neuroni e compromette la trasmissione dei recettori GABA. Un’altra sostanza di abuso è la marijuana che è il nome che si attribuisce alle foglie e ai fiori secchi della cannabis sativa, la pianta da canapa comune. Di solito viene consumata fumandone le foglie in uno spinello o in una pipa, ma è efficace anche se ingerita dopo averla cotta in un substrato ricco di olio. Gli effetti psicoattivi della marijuana sono attribuibili al suo componente detto THC (delta 9 tetraidrocannabinolo) ma la marijuana contiene anche altri 80 cannabinoidi della stessa classe del THC che hanno effetto psicoattivi. La maggior parte dei cannabinoidi si trova in una resina viscosa che ricopre le foglie e i fiori della pianta e possono essere estratti ed essiccati per formare una sostanza scura e simile al sughero chiamata hashish, che può essere lavorato ulteriormente per formare un prodotto molto potente che è l’olio di hashish. Sono state emanate molte leggi contro l’uso della marijuana in molti stati dove è stata classificata come narcotico (un termine in genere riferito agli oppiacei) e di conseguenza sono state stabilite delle pene. Bisogna dire comunque che la struttura della marijuana e i suoi effetti fisiologici e comportamentali non hanno niente in comune con quelli degli altri narcotici. La popolarità del fumo della marijuana, che si è diffusa nelle classi medie e alte soprattutto negli anni 60, ha dato vita in quegli anni a numerose ricerche soprattutto per quanto riguarda gli effetti che sono altamente influenzabili dal contesto sociale. Le dosi sociali in genere sono basse e in queste situazioni la marijuana produce un senso di benessere, e alla iniziale sensazione di irrequietezza e ilarità segue quella di rilassamento, alterazione delle percezioni sensoriali, maggiore vividezza delle sensazioni tattili, visive, olfattive, gustative, uditive, sensazioni di fame in particolare di dolci e mutamenti nella elaborazione del pensiero e nell’espressione linguistica. Con dosi molte alte assunte per via orale, quindi fumando rapidamente più spinelli, si ha l’intensificazione dei sintomi appena detti e la comparsa di altri sintomi come il peggioramento della memoria a breve termine, diventa difficile eseguire compiti che comportano una serie di passi per raggiungere l’obiettivo, il linguaggio è disarticolato, c’è un senso di irrealtà, di distorsione sensoriale e di impaccio motorio, anche se bisogna dire che la marijuana proprio perché 112 induce uno stato di rilassamento ostacola il comportamento aggressivo. Ciò ha contrastato le affermazioni iniziali secondo cui la marijuana avrebbe scatenato ondate di criminalità fra i giovani. Sicuramente è comunque una sostanza che comporta rischi anche a livello di salute come danni polmonari ma anche altri disturbi rispetto ai quali si hanno però prove indirette e incomplete come abbassamento plasmatico di testosterone negli uomini, riduzione della funzionalità del sistema immunitario, problemi cardiovascolari e sindrome amotivazionale ossia quando una persona appare priva di motivazione nel comportamento. Il potenziale di dipendenza della marijuana è basso : alcune persone la usano occasionalmente e la maggior parte di coloro che ne fanno uso in gioventù ne riducono il consumo dopo 30/40 anni. La tolleranza alla marijuana si sviluppa invece nei periodi di uso prolungato e i sintomi di astinenza, come nausea, sudorazione, tremori, disturbi del sonno, compaiono solo quando vengono somministrate massicce dosi per via orale. La marijuana ha comunque degli effetti benefici dal punto di vista clinico, ha la capacità di bloccare la nausea prodotta dalla chemioterapia nei pazienti affetti da cancro, infatti il nabilone che è una sostanza chimica analogo alla cannabis viene prescritto durante la chemioterapia. Può essere inoltre utile durante le crisi epilettiche perché dilata i bronchioli aiutando la ripresa della respirazione e cosi anche nei casi di asma e può diminuire la gravità del glaucoma che è una malattia caratterizzata dall’aumento della pressione endo-oculare. Per esercitare i propri effetti si pensa che il THC presumibilmente si leghi a dei recettori particolarmente numerosi nei gangli della base, nell’ippocampo, nel cervelletto e nella neocorteccia. La cocaina è uno stimolante ossia una sostanza il cui effetto principale è quello di provocare un aumento generale dell’attività nervosa e comportamentale. Viene preparata utilizzando le foglie della pianta di coca che cresce in Perù e in Bolivia. L’estratto grezzo si chiama pasta di coca e viene preparato dalle foglie, da cui poi si estrae l’idroclorato di cocaina che è la tipica polvere bianca inodore che viene semplicemente chiamata cocaina che viene consumata di solito sniffandola o iniettandola. L’idroclorato di cocaina può anche essere trasformato nella sua forma base bollendolo in una soluzione di bicarbonato di sodio finchè non evapora. Il crack invece è un prodotto impuro largamente usato in quanto poco costoso ma molto potente. L’idroclorato di cocaina è un efficace anestetico locale che una volta veniva prescritto a questo scopo ma che in seguito fu sostituito dalla procaina e dalla lidocaina. Ma non è per questo comunque che la maggior parte delle persone la usano. La cocaina infatti viene assunta per provare i suoi effetti psicologici: produce uno stato di benessere, chi la usa si sente più fiducioso di se stesso, pronto, pieno di energia, amichevole, estroverso, e inoltre avvertono meno del solito il bisogno di cibo e di sonno. I consumatori di cocaina tendono a frequentare cocaina sprees ossia feste a base di cocaina durante le quali vengono mantenuti livelli molto alti di assunzione della sostanza per periodi da uno a due giorni. Ciò porta i consumatori ad essere sempre più assuefatti alla droga con il conseguente aumento delle dosi assunte per mantenere il livello di euforia iniziale. Di solito la festa finisce quando la droga è finita o quando si raggiungono livelli di grave intossicazione. Infatti alti livelli di cocaina ematica possono portare a sonnolenza, nausea, tremori ipertermia e un comportamento psicotico che prende il nome di psicosi da cocaina. Ma durante queste feste c’è anche il rischio di crisi epilettiche, perdita di coscienza e morte per arresto respiratorio o ictus. L’inalazione di cocaina danneggia le mucose nasali mentre il fumo di cocaina danneggia i polmoni, ma casi letali sono dovuti ad overdose frequente con le iniezioni endovenose. Anche se la cocaina crea una forte dipendenza, i sintomi dell’astinenza sono blandi e in genere quelli comuni sono sbalzi d’umore e insonnia. Si ritiene che la cocaina eserciti i suoi effetti facilitando la trasmissione catecolaminergica. Oltre alla cocaina e ai suoi derivati fra gli stimolanti di cui si abusa e che provocano gravi danni alla salute ci sono anche le anfetamine, fra cui la d-anfetamina, la metanfetamina e l’ecstasy. Le donne che usano stimolanti durante la gravidanza tendono ad avere bambini con QI bassi. Infine abbiamo gli oppiacei. L’oppio è la sostanza che si estrae dai semi di papavero da oppio e contiene molte sostanze psicoattive fra cui le più importanti sono la morfina e la codeina che insieme ad altre droghe analoghe sono chiamate oppiacei. Questi hanno una doppia natura: da un lato sono analgesici molto potenti efficaci nel trattamento della tosse e della diarrea, dall’altro comportano il rischio della dipendenza. L’assunzione di 113 oppio si fa risalire più o meno al 4000 avanti cristo e tre eventi hanno alimentato la dipendenza ad esso : primo l’imperatore della Cina nel 1644 vietò l’uso del tabacco portando molti fumatori all’uso, sempre maggiore, dell’oppio; secondo nel 1803 da questo venne isolata la morfina che divenne disponibile in commercio; terzo nel 1856 fu inventato l’ago ipodermico e i soldati feriti provarono la morfina per iniezione (in questo periodo la dipendenza da morfina era nota come malattia dei soldati). Fino alla fine dell’800 l’oppio era disponibile legalmente ed era usato in molte parti del mondo come in Europa e in NordAmerica dove veniva venduto sotto forma per esempio di dolci e liquori e anche come prodotto medicinale senza ricetta. Dal 1914 L’Harrison Narcotic Act ha reso illegale la vendita e l’uso dell’oppio, della morfine e della cocaina, senza includere però l’eroina che è un oppiaceo semisintetico. L’eroina è stata sintetizzata nel 1870 partendo dalla molecola di morfina e aggiungendo due gruppi acetilici, la qual cosa aumentava enormemente la capacità di superare la barriera ematoencefalica. L’eroina alla fine dell’800 era commercializzata dalla Bayer senza prescrizione ed era pubblicizzata come una super aspirina. Alcuni test avevano dimostrato che essa aveva effetti analgesici più potenti della morfine e minore probabilità di provocare nausea o vomito. Inoltre la Bayer sulla base di prove incerte sostenne che l’eroina non provocava dipendenza. Fu sulla base di queste affermazione che la Harrison Narcotic Act non la incluse nella legge di divieto di vendita e uso, per cui molti tossicodipendenti passarono cosi all’uso dell’eroina. Gli oppioidi producono il rush dopo una iniezione endovenosa, ossia un’onda di intenso piacere addominale simile ad un orgasmo che produce uno stato di euforia serena e sonnolenta. Questi sono gli effetti iniziali che spingono ad usare la droga sempre più frequentemente fino ad arrivare ad una condizione in cui si rimane sotto l’effetto della droga per molto tempo da cui si sviluppano dipendenza fisica ed assuefazione che induce ad aumentare le dosi o a passare a vie di somministrazione più dirette come l’iniezione endovenosa. I rischi per la salute connessi agli oppiacei sono costipazione, costrizione pupillare, irregolarità del ciclo mestruale, riduzione della libido. La sindrome da astinenza da oppiacei comincia in genere dopo sei dodici ore dopo l’ultima dose e la persona comincia ad apparire agitata, occhi rossi, sudorazione, sbadigli, cade in un sonno inquieto, detto iem, che può durare qualche ora e al suo risveglio può avvertire brividi di freddo, pelle d’oca, nausea, vomito, diarrea, crampi, dolori. Questi sintomi si aggravano dopo 2-3 giorni per poi sparire quasi del tutto dopo circa 7 giorni. I principali rischi della dipendenza agli oppiacei non derivano dalla droga in se, ma dal fatto che queste droghe sono costose ed il soggetto spesso conduce una vita di povertà e piccoli crimini, sono malnutriti, ricevono cure insufficienti, si prostituiscono, con il rischio di contrarre AIDS ed altre infezioni sessuali o conseguenti l’uso di aghi non sterilizzati. Gli oppiacei sembrano esercitare i loro effetti legandosi a recettori particolari che legano con sostanze endogene dette endorfine. La terapia più diffusa per la dipendenza da eroina è il metadone, anch’esso un oppiaceo ma con effetti meno potenti rispetto all’eroina. Steroidi anabolizzanti Gli steroidi anabolizzanti sono farmaci steroidi, come il testosterone, con effetti anabolizzanti (stimolanti la crescita). Il testosterone non è molto utile come farmaco anabolizzante perché viene scisso rapidamente dopo l’iniezione e a causa dei suoi effetti secondari indesiderati. Anche se sono stati sintetizzati diversi anabolizzanti a lunga azione tutti producono effetti collaterali. Al giorno d’oggi sono molti i giovani che fanno uso di anabolizzanti, soprattutto fra gli atleti, per aumentare la propria massa muscolare e la propria forza. Ricerche fatte in tal senso non hanno potuto però finora confermare questi effetti sulle prestazioni, effettivamente migliori, di chi ne fa uso, soprattutto perché la quantità di steroidi utilizzate negli studi sperimentali erano molto inferiori a quelle usate dagli atleti e per meno tempo, ed inoltre avevano come soggetti sperimentali individui che non erano coinvolti in allenamenti intensivi. Vi è però un certo accordo sul fatto che chi fa uso di forti dosi di steroidi anabolizzanti va incontro a problemi sessuali. Il feedback negativo da alti livelli di steroidi anabolizzanti riduce il rilascio di gonadotropine che può condurre ad una riduzione nel rilascio di testosterone da parte dei testicoli, ad atrofia testicolare, a sterilità, e a volte anche alla crescita dei seni (ginecomastia) probabilmente come 114 risultato dell’aromatizzazione degli steroidi in estrogeno. Nelle donne può indurre invece amenorrea (scomparsa delle mestruazioni), sterilità, irsutismo (crescita dei peli), crescita del clitoride, sviluppo di una struttura maschile, riduzione del seno e ingrossamento della voce. Sia gli uomini che le donne possono inoltre soffrire di spasmi e dolori muscolari, acne, emorragie dalla lingua, nausea, vomito, attacchi di depressione e rabbia. Gli steroidi anabolizzanti orali sono inoltre causa di tumori al fegato. Per quanto riguarda gli effetti comportamentali degli steroidi anabolizzanti alcuni studi hanno sottolineato l’effetto dell’aggressività. Bisogna tenere presente però alcuni fattori che potrebbero alterare queste osservazioni, nel senso che poiché molta gente crede che il testosterone sia collegato all’aggressività, gli effetti aggressivi osservati in chi fa uso di anabolizzanti potrebbero derivare dalle aspettative, oppure che molti individui che fanno uso di steroidi anabolizzanti potrebbero essere aggressivi già prima del loro uso, oppure ancora che il comportamento aggressivo potrebbe essere una conseguenza dell’aumento della massa muscolare. Non ci sono indicazioni sul fatto che l’uso prolungato di alte dosi di steroidi migliori o dia un nuovo impulso al comportamento sessuale, ma ci sono informazioni sugli effetti distruttivi in coloro che ne fanno uso. In ogni caso finora la ricerca sugli esseri umani relativa agli effetti degli steroidi anabolizzanti è stata effettuata sugli adulti, mentre l’uso di steroidi in età puberale può produrre effetti nocivi duraturi. Anche se l’estradiolo è noto soprattutto per i suoi effetti sul comportamento sessuale questo ormone può anche ridurre i danni cerebrali provocati da ictus e disturbi neurovegetativi. Ad esempio è stato dimostrato che l’estradiolo somministrato prima, durante e subito dopo l’insorgere di una ipossia cerebrale (riduzione di ossigeno al cervello) riduce in modo significativo i danni cerebrali. L’estradiolo inoltre riduce l’infiammazione, favorisce la rigenerazione assonale e promuove la sinaptogenesi e la neuro genesi negli adulti aumentandone la probabilità di sopravvivenza. Alcuni esperimenti basati su iniezioni di sostituzione di estradiolo su ratti hanno dimostrato che iniezioni a basso dosaggio facilitano la memoria di lavoro mentre ad alto dosaggio la compromettono. La scoperta delle proprietà neuro protettive dell’estradiolo spiega la maggiore longevità delle donne, la minore incidenza nelle donne di disturbi come il morbo di Parkinson e il declino di alcune funzioni cognitive dopo la menopausa. Nelle preferenze e nel comportamento sessuali un ruolo fondamentale è svolto dalla cultura e dall’esperienza, ma vi è anche una regolazione nervosa del comportamento sessuale che si suppone dovuta all’ipotalamo. La scelta di concentrare le ricerche quasi esclusivamente sui circuiti dell’ipotalamo nasce sia dalla difficoltà di studiare i meccanismi nervosi dei comportamenti sessuali complessi dell’uomo che spinge i ricercatori a focalizzarsi sui comportamenti copulatori più semplici e controllabili che tendono ad essere controllati dall’ipotalamo, sia dal fatto che l’ipotalamo controlla il rilascio delle gonadotropine e sia perché i primi studi hanno confermato che l’ipotalamo ha un ruolo fondamentale nel comportamento sessuale. L’ipotalamo maschile e femminile si differenziano non solo funzionalmente per il controllo dell’ipofisi anteriore (secrezione stabile nei maschi e ciclica nelle femmine) ma anche strutturalmente perché è stato riscontrato mediante esperimenti su ratti che vi è un nucleo nell’ipotalamo maschile più grande di quello femminile. Tale nucleo venne chiamato nucleo sessualmente dimorfo. La crescita di tale nucleo è determinata dall’estradiolo aromatizzato dal testosterone. Le dimensioni dei nuclei sessualmente dimorfi nel ratto maschio sono correlate ai livelli di testosterone e alla sua attività sessuale, anche se comunque la loro funzione non è chiara perché lesioni di questo nucleo hanno effetti inibitori lievi sul comportamento sessuale dei ratti maschi. Anche nell’uomo si è riscontrato che vi sono nuclei nelle regioni preottica ed anteriore dell’ipotalamo che sono maggiore nei maschi rispetto alle femmine. La distruzione dell’area preottica mediale dell’ipotalamo sopprime il comportamento sessuale del maschio di molte specie e la distruzione del nucleo sessualmente dimorfo riduce il comportamento sessuale dei maschi di tutti i mammiferi studiati. Al contrario stimolazioni elettriche dell’area preottica mediale inducono il comportamento copulatorio nei maschi dei ratti. L’area preottica mediale sembra controllare il comportamento sessuale dei maschi attraverso un fascio che proietta ad un’area del mesencefalo denominata campo laterale del tegmento, implicata anche in alcuni aspetti del comportamento copulatorio. 115 E’ stato osservato che c’è una regolazione complessa del comportamento alimentare e sessuale nell’essere umano e si riscontrato che gli ormoni che regolano il comportamento sessuale sono coinvolti anche nel bilancio energetico dell’organismo quindi sono in grado di regolare direttamente o indirettamente i centri ipotalamici che regolano il comportamento alimentare. E’ stato dimostrato che diversi neurormoni coinvolti nella regolazione centrale del comportamento sessuale sono coinvolti anche nella regolazione del comportamento alimentare. Studi sulla trasmissione neurochimica cerebrale in diversi animali hanno evidenziato che sia le monamine , che i neuro peptidi, che gli ormoni hanno un ruolo determinante nel controllare l’assunzione di cibo, l’appetito verso determinati elementi, il comportamento alimentare, il metabolismo energetico e l’aumento di peso corporeo. Per cui è stata formulata l’ipotesi che questi segnali biochimici siano altrettanto importanti nella regolazione del comportamento alimentare nell’uomo e che una mancata regolazione di questi meccanismi possa essere alla base di disturbi noti come bulimia e anoressia. Per quanto riguarda le strutture cerebrale coinvolte l’ipotalamo è ritenuto la struttura più sensibile a manipolazioni di neurotrasmettitori che portano all’assunzione del cibo. Infatti si ritiene che il centro della fame si trovi nell’ipotalamo laterale e il centro della sazietà nell’ipotalamo ventromediale. La teoria della regolazione dell’omeostasi del metabolismo basata su questi due centri è stata poi ulteriormente approfondita : si è visto ad esempio che l’ipotalamo ventromediale non è solo il centro della sazietà ma eventuali alterazioni neurofunzionali e neuroanatomiche di questa struttura porta anche ad un aumento dell’introito calorico con accumulo di grasso, e all’inibizione della lipolìsi (scioglimento di grassi). Quindi animali che non hanno quest’area hanno un appetito vorace perché devono mantenere un rilascio stabile di energia dell’intestino per far fronte ad un aumento del fabbisogno energetico totale. Quando si sviluppa obesità gli adipociti sviluppano resistenza all’insulina e quindi c’è un aumento nell’assunzione di cibo e quindi di peso. Fra questi neuro trasmettitori che influenzano l’assunzione di cibo possiamo citare l’norepinefrina, l’acido gammaminobutirrico, il fattore rilasciante l’ormone somatotropo, gli oppioidi e la gramina, mentre l’azione inibitoria sull’assunzione di cibo prolungata è svolta dalle monoamine, come serotonina, dopamina, noradrenalina e colecistochinina che influisce sui processi della digestione. In particolare sono stati individuati due ormoni che hanno effetti modulatori sull’assunzione di cibo e l’uso del glucosio che sono il corticosterone e l’insulina. Un’azione inibitoria è svolta invece dalla proteina Y che viene prodotta nelle cellule dei neuroni del nucleo arcuato e rilasciata da proiezione assoniche del nucleo paraventricolare. Il peso corporeo è generalmente legato al bilancio fra l’introito calorico e la spesa energetica (attività fisica e matabolica). La teoria lipostatica su cui si fonda tale concetto e che è quella comunemente accettata ritiene che un fattore circolante rilasciato dal tessuto adiposo in modo proporzionale alla quantità di grasso presente possa regolare a sua volta con un meccanismo di feedback l’attività dell’ipotalamo in modo da inibire l’assunzione di elementi e stimolare il consumo energetico quando c’è un eccesso di grasso depositato. Al contrario una diminuzione di massa grassa porta ad una minore secrezione di questo fattore determinando un’attività ipotalamica volta a ripristinare i depositi energetici, ad aumentare l’assunzione di elementi e a ridurre il consumo energetico. Diversi studi farmacologici eseguiti negli animali e anche nell’essere umano hanno evidenziato effetti simili da parte di antidepressivi, da parte di antipsicotici, stimolanti e peptidi sul comportamento alimentare e portano a ritenere che i neurotrasmettitori agiscano sinergicamente nel controllare in qualche modo l’assunzione di cibo, l’appetito verso più nutrienti e l’aumento di peso corporeo. Considerando il ruolo dell’ipotalamo mediale e laterale nella fame e nella sazietà è possibile ritenere che la nascita di patologie di disturbi alimentari possa ricondursi a disturbi specifici a livello neurale o della funzione biochimica dell’ipotalamo. Queste ipotesi trovano conferme in studi che hanno riscontrato concentrazioni patologiche dei diversi neurotrasmettitori nel liquor cerebrale di pazienti con anoressia nervosa e bulimia. Nel caso della bulimia c’è una diminuzione nel rilascio di serotonina intracerebrale con conseguente aumento dell’attività della noradrenalina. Le pazienti bulimiche hanno un elevato aumento di livelli di proteina Y e molte evidenze suggeriscono che ci sia una correlazione fra livelli di proteina Y, 116 l’esordio della pubertà e sviluppo del comportamento alimentare. Il contenuto ipotalamico della proteina Y aumenta dalla nascita alla pubertà momento in cui i livelli di questo peptide nel sangue portale raggiungono un picco massimo di aumento, e in questo periodo c’è un aumento nella ricerca di cibi basati su carboidrati. Questo sembra suggerire un collegamento fra eventi comportamentali alimentari e riproduttivi. I livelli di proteina Y nel liquor sono risultati alterati nelle pazienti anoressiche sia prima che dopo la ripresa del peso. E’ possibile che un’attività anomala nella produzione e rilascio di questo peptide determini il legame fra comportamento alimentare alterato e assenza del ciclo mestruale. E’ importante inoltre sottolineare che alcuni neuro peptidi hanno un ruolo chiave nel comportamento sessuale ma influenzano nel modo opposto il comportamento alimentare, ad esempio l’ossitocina e la proteina Y. Questa diversità di effetti è stata spiegata con una ipotesi filogenetica cioè il fatto che nelle specie animali che vivono in habitat marginali i comportamenti siano orientati al massimo risparmio, quindi mentre si cerca il cibo l’animale non si riproduce e viceversa : questo fatto potrebbe essere sostenuto da un meccanismo biochimico comune. Durante situazioni di pericolo entrambi i comportamenti sono soppressi per permettere la reazione di allarme, fuga o combattimento. Infatti si è visto che il peptide CRH che media la risposta allo stress è un inibitore sia del comportamento sessuale che alimentare. Metodi di studio La maggioranza dei metodi utilizzati per studiare il cervello sono utilizzati anche a scopi clinici sia per la diagnosi che per la cura. Prima degli anni 70 la ricerca in psicobiologia era ostacolata dall'impossibilità di ottenere immagini del cervello umano in vivo. A questo fine la radiografia tradizionale a raggi X è di scarsa utilità. Questo metodo si basa sul passaggio di un fascio di raggi X attraverso un oggetto e quindi su una lastra fotografica; ciascuna delle molecole dell'oggetto assorbe una certa quantità di radiazione mentre la parte non assorbita impressione la lastra fotografica. La radiografia standard a raggi X è pertanto adatta a visualizzare quelle strutture interne che differiscono nettamente dalle regioni adiacenti nella capacità di assorbire radiazioni X, ad esempio il tessuto osseo rispetto all'adiacente tessuto muscolare. Tuttavia le diverse strutture che compongono il cervello differiscono solo minimamente le une dalle altre nel grado di assorbimento di raggi X con la conseguenza che questa tecnica non da alcuna informazione utile sulla forma delle singole strutture cerebrali. Le tecniche di radiografia con mezzi di contrasto sono comunque molto usate. Tale tecnica consiste nell'iniettare in una regione corporea una sostanza che assorbe i raggi X (radiopaca) a un livello minore o maggiore dei tessuti circostanti. La sostanza radiopaca aumenta il contrasto fra la r'area che si vuole studiare ed il tessuto cerebrale circostante. Una di queste tecniche è l'angiografia cerebrale. E' una procedura idonea a visualizzare il sistema circolatorio cerebrale mediante l'iniezione di una sostanza radiopaca direttamente in un'arteria cerebrale prima di eseguire una radiografia a raggi X. Gli angiogrammi cerebrali sono molto utili per localizzare un danno vascolare; inoltre lo spostamento di alcuni vasi cerebrali dalla loro posizione normale può indicare la presenza di un tumore cerebrale. Nei primi anni 70 lo studio del cervello umano in vivo fu rivoluzionato dall'introduzione della TAC (tomografia assiale computerizzata) che consiste in una procedura radiografica computerizzata che consente di visualizzare il cervello e altri organi interni in vivo. Questa procedura fornisce una serie di radiografie di sezioni orizzontali del cervello vivente che viste in sequenza ricompongono la struttura tridimensionale. Il paziente giace con la testa in un grande cilindro su un lato del quale c’è un tubo che proietta un fascio di raggi X attraverso la testa del paziente contro un rilevatore di raggi X montato sul lato opposto del cilindro. Il tubo a raggi X ed il rilevatore vengono ruotati attorno alla testa del paziente ad un determinato livello del cervello e durante questa rotazione effettuano una serie di rilevazioni singole che poi combinate da un calcolatore danno le immagini di una sezione orizzontale detta SCAN, poi tubo e rilevatore vengono spostati lungo l’asse verticale del corpo del paziente ad un altro livello del cervello, e si ripete questo processo per circa 8-9 volte fino ad avere 8-9 sezioni orizzontali. La TAC ha stimolato lo sviluppo di altre tecniche per ottenere immagini in vivo dell'interno del corpo. Fra queste tecniche troviamo la risonanza magnetica (RM) che 117 fornisce immagini del cervello più precise e chiare rispetto alla TAC. In questo metodo l'elevata risoluzione spaziale delle immagini è ottenuta dalla misura delle onde emesse dagli atomi di idrogeno del cervello attivati da onde di radiofrequenza in un campo magnetico. Oltre a fornire una risoluzione spaziale migliore(facoltà di individuare le differenze a livello spaziale), l RM produce immagini sia bidimensionali che tridimensionali del cervello con zone colorate che indicano le aree cerebrali maggiormente attivate durante un determinato compito. La tomografia a emissione di positroni (PET) è una metodica di visualizzazione in vivo del cervello più recente è molto usata in psicologia fisiologica. La PET fornisce informazioni sull'attività metabolica (funzionale) del cervello. Nella metodica PET più diffusa si inietta nell'arteria carotide del soggetto, da cui dipende gran parte della vascolarizzazione dell'emisfero cerebrale ipsilaterale, 2-desossiglucosio radioattivo (2-DG). A causa della sua somiglianza con il glucosio, fonte energetica principale delle cellule cerebrali, il 2-DG è rapidamente assorbito dai neuroni funzionalmente più attivi e quindi più bisognosi di energia. Tuttavia il 2-DG non può essere metabolizzato a differenza del glucosio e si accumula nei neuroni finchè non viene man mano scisso ed eliminato. La PET evidenzia le aree cerebrali attive in cui si accumula la maggior quantità di radioattività. Cosi se la PET viene eseguita mentre un soggetto è impegnato ad esempio in un compito di lettura per circa un minuto dopo l'iniezione di 2-DG, l'immagine risultante evidenzierà le aree cerebrali più attive durante quel particolare compito. Di solito sono evidenziate diverse sezioni del cervello per poter valutare meglio l'attività cerebrale complessiva. Le immagini della PET non mostrano il cervello ma una mappa colorata della quantità di radioattività in ogni voxel, ovvero volume pixel la più piccola parte di un'immagine tridimensionale, che compone l'immagine; si può quindi solo stimare come ciascun voxel si colloca dentro una specifica struttura cerebrale. Recentemente la tecnica della RM è stata applicata allo studio dell’ attività funzionale del cervello. La risonanza magnetica funzionale (RMF) evidenzia le aree cerebrali attive in cui c’è un aumento di flusso ematico e quindi di ossigeno. La RMF presenta 4 vantaggi rispetto alla PET: 1) non è necessario che si inietti alcuna sostanza nel sistema circolatorio del soggetto; 2) fornisce nella stessa immagine informazioni sia funzionali che morfologiche; 3) la sua risoluzione spaziale è più elevata; 4) consente di ottenere immagini tridimensionali dell’attività di tutto il cervello. La RMF illustra l’attività di superficie, ma si possono ottenere anche immagini di sezioni interne del cervello. Un’altra tecnica per registrare l’attività cerebrale è la magnetoencefalografia (MEG) che misura le variazioni di campi magnetici sulla superficie del cuoio capelluto prodotti da cambiamenti dell’attività elettrica del cervello. Il vantaggio principale rispetto alla RMF è la sua risoluzione temporale . infatti può registrare cambiamenti dell’attività nervosa molto rapidi. Recentemente molto importante è stata la messa a punto di un archivio di immagini del cervello. In ogni articolo vengono infatti pubblicate soltanto alcune immagini riassuntive e le numerose e complesse variazioni dovute all’elaborazione dei dati rendono impossibile ai ricercatori paragonare i risultati degli studi pubblicati con le proprie ricerche. Molti ricercatori attualmente raccolgono comunque i loro dati in un archivio di immagini del cervello a cui hanno accesso anche altri studiosi; in questo modo è possibile attingere all’insieme dei dati di un determinato studio e poi confrontare tali dati con i propri oppure combinarli. La PET, la RMF e la MEG presentano tutte gli stessi limiti ovvero possono essere utilizzati per mostrare una correlazione tra l’attività cerebrale e l’attività cognitiva ma non possono dimostrare che tra loro c sia un rapporto causa-effetto. A questo scopo può essere invece utile la stimolazione magnetica transcranica (TMS); è una tecnica che consiste nell’interrompere l’attività in una data area della corteccia creando un campo magnetico con uno strumento chiamato coil posto sul cranio. La stimolazione magnetica disattiva temporaneamente una parte del cervello consentendo cosi di valutare gli effetti di questa disattivazione sulla cognizione e sull’apprendimento. Anche se questa tecnica è usata per studiare i meccanismi nervosi della cognizione, il suo potenziale non potrà essere sfruttato a fondo finché non si darà una risposta alle domande sugli effetti e sui meccanismi della disattivazione nervosa e sull’assenza degli effetti collaterali. Le modalità di misurazione più usate in psicofisiologia sono 5: una riguarda l’attività cerebrale (EEG registrato dal cuoio capelluto), due sono relative all’attività del sistema nervoso somatico ( stato di 118 tensione muscolare e movimenti degli occhi) e due riguardano il sistema nervoso autonomo ( conduzione cutanea e attività cardiovascolare). L’elettroencefalogramma (EEG) è una misura globale dell’attività elettrica del cervello. E’ registrato mediante larghi elettrodi a forma di disco di circa 1cm posti sul cuoio capelluto da uno strumento detto elettroencefalografo, mentre la ricerca viene detta elettroencefalografia. Esistono due tipi di registrazione: nella registrazione bipolare entrambi gli elettrodi sono posti su siti elettricamente attivi, mentre nella registrazione unipolare uno degli elettrodi è posto su un sito attivo mentre l’altro è collocato su un punto di relativa inattività elettrica (esempio lobo orecchio). Il segnale EEG riflette la somma di tutti gli eventi elettrici del cranio che includono potenziali postsinaptici e PA cerebrali come anche segnali elettrici della cute, muscoli, vasi ematici e occhio. La sua utilità clinica e di ricerca sta nel fatto che alcune onde EEG sono associati a determinati stati di coscienza o a specifiche condizioni patologiche cerebrali (come epilessia). Ad esempio le onde alpha, ampie onde regolari con frequenza pari a 8-12 cicli al secondo, sono indice di uno stato di veglia rilassata. Poiché il segnale EEG decresce in ampiezza man mano che si propaga dal suo punto di origine, un confronto dei segnali registrati fra punti differenti può a volte indicare l’origine di alcune onde particolari : per questo motivo si registra l’attività EEG simultaneamente da molti punti. In alcuni casi i ricercatori sono interessati più che altro alle onde EEG che accompagnano alcuni eventi psicologici che prendono il nome di potenziali evento correlati. Uno dei più comuni è il potenziale evocato sensoriale cioè la modificazione del segnale EEG indotto dalla momentanea presentazione di uno stimolo sensoriale. Il segnale EEG che segue ad uno stimolo sensoriale presenta due componenti : la risposta allo stimolo (segnale), che è la parte più importante di ogni registrazione, e la contemporanea attività di fondo (rumore). Il problema nella registrazione dei potenziali evocati sensoriali è proprio il rumore di fondo che di solito è tanto grande da oscurare il segnale evento-correlato. Di solito per attenuare il rumore di fondo si utilizza una procedura detta di signal averaging (media dei segnali) : innanzitutto vengono registrate molte volte le risposte EEG a uno stesso stimolo, poi il computer identifica in ciascun tracciato EEG il punto di inizio in cui è stato presentato lo stimolo acustico e calcola a partire da quel punto e per tutti i punti successivi il valore medio di tutte le registrazioni. Al termine di questa operazione il segnale medio evocato dallo stimolo apparirà più accentuato del rumore di fondo che invece viene cancellato dalla procedura di averaging. L’analisi dei potenziali evocati prende in considerazione i picchi o onde presenti nel tracciato EEG medio. Ciascuna onda si caratterizza per la sua direzione, positiva o negativa, e per la sua latenza. Le piccole onde che si registrano invece nei primi millisecondi dopo la presentazione di uno stimolo non sono influenzate dal fatto che lo stimolo sia o meno significativo per il soggetto. Queste onde sono dette potenziali troncoencefalici poiché sebbene registrati sul cuoio capelluto originano nei nuclei sensoriali del tronco cerebrale. Anche se l’elettroencefalografia ha un’ ottima risoluzione temporale ebbe inizialmente risultati modesti per quanto riguarda quella spaziale. Infatti si può valutare la fonte di un segnale solo in modo approssimativo. Le tecniche più recenti però sono in grado di localizzare la fonte più precisamente grazie a software molto più sofisticati e a numerosi elettrodi che consentono di codificare a colori l’ampiezza dei segnali EEG registrati sulla corteccia che viene poi tracciata sulla superficie di una immagine RMf tridimensionale. La procedura invece di solito usata per la misura dello stato di tensione muscolare è l’elettromiografia. Il tracciato che si registra è detto elettromiogramma (EMG). Ciascun muscolo scheletrico è composto da milioni di fibre muscolari filiformi. Ciascuna fibra si contrae in modo tutto o nulla quando è attivata dal motoneurone che la innerva. Ad ogni istante nel muscolo a riposo alcune fibre sono contratte partecipando cosi al mantenimento dello stato di tensione o tono muscolare. Quando molte fibre si contraggono contemporaneamente si ottiene un movimento. Le variazioni del tono muscolare sono di solito impiegate come indice dello stato di veglia attento (arousal psicologico). Nel linguaggio quotidiano per esempio si dice che le persone ansiose sono tese questo perché di solito manifestano alti livelli di tensione nei muscoli. Il segnale EMG si registra tra due elettrodi collocati sulla superficie cutanea sovrastante il muscolo in esame. Un aumento dello stato di tensione muscolare si riflette nella maggiore ampiezza del segnale EMG che dipende dal numero di fibre contratte. La maggior 119 parte degli studiosi non studia i segnali EMG grezzi ma li converte in una forma più facilmente analizzabile mediante un processo detto di integrazione del segnale. I segnali grezzi vengono inviati a un computer che calcola il numero di scariche EMG per una data unità di tempo. Le variazioni dell’attività EMG sono poi rappresentate graficamente secondo questa unità di tempo. Il risultato è una curva meno frastagliata la cui ampiezza è una misura continua del livello di tensione muscolare nel tempo. La tecnica di registrazione dei movimenti oculari è l’elettrooculografia ed il relativo tracciato è l’oculogramma. Tale tecnica si basa sull’esistenza di una differenza di potenziale stabile tra la parte anteriore (positiva) e quella posteriore (negativa) del globo oculare. I movimenti dell’occhio causano una variazione di questo potenziale (dipolo) che è rilevabile da elettrodi posti intorno all’occhio: quelli posti ai lati dell’occhio rilevano i movimenti oculari orizzontali, quelli posti in alto e in baso rilevano i movimenti verticali. Pensieri ed esperienze che suscitano emozioni sono associati ad aumenti di capacità di conduzione elettrica della cute. I due indici più comuni di attività elettrodermica sono il livello di conduttanza cutanea e la risposta di conduttanza cutanea. Il primo indice misura la conduttanza cutanea generale associata ad una particolare situazione, mentre il secondo è la misura della variazione transitoria della conduttanza cutanea che si associa ad un evento discreto. Numerosi dati sono a favore di un ruolo importante svolto dalle ghiandole sudoripare. Sebbene la funzione principale di queste ghiandole sia quella di raffreddare il corpo esse si attivano anche in situazioni ed esperienze che suscitano emozioni. Queste ghiandole sono distribuite sulla maggior parte della superficie corporea, ma quelle delle mani piedi ascelle e fronte rispondono in modo particolare a stimoli emozionali. Il sistema cardiovascolare comprende de parti: i vasi sanguigni ed il core. E un sistema per distribuire ossigeno e nutrienti alle varie tessuti del corpo, per rimuovere i prodotti del metabolismo, e trasmettere messaggi chimici (ormoni). In psicofisiologia sono usate tre diverse misure dell’ attività cardiovascolare :la pressione arteriosa, la frequenza cardiaca ed il volume sanguigno. La frequenza cardiaca : il segnale elettrico associato a ciascun battito può essere registrato mediante elettrodi applicati sulla regione pettorale. Il tracciato è detto elettrocardiogramma. La frequenza cardiaca media a riposo è di circa 70 battiti al minuto ma può aumentare rapidamente in situazioni di particolare emozione, tensione o altri stati emotivi. Pressione arteriosa: è definita da due misure indipendenti, il valore massimo di pressione o sistole raggiunto dal cuore durane la contrazione, e il valore di contrazione minima o diastole raggiunto nella fase di rilasciamento del cuore. La pressione arteriosa è data di solito dal rapporto fra pressione massima e minima misurata in mm di mercurio. A riposo i normali valori pressori di un adulto sono 130/70 mmHg. Valori pressori cronicament superiori 140/90 sono indice di una grave patologia cardiovascolare denominata ipertensione arteriosa. Di solito la pressione è misurata con lo sfigmomanometro, uno strumento composto da un manicotto che si avvolge attorno al braccio, una pompetta di gomma necessaria per gonfiarlo,ed una scala a mercurio necessaria per misurare la pressione nel manicotto. Volume sanguigno: alcuni eventi psicologici si associano a variazioni del volume sanguigno in particolari distretti corporei . Le tecniche per misurare queste variazioni del volume sanguigno in specifiche parti del corpo sono denominate pletismografia. Un metodo per calcolare queste variazioni consiste nell’avvolgere attorno all’organo in esame un misuratore elastico in grado di estendersi al variare del volume dell’organo. Tuttavia questo metodo si presta bene a misurare variazioni di volume sanguigno solo nelle dita e egli organi d forma simile. Un’altra tecnica pletismografica consiste nel far passare della luce nell’organo o nel tessuto in esame e quindi misurare la quantità di luce assorbita dal tessuto. Infatti tanto più il tessuto è irrorato dal sangue tanto maggiore sarà la quantità di luce assorbita. Lo studio del rapporto tra comportamento umano e cervello è frenato da una regola etica fondamentale che impedisce l’utilizzazione di tecniche che abbiano interazioni dirette con il cervello stesso. A tal riguardo metodi più diretti per lo studio del cervello vengono condotti su cavie ed appartengono alle seguenti categorie: metodi di lesione, metodi di stimolazione elettrica, e metodi di registrazione dell’attività neuronale. La chirurgia stereotassica rappresenta la prima fase di molti esperimenti di psicobiologia e costituisce il metodo attraverso il quale gli strumenti di ricerca sono posizionati a diretto contatto con il cervello. Per la chirurgia stereotassica sono necessari un atlante 120 stereotassico che fornisca le coordinate delle regioni cerebrali che si vogliono studiare e un apparato stereotassico che consenta di raggiungerle. Un atlante stereotassico permette di localizzare le strutture cerebrali allo stesso modo di un atlante geografico. Tuttavia c’è una importante differenza : La superficie terrestre richiede due coordinate mentre il cervello ne richiede tre. Pertanto gli alanti stereotassici sono formati di una serie di mappe successive ciascuna delle quali rappresenta la superficie bidimensionale di ogni singola sezione frontale del cervello. La distanza di ciascuna sezione viene poi misurata rispetto ad un punto di riferimento convenzionale ed espressa in millimetri. Ad esempio in alcuni atlanti stereotassici per ratti i riferimento standard è il bregma cioè il punto di intersezione sul cranio di due delle principali suture ossee. Un apparato stereotassico è formato da due parti: un fermatesta che mantiene il cervello dell’animale nella giusta posizione e orientamento, e un porta elettrodo che sorregge l’elettrodo da inserire nel cervello. Mediante un sistema meccanico di precisione l’elettrodo può essere mosso in tre direzioni: antero-posteriore, medio-laterale, ventro-dorsale. Metodi di lesione. Questo metodo consiste nel rimuovere o lesionare una regione del cervello e quindi studiare il comportamento dell’animale allo scopo di determinare la funzione della struttura lesionata. Fra i principali metodi di lesione troviamo:la lesione da aspirazione che rappresenta il metodo elettivo quando la lesione deve essere eseguita su un’area cerebrale che è facilmente accessibile agli strumenti del chirurgo. Il tessuto corticale è rimosso mediante una pipetta di vetro fornita di una punta sottile. Poiché la sostanza bianca è un po’ più resistente all’aspirazione rispetto alla sostanza grigia, il chirurgo esperto potrà rimuovere gli strati di tessuto corticale senza danneggiare la sostanza bianca ed i principali vasi sanguigni. Lesioni da radiofrequenza che sono di solito effettuate diffondendo corrente ad elevata frequenza dalla punta di un elettrodo posizionato steretassicamente nel tessuto in esame.’ Il calore prodotto dal passaggio della corrente a distruggere il tessuto. La forma e le dimensioni del lesione sono determinate dalla durata d intensità della corrente diffusa e dalla forma della punta dell’elettrodo. Resezione chirurgica che è il metodo usato per interrompere la conduzione nervosa in un nervo o in un tratto. Un sottile taglio può svolgere questo compito in modo preciso senza produrre danni estesi ai tessuti circostanti. Il blocco criogenico rappresenta una possibile alternativa per produrre lesioni nervose. Quando un liquido refrigerante è iniettato nel cervello da una sonda criogenica i neuroni in vicinanza della sonda si raffreddano e smettono di scaricare. La temperatura è mantenuta al di sopra del livello di congelamento evitando cosi danni strutturali al tessuto nervoso. Poi quando il tessuto è riscaldato le funzioni nervose riprendono normalmente. Un blocco criogenico equivale funzionalmente ad una lesione strutturale in quanto elimina il contributo di una particolare area del cervello nel determinare il comportamento del soggetto. Per questo motivo il blocco criogenico è spesso detto lesione reversibile. Lesioni reversibili possono anche essere prodotte dalla microiniezione di anestetici locali in specifici siti cerebrali come la lidocaina. Gli effetti delle lesioni cerebrali sono spesso ingannevoli e di difficile interpretazione perché le strutture cerebrali sono piccole e molto vicine le une alle altre tanto che anche un chirurgo esperto non può evitare di distruggere almeno parte del tessuto circostante all’area d lesione designata. Questo fatto viene però spesso trascurato. Per esempio una lesione che lascia intatte parti dell’amigdala ma lede una varietà di tessuti limitrofi viene chiamata lesione amigdaloidea, ma questa definizione può essere fuorviante per due motivi. Infatti si tenderà ad attribuire solo all’amigdala gli effetti comportamentali prodotti dalla lesione; inoltre se non si tiene conto che l’amigdala non è stata lesa completamente si concluderà erroneamente che questa struttura non svolge alcun ruolo in quei comportamenti su cui la lesione non ha avuto effetti. Lesioni bilaterali e unilaterali. Gli effetti comportamentali delle lesioni unilaterali, ovvero lesioni limitate ad un emisfero cerebrale, sono più lievi delle lesioni bilaterali simmetriche che interessano entrambi gli emisferi, in particolare negli animali. Poiché alcuni possono essere molto difficili da individuare, di conseguenza molte ricerche sperimentali sugli effetti delle lesioni si basano su analisi di lesioni bilaterali anzichè unilaterali. Informazioni sul funzionamento di una struttura nervosa possono essere ottenute dalla sua stimolazione elettrica. Questa tecnica è applicata attraverso due elettrodi bipolari, ovvero due elettrodi costituiti da due fili isolati, avvolti strettamente e 121 scoperti all’altezza della punta degli elettrodi. Il passaggio di una debole corrente attraverso l’elettrodo produce un immediato aumento della frequenza di scarica dei neuroni posti in prossimità della punta dell’elettrodo. La stimolazione elettrica del cervello è un importante strumento di ricerca in psicologia fisiologica poiché determina una varietà di effetti comportamentali in genere opposti a quelli prodotti da una lesione della stessa area. Può indurre per esempio comportamenti alimentari, di attacco, di sonno e sessuali. Il particolare effetto comportamentale dipenderà dalla diversa localizzazione cerbrale dell’elettrodo stimolante, dai parametri usati per la stimolazione, e dallo specifico contesto sperimentale. .Metodi di registrazione elettrofisiologica.Vi sono 4 metodi invasisi di registrazione elettrofisiologica. Registrazione intracellulare di singole unità che fornisce una misura continua delle variazioni graduali del potenziale di membrana neuronale. La gran parte degli esperimenti che utilizzano questo metodo sono condotti su animali immobilizzati farmacologicamente poiché è impossibile tenere la punta di un microelettrodo entro un neurone di un animale libero di muoversi. Registrazione extracellulare di singole unità attraverso la quale è possibile registrare le scariche di un neurone ponendo la punta di un elettrodo nel fluido extracellulare in prossimità della cellula. Ogni volta che un neurone scarica si potrà osservare un segnale sullo schermo di un oscilloscopio. Pertanto da questa registrazione si ottiene la misura del numero di PA ma non informazioni sl potenziale di membrana del neurone. Poiché è difficile registrare extracellularimente da un animale libero di muoversi, questa procedura viene realizzata con speciali elettrodi flessibili che si muovono leggermente in corrispondenza della arte di cervello studiata. Inizialmente tale tecnica consisteva nella registrazione di neurone per volta, ognuno con il suo proprio elettrodo ma ora è possibile registrare contemporaneamente segnali extracellulari che derivano da 100 e più neuroni analizzando le correlazioni fra i segnali raccolti dagli elettrodi inseriti in una stessa area. Registrazione di unità multiple. In questo tipo di registrazione la punta dell’elettrodo è più grande di quello usato nella registrazione per singole unità, in questo modo può rilevare l’attività complessiva di più neuroni. Più grande è la punta dell’elettrodi più sono i neuroni che contribuiscono al segnale. I PA rilevati dall’elettrodo sono inviati ad un circuito integratore che li somma e fornisce un tracciato che rappresenta il numero totale di PA nell’unità di tempo.. Registrazione eletroencefalografica invasiva che viene utilizzata nelle cavie registrando mediante elettrodi impiantati direttamente nel cervello e non sul cuoio capelluto. L’EEG corticale viene registrato di solito mediante viti di acciaio inossidabile infissi nel cranio, mentre per l’EEG sottocorticale il segnale è rilevato attraverso elettrodi impiantati stereotassicamente nelle strutture sottocorticali. Metodi di ricerca farmacologica. La principale strategia della ricerca psicofarmacologica è quella di somministrare farmaci che accrescono o riducono gli effetti di un articolare neurotrasmettitore e quindi osservare gli effetti sul comportamento. Nella maggior parte degli esperimenti con psicofarmaci, le sostanze farmacologiche sono somministrate attraverso uno dei seguenti modi : per via orale, per via intragastrica, ovvero mediante un catetere nello stomaco, per via intraperitoneale, ovvero iniettati nella cavità peritoneale dell’ addome, via intramuscolare, ovvero iniettati in un grande muscolo, via sottocutanea ovvero nel tessuto adiposo sottostante la cute, via intravenosa, cioè in una grande vena. La difficoltà con queste vie periferiche di somministrazione è che molti farmaci non passano la barriera emato encefalica. Per superare questo problema è possibile iniettare una piccola quantità di farmaco direttamente nel cervello attraverso un sottile ago detto cannula impiantato stereotassicamente nel cervello. Gli effetti delle lesioni chirurgiche elettrolitiche e criogeniche sono spesso difficili da interpretare perché distruggono tutti i neuroni di una data area. In alcuni casi è possibile eseguire lesioni più selettive iniettando neurotossine, ovvero sostanze che mostrano affinità per certe zone del sistema nervoso. Esistono numerose sostanze neurotossiche: l’acido cainico e l’acido ibotenico, introdotti mediante microiniezione che una volta assorbiti distruggono preferenzialmente i neuroni posti vicino alla punta della microcannula mentre risparmiano i neuroni i cui assoni attraversano l’area che è stata iniettata. Un’altra neurotossina selettiva molto usata è la 6-idrossidopamina che è assunta solo da quei neuroni che rilasciano dopamina o noradrenalina mentre risparmia gli altri tipi di neuroni. Esistono numerosi modi per misurare l’attività chimica del cervello delle cavie. Tra le più utili vi 122 sono : la tecnica del 2-desossiglucosio (2Dg) e la dialisi cerebrale. La tecnica del 2Dg consiste nel porre l’animale a cui è stato somministrato 2Dg radioattivo in una situazione sperimentale che lo impegna in un compito specifico. Poiché il 2Dg è assi simile al glucosio, principale risorsa energetica del cervello, i neuroni che si attivano durante lo svolgimento del compito assorbono il 2Dg ma non lo metabolizzano. L’animale viene quindi sacrificato ed il suo cervello sezionato. Le sezioni sono poste ad autoradiografia cioè vengono coperte con una emulsione fotografica, conservate al buio per qualche giorno e poi sviluppata come una normale pellicola. Le aree del cervello che hanno assorbito elevate concentrazioni di 2Dg appaiono nelle sezioni come macchie scure, la cui diversa densità può fornire informazioni sulla quantità di 2Dg assorbita da ciascuna area cerebrale. La dialisi cerebrale invece è un metodo per misurare nell’animale in vivo la concentrazione extracellulare di sostanze chimiche mentre le altre tecniche rendono necessaria l’uccisione dell’animale e l’estrazione dei tessuti. Questa tecnica consiste nell’impianto nel cervello di una piccola sonda che possiede una piccola sezione semipermeabile. Questa regione è posta in corrispondenza della struttura cerebrale di interesse in modo che le sostanze neurochimiche si diffondano all’interno del tubo. Possono poi essere estratte per venire congelate e conservate per le analisi, oppure trasportate da una soluzione che scorre all’interno della sonda direttamente a un cromatografo , ovvero uno strumento che misura la composizione chimica di liquidi e gas. Un punto importante nella comprensione del funzionamento di un determinato neurotrasmettitore è quello di individuare la sua localizzazione cerebrale. Due delle tecniche usate a questo scopo sono : l’immunoistochimica e l’ibridazione in situ. In entrambi i casi sezioni istologiche del cervello vengono esposte ad una sostanza marcata in grado di legarsi alla molecola in esame. Immunoistochimica. Quando una proteina non presente nel corpo del soggetto (antigene) è iniettata in un animale vengono creati anticorpi che si legano all’antigene distruggendolo o inattivandolo. Questo legame tra antigene e anticorpo viene detto reazione immunitaria. L’immunoistochimica è una tecnica per localizzare specifiche neuroproteine cerebrali prima marcando anticorpi specifici con elementi fluorescenti o radioattivi e poi esponendo le sezioni istologiche del tessuto cerebrale agli anticorpi marcati. Le regioni in cui si accumula il colorante fluorescente o la radioattività indicano la sede cerebrale della neuroproteina che si sta studiando. L’immunoistochimica può esser usata anche per localizzare i neurotrasmettitori legandoli ai loro enzimi. Ciò può essere fatto esponendo il tessuto cerebrale ad anticorpi che si legano ad enzimi presenti solo in quei neuroni che contengono il neurotrasmettitore di interesse.Ibridazione in situ. E’ un’altra tecnica che consente di localizzare nel cervello peptidi e altre proteine. Si basa sul fatto che tutti i peptidi e le proteine sono trascritti da precise sequenze nucleotidiche poste su tratti di RNA messaggero. Tale tecnica consiste nell’ottenere tratti di RNA ibrido,marcato con coloranti o sostanze radioattive, che presenta una sequenza di nucleotidi complementare a quella dell’RNA messaggero per la sintesi della neuroproteina in esame. Infine si espongono sezioni istologiche di tessuto cerebrale all’RNA ibrido marcato che si lega all’RNA messaggero permettendo cosi di localizzare i neuroni che sintetizzano la neuroproteina di interesse. Metodi di ricerca Per studiare la relazione fra cervello e comportamento in particolare la psicobiologia si avvale di numerosi approcci di ricerca che differiscono principalmente per tre aspetti: : il tipo di soggetti coinvolti (umani e non umani), il metodo utilizzato (sperimentale, correlazione o di casi clinici), e le finalità dello studio (ricerca pura o applicata). Come abbiamo detto i soggetti della ricerca possono essere umani o non umani. tra questi ultimi i più usati sono i ratti ma vengono usati anche topi, gatti, cani e primati non umani. I neuroni che compongono il sistema nervoso di diverse specie animali sembrano essere gli stessi e cosi pure i meccanismi con cui tali neuroni interagiscono come pure è simile la struttura del sistema nervoso e quindi può essere interessante un approccio comparativo sia per quanto riguarda le specie animali diverse sia tra specie animali e essere umano. Gli uomini presentano diversi vantaggi rispetto agli animali : sono per esempio in grado di eseguire rapidamente le istruzioni date e possono riferire le loro esperienze soggettive. Gli animali invece prevedono dei costi di laboratorio molto alti che non tutti i 123 centri di ricerca possono sostenere. Le differenze fra uomo e animale sono più quantitative che qualitative, e pertanto molti dei principi di funzionamento del cervello umano possono essere dedotti dallo studio di soggetti non umani che presentano tre vantaggi nella ricerca psicobiologica : 1) maggior semplicità del loro cervello e del loro comportamento, 2) l'approccio comparativo consente importanti intuizioni scientifiche, 3) possibilità di condurre ricerche che per ragioni etiche non sono effettuabili su esseri umani. In ogni caso anche la ricerca su animali è comunque regolata da un codice etico che presenta però minori limitazioni. La ricerca psicobiologica si avvale di studi sperimentali e non sperimentali che a loro volta si dividono in quasi sperimentali e casi singoli. Negli studi sperimentali l'esperimento è il metodo utilizzato dai ricercatori per scoprire le relazioni tra cause ed effetti Per condurre un esperimento su soggetti viventi lo sperimentatore prima di tutto definisce due o più condizioni sperimentali a cui sottoporre i soggetti. Di solito ciascun gruppo di soggetti è sottoposto ad una sola condizione sperimentale (confronto fra gruppi - disegno di ricerca intergruppi), ma a volte è possibile studiare lo stesso gruppo di soggetti in tutte le condizioni sperimentali (confronti entro i gruppi – disegno di ricerca intragruppo). Lo sperimentatore assegna i soggetti alle condizioni, somministra le prove e valuta i risultati in modo tale che ci sia una solo differenza di rilievo tra le condizioni sperimentali messe a confronto. Questa differenza è chiamata variabile indipendente, mentre la variabile misurata per valutare gli effetti della variabile indipendente è chiamata variabile dipendente. E' importante che la variabile indipendente rappresenti l'unica differenza poichè in caso contrario non sarebbe possibile stabilire con certezza se gli effetti della variabile dipendente siano stati prodotti dalla VI o da differenze causali e non controllate chiamate variabili confondenti o di confusione. Eliminare tali variabili confondenti spesso risulta molto difficile. Non è però possibile usare sempre il metodo sperimentale per esaminare tutti i problemi di interesse, poiché possono esserci limitazione etiche o fisiche che rendono impossibile assegnare dei soggetti a particolari condizioni sperimentali, come ad esempio condurre esperimenti che studiano i danni cerebrali causati dall’alcol. In questi casi gli psicobiologi conducono studi quasi sperimentali o correlazionali in cui i soggetti sono stati esposti alla condizione di interesse nel corso della loro vita. Questi di fatto non sono veri e propri esperimenti perché alcune variabili non possono essere controllate come ad esempio l’assegnazione causale dei soggetti alle condizioni sperimentali. Per cui tali studi non fanno riferimento ad una logica di causalità, ovvero causa ed effetto, come la relazione fra VI e VD, ma semplicemente a correlazioni sul loro andamento. Gli studi clinici o studi di casi singoli invece sono centrati su un singolo soggetto o su un singolo caso e analizzano quindi un dato problema in modo più approfondito Il principale problema dei casi singoli riguarda la loro generalizzazione, cioè il grado con cui i risultati ottenuti da un singolo soggetto possono essere applicati anche ad altri casi. La ricerca psicobiologica può essere sia pura che applicata. La ricerca pura è motivata dalla curiosità del ricercatore e viene svolta con l’unico fine di accrescere la conoscenza su un determinato problema. La ricerca applicata ha invece lo scopo di apportare qualche diretto beneficio all’umanità. Ogni ricerca può dare risultati validi se viene posta attenzione su ogni possibile fonte di errore. In psicobiologia le fonti di errore possono essere fondamentalmente la poca considerazione della complessità dell’oggetto di studio, o un’analisi dei dati o dei risultati non obiettiva fondata su pregiudizi. E’ importante monitorare questi errori per elaborare metodi e convenzioni che permettano di evitarli. Molti scienziati ritengono che la ricerca pura sia spesso di maggiore utilità pratica rispetto a quella applicata poiché le applicazioni di un progetto di ricerca derivano direttamente dalla comprensione dei principi di base. In psicobiologia ci sono diversi metodi di ricerca in quanto è una disciplina che studia l’interazione fra il sistema nervoso e il comportamento, per cui avremo metodi di studio sia del sistema nervoso che del comportamento. Per quanto riguarda i metodi di studio del SN abbiamo un primo gruppo che riguarda la visualizzazione dei danni cerebrali nell’uomo. Questi metodi consentono di individuare la sede di un danno cerebrale, di individuare la sua natura e la sua estensione, fra cui la radiografia a raggi X. L’oggetto da radiografare viene attraversato da un fascio di raggio X e dal momento che le particelle del fascio attraversano il soggetto in linea retta e le sue molecole assorbono solo parte delle sue radiazioni la 124 parte non assorbita può impressionare una lastra fotografica su cui il fascio viene proiettato. Vi è poi la radiografia con mezzi di contrasto che incrementa l’utilità della radiografia a raggi X nel senso che i mezzi di contrasto permettono di evidenziare alcune parti del cervello in cui vi sono sostanze radio opache che aumentano l’assorbimento dei raggi; esistono due tecniche di radiografia con mezzi di contrasto: la pneumoencefalografia e l’angiografia. Nella prima una parte del liquido cerebro spinale viene temporaneamente sostituito con aria, dato che l’aria è radio opaca, viene fatta poi una radiografia detta pneumoencefalogramma che rende visibile ventricoli e scissure cerebrali. Nell’angiografia il sistema circolatorio cerebrale si visualizza tramite l’infusione di un colorante radio opaco in un’arteria durante la radiografia. Queste tecniche possono essere utili per inferire ed individuare per esempio la posizione di un eventuale tumore. Un'altra tecnica di visualizzazione di danni cerebrali è la TAC o tomografia assiale computerizzata. Questa procedura fornisce una serie di radiografie di sezioni orizzontali del cervello vivente che viste in sequenza ricompongono la struttura tridimensionale. Il paziente giace con la testa in un grande cilindro su un lato del quale c’è un tubo a raggi X che proietta attraverso la testa del paziente un fascio di raggi contro un rilevatore di raggi X montato sul lato opposto del cilindro. Il tubo a raggi X ed il rilevatore vengono ruotati attorno alla testa del paziente ad un determinato livello del cervello e durante questa rotazione effettuano una serie di rilevazioni singole che poi combinate da un calcolatore danno le immagini di una sezione detta SCAN, poi tubo e rilevatore vengono spostati lungo l’asse verticale del corpo del paziente ad un altro livello del cervello, e si ripete questo processo per circa 8-9 volte fino ad avere 8-9 sezioni orizzontali. Abbiamo poi un’ altra tecnica ovvero l’immagine di risonanza magnetica che ha una maggiore utilità legata ad una sua maggiore capacità di risoluzione; le immagini sono costruite misurando le onde emesse da atomi di idrogeno attivati da onde di radiofrequenza entro un campo magnetico. Poiché le diverse strutture cerebrali hanno concentrazioni di atomi di idrogeno differenti le immagini della risonanza magnetica sono molto più chiare. Abbiamo infine la tomografia di emissione di positroni o PET che fornisce informazioni sull’ attività metabolica del cervello in quanto viene iniettata al paziente il 2desossiglucosio (2DG) che è una sostanza radioattiva somigliante al glucosio che è l’elemento primario del metabolismo cerebrale. Questo viene assorbito più rapidamente dai neuroni attivi che consumano più energia, però dopo che è stato assorbito non viene metabolizzato e quindi si accumula in questi neuroni attivi, per cui se la PET viene effettuata mentre il paziente è impegnato nella lettura l’immagine evidenzierà nel cervello le aree più attive durante quell’attività. Altri metodi di studio del sistema nervoso sono tecniche di registrazione dell’attività psicofisiologica dalla superficie del corpo dell’uomo. La prima di queste tecniche è l’elettroencefalografia, quindi la misurazione attraverso l’elettroencefalogramma che consiste nel registrare l’attività elettrica del cervello tramite degli elettrodi a disco che vengono fissati sul cuoio capelluto. In alcuni casi è interessante evidenziare i potenziali evocati quindi non tanto l’attività elettroencefalografica di sfondo ma onde elettroencefalografiche che accompagnano un determinato evento. I potenziali evocati più studiati sono quelli sensoriali, cioè le variazioni nel segnale elettroencefalografico corticale evocati dalla momentanea presentazione di uno stimolo sensoriale, per esempio uditivo o visivo. La elettromiografia è invece una tecnica che viene usata per misurare l’attività elettrica muscolare che si rileva attraverso elettrodi fissi mediante un adesivo sulla superficie cutanea soprastante il muscolo che interessa. Il tracciato che si ottiene è l’elettromiogramma che permette di individuare la maggiore e minore contrazione del muscolo. L’elettro oculografia è una tecnica che permette di registrare i movimenti oculari e i relativi tracciati chiamati elettrooculogrammi. Vi è poi l’attività elettrodermica quindi il livello e le risposte di conduttanza cutanea soprattutto in relazione a particolari stimoli. La pressione sanguigna ed il volume sanguigno sono due misure invece che si accompagnano alla frequenza cardiaca e che permettono di osservare nel primo caso qual è il valore massimo di una contrazione del cuore o sistole e il valore minimo durante il rilassamento o diastole e di poter quindi individuare una situazione di ipertensione. Mentre per quanto riguarda il volume sanguigno le tecniche di misurazione sono rappresentate dall’applicazione della pletismografia. Questa tecnica il cui nome deriva dal greco pletismos che vuol dire allargamento, misura l’allargamento vascolare in 125 correlazione al flusso ematico in particolari circostanze. Altre metodiche di studio dell’attività del SN sono le metodiche fisiologiche invasive di ricerca farmacologica che per limiti etici vengono applicati soltanto ad animali. Abbiamo innanzitutto la chirurgia stereotassica, che si realizza mediante atlanti stereotassici, che consistono in una serie di mappe che riproducono ogni sezione del cervello in una struttura bidimensionale riportando le distanze e i millimetri da un punto di riferimento convenzionale. L’apparato stereotassico comprende un ferma testa, che mantiene il cervello dell’animale in una posizione convenzionale, e un reggi elettrodo che si sposta con degli ingranaggi micrometrici. I metodi di lesione che rientrano nelle metodiche invasive di ricerca prevedono la lesione da aspirazione, la lesione da radiofrequenza e la resezione chirurgica, il blocco criogènico e la stimolazione elettrica. Le lesioni da aspirazione si realizzano rimuovendo per sezione il tessuto corticale tramite delle pipette di vetro e poiché la materia bianca è più resistente all’aspirazione della materi grigia il chirurgo rimuove gli strati di tessuto corticale dalla superficie del cervello senza danneggiare ne la materia bianca ne i vasi sanguigni. Le lesioni da radiofrequenza sono lesioni sottocorticali che si realizzano diffondendo tramite un elettrodo collocato con la chirurgia stereotassica una corrente a frequenze molto elevate; i tessuti circostanti sono distrutti dal calore e regolando la durata e l’intensità della corrente si determina la dimensione della lesione. La resezione chirurgica consiste in un intervento chirurgico che interrompe un nervo o un tratto senza produrre danni estesi nei tessuti circostanti. Il blocco criogenico è una tecnica che produce gli stessi risultati della lesione ma ne costituisce una alternativa abbastanza valida. Attraverso una criosonda si pompa un liquido refrigerante, il tessuto circostante si raffredda e si bloccano le scariche di neuroni , la temperatura viene mantenuta al di sopra dello zero, non si producono danni tessutali strutturali e le funzioni riprendono non appena la temperatura ritorna normale. Un’altra tecnica di ricerca usata in psicobiologia comprende i metodi invasivi di registrazione. Abbiamo la registrazione intracellulare da unità singole ha come vantaggio il poter misurare le fluttuazione del potenziale di membrana dei neuroni. Gli studi che utilizzano queste registrazioni sono effettuati su animali immobilizzati farmacologicamente perché un microelettrodo deve rimanere entro un singolo neurone senza spostarsi. La registrazione extracellulare da unità singole prevede invece che si registrino potenziali di azione di un neurone sempre tramite un microelettrodo che viene però posto nel liquido extracellulare in prossimità del neurone. Da questa registrazione si ottiene un tracciato del tasso di scarica di un neurone però non si hanno informazioni sulle variazioni del potenziale di membrana. La registrazione da unità multiple prevede l’uso di un elettrodo più grande del microelettrodo solitamente utilizzato che permette di rilevare l’attività di molti neuroni. Più grande è l’elettrodo maggiore è il numero di neuroni vicino all’elettrodo che contribuiscono al segnale rilevato. I potenziali di azioni rilevati dall’elettrodo sono inviati ad un integratore elettronico che li somma e fornisce un tracciato del tasso di scarica complessiva di una specifica area neuronale in una unità di tempo prestabilita. Vi è infine la registrazione invasiva da elettroencefalogramma che avviene mediante degli elettrodi bipolari che vengono impiantati con delle viti di acciaio inossidabile avvitati nel cranio. Un altro metodo dello studio del SN è l’insieme dei metodi psicofarmacologici che consistono nel somministrare farmaci che aumentano o diminuiscono l’attività di un neurotrasmettitore e osservare quali sono gli effetti sul comportamento. Questi farmaci possono essere somministrati per via intragastrica, intramuscolare, intraperitoneale, per via sottocutanea e per iniezione indovena. Talvolta si può usare anche una cannula intraventricolare, quindi tra i ventricoli cerebrali fra cui iniettare il farmaco. SI può anche impiantare una pillola sotto la cute in modo che il farmaco si diffonda gradualmente nell’organismo attraverso la circolazione generale. Il secondo livello di attenzione della psicobiologia è il comportamento. I metodi di studio del comportamento partono dall’idea che il comportamento è espressione manifesta dell’attività neurale. Innanzitutto abbiamo dei test neuropsicologici ovvero dei test che permettono di valutare le funzioni sensoriali e motorie. Per quanto riguarda i test di intelligenza generale si utilizza la scala Wais (Weschler adult intelligent scale) con cui il neuropsicologo può trarre delle inferenze sulle disfunzioni psicologiche del paziente valutando gli 11 subtest di diverso contenuto e tipo di operazione mentale richiesta. Sei subtest sono della scala 126 verbale e comprendono informazione, comprensione generale, ragionamento aritmetico, analogie, ripetizione di cifre e vocabolario. Gli altri 5 sono della scala di performance che comprendono completamento di figure, disegno con cubi, riordinamento di storie figurate, ricostruzione di figure e associazione di simboli a numeri. Vi è poi il test di lateralizzazione del linguaggio che si basano sul presupposto che le abilità linguistiche siano mediate da uno dei due emisferi del cervello : il sinistro è maggiormente coinvolto nella produzione ed emissione del linguaggio, il destro invece nell’ascolto e nella ricezione. I test che vengono maggiormente utilizzati per la lateralizzazione del linguaggio sono test dell’amital sodico ed il test dell’ascolto dicotico. Nel primo caso viene iniettato un anestetico, l’amital sodico, nell’ arteria carotide destra o sinistra a livello del collo che inattiva temporaneamente l’emisfero dello stesso lato senza alterare le funzioni dell’emisfero del lato opposto. A questo punto vengono somministrati al paziente numerosi test linguistici; poi il procedimento viene ripetuto per l’altro emisfero. Quando l’iniezione interessa l’emisfero dominante per il linguaggio il paziente per circa due minuti presenta gravi deficit linguistici. Essendo un test invasivo può essere somministrato solo per ragioni mediche ad esempio prima di un intervento chirurgico per determinare qual è l’emisfero dominante per il linguaggio. Nel test dell’ascolto dicotico al soggetto vengono presentate mediante una cuffia stereo tre cifre ad un orecchio e simultaneamente tre cifre diverse all’altro orecchio. Il compito del soggetto è quello di ripetere le sei cifre udite. Kimura notò che i soggetti ripetevano più frequentemente le cifre udite dall’orecchio opposto all’emisfero dominante per il linguaggio (in genere l’orecchio destro). Vi sono poi test utilizzati a valutare eventuali deficit di memoria e quindi lesioni cerebrali nelle aree legate a questa funzione. Viene utilizzata la scala di memoria inclusa nella Weschler oppure il test di memoria per coppie di parole associate. In quest’ultimo test si legge al paziente una lista di coppie di parole poi gli viene proposta la prima parola di ogni coppia e gli si chiede di rievocare quella associata. Il limite di questo test è che ha una natura verbale e pertanto non permette di valutare la memoria da materiali non verbali. Abbiamo poi test di linguaggio fra cui quello maggiormente utilizzato è il test dei gettoni: si utilizzano 20 gettoni, diversi per forma dimensione e colore. I gettoni vengono disposti su un tavolo di fronte al paziente a cui si chiede di gestire i gettoni dando una prima istruzione molto semplice per esempio disporre i gettoni su un quadrato rosso; poi si danno istruzioni sempre più complesse per verificare la funzionalità di tutti gli aspetti di produzione e comprensione linguistica. Abbiamo poi i test delle funzioni percettivo-motorie che sono fondamentalmente la capacità percettivo-spaziale e la capacità di inibizione di risposte motorie. I test utilizzati sono il test del disegno a cubetti, che è un test della scala WAISS, o il test della figura complessa di Rei durante il quale si chiede al soggetto di copiare a matita su un foglio una figura complessa che è un compito che in genere a soggetti normali privi di lesioni cerebrali non pone problemi. L’utilità di questo test consiste nel fatto che i pazienti con danni cerebrali dell’emisfero destro o sinistro fanno errori diversi : i primi tendono a ripetere fedelmente i dettagli ma ad avere difficoltà a collegarli nel complesso, i secondi tendono a saper riprodurre fedelmente l’immagine nel suo complesso ma a non saper ripetere i particolari. Vi sono poi di test di orientamento personale : si presentano ai pazienti 5 disegni schematici frontali e dorsali del corpo umano con numeri che contrassegnano le diverse parti del corpo, viene poi chiesto al paziente di toccare le parti corrispondenti sul proprio corpo nell’ordine contrassegnato dai numeri. Nel test di orientamento extrapersonale ai pazienti viene chiesto di camminare su una matrice di tre punti per tre disposta sul pavimento seguendo i percorsi indicati su 5 mappe da tenere in mano. Tra i test percettivo-motori ci sono test per valutare la capacità di inibire le risposte motorie sbagliate. Tra i metodi di studio del comportamento abbiamo i metodi comportamentali in psicofisiologia compatibili con registrazione elettrofisiologica. Il primo è lo studio dei profili psicofisiologici delle emozioni. Nelle prime ricerche psicofisiologiche si era visto che stimoli particolari potevano risultare molto attivanti e quindi indurre delle modificazioni psicofisiologiche per esempio dell’attività cardiovascolare dell’attività elettromiografica ed elettrodermica oltre ad un aumento della frequenza del tracciato dell’elettroencefalogramma quindi una attivazione a livello cerebrale. Attraverso questi studi si è giunti ad affermare che tutte le esperienze 127 emotive producono modificazioni elettrofisiologiche; tuttavia se il primo studio si basava su un approccio unidimensionale successivamente vennero effettuati studi sulle emozioni e la loro parte psicofisiologica fondati su un approccio multidimensionale. Per esempio tutte le rilevazioni del volto con l’elettromiogramma dei muscoli facciali permettono di individuare qual è il pattern elettromiografico complessivo facciale legato ad una emozione. Abbiamo poi i metodi psicofisiologici di detezione della verità; la cosiddetta macchina della verità è per esempio ispirata a questo tipo di studi. E’ un tipo di studio legato ai metodi psicofisiologici di rilevazione delle emozioni e generalmente queste valutazioni di attivazione emotiva durante interrogatorio effettuate mediante poligrafia vengono affiancate a tecniche tradizionali quindi da un interrogatorio effettuato da personale esperto. Le tecniche principali utilizzate per studi psicofisiologici di detenzione della verità sono la tecnica del crimine simulato e la tecnica delle domande di controllo. Nella tecnica del crimine simulato ai soggetti viene chiesto di simulare di commettere un crimine e poi vengono interrogati da un esaminatore che non sa se sono colpevoli o innocenti. Il metodo delle interrogazioni prevede delle domande di controllo che vengono confrontate con le risposte elettrofisiologiche rilevate attraverso i parametri già specificati. Infine una delle tecniche dello studio del comportamento è il cosiddetto biofeedback che fornisce ai soggetti informazioni di regolazione sulle loro attività biologiche in particolare su attività fisiologiche di cui normalmente non abbiamo consapevolezza. Il biofeedback nasce da una prima linea di ricerca in cui i soggetti informati sull’andamento delle onde alpha del proprio tracciato elettroencefalografico potevano aumentarne volontariamente la presenza e quindi arrivare ad uno stadio di grosso rilassamento. Ingegneria genetica La genetica è una scienza i cui metodi oggi sono ampiamente usati nella psicobiologia. Le tecniche di knock-out di un gene, ad esempio, sono procedure che portano alla creazione di organismi che mancano di un particolare gene oggetto di studio. Una volta creati si tenta di individuare ed eventualmente approfondire tutte le anomalie neuronali e comportamentali che può aver sviluppato. I risultati ottenuti con tale procedura sono però di difficile interpretazione : innanzitutto la maggior parte dei tratti comportamentali è influenzata dall’interazione di numerosi geni, di conseguenza l’eliminazione di un tratto comportamentale in seguito al knock-out di un gene può aiutare ad identificare solo un piccola parte del contributo genetico sul comportamento. Inoltre l’eliminazione di un gene può influenzare l’espressione di altri geni oppure gli effetti del gene soppresso possono essere mascherati dai cambiamenti compensatori di altri geni. Infine l’espressone dei geni po’ essere influenzata dall’esperienza. I farmaci antisenso potenzialmente ovviano agli inconvenienti delle tecniche knock-out, ma devono essere resistenti non tossici e specifici rispetto all’RNA messaggero a cui si dirigono. Oggi nei topi è possibile sostituire un gene con altro. Le tecniche di sostituzione genetica sono molto importanti per la ricerca e la terapia: ad esempio è possibile asportare geni patologici da cellule umane ed inserirli nei topi (topi transgenici = topi che contengono materiale genetico di altre specie), oppure sostituire un gene con un altro identico che può essere attivato o disattivato in risposta a sostanze chimiche particolari che possono essere utilizzare per eliminare o attivare un gene ad un particolare stadio di sviluppo o in una particole struttura del cervello. L’approccio ai test psicologici ha subito un’evoluzione in cui è possibile distinguere tre fasi : l’approccio del test singolo, l’approccio di una batteria standardizzata di test e il recente approccio di una batteria di test individualizzata. Nel test singolo, destinato ad individuare danni cerebrali, l’obiettivo era quello di differenziare pazienti con problemi psicologici dovuti a danni strutturali del cervello da pazienti con problemi psicologici provocati da modificazioni funzionali. 128 A seguito dell’insuccesso del test singolo ha avuto origine l’approccio con batteria standardizzata di test, in cui l’obiettivo è sempre quello di individuare danni cerebrali ma ciò avveniva attraverso la somministrazione di una batteria di test anziché di uno solo: i punteggi ad ogni test vengono sommati in un unico punteggio complessivo, se tale punteggio è al di sotto della media stabilita si propende per una diagnosi di danno cerebrale. Oggi il metodo più usato sia nella ricerca che nella cura è la batteria di test individualizzata. L’obiettivo principale non è tanto quello di individuare pazienti con danni cerebrali quanto individuare la natura dei problemi psicologici in ogni paziente. Viene somministrata al paziente una comune batteria di test scelti dal neuropsicologo per avere una idea generale della natura dei sintomi neuropsicologici.. Poi in base a risultati lo specialista sceglie una serie di test individualizzati per ogni paziente nel tentativo di ottenere maggiori dettagli sui sintomi generali ottenuti con i test standardizzati (esempi problemi di memoria). Dopo aver analizzato i risultati a una batteria di test generale, viene poi scelta una serie di test specifici per chiarire la natura dei problemi individuati con i test generali. Fra questi test specifici possiamo citare ad esempio quelli sulla memoria; dopo aver individuato un disturbo della memoria mediante una batteria di test generale bisogna porsi 4 domande: se il disturbo coinvolge la MBT, la MLT o entrambi; se i disturbi della MLT sono anterogradi, retrogradi, o entrambi; se i danni alla MLT riguardano la memoria semantica (conoscenze sul mondo) o episodica (proprie esperienze); se sono disturbi della memoria implicita (ricordi che emergono senza che il paziente ne sia cosciente) o esplicita (ricordi coscienti ce il paziente può riferire verbalmente) o entrambe. I repetition priming test si sono rivelati preziosi per valutare e studiare casi in cui i pazienti manifestano disturbi della memoria esplicita senza nessun disturbo di quella implicita. Prima si mostra al paziente una lista di parole che dovrà studiare ma non ricordare, poi gli si chiede di completare una lista di frammenti di parole che per lo più sono frammenti di parole della lista iniziale. I pazienti colpiti da amnesia spesso completano le parole come i pazienti sani del gruppo di controllo, ma spesso e più importante è che non hanno un ricordo cosciente della lista iniziale ne di averla vista, ovvero manifestano un’ottima memoria implicita senza avere memoria esplicita dell’esperienza. Se invece un paziente mostra problemi di linguaggio ad una batteria di test generale gli si somministra una serie complessa di test per chiarire l’origine del disturbo. Un problema di linguaggio può essere dovuto a tre tipi di problema, fonologico, sintattico e semantico. Poiché i pazienti con problemi di linguaggio possono avere uno di questi disturbi ma non gli altri è necessario utilizzare test che indagano su questi tre aspetti, detti test di follow up. Un test molto usato in caso di lesione del lobo frontale è il test di Wisconsin che utilizza delle carte sulle quali ci sono 1, 2, 3 o 4 simboli uguali per forma e colore. All’inizio del test vengono poste davanti al paziente 4 carte stimolo diverse per colore forma e numero dei simboli riportanti. Al paziente viene dato un mazzo di carte che dovrà ripartire in 4 gruppetti davanti alle carte stimolo scoprendo da solo il criterio di ripartizione basandosi solo sul fatto che l’esaminatore gli dirà, dopo ogni tentativo, se ha risposto correttamente o no. All’inizio il criterio corretto sarà il colore delle carte, poi dopo 10 risposte corrette il criterio verrà cambiato senza informarne il paziente. Quando il nuovo criterio verrà scoperto sarà nuovamente cambiato. Questo test è molto sensibile al danno frontale, infatti pazienti con lesioni del lobo frontale possono continuare a usare lo stesso principio di ripartizione ance per più di 100 volte consecutive dopo che l’esaminatore ha cambiato criterio. Essi sono incapaci di apprendere e ricordare che un comportamento adeguato in una situazione può non esserlo in un’altra, un problema definito perseverazione. Le neuroscienze cognitive si basano su due assunti principali : 1) ciascun processo cognitivo complesso nasce dall’attività combinata di due processi cognitivi elementari definiti processi cognitivi costituenti; 2) ciascun processo cognitivo elementare è mediato dall’attività neurale di una determinata area cerebrale. Uno degli obiettivi principali delle neuroscienze è appunto quello di individuare queste aree cerebrali. Uno de metodi comportamentali principali usati nella PET e nella RMF è la tecnica sottrattiva di immagini appaiate in cui le immagini PET o RMF sono ottenute mentre il soggetto svolge vari compiti ideati in modo da differire a due a due per un singolo processo cognitivo. In questo modo sottraendo l’immagine 129 PET ottenuta durante lo svolgimento di un compito dall’immagine ottenuta durate l’altro compito, è possibile avere un quadro di attivazione delle aree cerebrali responsabili del processo cognitivo in esame. Un’altra difficoltà negli studi PET o di RMF sono i rumori di fondo dell’attività cerebrale creati da una serie di eventi che possono avvenire durante il test (vedere una mosca, chiedersi quanto durerà il test, ecc..). Tale rumore può essere ridotto mediante la tecnica del signal averaging o media dei segnali, di solito viene fatta la media delle immagini di attivazione ottenute in diversi soggetti sperimentali, l’immagine media risultante mette in evidenza le aree di attivazione comuni a tutti i soggetti, e tende a cancellare le attivazioni specifiche solo di alcuni di essi. Fra i paradigmi sperimentali più comuni per lo studio del comportamento animale, che riguardano soprattutto i ratti da laboratorio (soggetti sperimentali più comuni nella ricerca psicobiologica) troviamo il paradigma per l’esame del comportamento specie specifico, ovvero del comportamento mostrato virtualmente da tutti gli individui di una specie o almeno da tutti quelli di una stessa età o sesso. I comportamenti più spesso studiati sono il nuotare, mangiare, bere, lottare, costruire il nido, copulare e fra i test più usati troviamo il test dell’ open field, il test de comportamento aggressivo-difensivo, e quello del comportamento sessuale. Nel test dell’open field vengono misurati i comportamenti di un animale posto in una camera sperimentale ampia e vuota. Un basso livello di attività generale ed un alto numero di boli sono indice di paura. Ovviamente tale paura tende a diminuire con il ripetersi dell’esperienza dentro la stessa camera. Il test del comportamento aggressivo-difensivo viene usato in una situazione di incontro tra il ratto maschio dominante di una colonia, il cui comportamento è definito aggressivo, e un maschio estraneo più piccolo, cui comportamento è difensivo. Il maschio alpha dominante si muove lateralmente con i peli eretti verso l’intruso, quando lo raggiunge tenta di fargli perdere l’equilibrio e di morderlo sul dorso e sui fianchi. L’aggredito si protegge sollevandosi sulle zampe posteriori e allontanando l’aggressore con le zampe anteriori o rotolandosi sulla schiena. Sono segnali di aggressività la piloerezione, lo spostamento laterale, i morsi sul dorso e fianchi, mentre sono segnali di difesa l’immobilità, il sollevarsi sulle zampe posteriori, il rotolarsi sulla schiena. Alcuni test misurano la reattività allo sperimentatore anziché ad un altro ratto, ad esempio misurando la resistenza dell’animale quando viene preso in mano: non opporre resistenza è la categoria più bassa di difesa, mordere è quella più alta. Il test del labirinto sopraelevato è un test per esaminare nel ratto gli effetti ansiolitici di alcuni farmaci : un labirinto a croce è posto a 50 cm dal pavimento, due bracci del labirinto sono chiusi e due aperti. Una misura del comportamento di difesa o di ansia è la quantità di tempo che il ratto passa nei bracci protetti piuttosto che in quelli esposti. Nel paradigma di condizionamento pavloviano lo sperimentatore associa uno stimolo neutro, detto stimoo condizionato (segnale acustico) ad uno stimolo incondizionato (carne) che evoca una risposta incondizionata o riflessa (salivazione). Dopo numerose associazioni lo stimolo neutro diventa capace anche da solo di evocare una risposta condizionata simile, ma non sempre, a quella incondizionata. Nel condizionamento operante la probabilità di produrre una particolare risposta aumenta se è seguita da rinforzi o diminuisce se è seguita da punizioni. Un paradigma di condizionamento operante largamente usato è quello dell’autostimolazione, un paradigma in cui gli animali premono una leva per autostimolarsi elettricamente determinati centri del piacere cerebrale. Tra i paradigmi di apprendimento troviamo anche quelli detti semiecologici ideati al fine di simulare situazioni che l’animale può incontrare nel suo ambiente naturale. Tra questi vi sono il condizionamento avversivo del gusto basato sull’avversione sviluppata da animali verso sapori che sono seguiti da uno stato di malessere. Il condizionamento avversivo del gusto tuttavia viola tre dei principi fondamentali dell’apprendimento definiti dalla ricerca sul condizionamento di Plavov e operante: mette in discussione la gradualità nel processo di condizionamento animale, infatti intense avversioni si instaurano in un’unica prova; i ratti sviluppano intense avversioni gustative anche quando si ammalano ore dopo assunto un determinato cibo; contraddice il principio dell’equipotenzialità dell’apprendimento secondo cui i processi di condizionamento sono gli stessi a prescindere dal tipo di stimoli e risposte in esame, i ratti infatti sembrano essere più predisposti ad apprendere l’associazione fra gusto e malessere piuttosto che 130 l’associazione fra colore di un cibo e nausea, o tra sapor e shock elettrico. Il labirinto a bracci radiali valuta le abilità spaziali dei roditori da cui dipende la loro sopravvivenza; infatti un ratto alla ricerca di cibo deve apprendere e ricordare un complesso numero di nozioni spaziali. Infatti non solo deve ricordare qual è il luogo più probabile dove cercare cibo ma anche ricordare i luoghi che ha visitato di recente. Un altro paradigma che studia le capacità spaziali dei ratti è il labirinto ad acqua di Morris, in cui i ratti sono posti in una vasca circolare uniforme e piena di acqua torbida e devono nuotare finchè non trovano una piattaforma posta appena sotto la superficie dell’acqua. Ai ratti è concesso di riposare su questa piattaforma prima di essere rimessi in acqua per ricominciare a nuotare. Benché la posizione della pedana venga cambiata ad ogni prova i ratti sono in grado di ritrovarla usando come punti di riferimento vari indizi spaziali della stanza. E’ importante sottolineare che questi metodi per essere efficaci devono essere usati congiuntamente, in psicobiologia infatti raramente, per non dire mai, si ricorre ad un unico metodo di ricerca, al contrario un problema viene risolto quando si utilizzano diversi metodi sperimentali (approccio con metodi convergenti). 131