Gennaio-Marzo 2012 n. 1 Anno XXVI Quaderni di Minimondo Rivista culturale Braille Periodico trimestrale Fascicolo I Direzione Redazione Amministrazione Biblioteca Italiana per i Ciechi 20900 Monza - Casella postale 285 c.c.p. 853200 - tel. 039/28.32.71 e-mail: [email protected] Dir. Resp. Pietro Piscitelli Comitato di redazione: Massimiliano Cattani, Antonietta Fiore, Luigia Ricciardone, Pietro Piscitelli (Responsabile) Copia in omaggio Stampato in Braille a cura della Biblioteca Italiana per i Ciechi «Regina Margherita» onlus via G. Ferrari, 5/a 20900 Monza Sommario Valerio Castronovo: Le nuove sfide della democrazia («Prometeo» n. 111/10) Gérald Bronner: Internet e false credenze («Psicologia contemporanea» n. 230/12) Giuseppe O. Longo: Sarà l'uomo a provocare la sesta estinzione di massa («Vita e Pensiero» n. 2/11) Darin L. Wolfe: Il corpo sotto gli occhi («Le Scienze» n. 516/11) Silvano Petrosino: Da Lady Gaga a Steve Jobs. Idoli, idoletti e oggetti affini («Vita e Pensiero» n. 6/11) Marina D'Amato: Telefantasie («Psicologia contemporanea» n. 225/11) Alessandro Cerri: I tristi diavoli del blues («Prometeo» n. 116/11) Giuseppe Ivan Lantos: A spasso con il commissario Maigret («Meridiani» n. 204/12) Le nuove sfide della democrazia - I problemi cruciali che l'Occidente si trova oggi ad affrontare. Nel corso del primo decennio del nuovo millennio ci si è resi conto di quanto fossero infondate certe previsioni diffusesi, all'indomani dell'Ottantanove, che davano per scontato il tramonto, dopo quello avvenuto nell'Est comunista, di altre dittature di colore analogo o di matrici diverse. Così non è stato. Anche se in alcuni punti le frontiere della democrazia si sono ampliate, è rimasta pur sempre consistente l'area dei regimi totalitari, autoritari o militari, nonostante alcuni di essi abbiano formalmente le parvenze di governi democratici per quanto c'è scritto nelle loro pandette costituzionali o per la periodica chiamata alle urne dei loro cittadini. D'altra parte, se in alcuni casi come in Iran (che è il più eclatante) la dittatura degli ayatollah ha mostrato ancor più il suo volto feroce e repressivo, non è che nel resto dei paesi sotto il tallone di regimi autocratici il pugno di ferro degli uomini, delle caste o dei partiti unici al potere sia, a seconda delle evenienze, meno pesante e risoluto qualora ci si trovi alle prese con qualche forma di opposizione che possa dar ombra. Sta di fatto che, al di là dell'area in cui la democrazia aveva forti radici da molto tempo o si è sviluppata nel corso del secondo dopoguerra (che corrisponde sostanzialmente a quella del mondo occidentale euroatlantico con alcune propaggini in Asia, nell'America centro-meridionale e in Australia), è ancora vasto l'arcipelago dei paesi dove seguitano a dominare tirannidi personali, monarchie assolute, dittature o governi cosiddetti «forti», di differente stampo politico e ideologico. In pratica, a fare la conta dei paesi soggetti in un modo o nell'altro a regimi dove non esistono o vengono sistematicamente conculcate libertà politiche e individuali, diritti civili e garanzie costituzionali, o ridotte al silenzio e all'irrilevanza le minoranze, è dato constatare come essi ammontino a quasi un centinaio, sparsi dovunque, dall'Europa all'Oceania. Oltretutto, si tratta di paesi che per lo più spendono in media, rispetto alla loro popolazione, più soldi in armamenti. Se l'Africa sub-sahariana è quella che annovera più dittature o regimi a un passo dal divenirlo (per via di limitazioni al multipartitismo, controlli del governo sul sistema giudiziario, vincoli e discriminazioni civili di vario genere a scapito dei diritti umani), il Sud-est asiatico e l'area del Pacifico non sono pressoché da meno, e così pure quelle del Medio Oriente e del Nord Africa. Ma pure in Europa e nelle contrade contigue dell'Asia settentrionale sono almeno una decina i paesi, appartenenti in passato all'impero sovietico, dove esistono regimi semidittatoriali o il cui assetto potrebbe assumere connotazioni del genere. E se le Americhe a sud del Messico sono le aree del pianeta dove negli ultimi anni sono scomparsi di più regimi autoritari o di marca militare, Cuba seguita ad essere, a oltre mezzo secolo di distanza dalla rivoluzione castrista (che spodestò la dittatura di Fulgencio Batista), un paese in cui Stato e partito coincidono, la dissidenza è duramente contrastata, e il passaggio di consegne nel 2008 dal «lìder màximo» Fidel Castro al fratello Raúl non si è tradotto per il momento in alcun concreto mutamento di scenario. Nel frattempo s'è inasprito il regime personale nazionalpopulista di Chàvez in Venezuela; e, se si è assistito nel 2009 a un colpo di stato di destra in Honduras, si è registrato un ritorno di fiamma in Nicaragua del movimento sandinista-marxista di Daniel Ortega e il consolidamento al potere in Bolivia del cosiddetto «Lenin indio», Evo Morales. Che i paesi caduti sotto il tallone di dittature o soggetti a regimi autoritari possano affrancarsi da questo stato di cose, appare oggi un'impresa più difficile di quanto non si pensasse sino a qualche tempo addietro. L'assunto sostenuto dai neoconservatori americani, per cui la democrazia avrebbe potuto o dovuto essere esportata anche con l'uso della forza, è risultato un paradigma dottrinario altrettanto incongruo che disastroso alla luce di quanto è accaduto con l'avventura anglo-americana in Iraq. Ma non ha mostrato di reggere alla prova dei fatti neppure la tesi secondo cui lo sviluppo economico avrebbe contribuito, come una sorta di campo magnetico, a una progressiva transizione verso la democrazia. Se così fosse, la Cina, che ha conosciuto negli ultimi anni una crescita poderosa, non sarebbe rimasta un «pianeta rosso». D'altro canto, essa non è l'unico paese al mondo in cui il passaggio dall'arretratezza economica all'industrializzazione e alla diffusione dei consumi, non ha dato luogo a sostanziali cambiamenti nell'assetto politico in senso democratico. Non per questo, beninteso, si deve considerare come permanente e inalterabile la situazione dei paesi soggetti a un regime autoritario. Si tratta di tener conto, assai più di quanto in genere non si pensi, dell'importanza che possono avere altri elementi di carattere propulsivo, come quelli di ordine culturale. Che, del resto, hanno esercitato un ruolo preminente nell'evoluzione politica e sociale dell'Occidente, come attestano le sue vicende storiche. Grazie allo sviluppo delle conoscenze e alla diffusione del sapere, i paesi europei e l'America non solo hanno conseguito il successo economico, ma posto anche le fondamenta di ordinamenti costituzionali segnati dall'affermazione delle libertà e dei diritti politici e dal consolidamento in progresso di tempo di sistemi liberal-democratici con robuste tendenze riformiste sul versante economico e sociale. Ma se per l'avvento di ordinamenti democratici là dove oggi non esistono ancora o appaiono troppo fragili e instabili per consolidarsi, è essenziale che maturino dall'interno nuovi fattori e stimoli di carattere culturale, non per questo le democrazie dell'Occidente sono esentate da qualsiasi genere d'iniziativa. Esse devono seguitare a denunciare recisamente qualsiasi violazione dei diritti umani; impegnarsi per la riduzione degli armamenti dandone per prime l'esempio, assecondare la massima circolazione di opinioni e informazioni, sollecitando perciò il libero accesso ai mass media, e solidarizzare con i movimenti d'opposizione ai governi autoritari. D'altra parte, a giudicare dalle vaste manifestazioni di piazza avvenute in Iran contro il regime, non è detto che le generazioni più giovani siano disposte, nei paesi soggetti a regimi autocratici, ad accettarli supinamente o a subirli sia pur «obtorto collo». Quanto è avvenuto dagli anni Novanta del secolo scorso in poi ha segnato il tramonto di quello che era stato definito, con riferimento alle traiettorie dell'Occidente nel secondo dopoguerra, come un «secolo socialdemocratico». Non già perché avessero assunto in questo periodo un ruolo da protagonisti i partiti di marca socialista (la cui presenza, del resto, non si estendeva agli Stati Uniti e a vari altri paesi extraeuropei). Ma perché il tratto distintivo del processo di sviluppo manifestatosi in Occidente consisteva, soprattutto, in una serie di riforme che avevano aggiunto ai diritti e alle libertà politiche tradizionali i principi dell'uguaglianza sociale e dell'equità distributiva. Tanto da dar luogo a una sorta di «rivoluzione silenziosa», contrassegnata dagli sviluppi in senso progressista della democrazia liberale, dall'estensione dell'interventismo pubblico e dalla diffusione del benessere economico, da un miglioramento generalizzato del tenore di vita delle masse popolari. Ci si chiede oggi che il capitalismo globale, la rivoluzione informatica e il ridimensionamento dei poteri degli Stati nazionali hanno modificato lo scenario in termini sempre più tangibili, se possa ricrearsi nell'ambito delle società democratiche dell'Occidente quella sorta di «circolo virtuoso» che in passato era scaturito dall'intreccio fra democrazia politica e ampliamento dei diritti civili, fra crescita delle risorse e un più alto grado di equità e coesione sociale. Negli ultimi tempi si è assistito infatti a una sempre più intensa finanziarizzazione dell'economia, a una maggiore flessibilità del mercato del lavoro, e quindi al declino di un regime di piena occupazione e di rapporti di lavoro a tempo indeterminato, nonché a un restringimento delle prerogative e della sfera d'intervento dei singoli Stati nazionali. Di conseguenza, mentre l'industria non ha più quel ruolo di assoluta centralità nel sistema economico che rivestiva in passato, e così pure la classe operaia, s'è indebolito il potere contrattuale delle organizzazioni sindacali; si sono dilatate le dimensioni e le propaggini del settore terziario, è aumentata sempre più la schiera dei lavoratori autonomi, e sono comparse nuove sacche di povertà o di precarietà e di emarginazione. In questo nuovo contesto è evidente come sia venuto riaffacciandosi il problema, tanto dibattuto da sempre, se sia possibile un'effettiva coesistenza fra capitalismo e democrazia, fra le varianti e le dinamiche dell'uno e le stimmate intrinseche e le proiezioni dell'altra. Sappiamo che il tasso d'innovazione è la ragion d'essere e la forza propulsiva del capitalismo, ma anche che la disoccupazione è il maggior pericolo per la stabilità del sistema. E sappiamo che la democrazia non può considerarsi tale da corrispondere ai suoi principi effettivi senza un'economia di mercato competitiva ma orientata al conseguimento di un maggior grado di benessere collettivo, e perciò a un'equa ripartizione della ricchezza prodotta e a fini di utilità collettiva. Negli ultimi tempi la crisi economica provocata da un'overdose di finanza senza adeguate regole ha riportato in auge l'interventismo pubblico per salvare il salvabile, per sottrarre una parte consistente del sistema bancario dal pericolo di un disastro, per cercare di sanare altri sconquassi e riavviare il motore dell'economia. Ma questi e altri provvedimenti avrebbero effetti contingenti qualora non venissero introdotte nell'ambito del mondo finanziario severe regole etiche e norme concrete in modo da ricondurlo a funzioni complementari allo sviluppo degli investimenti produttivi e, quindi, da impedire che certi potentati si avventurino nuovamente in operazioni puramente speculative e predatorie, sganciate dall'economia reale. Inoltre, a poco servirebbe l'esistenza di tante organizzazioni internazionali attive da tempo se esse non giungessero a coordinare le loro politiche per garantire uno sviluppo omogeneo ed equilibrato, senza cortocircuiti, senza derive finanziarie e rigurgiti protezionistici, e s'impegnassero anche in modo da assicurare il progresso civile e la salvaguardia dell'ambiente. Non si tratta, con questo, di reinventare il capitalismo, come da varie parti si tende a dire, bensì di riportarlo su linee direttrici che siano coerenti con un processo di sviluppo sostenibile, in grado di accrescere opportunità di lavoro, livelli d'istruzione e qualità della vita. D'altronde, la proprietà privata e l'economia di mercato sono altrettanti requisiti e ingredienti della democrazia. Il problema sta, quindi, in politiche riformiste che valgano a ridurre le diseguaglianze sociali e ad assicurare a tutti i cittadini uguali capacità di influenza nella gestione della cosa pubblica. Se la crisi economica ha rivelato in pieno a qual punto fosse giunta la forza e l'influenza di alcuni dei principali gruppi e lobby della finanza, nella distorsione non solo del mercato ma anche nel condizionamento di vari settori dell'amministrazione pubblica, non è che unicamente loro siano arrivati ad avere un ruolo così incisivo e rimarchevole. Altre oligarchie, a livello nazionale e internazionale, dalle grandi corporation, ai titolari delle principali catene di massmedia, ai più autorevoli consessi del mondo professionale continuano, sia pur in diversa misura, a incidere nell'ambito delle democrazie, sugli equilibri politici e sociali. Perciò, non da oggi, si sono moltiplicate le voci di quanti ritengono che in Occidente la democrazia sia andata corrodendosi o che comunque sia malata. Anche perché si è indebolita o non conta più come una volta quella sorta di intercapedine fra le istituzioni politiche e la società civile rappresentata dai grandi partiti di massa, con la loro capacità di mobilitazione popolare, di attivazione del dibattito e del confronto delle idee, di sostegno alle cause di interesse collettivo, con la loro dialettica e alternanza nell'esercizio delle responsabilità di governo. Ma se tutto questo è avvenuto, è perché vi hanno contribuito soprattutto due fenomeni pressoché concomitanti: da un lato, le «onde lunghe» prodotte dal crollo del comunismo, dei regimi del «socialismo reale», per cui i paesi occidentali non si trovano più sulla difensiva, e, dall'altro, il progressivo sfrangiamento del ceto medio, di quello che era divenuto man mano il fulcro delle società industriali avanzate. L'esistenza di formazioni politiche organizzate sulla base sia di determinate concezioni ideologiche e culturali sia di strutture capillari e articolate a livello territoriale, erano in Europa il portato e l'espressione di una stagione, come quella prolungatasi dal secondo dopoguerra sino all'Ottantanove, segnata da forti linee di contrapposizione o di demarcazione fra due differenti schieramenti. Pertanto, quando esse sono venute meno, quel che era rimasto in vita dei precedenti partiti di massa e dei loro apparati s'è ridotto di peso e di statura, si è frantumato in vari spezzoni più minuscoli o si è trasformato in nuove entità e compagini politiche. Non è con questo, ovviamente, che siano scomparse la destra e la sinistra, ma esse hanno assunto nuove insegne e comunque delle connotazioni tali da non riprodurre le stesse sembianze e le medesime istanze e affiliazioni d'un tempo. D'altra parte, s'è sdrucito negli ultimi anni quella sorta di tessuto connettivo della democrazia liberale composto dal ceto medio, che aveva finito col divenire in progresso di tempo il principale serbatoio elettorale dei partiti di centro e di centro-sinistra, in Germania e in Francia come in Gran Bretagna e in Spagna. Ancora all'inizio del nuovo secolo si parlava del ceto medio come di una classe sociale destinata tanto a ispessirsi che ad allargarsi al punto da costituire una «società dei due terzi» con all'infuori un'élite a reddito particolarmente elevato e una frangia di gente alle soglie della povertà. Da allora, invece, il ceto medio s'è andato disarticolando e frammentando, in quanto è cresciuta al suo interno la forbice fra alcuni strati più abbienti o titolari di determinate occupazioni più stabili, e gran parte delle altre sue componenti, in quanto in condizioni più disagiate o addette ad attività non garantite. Ma questo fenomeno e la crescente influenza dei gruppi più eminenti dell'establishment non comportano inevitabilmente il declino della democrazia liberale o una sorta di «postdemocrazia», come è stata definita da alcuni analisti. Le società occidentali hanno pur sempre in sé gli anticorpi per contrastare il pericolo di derive e regressioni oligarchiche, di un sopravvento di consorterie corporative e di ristretti clan e gruppi di interesse. Purché la classe politica non si limiti a declinare i principi e i valori del sistema democratico secondo vecchi rituali e schemi autoreferenziali. C'è chi sostiene che si sarebbe ormai chiuso un ciclo, che in Occidente la democrazia si sia atrofizzata. La tradizionale divisione dei poteri non sarebbe più in grado di regolare il funzionamento delle istituzioni, le rappresentanze parlamentari non avrebbero più effettivi poteri di scelta e decisione, la latitanza dalle urne e il disincanto di una parte dell'elettorato sarebbero destinate a crescere, la videodipendenza avrebbe preso il posto della partecipazione alla vita pubblica nella massa dei cittadini. Non da ultimo, si chiama in causa, a riprova dell'esistenza di un ulteriore fattore deformante e corrosivo della democrazia, il populismo, quale forma di legittimazione popolare passiva e strumento di manipolazione del consenso dall'alto. Ma se le cose stessero effettivamente a questo modo, non rimarrebbe altro che rassegnarsi a un desolante quanto sterile pessimismo. Non è, con questo, che si debbano chiudere gli occhi sui rischi che corre altrimenti la democrazia nei paesi che se ne fregiano, quale loro conquista storica, e se ne proclamano alfieri per eccellenza. Tuttavia non si può pensare che ormai ci sia ben poco da fare, come se una parabola declinante della democrazia fosse qualcosa di ineludibile. Governi e parlamenti, forze politiche e sociali hanno pur sempre la possibilità di stabilire determinate regole e gli strumenti per far valere le proprie decisioni. Certo, quelle che la democrazia occidentale deve affrontare sono sfide ardue e complesse. Si tratta infatti di bloccare l'invadenza di lobby smodate e prevaricatrici, e ridare vigore e fiducia al ceto medio, essenziale per la stabilità delle istituzioni pubbliche, definire nuove scale di priorità e promuovere culture della ricerca e dell'innovazione per competere nel mercato globale, modificare i congegni del Welfare per serbarlo in vita e renderlo più efficiente (e quindi alzare l'età pensionabile e non solo tutelare chi ha perso il lavoro ma anche aiutare chi non riesce a trovarlo), rilanciare una partecipazione attiva dei cittadini alla vita pubblica attraverso nuove forme di aggregazione e mobilitazione. Tra i pericoli che incombono sulle democrazie si è indicato, in particolare, dal campo della sinistra, quello di una deriva populista, consistente nella propagazione di virus xenofobi e localistici. Va detto tuttavia che il populismo di per sé non ha una precisa colorazione politica né un corollario unilateralista. In diverse circostanze il populismo è stato declinato dai progressisti in funzione di un coinvolgimento dei ceti sociali più deboli e in nome del loro diritto di cittadinanza; e oggi è stato uno degli ingredienti del successo di Barack Obama negli Stati Uniti. A ogni modo, se in vari paesi europei il populismo sta assumendo colorazioni politiche di estrema destra e scioviniste, lo si deve soprattutto al fatto che le élite politiche non hanno saputo prendere le misure adeguate per gestire i mutamenti radicali di scenario e di prospettiva avvenuti negli ultimi anni finendo così per scaricare sulla gente comune i problemi causati dalla globalizzazione economica, dalla perdita d'identità nazionale e dalle immigrazioni di massa dal Sud del mondo. Se la competizione sempre più serrata imposta dal capitalismo globale e il ridimensionamento del Welfare, dovuto alla crisi fiscale dello Stato, hanno diffuso una vasta ondata di apprensione e di malessere, l'irruzione nei paesi euro-occidentali di una fiumana di gente proveniente da varie parti dell'universo, rischia di divenire una mina vagante ad alto potenziale. Affinché non finisca prima o poi per deflagrare, non basta infatti che le autorità governative e le amministrazioni locali assicurino a quanti hanno le carte in regola, per stabilirsi nel paese in cui intendono risiedere e svolgere il proprio lavoro, la possibilità di usufruire delle stesse condizioni e opportunità che valgono per gli autoctoni. Né basta che vengano posti freni efficaci all'immigrazione clandestina, a quella avulsa da accordi bilaterali con i paesi di provenienza o che non ha a che fare con la ricerca di un rifugio per motivi di persecuzione politica, come sancito dal diritto internazionale. È necessario che gli immigrati riconoscano a tutti gli effetti i principi fondamentali e le norme dei paesi d'arrivo e quindi vi diano concreto riscontro nei loro comportamenti. Ciò non significa, naturalmente, alcuna rinuncia alla propria credenza religiosa e alla propria identità, e tantomeno ai propri orientamenti politici e sociali. Ma comporta l'allineamento, senza ambiguità e ipocrisie, ai principi istituzionali e alle leggi dello Stato alla pari di tutti gli altri cittadini. Solo così è possibile conciliare le diversità e porre le basi di una reale convivenza in un'incipiente società multietnica quale sta profilandosi anche in Europa. Del resto, non è che negli Stati Uniti il «melting pot» sia avvenuto in modo diverso. Ciò che ha contribuito a unire gli americani è infatti l'adesione ai principi sanciti dalla Costituzione, per quanto riguarda sia i diritti e i doveri dei singoli cittadini, sia la laicità delle istituzioni, e quindi la rigorosa separazione fra autorità civili e quelle religiose, nonché il riconoscimento della piena sovranità dello Stato. Il problema di un'effettiva integrazione di quanti si sono stanziati nei paesi dell'Occidente europeo, e seguitano a giungervi, si è andato imponendo soprattutto per gli immigrati musulmani, rispetto a quelli di altre fedi religiose come l'induismo e il buddismo. Sia perché essi sono divenuti negli ultimi decenni la componente di gran lunga maggioritaria degli extracomunitari trapiantatisi in Europa, tra quelli che vi risiedevano da tempo e quelli che vi sono sbarcati di recente, fra quelli concentrati nelle aree metropolitane e quelli disseminati nei piccoli centri: tant'è che, secondo stime attendibili, la popolazione musulmana nella Ue, più che raddoppiata nell'ultimo trentennio, raddoppierebbe di nuovo entro il 2020 se continuasse di questo passo, per poi costituire entro il 2050 un quinto della popolazione complessiva. Sia perché i musulmani tendono, più di altri gruppi di immigrati, a trapiantare tali e quali certe ataviche prescrizioni religiose, nonché i costumi e gli abiti mentali prevalenti nei loro paesi d'appartenenza. Ed è questo il fatto che desta più motivi di preoccupazione tra gli europei. S'è così diffuso il timore che l'Europa finisca col trasformarsi in una sorta di «Eurabia» (stando al termine coniato nel 2003, prim'ancora che dai «neocon», dalla stampa americana «liberal»). Che è quanto prevede pure Bernard Lewis, uno dei massimi esperti del mondo arabo, secondo il quale il Vecchio Continente potrebbe tramutarsi, se non in un prossimo futuro, entro la fine del secolo, in una specie di «Euroislam». Ciò non significa, beninteso, che l'Europa debba chiudersi come in una fortezza, protetta da una muraglia insormontabile, contro le ondate migratorie provenienti dalle regioni dove è dominante la religione islamica. Rimane il fatto che l'integrazione degli immigrati di fede musulmana costituisce una questione quanto mai complessa, ben più difficile rispetto a quella posta dall'insediamento di altri nuclei extraeuropei. E che quindi vada affrontata in termini realistici e appropriati, tenendo in debito conto due dati di fatto: il primo dei quali è che numerosi immigrati islamici sono originari di paesi dove sono cresciuti avendo per precipuo riferimento le norme più rigide della Shari'a; il secondo è che, per alcuni imam delle moschee europee, quel che vale, rispetto alle «leggi fatte dagli uomini», e a maggior ragione nei riguardi di quelle degli Stati secolari ospitanti, è pur sempre e deve continuare a essere la «legge creata da Allah». Ci si domanda perciò, con riferimento a queste due circostanze, se e fino a qual punto determinate norme religiose e consuetudini di matrice islamica siano compatibili con le leggi e le istituzioni del mondo occidentale. Se infatti uno Stato democratico deve consentire a ciascuno di esprimere liberamente le proprie convinzioni, dall'altro deve far valere pur sempre determinati principi fondamentali di rilevanza pubblica a cui tutti sono tenuti a uniformarsi. Senonché, nel caso degli immigrati di fede musulmana, ci sono di mezzo diaframmi di non poco conto, tradizioni e convenzioni sociali che confliggono con le leggi dei paesi occidentali: come la concezione della famiglia e dei rapporti matrimoniali (per via tanto della legittimazione della poligamia che della giurisdizione assoluta del marito sull'educazione dei figli e la gestione dei beni famigliari); la posizione di globale inferiorità civile della donna (soggetta a un codice che sancisce il principio del tutore, sia padre o fratello, a cui chiedere il permesso se vuole sposarsi, oltre al divieto di convolare a nozze con un non musulmano); la pratica della mutilazione genitale femminile che, ancorché non sia più seguita da molti, non viene considerata per sé deplorevole; le modalità dell'istruzione pubblica che si vorrebbero basate sulla separazione fra maschi e femmine nelle aule scolastiche, quando non su un diverso grado di apprendimento. È vero che non tutti gli immigrati musulmani la pensano a questo modo o seguono in pratica i precetti coranici più ortodossi e totalizzanti. Ed è un fatto che molti di loro, soprattutto quelli residenti da tempo in Europa, hanno assunto laicamente le regole del vivere comune. Ma negli ultimi tempi, con la crescita degli immigrati dai paesi islamici, è andata ispessendosi anche la schiera degli imam e degli ulema portati a ribadire anche fuori del loro contesto originario il primato vincolante della loro parola quale fondamento e fattore di legittimazione sia del sistema giuridico e sociale che delle istituzioni pubbliche. E nell'ambito delle comunità musulmane si è registrata negli ultimi anni, a cominciare dalle leve più giovani, una tendenza non più ad acquisire i valori etico-politici e i modelli di riferimento laici occidentali bensì a contrastarli recisamente, sino ad abbracciare gli orientamenti più radicali dell'islamismo come un'affermazione orgogliosa della propria identità di fronte a sé e agli altri. È pur vero che, a detta di alcuni osservatori, il multiculturalismo non determina di per sé inevitabilmente una «tribalizzazione» della società, e quindi la diffusione di forme di separatezza e segregazione tali da escludere categoricamente qualsiasi reale rapporto di ibridazione e interazione con il mondo circostante. Ma la proliferazione di tante monadi monolitiche e incomunicanti è quanto in pratica avviene nella realtà. E quali pericoli, e conseguenze negative, ciò finisce per innescare, lo hanno sottolineato Giovanni Sartori e altri osservatori abituati a valutare le cose senza paraocchi fuorvianti. Il rifiuto pervicace, da parte dei gruppi islamici più radicali, dei principi dello Stato laico e liberale finisce infatti per determinare tensioni laceranti e destabilizzanti dell'ordinamento statuale. Ha osservato perciò la scrittrice algerina Assia Djebar: «Oggi la vera sfida, la vera possibilità di avere un Islam nella modernità e nella democrazia, si gioca in Europa». A suo avviso, i musulmani europei dovrebbero «prendere in mano la situazione», assumersi un compito importante su due fronti: «discutere tra di loro [...] e farsi interlocutori dei loro Paesi d'origine». Esiste, d'altra parte, tra gli immigrati islamici, una forte corrente riformista, una sorta di «maggioranza silenziosa», in grado di farsi valere se saprà conciliare la propria fede religiosa con la propria autonomia e libertà individuale. Del resto, il filosofo iraniano Ramin Jahanglegoo osserva come la cosa più importante in una religione non è tanto quello che si crede, ma quello che si fa con ciò che si crede. Incontrarsi e discutere, per capire e farsi capire. A questo riguardo si attribuisce un ruolo importante ai leader delle istituzioni ecclesiali. In effetti, la loro voce e la loro opera risultano essenziali per promuovere un clima favorevole allo sviluppo fra le varie comunità di rapporti improntati a uno spirito di reciproco rispetto e comprensione. Al di là del versante teologico e dottrinale, esistono infatti determinati valori etici condivisi in linea di principio dalle diverse fedi religiose, come il ripudio dei pregiudizi razziali, il rifiuto dell'utilitarismo e dell'egoismo individualistico, la compassione e la solidarietà operosa verso gli umili e i più deboli. Ma se è dato sperare che il dialogo interreligioso possa rivestire un ruolo importante, nell'instaurare un clima di reciproca fiducia e armonia fra comunità di fede diversa, è un fatto tuttavia che in Occidente spetti soprattutto alle istituzioni pubbliche assolvere due precipui compiti. Il primo dei quali è di neutralizzare le pulsioni viscerali, fondamentaliste e teocratiche, di alcune nomenclature islamiche più radicali. Il secondo è di promuovere un'efficace azione culturale, attraverso adeguate politiche educative e scolastiche, che valga ad accreditare e diffondere negli immigrati islamici i principi basati sul primato dell'individuo, sulla libertà di coscienza e d'espressione, nonché sulla tolleranza e sulla separazione fra religione e politica. Sta di fatto che le democrazie occidentali si trovano oggi ad affrontare quest'altra impresa decisiva per la loro identità collettiva e il loro futuro. Poiché è essenziale a tal fine che quanti vengono a far parte della loro società rispettino e facciano proprie quelle norme fondamentali del regime democratico e dell'ordinamento civile e giuridico che costituiscono altrettante architravi di un sistema aperto e pluralista. Che è anche, nello stesso tempo, la leva più efficace per scongiurare, al proprio interno, la diffusione e la sedimentazione sia di astiosi pregiudizi xenofobi sia di un clima diffuso di smarrimento. Valerio Castronovo («Prometeo» n. 111/10) Internet e false credenze - Quando cerchiamo informazioni in Internet cadiamo spesso nell'errore di selezionare solo quelle che confermano le nostre credenze. Come accade? Internet, come tutte le grandi innovazioni tecnologiche, suscita timori e speranze. In un attimo ci permette di sapere qual è la popolazione dell'Armenia o che tempo fa in Australia; allo stesso tempo, però, molti sono preoccupati dal fatto che in rete corra ogni genere di informazioni sbagliate che ci allontanano da una rappresentazione ragionevole della realtà. Data la diffusione planetaria del web, dato che secondo stime attendibili dall'inizio del nuovo millennio è entrata in circolazione una quantità di informazioni cinque volte maggiore di quelle diffuse da quando Gutenberg ha inventato la stampa e data infine la nostra tendenza a utilizzare sempre di più questo strumento per cercare informazioni, è legittimo chiedersi quale influenza esso possa avere sulla diffusione di idee dubbie, specialmente nel contesto delle società democratiche. Internet rappresenta anzitutto una formidabile rivoluzione del mercato cognitivo, cioè di quello spazio virtuale dove si incontrano idee, conoscenze e credenze che possono essere in concorrenza fra loro (si veda Bronner, 2003). Ci potremmo aspettare quindi che la diffusione generalizzata e a basso prezzo dell'informazione favorisca la diffusione del sapere e l'educazione delle masse. Questa speranza di democratizzazione della conoscenza è indubbiamente fondata, almeno in parte, ma tradisce anche una certa ingenuità nella rappresentazione del rapporto che la nostra psiche normalmente intrattiene con la ricerca di informazioni. L'errore di conferma in azione Abbastanza spesso succede, infatti, che la nostra mente, nella ricerca di informazioni, vada cercando dati che confermino la rappresentazione che si è già costruita. Sotto questo profilo Internet rappresenta lo strumento perfetto: con un dispendio minimo di tempo e di energia, ci propone una massa enorme di informazioni, qualunque sia la nostra inclinazione personale. La conseguenza meno visibile, e tuttavia più decisiva, di questo fatto è di predisporre le condizioni ottimali perché l'errore di conferma (confirmation bias) possa esercitare appieno la sua efficacia nel distoglierci dalla verità. Di tutte le tentazioni inferenziali che affliggono la logica ordinaria, l'errore di conferma è senza dubbio quello più determinante al fine dei processi che perpetuano le false credenze. Gli esperimenti di Peter Cathcart Wason mettono in evidenza la presa che questa distorsione esercita sulla nostra mente. Ai soggetti viene presentato un gioco apparentemente molto facile, con quattro carte. Nell'esempio qui proposto sul retro della carta contrassegnata con il numero 1 si trova la lettera E; sul retro della carta numero 2 si trova la lettera K; al numero 3 è associato il 4; alla numero 4 è associato il 7. Lo sperimentatore spiega che sul fronte si possono trovare alternativamente due lettere, E o K, e sul retro due cifre, 4 o 7. Il problema è quali due carte si devono girare per verificare l'affermazione seguente: «Se una carta ha su un lato una vocale, sull'altro ha una cifra pari». La soluzione giusta è girare le carte 1 e 4, ma la stragrande maggioranza dei soggetti sceglie di girare le carte 1 e 3. Così facendo, considerano il caso che conferma la regola, anziché quello che la confuta. Sembra infatti naturale andare a vedere se la terza carta conferma l'enunciato, presentando sul retro una vocale. In realtà, anche se sul retro ci fosse una consonante la regola non sarebbe contraddetta. La sola carta, a parte la prima, che permette di verificarne la validità è la quarta: se sul retro trovassimo una vocale, sarebbe dimostrato che l'enunciato è falso. Questo meccanismo ci fornisce una spiegazione semplice, ma molto efficace, per capire la longevità delle credenze. È facile, infatti, trovare dati che non sono incompatibili con un enunciato dubbio, ma questo tipo di dimostrazione non ha alcun valore se non si tiene conto di quelli che lo contraddicono. Benché non esprima una razionalità obiettiva, tuttavia, questo tropismo per le conferme ci facilita in un certo senso l'esistenza. Il processo di confutazione è indubbiamente più efficace se lo scopo è la ricerca della verità, riducendo la probabilità di accettare come vere ipotesi false, ma esige un investimento di tempo che può apparire assurdo quando si tratta solo di prendere una decisione soddisfacente. Come notano molti autori, si sceglie spesso un'inferenza soddisfacente anziché quella ottimale, cedendo a quella che Fiske e Taylor (1984) chiamano «avarizia cognitiva». Il fatto è che la ricerca metodica di conoscenze fondate produce un risultato cognitivo superiore, in confronto a quelle proposizioni appena «soddisfacenti» che sono le credenze condivise, ma implica un dispendio di forze e di tempo molto maggiore. La probabilità di adottare cognizioni ben dimostrate risente della facilità con la quale si incontrano credenze tutt'altro che garantite. Una volta accettata un'idea, si tende generalmente a perseverare nella credenza, tanto più facilmente quanto più la diffusione ampia e non selettiva di informazioni rende probabile la scoperta di «dati» che la confermino. Personalmente non credo affatto che Internet riprogrammi il nostro cervello, come afferma Nicholas Carr nel suo saggio Internet ci rende stupidi?, ma trovo del tutto accettabile pensare che una persona a caccia di informazioni in Internet dipenda in parte dal modo in cui le organizza un motore di ricerca. Quello rivelato dal web non è un modo nuovo di pensare, ma al contrario un modo arcaico, segnato dall'errore di conferma. Qualcuno crede che gli attentati dell'11 settembre siano stati fomentati dalla CIA? In pochi istanti, qualunque motore di ricerca gli fornirà centinaia di pagine che gli permettono di confermare quella sua credenza. Consultare fonti d'informazione che non adottino quella che è la sua rappresentazione del mondo può sembrare una perdita di tempo. Se teniamo conto di questo meccanismo di ricerca selettiva dell'informazione, è chiaro che la diffusione non selettiva di ogni sorta di materiali sembra fatta apposta per amplificare l'errore di conferma e quindi perpetuare l'impero delle credenze, il che rappresenta un notevole paradosso nella nostra era informatica. Ma c'è un altro aspetto, che finora i vari commentatori della cultura Internet non sembrano aver colto fino in fondo: abbiamo a che fare con un mercato cognitivo ipersensibile alla strutturazione dell'offerta e quindi alle motivazioni di chi la produce. È questo uno dei fattori principali che strutturano la concorrenza sul mercato della conoscenza. I «credenti» dominano il mercato cognitivo Cosa rischia d'incontrare in rete, a proposito di un tema vettore di credenze, un internauta senza idee preconcette, se per farsi un'opinione si affida a Google? Ho cercato di simulare il modo in cui un utente medio può accedere su Internet all'offerta cognitiva relativa a vari soggetti: l'astrologia, il mostro di Loch Ness, i crop circles (agroglifi o cerchi nel grano), la psicocinesi (qui mi limito a riassumere certi risultati, ma per lo studio completo e il metodo si veda Bronner, 2011). Mi è sembrato interessante condurre la verifica su questi temi, in quanto l'ortodossia scientifica contesta la fondatezza delle credenze cui si ispirano. Non è nemmeno il caso di porsi qui la questione della verità o falsità degli enunciati (chissà, un giorno si potrebbe scoprire che esiste davvero un dinosauro in un lago scozzese): ci basti osservare la concorrenza fra risposte che si richiamano all'ortodossia scientifica e altre che ne divergono (indicate come «credenze» per semplificare). Internet è un posto d'osservazione interessante per valutare la visibilità di tesi dubbie. I risultati sono chiarissimi. Se si tiene conto solo dei siti che sostengono tesi favorevoli o sfavorevoli alle varie credenze, fra le prime 30 voci proposte da Google si trova in media oltre l'80% di siti che sostengono la credenza in questione. Come si spiega questa situazione? Emerge chiaramente che Internet è, come già accennato, un mercato cognitivo estremamente sensibile all'offerta, e questa dipende dalla motivazione di chi la produce. Altrettanto chiaro è che i credenti sono generalmente più motivati dei non credenti, quindi più disposti a dedicare tempo alla difesa delle proprie convinzioni. La credenza infatti è parte integrante dell'identità personale del credente: mentre questo si darà da fare per trovare informazioni che gli forniscano pezze d'appoggio, il non credente si accontenta di rifiutare un enunciato, senza bisogno di altra giustificazione che la sua palese fragilità. Questo fatto si tocca con mano nei forum in rete, dove talvolta credenti e non credenti si contrappongono. Nell'insieme dei 23 forum che ho esaminato (relativi alle quattro credenze considerate), ho potuto contare 211 interventi, 83 a favore della credenza, 45 contrari e 83 neutri. Quello che colpisce nella lettura di questi testi è che gli scettici si limitano a messaggi ironici, senza argomentare, mentre i sostenitori della credenza portano argomenti, certo non conclusivi (citazioni copia e incolla, link, ecc.), ma comunque espongono per esteso il loro punto di vista. Fra gli interventi a favore, infatti, il 36% è corredato di un link, un documento o un'argomentazione articolata, contro il 10% degli interventi scettici. Il mondo scientifico in generale non ha molto interesse, né accademico né personale, a intervenire in questo tipo di dibattito, con la conseguenza paradossale che i credenti, su ogni genere di argomento, hanno finito per instaurare un monopolio nel mercato cognitivo della rete, monopolio che non si limita a Internet ma contagia anche i media tradizionali, ormai estremamente sensibili alle fonti d'informazione eterodosse. Riassumendo, non credo si possa dire che Internet ci renda più stupidi o più intelligenti, ma il suo stesso funzionamento facilita certe disposizioni rischiose della nostra mente e organizza l'informazione in maniera non sempre favorevole ad un sapere rispettoso dei canoni scientifici. In altre parole, la libera concorrenza delle idee non sempre favorisce il pensiero più metodico e razionale. Gérald Bronner («Psicologia contemporanea» n. 230/12) Sarà l'uomo a provocare la sesta estinzione di massa? - La scomparsa delle specie ha scandito l'intera storia evolutiva. Oggi qualcosa del genere accade ancora, ma non a causa di meteoriti o grandi catastrofi, bensì per lo più a seguito delle attività «antropiche». Il dilemma del futuro che ci aspetta. Chi percorra le calli di Venezia o ne navighi i rii si rende conto del degrado di palazzi, ponti e monumenti, sui quali l'inquinamento e le intemperie lasciano tracce che con il tempo si trasformano in ingiurie e ferite. Nel corso della storia sono nati e poi morti imperi, nazioni e città: abbattuti dalle invasioni, sommersi dalla sabbia, devastati dai terremoti, allagati dagli oceani, arsi dagli incendi. Ammiriamo le rovine di Machu Picchu, le piramidi d'Egitto, le necropoli etrusche, Pompei, i templi della Magna Grecia: ma davanti alla lenta rovina di Venezia avvertiamo un senso di ribellione e di sconforto, perché si svolge sotto i nostri occhi. Da oltre quattro miliardi di anni la Terra subisce sconvolgimenti e devastazioni. Appena formate dalla spinta orogenetica, le montagne cominciano a sfaldarsi, i continenti si separano e tornano a riunirsi, le isole emergono per poi scomparire di nuovo tra i flutti degli oceani, i ghiacciai invadono le pianure e poi si ritirano. Questa tormentata storia geologica è inscritta sulla superficie rugosa del nostro pianeta, sul fondo dei mari, nei giacimenti stratificati di rocce e di conchiglie e di ossa pietrificate. Di tutto ciò siamo consapevoli: sappiamo bene che montagne, laghi, coste e acrocori sono stati e sono sottoposti a un continuo travaglio costruttivo e distruttivo. Ma un conto è sapere, un conto è vedere: quando l'indefesso lavorio della natura si palesa davanti a noi, ne siamo turbati e spaventati. Qualche anno fa risonò un grido di allarme per lo sfaldarsi delle nostre Dolomiti, uno dei più suggestivi monumenti naturali del pianeta: ma le Dolomiti hanno cominciato a sgretolarsi appena emerse dai mari del Permiano, oltre 200 milioni di anni fa. È la nostra visione ravvicinata che c'impedisce di vedere le cose in prospettiva geologica: fenomeni comunissimi, sempre avvenuti nel lungo buio del tempo preumano, oggi ci appaiono straordinari solo perché vi assistiamo. Inoltre, lo sgomento che proviamo di fronte alle inesorabili leggi dell'entropia, del disordine e del degrado, non deve farci dimenticare che spesso siamo proprio noi a contribuire ai processi degenerativi: le montagne sono solcate da strade carrozzabili che consentono alle automobili di inerpicarsi fino ad alta quota, le foreste sono abbattute a ritmi forsennati per sfruttarne il legno e ricavare spazio alle coltivazioni, i mari sono solcati da pescatori armati di una tecnologia che non lascia scampo alle prede, cumuli di rifiuti più o meno tossici e pericolosi invadono ogni angolo dell'unico pianeta che abbiamo, e anche lo spazio intorno alla Terra è gremito di migliaia di oggetti piccoli e grandi che abbiamo lanciato nel corso di mezzo secolo. Questo discorso può essere declinato anche in chiave biologica: la vita, comparsa grossomodo tre miliardi di anni fa, si è rapidamente diffusa ed è esplosa in una varietà stupefacente di forme, ordini, specie. Ma i periodi di grande fioritura sono stati interrotti da calamitosi eventi recessivi, le cosiddette estinzioni di massa. Se ne contano cinque: 1. Nell'Ordoviciano superiore (circa 440 milioni di anni fa); 2. Nel tardo Devoniano (circa 370 milioni di anni fa); 3. Nel passaggio dal Permiano al Triassico (circa 250 milioni di anni fa), la più disastrosa, in cui scomparvero il 96% delle specie marine e il 50% di tutte le specie animali esistenti; 4. Nel passaggio dal Triassico al Giurassico (circa 180 milioni di anni fa); 5. Nel passaggio dal Cretaceo al Terziario (circa 65 milioni di anni fa), nella quale scomparvero, tra l'altro, i dinosauri. Anche se le estinzioni di massa sono impressionanti per le loro dimensioni, il fenomeno della scomparsa delle specie si riscontra lungo tutta la storia evolutiva, tanto che più del 90% degli organismi mai vissuti sono ora estinti. Se si esaminano questi eventi adottando una visione oggettiva e spassionata, non si può non convenire che essi rientrano nell'avvicendamento naturale tra la vita e la morte: la morte, dell'individuo e della specie, è necessaria alla comparsa di nuova vita, anzi allo stesso mantenimento della vita. E in effetti dopo ogni grande estinzione si è avuta una straordinaria fioritura di nuove forme. I dinosauri si affermarono dopo la terza estinzione e i mammiferi conobbero il loro trionfo dopo la quinta estinzione, che portò alla scomparsa dei dinosauri. Oggi assistiamo a quella che molti chiamano la sesta estinzione di massa, segnata dalla rapida scomparsa di un numero impressionante di specie: ne siamo testimoni diretti, come siamo testimoni del declino di Venezia. E, come nel caso di Venezia, questa rapida decadenza ci preoccupa e ci addolora. Ma oggi il quadro è diverso: l'estinzione non è causata come in passato da eruzioni vulcaniche o dalla caduta di grandi meteoriti, bensì, soprattutto, dalle attività antropiche. Negli ultimi tempi, una crescente consapevolezza della responsabilità umana nell'ambito dei processi globali ha sostituito la beata incoscienza di un passato non troppo lontano. Ma quali sono i risultati di questa consapevolezza? Il mese di aprile 2008 fu proclamato «mese della Terra» e il pianeta fu celebrato come un'arcaica divinità, riesumando forme di venerazione tribali tipiche delle popolazioni primitive. Tuttavia, questa acuita sensibilità non è riuscita finora a tradursi in azioni efficaci di contrasto alle attività umane più invasive e inquinanti, che secondo molti specialisti sono una delle cause predominanti dell'estinzione di massa, del riscaldamento globale e in genere degli squilibri planetari. In assenza di provvedimenti adeguati, la consapevolezza non può che tradursi in angoscia. Nei confronti di questi problemi, noi umani tendiamo ad adottare un punto di vista antropocentrico e a ricondurre alla nostra specie e al momento attuale tutti gli eventi che interessano il pianeta, dandone una valutazione positiva o negativa con riferimento solo a noi stessi. Ma il sistema del quale facciamo parte è molto più vasto e se gli equilibri planetari sono sconvolti oltre misura, ciò può portare alla scomparsa (non della vita ma) di molte specie viventi, tra cui la nostra. Si deve quindi operare una vera e propria rivoluzione concettuale, che consiste nel reinserire l'uomo nel grande quadro della natura vivente. È una questione sistemica, come ha sottolineato con forza, tra gli altri, Gregory Bateson in tutte le sue opere e in particolare in quelle dedicate all'ecologia della mente. L'operazione auspicata di reimmissione dell'uomo nel sistema complessivo si è tradotta di recente nel cosiddetto principio di precauzione, che consiste in sostanza nell'astenersi da ogni intervento umano che presenti una qualche probabilità di danno significativo, anche se non accertata e tantomeno quantificata. Sorge tuttavia un problema: per quanto in apparenza molto ragionevole, nella sua forma più radicale il principio di precauzione è paralizzante, perché ogni intervento umano, anche il mancato intervento, presenta rischi potenziali; e in generale è impossibile dimostrare che una qualunque azione non comporti rischi. In altre parole, se si considera il sistema nel suo complesso, il tentativo di salvaguardare un sottosistema può ripercuotersi negativamente su un altro sottosistema. Per esempio una riduzione rapida e cospicua delle immissioni di gas serra nell'atmosfera, di per sé benefica sotto il profilo della qualità dell'aria e presumibilmente anche del riscaldamento globale, provocherebbe una vasta crisi economica che avrebbe ripercussioni disastrose sugli strati meno abbienti della popolazione mondiale e in particolare sui Paesi in via di sviluppo. Il dilemma è evidentissimo nel caso della Cina: l'aumento della produzione industriale comporta costi altissimi in termini ambientali, ma un suo ridimensionamento porterebbe a una crisi economica di proporzioni inimmaginabili. In sostanza è la complessità insormontabile del sistema globale a impedirci di applicare il principio di precauzione nella sua forma estrema. Sono invece accettabili forme attenuate del principio, che predicano l'astensione da quelle attività che presentano rischi potenziali, anche se non accertati, purché la rinuncia non comporti un aumento intollerabile di rischi o di costi in altri settori del sistema. Si tratta di una sorta di conflitto di interessi: coltivare un campo petrolifero al largo di una costa incontaminata dove le balene vengono a riprodursi, con il rischio di inquinare il mare e sterminare pesci e cetacei, oppure rinunciare al petrolio e preservare lo stato integro del luogo? L'interrogativo riguarda, per esempio, le trivellazioni marine lungo le coste dell'isola russa di Sakhalin, in Estremo Oriente, e si traduce nel conflitto tra l'alimentazione delle automobili da una parte e l'equilibrio dell'ecosistema e il nutrimento della popolazione locale dall'altra. Certo, si può argomentare che siccome l'uomo fa parte della natura, tutte le sue azioni sono naturali, quindi anche quelle che portano all'eliminazione di altre specie, eliminazione che la natura, con la sua tipica «crudeltà», ha praticato per centinaia di milioni di anni e continua a praticare senza nessuno scrupolo. Tuttavia l'uomo è anche un essere razionale, e non può limitarsi ad agire guardando solo il profitto immediato e adottando la legge del più forte. Un atteggiamento più saggio consiste nel considerare non solo gli interessi di questa generazione, anzi dei suoi rappresentanti più avanzati, ma nel tener conto delle componenti più deboli della specie umana e delle generazioni future. In effetti questa forma di altruismo verrebbe a coincidere con una sorta di «egoismo di specie», se con questa locuzione s'intende un atteggiamento che favorisca il mantenimento a lungo termine dell'equilibrio dinamico del sistema Terra e quindi della nostra sopravvivenza. La specie che distrugge l'ambiente distrugge sé stessa (è nota la metafora del boscaiolo incauto che sega il ramo su cui sta seduto), anche se nell'immediato questa distruzione, che si traduce in uno sfruttamento intensivo delle risorse, è fonte di prosperità e di benessere materiale. Ma come decidere quali azioni sono benefiche e quali negative per l'equilibrio sistemico? Data l'insuperabile complessità del reale, le nostre capacità di previsione sono molto limitate: dobbiamo rassegnarci all'incertezza e al rischio, ma non dobbiamo rinunciare all'impegno etico. Giuseppe O. Longo («Vita e Pensiero» n. 2/11) Il corpo sotto gli occhi - In passato, lo studio dei cadaveri era parte integrante della formazione dei giovani medici. E oggi? L'autopsia è ancora uno strumento fondamentale o è ormai una reliquia del leggendario passato della storia della medicina? In un grigio mattino di novembre, durante il mio internato in patologia, mi trovavo nell'obitorio dell'Indiana University Hospital, con la sola compagnia del piacevole ronzio delle luci fluorescenti e del gocciolio di un rubinetto. Una donna deceduta da poco giaceva sul tavolo metallico. Indossava ancora gli orecchini e la vera nuziale. Dal suo corpo fuoriuscivano alcuni tubi di plastica, gli ultimi dolorosi segni dell'intervento medico. Con un senso di timore e di eccitazione mi apprestai a compiere l'antico rituale dell'autopsia. Sebbene da studente avessi già avuto occasione di osservare il decesso di alcuni pazienti, da quando avevo dissezionato un cadavere durante il primo anno di medicina non mi era più capitato di trovarmi da solo in una sala settoria, in compagnia di un cadavere. Divenni conscio del mio respiro, degli sbuffi di aria calda che increspavano la mascherina chirurgica e del martellare del mio cuore mentre il ritmo aumentava. Sebbene il corpo che avevo di fronte fosse privo di emozioni e inerte come qualsiasi altro oggetto inanimato nella stanza, percepivo la vita che questa donna aveva vissuto, da giovane moglie, figlia, forse sorella o madre. Mi sforzavo di abbandonare la mia innata avversione per la morte, accettandone il carattere definitivo e separando la persona dal corpo che rimaneva. Concentrandomi sul mio compito effettuai il normale esame esterno, che per il patologo equivale al tradizionale esame fisico eseguito dal medico di famiglia, da un internista o da un chirurgo. Mentre stavo preparando il bisturi, scoprii una prominente protuberanza delle dimensioni di un pompelmo nel punto in cui la spalla si inserisce nella parte superiore del torace. Tenendo ben ferma la mano premetti la lama contro la pelle incidendo l'epidermide e il tessuto molle profondo fino a quando il bisturi toccò l'osso. La pelle era rimasta sufficientemente elastica per essere penetrata dalla mia lama, e riuscii a completare velocemente la serie di tagli necessari a creare un'incisione a Y sul torace e sull'addome. Esaminai i tessuti della cavità toracica, i quali rivelarono una massa carnosa di tessuto bianco disorganizzato che si estendeva dall'interno del seno fino ai muscoli scheletrici sottostanti e alle costole con una presa implacabile. Questa era la natura del cancro, che illustrava perfettamente l'etimologia della parola, da karcinos, granchio. Il nome fu coniato dal grande medico greco Ippocrate, e si basava sulla tendenza dei tumori maligni infiltranti a diffondersi in proiezioni stellate, simili a dita, che ricordano le zampe e le chele di un granchio. La parola autopsia, che deriva dal greco e significa «vedere con i propri occhi», ben esprimeva la mia esperienza in quell'obitorio, mentre imparavo a capire la natura dei tumori maligni direttamente con i miei occhi, una capacità che avrei coltivato per il resto della mia carriera di patologo. Fu un episodio avvilente osservare una così personale, palese e avanzata manifestazione di malattia in una donna che aveva la mia stessa età. Mi sentii onorato di essere l'unico a posare gli occhi e le mani sulla realtà della patologia che aveva condotto alla morte questa donna. Provai anche un legame spirituale con i medici del passato che fecero un enorme balzo in avanti, passando dalla semplice osservazione della superficie di un corpo all'osservazione di ciò che era racchiuso al suo interno. Una simile scoperta rappresenta la forma più pura della medicina, quando una condizione clinica può essere direttamente collegata ai sintomi fisici osservati. E sebbene le caratteristiche grossolane e microscopiche del cancro e di altre malattie abbiano avuto, probabilmente, nel corso degli anni un aspetto simile negli esseri umani, i modi in cui scopriamo e interpretiamo le loro cause sono cambiati drasticamente. Una prognosi incerta L'autopsia è stata e rimane lo strumento migliore per giungere a una valutazione delle malattie e dei traumi che comunemente affliggono gli individui e le popolazioni. Tuttavia questo esame sta progressivamente perdendo il suo ruolo di procedura medica principale. Osservando le onnipresenti descrizioni di autopsie nelle serie televisive, si potrebbe dedurre che gli obitori straripano di casi in attesa di essere risolti. Di fatto, mentre l'elevato numero di omicidi, suicidi e incidenti tiene occupato l'ufficio del coroner e del medico legale, il patologo ospedaliero ha sperimentato negli ultimi cinquant'anni un'enorme diminuzione delle autopsie. Il tasso di autopsie negli anni precedenti al 1950 si attestava su valori costanti superiori al 50 per cento; negli anni successivi, la percentuale di esami autoptici per i decessi ospedalieri ha subito un brusco calo fino a raggiungere attualmente valori stimati intorno al 6 per cento. E questo nonostante i risultati autoptici rivelino un sorprendente tasso di errore nelle diagnosi pre mortem e l'autopsia rappresenti, di fatto, il principale strumento per determinare quel tasso di errore. Nel 40 per cento dei casi l'esame autoptico rivela una diagnosi principale non scoperta in precedenza, un valore che è rimasto costante per i 60 anni in cui sono state registrate queste correlazioni clinico-patologiche. Questa statistica è in certa misura fuorviante, in quanto i casi selezionati per l'esame autoptico sono, in genere, quelli con la maggiore incertezza diagnostica. Comunque, analisi di regressione multipla su decenni di dati disponibili presentati in numerose pubblicazioni da parte di Kaveh Shojania all'Università di Ottawa e da altri colleghi hanno incluso periodi di studio, tassi di autopsie, nazioni e diversi casi per dimostrare che il tasso di errore diagnostico continua a preoccupare i medici in modo significativo. La probabilità che l'autopsia evidenzi un errore di classe I, in cui l'errata diagnosi può aver influenzato la sopravvivenza del paziente, è del 10,2 per cento. La probabilità di errori di maggiore rilievo, diagnosi mancate che probabilmente non hanno influito sul risultato, è risultata del 25,6 per cento. Si stima che 35.000 pazienti che muoiono negli ospedali degli Stati Uniti ogni anno potrebbero sopravvivere se queste condizioni cliniche nascoste venissero alla luce prima. L'incompetenza diagnostica non è necessariamente l'unico colpevole. Alcune discrepanze fra le diagnosi cliniche e quelle effettuate in sala settoria vanno attribuite ai limiti della tecnologia diagnostica, e alle inevitabili sfide costituite da pazienti affetti da problemi medici multipli, da sintomatologie atipiche della malattia o da una patologia che può essere clinicamente nascosta. Eppure, l'ampiezza delle statistiche sugli errori suggerisce chiaramente quanto l'esame autoptico sia importante ai fini del monitoraggio e del miglioramento dei risultati. Oltre a confermare e a correggere le diagnosi cliniche, l'autopsia consente di stabilire le cause del decesso, permette di scoprire nuove e mutate patologie, consente di valutare nuovi test diagnostici, tecniche chirurgiche, dispositivi e farmaci. Inoltre dà la possibilità di investigare su rischi ambientali e occupazionali, consente di creare precise statistiche vitali e permette di valutare la qualità degli interventi medici. Infine ha un valore fondamentale nella formazione dei medici e, soprattutto, continua ad ampliare i confini della conoscenza medica. L'esame autoptico è un'arte antica. Ha un futuro incerto, e un emozionante passato. Gli inizi La curiosità nei confronti dei fenomeni naturali ha sempre alimentato gli sforzi scientifici. A uno a uno, i grandi misteri della vita sono stati illuminati da menti avide di sapere, che spesso procedevano controcorrente contestando i dogmi dell'epoca. Le scienze mediche non hanno fatto eccezione, come dimostrato dalla coesistenza di opposte correnti di pensiero che ipotizzavano, per esempio, l'attività di demoni e spiriti come causa di malattia, proprio mentre stavano emergendo spiegazioni più laiche e moderne. La prima e predominante teoria sulle malattie nell'antica Grecia, così come in India e in Tibet, si basava sul concetto dei quattro umori associati ai quattro elementi terra, aria, fuoco e acqua - che a loro volta configurano la personalità umana. La teoria degli umori postulava che tutti gli acciacchi umani avessero origine da squilibri a carico di questi elementi interni, che si manifestano con apatia, perdite di sangue, bile gialla e bile nera. Per esempio, a un individuo sofferente di depressione veniva diagnosticato un eccesso di bile nera (il termine melancolia è formato dalle parole greche «nero» e «bile»). Questa scuola di pensiero era preminente all'epoca dei grandi medici greci come Erofilo, il primo anatomista sistematico, Ippocrate, il cui corpus medico rigettava le spiegazioni soprannaturali della malattia, ed Erasistrato, seguace di Erofilo e uno degli ultimi di quell'epoca a dissezionare corpi umani. Il ruolo degli umori venne articolato in modo assai eloquente da Galeno di Pergamo (129-200 d.C.). La grande opera di Galeno sulla cura, De methodo medendi, assieme agli altri suoi trattati, fu il primo grande scritto sulla medicina, e servì come guida universale alle malattie umane per più di un millennio. Durante l'epoca di Galeno e dei discepoli che seguirono, la dissezione del corpo umano non era approvata, e veniva violentemente condannata. Di conseguenza, Galeno formò la maggior parte delle sue conoscenze di anatomia umana dissezionando animali, incluse le bertucce, una specie di scimmie presenti soprattutto in Nord Africa. Galeno suppose - in modo ragionevole ma pericolosamente imperfetto - che la struttura interna di questi animali fosse abbastanza simile a quella degli esseri umani, tanto da essere sufficiente per capire l'anatomia umana. Gli insegnamenti di Galeno rimasero in auge in Europa e in Grecia fino al XVI secolo, e alcune antiche scuole mediche, come quelle ayurvedica e tibetana, esercitano ancora la guarigione metafisica e la diagnostica basata sugli umori che hanno avuto origine dalle stesse radici, combinate con tecniche terapeutiche e farmacologiche altamente sofisticate. In effetti, quando i governanti tibetani tennero due importanti conferenze mediche nell'VIII e nell'XI secolo, riunendo moltissimi medici - e traduttori - provenienti da India, Persia, Nepal, Grecia, Cina e da altri paesi per condividere le proprie conoscenze, fu proprio la medicina di Galeno quella che usarono come base per il loro sistema medico integrato. L'approccio galenico generalmente accettato cambiò drasticamente nel 1530, quando Andrea Vesalio, medico e anatomista italiano che esercitava a Padova, ipotizzò che le supposizioni di Galeno sulle somiglianze fra l'anatomia animale e quella umana - senza contare i suoi errori di osservazione stavano impedendo di capire più a fondo il corpo umano. Vesalio giunse alla conclusione che, per conoscere e caratterizzare le malattie umane, fosse essenziale nient'altro che l'accurata dissezione dei corpi umani. Nel 1539 un giudice padovano che condivideva un certo interesse per il lavoro svolto da Vesalio concesse ai medici il diritto di dissezionare i corpi dei criminali giustiziati, fornendo in questo modo una fonte fondamentale - sebbene discussa - di conoscenza anatomica: un corpo umano appena deceduto. Girava voce che un giudice accomodante avrebbe organizzato le esecuzioni per favorire l'anatomista padovano. Il lavoro di Vesalio fu essenziale per espandere l'ampiezza del sapere medico, e segnò la nascita di una nuova era nella scienza anatomica. Allo stesso modo in cui aumentò il numero dei criminali giustiziati e delle loro autopsie, crebbe anche la conoscenza anatomica globale di Vesalio. Le sue indagini culminarono nel 1543, con la pubblicazione del De Humani Corporis Fabrica. Sulla struttura e la funzione del corpo umano. Le sue scoperte furono così complete e dettagliate che oggi Vesalio è conosciuto come il padre dell'anatomia umana. Con la pubblicazione della sua opera si aprì la via verso una reale comprensione della struttura interna e delle funzioni del corpo umano. Da raccolta sparsa di superstizioni e rimedi fidati, la medicina occidentale si trasformò in una disciplina basata sulla logica e sull'osservazione, e un'altra area della natura che in precedenza era rimasta avvolta nel mistero venne liberata e assimilata nella biblioteca collettiva della conoscenza umana. Il commercio dei corpi Il patrimonio di informazioni provenienti dalla dissezione dei corpi umani fu alimentato e nutrito, e le scuole mediche finirono per incoraggiare l'uso dei cadaveri a scopo didattico. Il problema era dato semplicemente dalla scarsità di corpi a disposizione: il numero dei criminali giustiziati era di gran lunga inferiore al numero dei cadaveri necessari per i grossolani corsi di anatomia delle scuole mediche. Di conseguenza, la richiesta di corpi crebbe a dismisura e, come spesso accade quando qualcosa scarseggia, il prezzo salì ed ebbero inizio loschi affari. Fra le novità introdotte dallo stesso Vesalio va annoverato l'oscuro traffico di corpi ignobilmente acquistati per un nobile scopo. Come riporta Charles O'Malley nell'autorevole biografia di Vesalio: «Come un autentico studioso, Vesalio raccomandò di fare ricorso alle fonti, in questo caso i corpi umani, e se i corpi non fossero stati facilmente accessibili lo studente veniva incoraggiato a parole o, nella Fabrica, attraverso insegnamenti aneddotici, a procurarseli da sé. È significativo che, dovunque Vesalio si recasse a tenere seminari, ne conseguisse un'ondata di corpi scippati; i vari aneddoti presenti nella Fabrica non danno indicazioni sulla provenienza...» Quando le pratiche e le conoscenze di Vesalio si diffusero su larga scala, il bisogno di cadaveri si tramutò nel cosiddetto «commercio dei corpi», e trafugare salme dai cimiteri divenne pratica comune. Per salme decedute da poco e parti anatomiche varie venivano offerti prezzi più alti di quelli richiesti per cadaveri in diverso stato di decomposizione. Tutto ciò indusse alcuni imprenditori a partecipare a questo macabro commercio. Famiglie preoccupate furono spinte a prendere ulteriori precauzioni per proteggere i loro cari dagli «uomini della resurrezione», come venivano chiamati, seppellendo i corpi in bare rinforzate che venivano sigillate, e assumendo guardie per impedire che le tombe venissero violate. Numerose scuole mediche svilupparono una politica del «non chiedere, non dire» quanto all'acquisizione da parte degli studenti di materiale umano per la dissezione. Se uno studente si presentava in classe con un corpo, questo veniva usato per la dissezione senza che nessuno facesse domande. Questa abitudine stimolò nuovamente la domanda di corpi come pure la competizione fra i ladri di cadaveri. Ma mentre molti pagavano ingenti somme di denaro per acquisire corpi, arti e cervelli dalle tombe, c'era chi accompagnava le persone verso una morte prematura, in modo da poterne vendere la salma. I due più famigerati ladri di cadaveri, William Burke e William Hare, fecero una breve carriera assassinando numerosi cittadini e consegnando corpi ancora caldi, evitandosi così il fastidio di esumare i cadaveri dal terreno e fornendo materiale fresco ai prezzi più elevati. Burke e Hare entrarono in commercio quando un inquilino della pensione di Hare morì per cause naturali. I due portarono il corpo all'università di Edimburgo, dove furono ricompensati con 7 sterline e 10 scellini, grosso modo un migliaio di euro al tasso di inflazione attuale. I due affrontarono allora il problema del rifornimento, dando inizio a una mattanza che fece 16 vittime in 12 mesi. Dopo la cattura, a Hare venne concessa l'immunità per la sua testimonianza contro Burke, con grande rabbia del popolino che fu in certa misura ammansito solo quando Burke venne impiccato e, in seguito, dissezionato pubblicamente. La protesta relativa alle pratiche di sottrazione di cadaveri produsse, in Inghilterra, l'Anatomy Act del 1832, che affrontava, secondo la rivista «Lancet», «il sistema di traffico fra resurrezionisti e anatomisti, della cui esistenza l'esecutivo aveva così a lungo sofferto». L'Anatomy Act ampliava il pool di cadaveri legalmente disponibili includendovi i senzatetto che nessuno reclamava, molti dei quali furono agevolmente recuperati da prigioni e ospizi. Alla fine, con la comparsa dell'Anatomy Act e una nuova detrazione per la donazione di corpi da parte di privati cittadini, il mercato dei rapitori di cadaveri giunse a termine. La nascita dell'autopsia medica Avevo appena ultimato la tradizionale incisione a Y della mia prima autopsia quando il patologo di turno entrò in sala, apparentemente ignaro della mia mancanza di esperienza. «Vai avanti e fai una Rokitansky», disse con tono monocorde. Dal momento che non avevo la più pallida idea di che cosa fosse la Rokitansky, immaginai che si stesse riferendo alla rimozione e all'esame degli organi interni. Il patologo scrutò attentamente ogni mia incisione e guidò la mia mano con suggerimenti esperti. Trascorsi più di un'ora tagliando i tessuti molli, incidendo fra le costole e manipolando organi in questo e quell'altro modo, con tagli precisi e mirati. Con le maniche completamente inzuppate di sangue e la fronte imperlata di sudore, completai la prima autopsia della mia carriera. Avevo fatto la Rokitansky al mio primo cadavere. Il medico tedesco Karl von Rokitansky (18041878) fu uno dei primi a proporre l'uso dell'anatomia patologica e degli studi autoptici per l'apprendimento della medicina clinica. In qualità di direttore dell'Istituto di patologia del primo ospedale d'Europa, l'Allgemeines Krankenhaus di Vienna, si dice che Rokitansky abbia supervisionato più di 70.000 autopsie, facendone egli stesso più di 30.000, un'impresa lavorativa apparentemente inverosimile che, tuttavia, sembra vera. Ai suoi tempi era considerato di gran lunga il più autorevole esperto in quest'arte. In un'epoca in cui la velocità della dissezione era cruciale per completare un'autopsia prima che iniziasse la decomposizione, Rokitansky inventò una procedura in cui gli organi interni venivano dissezionati in situ e rimossi in blocco, mantenendo in tal modo i reciproci rapporti anatomici. Molti patologi usano però il termine «Rokitansky» riferendosi di fatto alla tecnica «in massa», la procedura che io stesso usai con la mia paziente deceduta di cancro. La tecnica in massa rappresenta una procedura straordinariamente efficiente per eviscerare la salma con pochi tagli ben direzionati, permettendo la rimozione degli organi da collo, torace, addome e pelvi in un unico grande blocco, mentre essi mantengono tutti i rapporti anatomici originari. Il blocco con gli organi rimosso dal corpo viene dissezionato completamente su un tavolo separato. L'altro metodo autoptico eponimo comune è la tecnica Virchow, chiamata così dal nome del patologo tedesco Rudolf Virchow (1821-1902), i cui contributi al settore della patologia sono troppo estesi per essere riassunti in queste pagine. In breve, Virchow è ritenuto da molti il primo patologo, ed è senza dubbio assai famoso per la sua teoria secondo la quale una malattia inizia a livello cellulare, un concetto assai moderno per quell'epoca. La tecnica autoptica di cui Virchow fu pioniere implica la rimozione sistematica degli organi e la loro dissezione individuale sequenziale via via che l'esame procede. Molti patologi forensi preferiscono usare questa tecnica, perché spesso accorcia il tempo necessario per svolgere l'esame, cosa ideale per un patologo che abbia più corpi in frigorifero in attesa dell'esame post mortem. I rapporti anatomici fra organi di solito non vengono mantenuti con questa tecnica. Per questo motivo molti patologi impiegano un ibrido di entrambe le tecniche, scegliendo di rimuovere alcuni organi a uno a uno, e altri in blocco, in particolare cuore e polmoni per i quali le connessioni anatomiche e vascolari possono costituire il bersaglio dell'esame volto a individuare problemi quali blocchi o rotture. Lo stato dell'arte Uno degli obiettivi della medicina moderna consiste nell'usare nuove tecnologie per diagnosticare con accuratezza una malattia, minimizzando al contempo l'invasività delle procedure diagnostiche. La potente macchina della tecnologia ha coinvolto la medicina quanto ogni altro settore, producendo strumenti come gli endoscopi a fibre ottiche e le apparecchiature radiologiche per immagini ad alta risoluzione, e ponendo maggiore enfasi su soluzioni di genetica molecolare per la prevenzione e la cura delle malattie. Nonostante quasi 200 anni di pratica autoptica pressoché di routine, la procedura è cambiata poco nel corso degli anni. L'esame sistematico e diretto, sia visivo che tattile, è ancora la cosa migliore. Di recente, tuttavia, sono stati fatti tentativi per realizzare procedure post mortem meno invasive, basate meno sulla dissezione e più sulle immagini radiologiche. Queste tecniche non sono solo più rapide e pulite, ma lasciano la salma virtualmente intatta prima che l'impresario delle pompe funebri si metta al lavoro per la vestizione. Questa scelta risulta vantaggiosa per le famiglie che non gradiscono che il corpo dell'estinto venga violato dall'autopsia, ma anche per i medici, dal momento che i referti autoptici vengono ottenuti più velocemente. Un metodo noto come biopsia autoptica prevede il recupero di un campione di tessuto da ciascun organo mediante inserzione di un ago e prelievo di un piccolo frammento di tessuto, in modo simile alla biopsia a fini diagnostici usata su pazienti vivi. Sebbene questo metodo produca piccolissimi danni corporali, richiede una notevole abilità e in molti casi anche fortuna. Senza l'assistenza delle immagini radiologiche come quelle ecografiche o la tomografia computerizzata (TAC), il campionamento di questi organi sarebbe una biopsia alla cieca. Malattie che non richiedono una grande precisione nella fase di campionamento, come grossi tumori o cirrosi epatiche croniche, si prestano bene a questa tecnica. Viceversa, una malattia che si sviluppi in un sito circoscritto come un infarto miocardico acuto viene identificata meglio sorreggendo il cuore nel palmo della mano e incidendo ciascuna delle principali arterie coronarie millimetro per millimetro, come pure producendo sottili sezioni dello stesso muscolo cardiaco, in modo da poter osservare coaguli ostruttivi, rotture o necrosi. Il risultato di una biopsia in questo tipo di situazione clinica sarebbe incongruente, e farebbe aumentare il numero di falsi negativi. Un metodo autoptico addirittura meno invasivo è la risonanza magnetica per immagini post mortem (MRI). Come accade nel caso delle MRI tradizionali usate per esaminare tessuti come quello cerebrale o le articolazioni del ginocchio, le immagini ottenute con MRI post mortem sono interpretate da un radiologo. Questa metodica non danneggia la salma e produce immagini di ottima qualità grazie all'immobilità del corpo, tuttavia non riesce a dare un risultato affidabile nel caso di malattie con caratteristiche anatomiche più sottili o assenti, come infezioni o scompensi elettrolitici. Più recentemente, ricercatori svizzeri hanno applicato la risonanza magnetica e la tomografia computerizzata per produrre autopsie virtuali della salma ad alta risoluzione e in tre dimensioni. Le hanno chiamate «virtopsie», e le hanno usate principalmente per scopi forensi. I patologi possono esaminare queste ricostruzioni visive e determinare il percorso seguito da un proiettile, l'accumulo di liquidi, la frattura e la frantumazione ossea e altre caratteristiche probatorie, senza dover sezionare la salma. Ulteriori informazioni, come la natura chimica dei fluidi corporei e notizie di natura tossicologica, possono essere usate in abbinamento alle immagini per giungere a una diagnosi. Questo approccio presenta numerosi vantaggi, fra cui la creazione permanente ed estremamente dettagliata di dati digitali relativi alle prove anatomiche di ogni caso. Il principale ostacolo a un uso più diffuso della virtopsia - e di altre forme di autopsia basate sulle immagini - sono i costi proibitivi. Senza includere la parcella del medico, si stima che il costo delle attrezzature per la virtopsia si aggiri sui 23 milioni di dollari, includendo lo scanner per la risonanza magnetica e la TAC, oltre all'hardware e al software per il computer. Per di più, i pazienti deceduti per avvelenamento o per una causa anatomica naturale e poco evidente non sono buoni candidati per questa procedura, il che significa che bisogna mantenere la funzionalità dell'autopsia tradizionale, compresi i costi per l'attrezzatura, lo spazio in laboratorio e i fondi per i patologi in servizio. Il futuro dell'autopsia Come detto in precedenza, la frequenza delle autopsie ha raggiunto il suo nadir: se appena cinquant'anni fa una maggioranza dei decessi ospedalieri finiva per essere sottoposta ad autopsia, ora il tasso si aggira attorno al 6 per cento. Nonostante il declino, la letteratura medica continua a pubblicare regolarmente studi che documentano il valore dell'autopsia come standard di accuratezza per i certificati di morte - dai quali si ricavano statistiche nazionali di rilevante importanza - strumento didattico e molto altro. È chiaro che si ricaverebbe un beneficio se si invertisse il declino nel tasso di autopsie. Le statistiche di sanità pubblica sarebbero più accurate e l'acquisizione sempre maggiore di competenze fra i medici professionisti risulterebbe di grande valore quando studi autoptici venissero chiamati in causa per scopi vitali, come la caratterizzazione di malattie emergenti o precedentemente sconosciute, come è stato durante le risposte iniziali all'HIV/AIDS, la morte improvvisa in culla (SIDS) e molte apre crisi sanitarie. I pazienti, così come i medici, hanno interesse a che la procedura venga ripristinata. I familiari chiudono un triste capitolo e capiscono le cause della morte del loro congiunto, e non è raro che ricevano anche informazioni vitali su malattie rimaste clinicamente nascoste ma ricorrenti nella famiglia. Ciò può portare a cambiamenti nello stile di vita prima che il male si manifesti, un obiettivo basilare tanto della medicina moderna quanto di quella antica. È vero che, per gli anni a venire, una gran quantità di informazioni rimarrà nascosta persino alla migliore tecnica non invasiva di cui disponiamo. Non c'è miglior esempio del caso di quella mia giovane paziente con tumore della mammella. Mentre stavo stilando il referto finale, poco prima dell'autopsia, ho riesaminato alcune sezioni degli organi rimossi in sede autoptica. Sebbene la causa presunta del decesso fosse un'insufficienza d'organo dovuta allo stadio metastatico finale di un tumore mammario, l'esame accurato dei suoi tessuti al microscopio ottico rivelò minuscole strutture ramificate che interessavano quasi tutti i tessuti, la prova di un'infezione fungina invasiva dovuta, verosimilmente, allo stato di immunosoppressione in cui versava la paziente in seguito alla chemioterapia. Senza un esame interno, i medici non avrebbero mai saputo la diagnosi finale. E la stessa informazione non sarebbe mai stata disponibile per migliorare pratiche e procedure future. Darin L. Wolfe («Le Scienze» n. 516/11)