The Lab’s Quarterly Il Trimestrale del Laboratorio 2015 / n. 1 / gennaio-marzo Laboratorio di Ricerca Sociale Dipartimento di Scienze Politiche Università di Pisa Comitato direttivo Direttore Massimo Ampola Comitato editoriale Luca Corchia (segretario) Marco Chiuppesi Gerardo Pastore Comitato scientifico Paolo Bagnoli Roberto Faenza Mauro Grassi Elena Gremigni Franco Martorana Antonio Thiery Contatti [email protected] Gli articoli della rivista sono sottoposti a un doppio processo di peer-review. Le informazioni per i collaboratori sono disponibili sul sito della rivista. ISSN 1724-451X © Laboratorio di Ricerca Sociale Dipartimento di Scienze Politiche Università di Pisa The Lab’s Quarterly Il Trimestrale del Laboratorio 2015 / n. 1 / gennaio-marzo EPISTEMOLOGIA E METODI DI RICERCA Irene Conti Per un’epistemologia della complessità. Biologia, fisica e antropologia Luca Corchia Giuseppe Gagliano, I chierici della rivoluzione e della reazione. Saggio sul totalitarismo, sull’antiliberalismo Laboratorio di Ricerca Sociale Dipartimento di Scienze Politiche Università di Pisa 5 90 “The Lab’s Quarterly” è una rivista che risponde alla necessità degli studiosi del Laboratorio di Ricerca sociale dell’Università di Pisa di contribuire all’indagine teorica ed empirica e di divulgarne i risultati presso la comunità scientifica e il più vasto pubblico degli interessati. I campi di studio riguardano le riflessioni epistemologiche sullo statuto conoscitivo delle scienze sociali, le procedure logiche comuni a ogni forma di sapere e quelle specifiche del sapere scientifico, le tecniche di rilevazione e di analisi dei dati, l’indagine sulle condizioni di genesi e di utilizzo della conoscenza e le teorie sociologiche sulle formazioni sociali contemporanee, approfondendo la riproduzione materiale e simbolica del mondo della vita: lo studio degli individui, dei gruppi sociali, delle tradizioni culturali, dei processi economici e politici. Un contributo significativo è offerto dagli studenti del Dipartimento di Scienze Politiche dell’Università di Pisa e di altri atenei, le cui tesi di laurea costituiscono un materiale prezioso che restituiamo alla conoscenza. Il direttore Massimo Ampola EPISTEMOLOGIA E METODI DI RICERCA PER UN’EPISTEMOLOGIA DELLA COMPLESSITÀ. BIOLOGIA, FISICA E ANTROPOLOGIA di Irene Conti Indice Introduzione 1. Verso un’epistemologia della complessità 2. La biologia post-darwinista 3. La rivoluzione quantistica 4. L’antropologia nell’era della complessità Conclusioni Riferimenti bibliografici 6 8 26 49 67 80 81 6 The Lab’s Quarterly, 1, 2015 INTRODUZIONE Con lo sviluppo e la diffusione degli studi sulla complessità, si tenta di rispondere all'esigenza di un radicale mutamento di paradigma che, già a partire dagli inizi del Novecento, comincia ad avvertirsi sempre più distintamente in vari ambiti delle scienze. In più discipline risulta ormai chiara la necessità di oltrepassare i postulati riduzionisti e meccanicisti che, dalla filosofia di Cartesio alla fisica di Newton, hanno contribuito a generare un'abitudine di pensiero erronea e perniciosa, che va ad infiltrarsi in alcuni ambiti della nostra vita che, al contrario di quel che si possa pensare, ci riguardano molto da vicino, come il rapporto con l'ecosistema e l'attuale ordine economico globale. I nuovi studi sulla complessità appaiono in questo senso rivoluzionari perché scardinano il dualismo soggetto-oggetto, uomo-ambiente, scienziato-scienza, ponendo al centro del proprio modello interpretativo i concetti di rete, sistema, autorganizzazione, epistemologia. Per questo, in accordo con Isabelle Stengers, si rifiuta l'idea della nascita di un nuovo “paradigma” della complessità: ciò che questi studi, dal marcato profilo transdisciplinare, tentano di fare è proprio spingerci continuamente oltre il confine di qualsiasi modello che si dica conchiuso e definito. “Risvegliano a un problema” invece di risolverlo, ponendosi ad un tempo al di fuori e al di dentro del fenomeno osservato, consci dell'irriducibilità del nostro coinvolgimento diretto nel processo della vita, che rifugge a qualsiasi tentativo di reificazione. L'obbiettivo di questo lavoro è quello di fornire una rassegna dei principali contributi che si sono sviluppati all'insegna della complessità, nei vari ambiti disciplinari presi in esame. Ma è bene sottolineare come questi contributi siano sfumature dello stesso quadro, inserito in una precisa cornice di riferimento. Ogni contributo si lega all'altro, ed è questa interdipendenza, in risonanza con la visione sistemica, che ci si augura prevalga sulla singola declinazione di ciascun ambito particolare. Il vero obbiettivo del lavoro è infatti, nella fedeltà all'interconnessione e allo sguardo d'insieme, quello di produrre una sorta di ricorsività tra i temi trattati e la forma strutturale in cui vengono presentati, spostandosi continuamente da un livello sostanziale ad uno formale per venire incontro, nella pratica del testo, a quell'istanza epistemologica e circolare invocata dal pensiero complesso. Verranno qui delineate le principali caratteristiche di un sistema complesso come l'interdipendenza, l'autorganizzazione, la non-linearità, la retroazione. Si affronteranno poi le tematiche sviluppate dalla biologia post-darwinista all'interno della nuova Irene Conti 7 cornice della complessità. In particolare, si osserverà come l'epistemologia batesoniana acquisisce una più solida base ontologica attraverso i sistemi autopoietici dei biologi cileni Varela e Maturana. Si passeranno quindi in rassegna alcuni nuovi concetti come quello di exattamento, deriva, bricolage, che mettono in crisi la prospettiva gradualista e lineare prospettata da Darwin. In seguito, si tratteranno i più recenti ed ultimi contributi forniti da Stuart Kauffman del Santa Fe Institute ed, infine, si farà accenno ad una prospettiva biofisica attraverso una breve trattazione delle strutture dissipative di Ilya Prigogine e dell'Ipotesi di Gaia di James Lovelock. Si osserva come, anche l'esistenza di quella realtà che Bateson definì pleromatica, che corrisponde alla massa solida ed inerme, viene ad essere problematizzata attraverso la nuova visione che si prospetta a seguito della rivoluzione quantistica. Si farà qui riferimento a come, anche la fisica contemporanea, possa adeguatamente entrare a far parte dell'orizzonte della complessità, poiché ci pone davanti ad una realtà non più reificabile (dualismo onda-particella) e profondamente interconnessa (entanglement). Verranno inoltre proposti alcuni modelli quantistici della coscienza che, a partire dall'Interpretazione di Copenaghen, tentano di pervenire ad una realtà costituita dall'unione di Mente e Materia. La chiave di questa unione è per alcuni fisici come Henry Stapp e filosofi come Ervin Laszlo proprio l'informazione, dimostrando come, anche nella “scatola degli ombrelli e delle palle da biliardo” possiamo ritrovare quell'unità sostanziale ravvisata per il regno creaturale. Infine, si propone di gettare uno sguardo sui contributi che l'antropologia può ricevere dagli studi sulla complessità e sugli aspetti del dibattito antropologico contemporaneo che dimostrano come, anche questa disciplina, non possa esimersi da un confronto con le tematiche complesse e sistemiche.La disamina riguardante il rapporto tra locale e globale, i temi del nomadismo e del meticciato, i fenomeni migratori, le diaspore culturali, sono tutti aspetti della modernità che sono stati passati al vaglio dell'antropologia del contemporaneo. Il capitolo finale tenta di far convergere alcuni postulati chiave del pensiero complesso con questi studi, dimostrando come alcuni concetti, come quello di feedback e di sistemi ai margini del caos, possano risultare utili strumenti interpretativi se applicati a questo campo di studio, aderendo perfettamente dunque, ai cambiamenti sociali ad oggi in atto. Di seguito si osserverà in che modo “l'antropologia post-einsteiniana” possa ricavare un valido contributo dalla fisica quantistica per il superamento della dicotomia, in ambito metodologico, tra scuola interpretativa e prospettiva politicoeconomica. L'ultimo paragrafo sarà invece riservato, in conclusione, alla presentazione dell'antropologia della pratica nell'ottica di Tim Ingold, 8 The Lab’s Quarterly, 1, 2015 che auspica il superamento della nozione di cultura come insieme di pratiche scorporate dal contesto sociale ed ambientale. 1. VERSO UN’EPISTEMOLOGIA DELLA COMPLESSITÀ È nel corso degli anni Quaranta, quando prese avvio il ciclo delle Macy Conferences, che una ristretta cerchia di ricercatori, tra cui Gregory Bateson, cominciò prudentemente ad avvicinarsi alle tematiche del pensiero complesso. Come sottolinea Tinti nel suo articolo La “sfida della complessità” verso il terzo millennio (Tinti 1998), non è propriamente corretto parlare di complessità nei termini di una precisa e conchiusa teoria scientifica. Proprio come la stessa parola “complessità” evoca, non ci troviamo, difatti, di fronte ad un paradigma concluso e statico, ma ad un insieme di nuovi scenari che si svelano a partire dalle più eterogenee cornici disciplinari. Tali scenari tentano di trovare risposte, o meglio, di formulare in modo nuovo le domande, che la crisi epistemologica del secolo scorso ha sollevato. Per questo è divenuto sempre più urgente spostare l'attenzione della ricerca sociale, filosofica e scientifica dal “che cosa” al “come”, intendendo con questo fare riferimento a due dei più importanti presupposti che il pensiero complesso porta con sé: il costruttivismo e l'epistemologia. Così, ritornando a Tinti, possiamo formulare al meglio la denominazione di questa nuova corrente conoscitiva parlando di epistemologia della complessità: “È proprio come prospettiva epistemologica, infatti, che la complessità svolge un ruolo cruciale nel pensiero contemporaneo”. Nonostante questo tipo di approccio innovativo stesse già prendendo piede con le prime Macy Conferences, è con la scissione che avvenne alla fine degli anni Settanta che si consacrò definitivamente la posizione della cosiddetta cibernetica di secondo ordine di cui facevano parte alcuni “dissidenti” tra cui Bateson, Maturana, Varela, von Foester, von Glasersfeld e andò maturando sempre più quell'attenzione sul processo dell'osservazione, centrale per l'epistemologia della complessità (Hoffman 1990). La prima comparsa dell'espressione “teoria della complessità” risale al 1978 in un articolo pubblicato su Scientific American (ib.), sono passati parecchi anni, dunque, dai tentativi di Bateson e Mead di introdurre le scienze sociali e umane entro le ricerche nel campo della cibernetica e pare che il loro lavoro, come quello di tanti altri, sia stato più che fecon- Irene Conti 9 do e complice di aver dato l'impulso per il formularsi di questa nuova “scienza con coscienza”1. A partire dagli anni Sessanta, la cibernetica era stata vittima del contrasto delle opinioni e della dispersione degli interessi. Lasciò comunque al futuro la grande eredità delle riflessioni sui sistemi autorganizzatori e autoriproduttori, sulla logica e sul funzionamento del sistema umano e animale, e sul ruolo dell'osservatore nella costruzione delle conoscenze,, tutti temi che avrebbero goduto di un forte rilancio nei decenni successivi. Ma soprattutto la cibernetica lasciò al futuro prossimo la passione, per esponenti di discipline e di punti di vista anche assai diversi, di sedersi attorno a un tavolo comune e di affrontare attraverso l'articolazione dei punti di vista, tematiche di grande portata: in primis, nuovi possibili fondamenti delle scienze dell'uomo (Bocchi-Ceruti 2010, X). Questa eredità fu raccolta, sempre nelle parole di Bocchi e Ceruti, da Jean Piaget e dai suoi collaboratori, da Jacque Monod, Edgar Morin, come anche dal chimico Ilya Prigogine, dal premio Nobel per la fisica Murray Gell-Mann, dalla filosofa Isabelle Stengers, per citarne solo alcuni. 1.1. Una definizione complessa Come si è già visto, però, la definizione con la quale ci si può correttamente riferire all'epistemologia della complessità, è di per sé una definizione complessa e aperta. Secono Margassi l'utilizzo del termine complessità gode di una grande liberalità: “Il fisico Seth Lloyd disse pochi anni fa di aver catalogato 32 definizioni diverse di complessità e questo ci dà l'idea della nebulosa di concetti e di iniziative coi quali ci troviamo a che fare” (Margassi 2008). Margassi tenta così di sintetizzare l'ampia portata di studi e ricerche che questo quadro di riferimento ci fornisce, rimarcando, come già in Tinti, la mancata identità con le consuete teorie scientifiche: In realtà non si tratta di una teoria né di una disciplina scientifica: per alcuni, è il tentativo di raccogliere sotto lo stesso titolo un insieme di sforzi scientifici solitamente separati ma caratterizzati da tratti comuni; per altri un'analisi del pensiero scientifico nel tentativo di cogliere novità meto- 1 L'espressione è ripresa dal titolo del saggio del sociologo Edgar Morin pubblicato in edizione italiana nel 1988 da FrancoAngeli. 10 The Lab’s Quarterly, 1, 2015 dologiche emergenti , per altri ancora, il rifiuto del riduzionismo e la negazione della tirannia delle leggi fondamentali riguardanti le particelle elementari (ib.). Uno dei contesti in cui, sempre seguendo l'analisi di Magrassi, il termine complessità viene utilizzato è quello in cui ci si occupa della Teoria del Caos. Se consideriamo tale teoria come facente parte del pensiero complesso, allora non possiamo che riconoscere una ben più antica origine da cui discese il filone di ricerca trattato. Magrassi fa così riferimento a Henri Poincaré e alla sua scoperta, risalente alla fine dell'Ottocento, secondo cui osservò che “un sistema costituito da tre soli corpi nello spazio, benché soggetto alle leggi note e ordinate della meccanica newtoniana e laplaciana, poteva esibire anche comportamenti non-deterministici” (ib.). Da qui dovette passare un secolo perché la Teoria del caos ricevesse l'attenzione mediatica, con la nota immagine dell' “effetto farfalla” del meteorologo Edward Lorenz. Ma perché è tanto difficile definire una volta per tutte il campo di applicazione e i confini disciplinafri di quella che Tinti definisce “una delle pagine più interessanti della storia del pensiero filosofico e scientifico contemporaneo” ? Per rispondere a questa domanda è necessario focalizzare l'attenzione sulla nozione di “epistemologia”, che ha prodotto un completo rovesciamento della prospettiva usuale con cui si era soliti approcciare gli studi delle scienze umane. A partire dalla “svolta epistemologica”, resasi necessaria dal crollo dei paradigmi della fisica newtoniana, della biologia darwinista e della teoria della cultura, al centro del dibattito e dell'interesse scientifico e filosofico non vi è più l'oggetto di studio, sia esso un gruppo umano, una particella subatomica o una cellula, ma lo scienziato che svolge la ricerca e che influisce, con la sua sola presenz,a sull'andamento dei fenomeni considerati. Così argomenta Von Foerster: L'attuale rivoluzione scientifica riguarda la scienza stessa. Non molti anni fa, i filosofi della scienza si interessavano alle finalità della scienza, o al suo significato. Oggi ci interessiamo di più alle finalità delle “finalità”, o al significato del “significato”. Oggi, ci interessiamo alla struttura logica delle nozioni che possono applicarsi a sé medesime. Perché? Per il semplice motivo che oggi vediamo la necessità di inserire lo scienziato nella sua scienza. In caso contrario, le affermazioni di un osservatore: “io ho misurato questo...”, “io ho osservato quello...” non possono essere interpretate finché non si determina precisamente, sul piano epistemologico, l'enigmatico operatore: “io” (Von Foerster, in Bocchi-Ceruti 2007, 94). Irene Conti 11 Come sostiene la filosofa Isabelle Stengers, se vogliamo vedere la teoria della complessità nell'ottica di una “scoperta”, è necessario tener fermo il punto che non si tratta di una scoperta del tipo che ci raffiguriamo quando abbiamo a che fare con la storia del pensiero scientifico, che procede per continue sostituzioni dei vecchi paradigmi con i nuovi. In questo caso ci troviamo, infatti, più di fronte ad una scoperta intesa come “risveglio ad un problema” come “presa di coscienza” (Stengers in Bocchi-Ceruti 2007, p. 37). Stengers rifiuta la possibilità di trasformare il nuovo pensiero complesso in paradigma, proprio perché esso solleva e problematizza la questione dell'onniscenza del punto di vista infinito e porta in primo piano la questione della “pertinenza”: In questo senso la “scoperta della complessità” avrebbe come prima caratteristica non quella di sostituire un'evidenza oggettiva con un' altra, ma quella di introdurre il problema della pertinenza di uno strumento che fornisce i mezzi per giudicare il “reale” (ciò con cui abbiamo “a che fare”) e per costituirlo come oggetto dalle categorie ben definite e che nello stesso tempo è suscettibile di essere giudicato dal reale stesso (ivi, 48). Già l'epistemologo Thomas Kuhn (1962) aveva sottoposto il percorso del pensiero scientifico ad un'analisi che poneva in primo piano quella che è la “storia” dietro la storia, una sorta di “meta-struttura” attraverso cui si disvela la fallacia delle pretese universalistiche dei modelli scientifici. Nel corso dei secoli i vari paradigmi elaborati dalla scienza, hanno attraversato le stesse fasi cicliche, in un primo momento c'è la generazione della nuova scienza, che domina incontrastata e che risponde coerentemente alle esigenze socio-politiche e culturali dell'epoca in cui sorge. Nel corso del tempo la visione dominante comincia ad essere intaccata da contraddizioni perturbative sempre più difficili da reinglobare all'interno del panorama ortodosso e dunque si passa, raggiunto il livello di soglia, alla scienza eterodossa che, attraverso una nuova rivoluzione, sostituisce il vecchio paradigma per essere destinata a subire, a sua volta, lo stesso tipo di processo. Molti di questi paradigmi si nutrono di miti rafforzati da cieche pretese di assolutismo e spesso dalla necessità di legittimare assetti politici ed economici. Attraverso l'epistemologia della complessità si tenta dunque di imboccare un percorso alternativo e non paradigmatico, ma critico nei confronti di modelli che non tengono conto dell'irriducibilità dell'interrelazione soggetto-oggetto, e capace di acquisire consapevolezza in merito a quella meta-struttura scientifica di cui argomenta Khun. 12 The Lab’s Quarterly, 1, 2015 Tra le sfide della complessità vi è dunque quella di reinterrogare la scienza in merito ai suoi presupposti e fondamenti, assieme alla problematizzazione del concetto di “oggetto” di studio e di ricerca. Questo può essere inteso, ad un livello più specifico, come il fenomeno o l'aspetto del mondo naturale, fisico, umano che una determinata disciplina tenta di indagare, in senso più trasversale come la messa in discussione dell'attribuzione di singole competenze a settorializzati campi del sapere, che conduce ad una delle caratteristiche più significative e innovative del pensiero della complessità: la transdisciplinarietà. 1.2. Oltre il settorialismo La pretesa di scomporre lo sterminato flusso dello scibile umano in aree di competenza appartenenti a discipline differenziate, appare allo scienziato della complessità come un retaggio del pensiero meccanicistico e riduzionista di difficile estirpazione. I criteri della chiarezza e della distinzione cartesiana e, ancor più significativamente, la frattura che il pensiero del cogito viene a creare tra sostanza pensante e sostanza estesa, comportano l'illusione di riuscire a semplificare un mondo complesso e sistemico, in parti e settori, la cui somma parrebbe restituire l'interezza dell'insieme. In una visione sistemica, come quella complessa, questo diventa impossibile poiché il senso del tutto unificato non è dato dalla somma di un insieme di parti isolate, ma dalla rete dinamica e flessibile delle relazioni che tra queste parti si vengono a creare. È dunque ormai da abbandonare la classica divisione in discipline e settori di competenza, perché questi non fanno che rinforzare un'idea che sottende quella che Bateson definirebbe “cattiva epistemologia”: Così isolando e/o frammentando i suoi oggetti, questo modo di conoscenza cancella non solo il loro contesto, ma anche la loro singolarità, la loro località, la loro temporalità, il loro essere e la loro esistenza. Esso tende a spopolare il mondo. Riducendo la conoscenza degli insiemi alla somma dei loro elementi, indebolisce la nostra capacità di accorpare le conoscenze; più generalmente atrofizza la nostra attitudine a collegare ( le informazioni, i dati, i saperi, le idee) a solo vantaggio della nostra attitudine a separare (Morin 2011, 28). La separazione che probabilmente si situa alle origini di tutte le altre è quella tra filosofia e scienza, da cui appunto derivarono tutti gli altri e più specifici campi disciplinari che andarono a situarsi da una parte o dall'altra della barricata, o ancora, più problematicamente si trovarono, Irene Conti 13 come le scienze sociali, su un confine incerto, tanto che ancora non si dà per concluso il dibattito per affermarne l'appartenenza. Questa incertezza e questa confusione derivano ancora una volta da una scorretta impostazione dualista per cui processi mentali e fenomeni sociali e culturali appaiono disgiunti dalle scienze fisiche e biologiche, alla stregua di sostanze immateriali che, prive di radici, volteggiano in una sorta di iperuranio metafisico. Così come, e forse più pericolosamente, alcuni scienziati vorrebbero ridurre la psicologia umana a una questione di chimica neuronale, situando competenze o stati d'animo in questo o quell'angolo del cervello, facendo sì che anche quella sacralità dell'integrazione invocata da Bateson ricada sotto il rasoio del brutale dissezionamento meccanicistico. Secondo quanto argomenta Morin (2011) due dei principi che vengono individuati come postulati fondanti della certezza del paradigma pre-Novecentesco, sarebbero tra di loro intrecciati e si rafforzerebbero reciprocamente. Questi postulati sono fondamentali per comprendere l'inclinazione settoriale a livello disciplinare che ha animato il “pensiero semplificante” e che ancora oggi scandisce e ordina il vasto campo del sapere. Si tratta del principio di separabilità e del principio di riduzione. Il primo deriverebbe direttamente dal Discorso sul metodo di Cartesio dove il pensatore francese sostiene che per risolvere un problema sia necessario scomporlo nei suoi elementi più semplici. La conseguenza di questa asserzione ha fatto sì che nell'ambito scientifico si venisse sempre più a sviluppare una tendenza alla specializzazione e, come degenerazione di questo processo, alla “iper-specializzazione” e “compartimentazione disciplinare in cui gli insiemi complessi, come la natura o l'essere umano, sono stati frammentati in parti non comunicanti”. Da qui alla “parcellizzazione generalizzata del sapere” e alla “separazione tra la scienza e la filosofia, e più in generale tra la cultura umanistica e la nuova cultura scientifica”, il passo è breve. Il principio di riduzione discende strettamente dal suddetto principio di separabilità e ne alimenta le istanze, i due principi associati danno vita a una diade che sembrerebbe essere costruita come una fortezza dietro cui il pensiero semplificante ha potuto trincerarsi e rendersi immune a qualsivoglia attacco. Solo l'epistemologia e il completo rovesciamento di prospettiva che essa ha permesso, ha saputo infiltrarsi ed intaccare questa formazione diadica talmente impeccabile e solida. La riduzione è il principio che attribuisce il diritto di cittadinanza nell'universo della scienza solo ai fenomeni misurabili e quantificabili. 14 The Lab’s Quarterly, 1, 2015 Il principio di riduzione anima tutte le imprese che cercano di dissolvere lo spirito nel cervello, di ricondurre il cervello al neurone, di spiegare l'umano attraverso il biologico, il biologico attraverso il chimico o il meccanico. Esso anima tutte le imprese che si occupano della storia e della società umana, facendo l'economia degli individui, della coscienza, degli avvenimenti (ivi, 34). Come si vede il riduzionismo fa parte di quel tentativo, già visto nella trattazione del principio di separabilità, di scomporre un problema in elementi sempre più piccoli. In questa indicazione sta dunque sia la separazione, che quel processo di riduzione che induce a procedere dal grande al piccolo, dal complesso al semplice e che, in ultima analisi, procede verso il tentativo di individuazione dell'elemento ultimo e fondativo di materia e fenomeni, perseguito con abbondanza di eclatanti sorprese dalla fisica contemporanea. Rispetto alla madre di tutte le separazioni disciplinari, quella tra filosofia e scienza, Morin così argomenta: …il mulino della filosofia, cessando di trarre alimento dalle scienze, e in particolare dalla conoscenze chiave sul mondo, sulla realtà fisica, sulla vita, sulla società, gira a vuoto, dedicandosi essenzialmente a macinare la sua stessa sostanza, il che del resto comporta la sua fecondità, ma rompe con una delle sue missioni tradizionali, quella di pensare e riflettere sui saperi acquisiti dalle scienze (Morin 2011, 31). D'altro canto la scienza, nella sua veste semplificatoria e riduzionista, ha solo apparentemente vinto sul pensiero filosofico complesso delle origini, così come lo spirito greco, sembra soltanto ad un analisi superficiale, essere stato soppiantato da quello romano: La semplificazione scientifica, proprio essa, ha fallito nella sua vittoria stessa: nella sua ricerca ossessiva del mattone elementare e della Legge Suprema dell'Universo ha incontrato, nei suoi ultimi progressi, e senza poterla riassorbire, la complessità che aveva eliminato nel suo principio (ivi, 39). Anche nella visione di Fritjof Capra (1982), la separazione tra cultura umanistica e scientifica, è un segno della nascita del pensiero riduzionista. In precedenza, questi due mondi non erano considerati strade alternative al percorso conoscitivo, ma convergevano entrambi verso un fine comune. Gli albori del pensiero moderno possono essere ravvisati nella Rivoluzione scientifica che ha per protagonisti Copernico, Keplero, Galileo, Bacone. In particolare a Bacone viene attribuita la formulazione esplicita del nuovo metodo scientifico: Irene Conti 15 Bacone fu il primo a formulare una teoria chiara del procedimento induttivo - a compiere esperimenti e a derivarne conclusioni generali, da verificare in ulteriori esperimenti- e acquistò una grandissima influenza grazie alla sua energica difesa del nuovo metodo. Egli attaccò coraggiosamente le scuole di pensiero tradizionali e sviluppò una vera passione per la sperimentazione scientifica (ivi, 49). Il metodo di Bacone raggiunse poi la definitiva consacrazione e sistematizzazione nella grande opera filosofica di René Descartes. A partire dal Cinquecento, dunque, iniziano a modificarsi drasticamente i fini e le modalità della ricerca scientifica. Il batesoniano finalismo cosciente, soppianta il rapporto olistico e sistemico tra uomo e natura, asservendo quest'ultima al dominio “patriarcale” della ricerca scientifica (ivi, 49). Nelle piccole comunità medievali, Capra ravvisa una mentalità molto più aperta nei confronti dell'organicità delle parti, sia sociali, che filosofiche e culturali. In questa prospettiva era naturale che lo scienziato fosse anche filosofo e sapiente poiché nulla di quello che la Natura mostrava veniva considerato in termini oggettivanti e dunque passibile di sperimentazione e analisi induttiva, l'universo era concepito come fonte continua di mistero ed induceva a una profonda reverenza e timore nei confronti del suo Creatore. L'ordine naturale era indagato ai fini di ravvisarvi e riconoscervi un senso più vasto e non già per sottoporlo alla logica del controllo e della predizione, che si farà poi strada con la metafora dell'Universo-macchina. Nemmeno i teologi, nell'ottica di Prigogine-Stengers (PrigogineStengers 1979, 50), riuscivano ad accettare la concezione del mondo di questi filosofi medievali, troppo complessa per essere soggetta al rigoroso controllo di Dio, la cui onnipotenza veniva vista come garanzia per l'esistenza di un ordine naturale tanto meccanico quanto domabile e facilmente assoggettabile. Il mondo naturale aristotelico, distrutto dalla scienza moderna non era accettabile, né da questi teologi, né da questi fisici. Tale mondo ordinato, armonioso, gerarchico e razionale, era un mondo troppo autonomo, gli esseri che lo abitavano erano troppo potenti e attivi, la loro sottomissione al Sovrano era troppo sospetta e limitata. D'altra parte era troppo complesso e qualitativamente differenziato per essere matematizzato. (ib.) Con la nascita della scienza classica, avviene dunque il processo di emancipazione della scienza dalla filosofia e dalla teologia, che, se da una parte conferisce grande stimolo e nuova linfa vitale allo sviluppo 16 The Lab’s Quarterly, 1, 2015 della conoscenza, grazie al graduale distacco dalla dipendenza con l'aristotelismo, dall'altra finisce, però, con il perdere quell'autocoscienza filosofica che avevo permesso uno sguardo meno dissezionante ed ossessivamente analitico. Tra la fine del diciannovesimo secolo e gli inizi del ventesimo, consci oramai della fallibilità del mito scientifico dell'universalità e dell'oggettività, si cominciò ad avvertire l'esigenza di portare ad una nuova convergenza gli studi filosofici e scientifici superando il baratro che li divideva e che vedeva la filosofia ripiegarsi sempre più su sé stessa e la scienza inaridirsi attraverso iper-specializzazioni che lasciavano fuori fuoco la visione d'insieme. Nell'interrogarsi sul rapporto tra scienza e filosofia i filosofi di quest'epoca proposero varie soluzioni che Tinti così riassume: ...la definitiva diversificazione tra scienze naturali e “scienze dello spirito” [Dilthey], l'integrazione delle scienze in un sapere più vasto, filosofico, fondato sulla critica della scienza tradizionale [Husserl], la trasformazione della filosofia in analisi logica del linguaggio oppure in una sorta di appendice riflessiva della scienza [neopostivismo] (Tinti 1998). Ma Tinti osserva come tutte queste proposte sembrarono portare filosofia e scienza a divergere sempre più fino ad un inasprimento dei rapporti a partire dagli anni Trenta (“Heidegger e l'esistenzialismo, la Scuole di Francoforte, l'ermeneutica, le correnti spiritualistiche e neoidealistiche”). È solo a partire dalla metà del Novecento che sembra si possa ritornare per scienza e filosofia a dialogare su un terreno comune. Già si è visto come la cibernetica abbia tentato di far riavvicinare gli studi umanistici e sociali con le scienze matematiche e informatiche: …la prima impresa scientifica esplicitamente transdisciplinare che – come testimonia Norbert Wiener – mise a confronto e fece interagire neurofisiologi e matematici, studiosi di balistica, economisti e antropologi... Fu quello – ha osservato Francisco Varela - “un momento particolarmente entusiasmante per le persone che lo vissero, paragonabile forse soltanto all'eccitazione che si produsse nel processo di consolidamento della meccanica quantistica, nei primi anni del secolo. Ed ebbe, a lungo andare, un impatto analogo sulla scienza e sulla società (Bocchi-Ceruti 2007, XXIV). Altro tentativo può essere ravvisato negli studi trans-disciplinari che furono raccolti sotto la dicitura di scienze cognitive e il più recente progetto di superare le barriere disciplinari è proprio quello che si sta sperimentando con l'epistemologia della complessità. Irene Conti 17 Anche in questo caso il riferimento al tema della multi disciplinarietà di questa nuova corrente di pensiero, non è assunto come semplice caratteristica di questa “sfida”, anche in questo caso infatti la trattazione è più complessa, poiché il superamento del settorialismo è ad un tempo causa e conseguenza del sorgere della complessità, è inscindibile dalla complessità, la fonda e la giustifica. Come Bocchi e Ceruti, sottolineano: La scoperta della complessità, o meglio la storia della complessità, rimanda all'intera storia della nostra tradizione scientifica ed epistemologica. Rimanda – come ci ha suggerito Isabelle Stengers – al problema di come si sia determinata l'identificazione della conoscenza con “il tipo di formazione disciplinare inventato per le cosiddette scienze 'dure' nel corso del diciannovesimo secolo” (ib.). Quindi è sia un decisivo punto di partenza teorico che rompe in maniera definitiva con il passato, sia un costante declinarsi di questa teoria in prassi, con il dialogo tra filosofi e scienziati che, all'interno di questa nuova cornice epistemologica, si è reso nuovamente possibile e fortemente auspicabile. 1.3. I sistemi complessi Se, come si è visto, non è possibile attribuire all'epistemologia della complessità una definizione univoca poiché sono molteplici e disparati i contributi che, dalle discipline più diverse, vi si riversano, è però possibile rintracciare e descrivere i tratti caratteristici che ricorrono nel riconoscimento di un sistema complesso. Richiamando una distinzione di Ashby, Tinti classifica i sistemi complessi in tre gruppi seguendo il loro grado minore o maggiore di complessità. I cosiddetti sistemi minimamente complessi sono quelli che i cibernetici chiamano “macchine banali”. Tra questi sistemi, troviamo “cristalli, nuvole, fiumi, particelle elementari e intere galassie (prive di vita), nonché tutti i dispositivi artificiali completamente descrivibili in termini di ingressi/uscite” (Tinti 1998). Con i sistemi di media complessità si comincia invece ad entrare nella categoria delle “macchine non-banali” della cibernetica, qui incontriamo i sistemi prebiotici, come i virus, i computer, i termostati e “tutti i dispositivi che hanno stati interni e che, pertanto non sono descrivibili 18 The Lab’s Quarterly, 1, 2015 completamente in termini di ingressi/uscite, tutte le macchine virtuali implementabili su computer e i virus informatici” (ib.). Si arriva infine ai sistemi complessi veri e propri, trovando ad un estremo i batteri e dall'altro le popolazioni umane, all'interno di quest'ultima categoria troviamo, inoltre, una suddivisione ulteriore: sistemi a complessità medio-alta come quelli dell'universo biologico, e sistemi ad alta complessità come quelli neurobiologici. Queste tre categorie possono essere distinte anche attraverso un ulteriore caratteristica: mentre i sistemi minimamente complessi non presentano interazioni adattive con l'ambiente, i sistemi di media complessità possono presentare funzioni adattive, manifestando nuovi comportamenti e sono per questo definiti “innocentemente emergenti”. I sistemi complessi, invece, sono tutti adattivi e danno vita ai cosiddetti fenomeni emergenti, tra i quali vengono comprese vita, mente, organizzazione sociale (ib.). Nella definizione operativa che ci viene offerta da Gandolfi un sistema complesso adattivo è “…un sistema aperto, formato da numerosi elementi che interagiscono fra loro in modo non lineare e che costituiscono una entità unica, organizzata e dinamica, capace di evolvere e adattarsi all'ambiente...” (Gandolfi 2008, 19). Ma quali sono le caratteristiche per identificare questi sistemi complessi? Di seguito verranno trattate le sei principali: l'interazione dinamica, l'apertura, la non linearità, la retroazione, l'autorganizzazione. L'interazione dinamica Si può notare, innanzitutto, che per i sistemi vale la celebre massima di Aristotele secondo cui il tutto è più della somma delle sue parti. Le componenti di un sistema interagiscono tra loro dando vita ad architetture che aumentano la complessità del sistema in un continuo alternarsi di nuove combinazioni. L'informazione che le parti del sistema si passano può essere scambiata sotto forma di materia, di energia o sotto forma digitale. Nell'interazione e nel comportamento organizzativo che le componenti presentano sta l'essenza di ciò distingue il sistema complesso da uno non complesso, come nell'esempio di Vester (Vester, 1983), riportato in Gandolfi: se consideriamo un mucchio di sabbia ci accorgiamo subito che non possiamo trovarci di fronte ad un sistema complesso proprio perché i granelli che lo compongono non hanno funzioni organizzative, non interagiscono tra loro e se vengono scambiati con altri granelli la natura del mucchio di sabbia resta inalterata (Gandolfi 2008, 17). Irene Conti 19 Il sistema aperto L'informazione non si propaga soltanto da una componente del sistema all'altra, ma anche dal sistema all'ambiente e dall'ambiente al sistema. Questo interscambio di informazioni è descritto dai termini “input-output”, dove per input si intende un'informazione che viene ricevuta dal sistema e per output, al contrario, un'informazione che viene inviata dal sistema verso l'esterno. Come si è già visto il sistema complesso adattivo è stato definito “un sistema aperto” e questa caratteristica permette all'interscambio di informazioni in entrata e in uscita di avere luogo. Questi flussi e scambi continui possono presentarsi, come nel caso delle interazioni tra le componenti del sistema, sotto forma di materia, energia, informazione. Per questo Gandolfi sottolinea come non ci si debba figurare gli scambi input-output, come prodotti veri e propri poiché questi possono avvenire anche semplicemente sotto forma di calore, di energia e in quest'ottica risulta chiaro come ogni sistema per garantire la propria sopravvivenza, debba necessariamente configurarsi come “sistema aperto”e poter ricevere, così, il nutrimento dall'ambiente (Gandolfi 1999, 20-21). Ciò che fa la vera differenza tra un sistema chiuso e uno aperto e conduce il secondo verso livelli sempre maggiori di complessità, è il rapporto che ciascuno dei due sistemi presenta con l'entropia. Va premesso, innanzitutto, che il sistema aperto presenta uno stato interno ordinato e, allo stesso tempo, dinamico, in continuo cambiamento, in cui l'ordine viene di volta in volta ristabilito reagendo con straordinaria flessibilità alle perturbazione provenienti dall'ambiente. Questo stato dei sistemi aperti viene definito “stazionario” e presenta la caratteristica dell'irreversibilità: ogni volta che al suo interno si presenta un cambiamento, non è più possibile tornare indietro, la trasformazione avvenuta è irreversibile. Dove c'è irreversibilità c'è anche entropia, intesa come il procedere, all'interno di un sistema, da un grado minore ad uno maggiore, di disordine. Nei sistemi chiusi, invece, le reazioni che interessano il sistema sono in parte reversibili (De Angelis 1996, 20). L'irreversibilità del sistema aperto dovrebbe, stando al secondo principio della termodinamica, condurre il sistema verso un'entropia crescente. Invece, i sistemi complessi sembrano contraddire questo secondo principio: malgrado questi continui processi irreversibili il sistema mantiene il suo ordine interno, più di quanto riesca a fare un sistema chiuso. Lo stato stazionario dei sistemi aperti rasenta spesso l'inconciliabilità con le leggi della fisica, poiché riesce ad assumere configura- 20 The Lab’s Quarterly, 1, 2015 zione altamente improbabili, che sono però, allo stesso tempo, formidabili ed efficaci strategie adattive. In base al secondo principio della termodinamica, la tendenza generale degli eventi della natura fisica è rivolta verso stati di massimo disordine e di eliminazione e appiattimento delle differenze...Al contrario il mondo vivente mostra una transizione verso ordini di carattere più elevato, verso l'eterogeneità e l'organizzazione (Bertalanffy 1969, 77). La non linearità Altra caratteristica che rende conto della complessità dei sistemi trattati è la non linearità. Nella sua definizione la linearità richiama la già discussa caratteristica dei sistemi complessi come composti da parti interagenti ed interdipendenti tra loro: “un problema è lineare se lo si può scomporre in una somma di componenti indipendenti tra loro” (Magrassi 2008). Abbiamo visto come tale proprietà non possa essere attribuita ai nostri sistemi che esprimono nel Tutto più di quanto risulterebbe dalla somma delle loro parti. Magrassi riporta anche la definizione sistemistica di linearità: “in Teoria dei Sistemi si dice lineare un sistema (meccanico oppure elettrico, termico, eccetera) che risponda in modo direttamente proporzionale alle sollecitazioni ricevute”. Lo stesso tipo di concetto viene espresso così nelle parole di Gandolfi “..non lineare significa che, anche variando in modo regolare l'input, l'output può comportarsi in modo non regolare e in modo non proporzionale alle variazioni dell'input” (Gandolfi 2008, 23, corsivo nel testo). Per chiarire meglio questo concetto possiamo rifarci al caso emblematico dell'oscillazione di una molla. Sappiamo che una molla vibra in un rapporto direttamente proporzionale alla forza applicata, quindi è possibile prevedere quale sarà l'output, la risposta della molla, conoscendo l'input, la sollecitazione a cui viene sottoposta. Sembrerebbe dunque che la molla non possa considerarsi tra i fenomeni definiti “complessi” poiché risponde ai criteri della linearità. Ma tra lo stato della molla che oscilla ordinatamente e proporzionalmente alla sollecitazione subita e lo stato limite in cui la molla sottoposta a una forza eccessiva si spezza, esiste uno stato intermedio in cui il comportamento lineare scompare. In questo stato di forze, la molla reagisce con comportamenti assai bizzarri e disordinati e non ha più valore la legge secondo cui all'aumentare della forza cresce proporzionalmente anche l'oscillazione osservata. In natura la stragrande maggioranza dei sistemi possono essere definiti non lineari, la linearità è un “artificio che ci serve per descriverne il comportamento normale, ossia nel suo intervallo usuale di Irene Conti 21 funzionamento” (Magrassi 2008). Quindi la linearità ben lungi che una questione epistemologica appare come una questione prettamente pratica dal momento che “non ci interessano le chitarre con le corde spezzate o gli amplificatori che distorcono il segnale: progettiamo chitarre pensando che a suonarle saranno chitarristi e non mocciosi dispettosi o scimmie, e progettiamo sistemi hi-fi che verranno installati in ambienti noti e controllati, con persone ragionevoli come utilizzatori” (ib.). Il carattere non lineare dei sistemi complessi conduce alla conclusione che il comportamento che tale sistema assumerà nel tempo rimane per lo più imprevedibile. La teoria della complessità infierisce un colpo ulteriore a quella che Ceruti chiama la hybris dell'onniscenza del pensiero scientifico moderno, il cui pilastro fondante era proprio quello della previsione di fenomeni attraverso la formulazione di leggi. L'esclusiva attenzione della scienza per ciò che è generale e ripetibile lascia il passo a una presa in considerazione anche di ciò che è singolare, irripetibile, contingente…Emergono così le limitazioni della previsione, non soltanto quelle dovute a una nostra ignoranza contingente ma anche e soprattutto quelle inerenti ai meccanismi stessi di costruzione delle conoscenze (Ceruti in Bocchi-Ceruti 2007, 5). Dalla non-linearità e dall'imprevedibilità si arriva facilmente alla visione non deterministica del sistema. Per cui non possiamo aspettarci che la molla risponda seguendo parametri che restano invariati e costanti nel tempo alle sollecitazioni a cui la sottoponiamo. Infatti anche il determinismo è un modello ideale che, come la linearità, non è riscontrabile in natura. Alla fine tendiamo comunque a servirci di sistemi non deterministici, a patto che questa caratteristica non ci disturbi troppo, a patto che un violino non si scordi troppo in fretta, che una radio non si desintonizzi con troppa frequenza , insomma anche in questo caso il determinismo è l'artificio che usiamo all'interno dell'intervallo usuale di funzionamento di una corda, una molla, una radio (Magrassi 2008). In altre parole, le leggi della scienza classica svelano ad oggi la loro natura costruttivista, tanto che non è più possibile mettere da parte la funzione fondativa che ha l'osservatore, lo scienziato, nella formulazione di determinati modelli che, come si è visto, rispondono a criteri artificiosi, piegano i comportamenti naturali ad una regolarità soltanto relativa e artificiosa. Possiamo parlare di una transizione ad una nozione di legge prescrittiva e necessitante a un'idea di legge intesa come espressione di un vincolo. […] Le leggi sono simili alle regole di un gioco che stabiliscono un universo di 22 The Lab’s Quarterly, 1, 2015 discorso, una gamma di possibilità in cui si ritagliano gli effettivi decorsi spazio-temporali, dovuti in parte al caso e in parte alle abilità o alle deficienze dei giocatori (Ceruti in Bocchi-Ceruti, 6). La retroazione La retroazione individuata dalla cibernetica e applicata ai sistemi circuitali, è uno strumento utile per far luce su ulteriori caratteristiche proprie dei sistemi complessi: la non linearità e il loro carattere non deterministico, implica infatti che nella loro trattazione non ci si possa rifare a catene lineali di processi, dove A ha un effetto su B che a sua volta ha un effetto su C. Nel caso dei processi sistemici complessi non solo da C possiamo tornare ad A formando il processo circuitale cibernetico, ma l'output di C può influenzare anche B. Nei sistemi complessi non dobbiamo più considerare il circuito, ma la rete, in cui ogni componente del sistema può essere influenzata dall'altra e a sua volta influenzarla. I sistemi complessi reali sono infatti costituiti da reti di una complessità inimmaginabile, con migliaia d' interazioni che si intrecciano, si incrociano, si inibiscono o si rafforzano a vicenda, si biforcano o si riuniscono, in un delirante gioco che nemmeno Dalì sarebbe riuscito ad illustrare (Gandolfi 2008, 26). Ci troviamo all'interno di interazioni incredibilmente complesse e dinamiche dove si producono circoli di feedback altamente articolati, al punto che non è possibile individuare il punto da cui è partito il primo input del processo, né il punto in cui si giungerà all'output finale. Un'altra conferma utile per abbandonare il mito scientifico della previsione. Com'è ovvio per applicare la nozione di retroazione ai processi complessi è necessario discostarsi dall'originario riferimento della cibernetica ai fenomeni meccanici. Introdurre il concetto nel mondo della psicologia e della biologia implica infatti che venga focalizzata attentamente la suddetta nozione di rete “Se gli elementi di un sistema sono più di due, le interazioni non possono essere trattate come se fossero indipendenti le une dalle altre e l'insieme deve essere osservato come un tutto” (De Angelis 1996, 15). Si vengono a produrre, tra gli elementi di un sistema, complessi circoli di feedback, per cui gli output tornando alla loro origine influenzano il successivo input, conducendo ad un processo che ricorda l'antico e insoluto quesito che chiede se sia nato prima l'uovo o la gallina (Gandolfi 2008, 27). Mentre il feedback negativo ha la funzione di mantenere la stabilità del sistema, riconducendolo sempre all'equilibrio, il feedback positivo è Irene Conti 23 quello che conduce al cambiamento progressivo e, se spinto oltre una certa soglia, può condurre il sistema al suo collasso. In un esempio molto banale possiamo raffigurarci di rispondere ad una sfida con un sorriso e di stemperare dunque le intenzioni dello “sfidante”, ma se rispondiamo con un “rilancio”, con una provocazione ulteriore, il sistema inizia ad incrinarsi pericolosamente, aumentando il grado di tensione. Nella sua ricerca etnografica presso la Nuova Guinea, Bateson si concentra sul rituale del Naven e sui concetti di schismogenesi simmetrica e complementare che possono essere considerati concetti antesignani del feedback. In una relazione caratterizzata da schismogenesi simmetrica, A risponderà con una sfida ancora più grande a quella proposta da B, mentre in una relazione complementare più B tenterà di sfidare A, più A si tirerà indietro mostrando un sorriso e ripristinando così l'equilibrio. Una società in cui i rapporti simmetrici aumentando sino a raggiungere il punto critico collasserà se non verranno attuate forme di schismogenesi complementare. Il rituale del travestitismo del Naven ha per Bateson proprio la funzione di ripristinare l'equilibrio controbilanciando relazioni simmetriche con relazioni complementari. In tutti i sistemi sembra che prima che il processo autocatalitico del feedback positivo raggiunga proporzioni insostenibili, si escogitino espedienti creativi come quello del rituale Naven per scongiurare il pericolo. Al contrario di quello che potremmo aspettarci quando un sistema si trova vicino a quella soglia critica che lo porta a sconfinare nella non linearità, diventando imprevedibile, e vedendo moltiplicarsi il livello di entropia interna, lungi dal precipitare nella catastrofe e nel caos, si fa più creativo aumentando flessibilmente il suo grado di adattamento. Questo è dovuto ha un'altra importante caratteristica dei sistemi complessi: l'autorganizzazione. L'autorganizzazione “… che cosa succede quando un sistema complesso adattivo si trova al margine del caos? Il sistema si auto-organizza” (Tinti 1998). Già come per Ashby il sistema ultrastabile ha ben poche possibilità di sopravvivere mentre in condizioni di instabilità e disequilibrio il sistema viene spinto ad uscire da forme cristallizzate che potrebbe condurlo all'atrofia e alla morte, rigenerandosi in nuove geometrie creative attraverso un'organizzazione spontanea. Compiendo questa nuova organizzazione si passa alla strutturazione di insiemi più complessi come può essere nel caso degli atomi che ad un livello superiore si organizzano in molecole. Salendo di livello in livello e passando dagli atomi, alle 24 The Lab’s Quarterly, 1, 2015 molecole, alle cellule fino ad arrivare all'ecosistema, si riscontra un aumento esponenziale delle possibilità di combinazione ed interazione, ma non per questo tali combinazioni ed interazioni potenzialmente infinite risultano attualizzabili. Compito di ogni parte del sistema è infatti quello di rispondere a “vincoli” che, se da una parte ne limitano la libertà, dall'altra rendono possibile che nel sistema finale ed intero emergano qualità non concepibili a livello delle componenti particolari. … il concetto di un vincolo … non limita semplicemente i possibili ma è anche opportunità; non si impone semplicemente dall'esterno a una realtà esistente prima di tutto, ma partecipa alla costruzione di una struttura integrata e determina all'occasione uno spettro di conseguenze intellegibili e nuove (Prigogine, Stengers 1981, 1076, cit. in Bocchi, Ceruti 2007, 7). Ancora non è chiara la ragione che spieghi il motivo per cui i sistemi “decidono” di ricorrere all'autorganizzazione, come abbiamo visto è plausibile che questo momento coincida con un' “emergenza” in cui, sulla soglia del caos, un sistema ricorra alla nuova organizzazione avendo raggiunto un punto critico oltre in quale o collassa o adotta nuove strategie per sopravvivere. Ma resta da chiarire come faccia il sistema a sapere in anticipo che sta per avvicinarsi a quella soglia critica, oltre la quale rischia il collasso. Una risposta a tale quesito può derivare dal riferimento alla proprietà reticolare del sistema, che determina un'interdipendenza tra tutti gli elementi dei sottosistemi, tra i sottosistemi e gli altri sottosistemi e tra tutti i particolari livelli gerarchici e l'insieme che vengono a formare. Per questa ragione Tinti parla di “gerarchia non piramidale”, volendo sottolineare la mancanza per quanto concerne la struttura dei livelli vista sopra, di un leader, di un centro operativo, che gestisce e controlla dall'alto le attività dei sottosistemi. Ogni livello è infatti asservito al superiore, ma non passivo. Ogni livello possiede al suo interno le informazioni che regolano il funzionamento di tutto l'insieme: il sistema è ologrammatico (Pribram 1977). Questa integrazione e sinergia e questa compresenza del tutto nelle parti e nelle parti nel tutto, rende il sistema più vigile e sensibile nei confronti di tutti i cambiamenti di stato che avvengono al suo interno e lo inducono, in un gioco di reciproche risonanze, a “sentire” con più esattezza quale sia la strada conveniente da percorre per non sopperire. Bisogna notare come la strutturazione di livelli gerarchici superiori non coincide con un cambiamento riguardante la natura degli elementi: il cambiamento avviene rispetto alle relazioni che si instaurano tra questi elementi, che si articolano con sempre maggiore complessità. Irene Conti 25 Anche se in un primo momento può sembrare che il sistema, formatosi a seguito del periodo caotico e irregolare che attraversa il sistema di origine, abbia acquisito un grado maggiore di semplicità, basta attendere affinché anche la nuova organizzazione cominci il suo processo evolutivo (Gandolfi 2008, pp 44-45). Il paradosso si stempera subito, appena il nuovo livello gerarchico, ormai stabilizzato inizia a sua volta una evoluzione, che lo porterà a livelli di complessità sempre maggiori e finalmente, una volta superata l'ennesima soglia critica, a un nuovo processo di autorganizzazione. Il processo si ripete ad infinitum, in un perenne alternarsi di semplificazione e complessificazione ( 46-47). È come se il sistema che attraversa la fase critica verso il cambiamento, si trovasse in quel particolare stato che Turner (1967), riprendendo una distinzione di Van Gennep, chiama liminale. Il periodo liminale nei riti di passaggio di Van Gennep (1909) è quello che segue la separazione dall'ordine sociale prescritto e che getta l'individuo in una “terra di nessuno”, lontano da leggi e convenzioni. É quello che si osserva laddove un sistema, come quello precedentemente illustrato della molla, comincia ad assumere comportamenti che non rientrano più nei criteri di linearità e determinismo che ci attenderemmo. Anche lo stato di liminalità, di confine, di margine, è un momento assai critico e rischioso per chi lo vive, che esula dall'analisi strutturalista, proprio perchè in questa fase la communitas prende il posto della societas, è dunque anch'esso un tipo di realtà, questa volta sociale, che rifugge da ogni previsione. È in questa fase che hanno luogo tutti i cambiamenti di status, come quello espresso dal fenomeno del travestitismo in Naven, che servono nella loro forma simbolica e rituale proprio per rinsaldare i valori sociali, attivando una soglia più alta di consapevolezza. Al termine del periodo liminale, l'individuo o il gruppo vengono infatti riassimilati all'interno della societas che, attraversata la fase della turbolenza e del caos, si è rinnovata, acquisendo un ritrovato equilibrio. Sharpe (Sharpe 2005) sottolinea come la perdita del riferimento ad una struttura sociale, comporta, oltre ad un alto ed ovvio grado di disorientamento e di rischio, anche una notevole potenzialità creativa. Questo spazio di confine se può convertirsi nella disintegrazione dell'individuo, come dei sistemi, può anche veicolare prospettive impreviste, fungendo da fecondo processo di gestazione che conduce all'articolazione di un nuovo tipo di ordine. Nella società contemporanea sono sempre di più i gruppi e gli individui che si trovano ad attraversare o a passare un'intera vita in una fase di liminalità culturale. Il processo di passaggio dal non luogo caotico di 26 The Lab’s Quarterly, 1, 2015 sospensione delle appartenenze alla nuova organizzazione è un processo tutt'altro che concluso: su scala globale osserviamo un moltiplicarsi delle soglie, un pericoloso incrinarsi delle linearità culturali, un aumento esponenziale delle reti comunicative. Il sistema culturale globale si trova in una fase in cui, per parafrasare Salman Rushdie “a volte ci sembra di cavalcare due culture, altre volte ci pare di cadere fra due sedie” (Rushdie 1994), la frizione tra locale e globale sembrerebbe declinarsi a volte in una sintesi organizzativa superiore, ed altre provocare un senso di profondo smarrimento, di insidiosa perdita di ogni certezza. Come abbiamo visto, l'obbiettivo di questa “sfida della complessità”, non è quello di fornire risposte consolatorie ad un andamento globale che in termini sociali, economici, politici, rasenta livelli sempre più alti e indecifrabili di articolazione. L'obbiettivo degli studi sulla complessità è proprio quello di far emergere queste dinamiche articolazioni, di sollevare nuove questioni, di problematizzare un'epistemologia con cui per molto tempo ci siamo illusi di pervenire alle ultime verità, ma che a fronte delle nuove evoluzioni scientifiche e sociali appare ormai consunta ed inutilizzabile. 2. LA BIOLOGIA POST-DARWINISTA Come si è visto, lo studio della complessità si presenta come un panorama dalla natura altamente multidisciplinare, caratteristica che deriva, riflessivamente, dalla visione che si impone attraverso le nuove esplorazioni compiute nei diversi ambiti della ricerca scientifica e sociale. La nuova visione impone infatti la definitiva affermazione della profonda ed essenziale interrelazione tra i fenomeni fisici, biologici, chimici, sociali e culturali. Questa interrelazione, che si compie a partire dal movimento cibernetico, viene accolta da esponenti provenienti dai più svariati campi del sapere, tra i quali un consistente numero di biologi, impegnati nel tentativo di far confluire le nuove proposte della biologia, all'interno del più ampio orizzonte degli studi complessi. Vedremo come il grande pilastro teorico con cui questi ricercatori si trovano a confrontarsi è quello del darwinismo e della sintesi che ne segue a partire dalla genetica mendeliana. In tutti questi autori si riconosce il tentativo di accogliere il grande contributo proposto nell'Origine della specie rivisitandone però alcuni specifici contenuti, che lungi dal voler sovvertire radicalmente le intuizioni e l'impianto teorico darwiniano, rendono però conto dei limiti che questo presenta di fronte alle recenti indagini empiriche. Irene Conti 27 Tra gli elementi di rottura con la tradizione e con la sintesi neodarwiniana, vale la pena di passare in rassegna i contenuti proposti dai biologi cileni Francisco Varela e Humberto Maturana nell'ambito della natura autopoietica dei sistemi viventi, in secondo luogo si farà riferimento alla problematicità riscontrata nel tradizionale approccio gradualista al fenomeno dell'evoluzione, e infine si procederà alla trattazione delle nuove accezioni di pluralismo evolutivo e coevoluzione. 2.1. I sistemi autopoietici Quando in una delle ultime interviste fu chiesto a Bateson chi altri stesse portando avanti lo studio del regno della Creatura, egli rispose che il centro di queste ricerche era a Santiago, in Cile, sotto la direzione di un uomo chiamato Maturana (Keeney 1979, cit. in Dell 1985). È a seguito di molte ricerche compiute nell'ambito della neurofisiologia e degli studi sulla percezione che Maturana comincia, a partire dagli anni Sessanta, a sviluppare la sua teoria dell'autopoiesi spostando l'attenzione dai rapporti tra l'organismo e l'ambiente, ai processi interni al sistema vivente stesso compiendo, dunque, una deviazione sul tradizionale tracciato del modello darwinista. È in questi anni che inizia la collaborazione con il suo allievo Varela che confluirà nel saggio Autopoiesi e cognizione: la realizzazione del vivente. Quattro anni più tardi il pensiero dei due ricercatori sarà più compiutamente sistematizzato con la pubblicazione de L'albero della conoscenza. In questo ultimo saggio prosegue il tentativo di gettare un ponte tra i fenomeni della conoscenza, dell'apprendimento, del linguaggio e quelli delle scienze biologiche ed evolutive, un po' sulla scia di quel grande maestro, Gregory Bateson, che concentrò tutta la sua sfida nel cercare di unificare tre grandi questioni delle scienze umane: evoluzione, epistemologia, problema mentecorpo, vanificando per sempre la separazione infeconda tra le scienze “dure” e quelle sociali. Le conclusioni che i due autori trarranno nel corso del loro percorso di ricerca concorderanno con quelle di Bateson per cui non si può dare distinzione alcuna tra il mondo mentale e il mondo dei sistemi viventi, ma tra le due dimensione c'è completa e perfetta sovrapposizione, poiché i nostri filtri percettivi ci impediscono di pervenire alla cosa in sé, ed ogni conoscenza sarà pertanto frutto di costruzione e creazione soggettiva, dalle possibilità potenzialmente infinite, ma limitata, di fatto, dai vincoli imposti dall'esterno. 28 The Lab’s Quarterly, 1, 2015 Allo stesso modo per Maturana e Varela, non è possibile dare conto del mondo biologico, senza passare dalla trattazione dei fenomeni della cognizione e del linguaggio. La vita stessa è cognizione, la vita stessa è linguaggio, poiché tutti i fenomeni che noi crediamo astratti al dominio scorporato della mente, sono in realtà fenomeni strettamente biologici. Seguendo l'osservazione di Dell P. F. (Dell 1985) mentre in Bateson c'è un richiamo continuo all'epistemologia, in Maturana incontriamo anche la formulazione di un'ontologia abbastanza precisa. Nell'intuizione dell'andamento processuale e circolare del sistema vivente, per cui conoscere equivale a vivere e vivere equivale a conoscere, si pone una premessa importante, da cui discende il nodo nevralgico delle teorie dei due ricercatori cileni. Un sistema circolare è anche un sistema chiuso dal punto di vista organizzativo perché ha la capacità di autogenerarsi senza bisogno di un intervento esterno. Da qui dunque deriva l'intuizione del sistema come autopoietico e cioè come sistema in grado di autorganizzarsi in maniera autonoma, chiuso rispetto alle informazioni derivanti dall'ambiente. Ovviamente un sistema si relaziona e riceve informazione dall'ambiente esterno, ma è chiuso ed autonomo nel senso che è lui stesso che decide come gestire queste informazioni, in altre parole, è la sua struttura che determina a quali interazioni partecipare e a quali rinunciare. Per ciò, se una cellula interagisce con una molecola X incorporandola nei suoi processi, quello che avviene come conseguenza di tale interazione non è determinato dalla proprietà della molecola X, ma dal modo con cui tale molecola è “vista” e assunta dalla cellula quando la incorpora (MaturanaVarela 1985, 66). Come in Bateson, anche per i due autori è importante capire fino in fondo quali siano le radici di certi criteri di distinzione che diamo per scontati, come ad esempio quello tra il mondo vivente e non vivente. Anche qui, dunque, troviamo riproposto il dilemma batesoniano tra mondo creaturale e pleromatico che venne risolto dallo stesso Bateson riscorrendo all'informazione. Mentre qui, il confine tra ciò che è da considerare parte del mondo organico e ciò che invece entra a far parte del dominio del vivente, è tutto da ricercarsi nella proprietà dell'autorganizzazione che come abbiamo visto è una proprietà centrale nella descrizione dei sistemi complessi. Quando parliamo degli esseri viventi, supponiamo che ci sia qualcosa in comune fra di essi, altrimenti non li metteremmo nella stessa classe che designiamo con la denominazione di “vivente”. Quello che non è stato detto, Irene Conti 29 tuttavia, è qual'è l'organizzazione che li definisce come classe. La nostra proposta è che gli esseri viventi si caratterizzano perché si producono continuamente da soli, il che indichiamo denominando l'organizzazione che li definisce organizzazione autopoietica (Maturana - Varela 1985, 59). Gli autori però riconoscono che in questa definizione potrebbe rientrare tutto ciò che viene definito come sistema, ogni sistema possiede infatti la capacità di autorganizzarsi e dunque anche un termostato potrebbe essere considerato un sistema vivente che mantiene l'equilibrio attraverso il circuito di risonanza negativa. Ma qui sta la peculiarità che distingue nettamente il mondo del vivente da quello inorganico: Quello che è però tipico degli esseri viventi è il fatto che gli unici prodotti della loro organizzazione sono essi stessi, per cui non c'è separazione tra produttore e prodotto. L'essere e l'agire di un'unità autopoietica sono inseparabili, e ciò costituisce la sua modalità specifica di organizzazione (Maturana – Varela 1985, 63). Quindi è alla stessa circolarità e ricorsività che lega il mondo dei fenomeni biologici con quelli sociali e cognitivi, che ci si riferisce allorché, come in questo caso, si incontri la necessità di dover operare un distinguo ulteriore e amplificare la portata del meccanismo autopoietico, che non solo genera, ma si auto-genera continuamente. Con la formulazione del concetto di autopoiesi si è pervenuti anche ad una visione che chiarisce quella di “apertura” dei sistemi complessi così com'era stata esposta da Bertalanffy. Secondo Bertalanffy un sistema vivente è organizzato mediante gerarchie “che predominano su tutte le altre forme organizzate perchè hanno avuto il tempo di evolvere e di predisporre le relazioni con l'esterno in modo restrittivo, impedendo che la complessità diventasse incontrollabile” (De Angelis, 1996, 48). Tale gerarchia si forma all'interno di sistemi aperti, la cui sopravvivenza è garantita dagli scambi di energia con l'ambiente esterno. Come osserva Ceruti nell'Introduzione a L'albera della conoscenza, a Maturana e Varela si deve il prezioso contributo di aver chiarito una volta per tutte la distinzione tra i sistemi aperti e i sistemi chiusi, e il riconoscimento della loro irriducibile complementarietà. Tale passaggio avviene con le definizioni di organizzazione e di struttura, che così vengono esposte da Maturana e Varela: Per organizzazione si intende l'insieme dei rapporti che devono esistere fra i componenti di un qualcosa perchè questo possa essere considerato come appartenente a una classe particolare. 30 The Lab’s Quarterly, 1, 2015 Per struttura di un qualcosa s'intende l'insieme dei componenti e dei rapporti che, concretamente, costituiscono una unità particolare nella realizzazione della sua organizzazione (Maturana – Varela 1985, 62). Mentre l'organizzazione fa riferimento al sistema come unità, come insieme di componenti che devono restare tali affinché il sistema si preservi e mantenga il suo ordine, la struttura attiene invece al contesto spazio-temporale in cui il sistema si contestualizza e a tutta la serie di relazioni che esso viene ad intessere con l'ambiente circostante. Mentre l'organizzazione resta invariata, la struttura può variare, ed è qui che può essere chiarita la distinzione tra sistema aperto e sistema chiuso: La chiusura si riferisce all'organizzazione (e all'ordine ciclico che la definisce), mentre l'apertura si riferisce alla struttura di un sistema particolare. L'autonomia di un sistema è definita dunque come la capacità del sistema di subordinare tutti i suoi cambiamenti strutturali alla conservazione dell'invarianza (chiusura) della sua organizzazione. (Maturana – Varela 1985, 18). È così che in questa compresenza di sistema aperto e chiuso nella descrizione del sistema vivente, si compie un'importante svolta rispetto alla tradizionale visione della biologia darwinista. L'ambiente è infatti ivi considerato non più come una sorgente istruttiva di cambiamento ma come una fonte di perturbazioni che solo il sistema nella sua circolarità chiusa può decidere se inglobare oppure no per produrre una trasformazione dell'organizzazione interna. Più sistemi o il sistema più l'ambiente sono in relazione tra loro attraverso quello che i due autori definiscono accoppiamento strutturale che è una “congruenza strutturale necessaria” che viene a costituirsi tra i vari sistemi che un osservatore costruttivamente fa emergere da uno sfondo in cui si trovavano in unità. In tale congruenza strutturale una perturbazione dell'ambiente non contiene in sé la specificazione dei suoi effetti sull'essere vivente, ma è questo con la propria struttura che determina il suo stesso cambiamento in rapporto alla perturbazione (Maturana – Varela 1985, 93). È attraverso questo accoppiamento strutturale, questa correlazione dove coesistono vincolo e libertà, indipendenza e coordinazione, che viene a costituirsi il fenomeno dell'adattamento, attraverso un particolare tipo di processo che può introdurre il secondo elemento di rottura con la sintesi neo-evoluzionista: la deriva. Irene Conti 31 2.2. Deriva, bricolage, exattamento: al di là della logica prescrittiva All'idea dell'evoluzione per tappe lineari e progressive Varela e Maturana contrappongono l'immagine della deriva naturale, in cui non si rende più necessaria la presenza di una direzionalità esterna, poiché l'obbiettivo dell'evoluzione non è quello di ottimizzare l'adattamento dell'organismo al suo ambiente, quanto piuttosto il mantenimento dell'omeostasi interna: Quello che noi proponiamo qui è che l'evoluzione si verifica come un fenomeno di deriva strutturale sotto continua selezione filogenetica , in cui non c'è progresso né ottimizzazione dell'uso dell'ambiente, ma solamente conservazione dell'adattamento e dell'autopoiesi, in un processo in cui organismo e ambiente permangono in continuo accoppiamento strutturale (Maturana – Varela 1985, 63). Viene qui, dunque, scardinato il concetto di teleonomia proposto da Monod (Monod 1970), che veniva attribuito agli esseri viventi come criterio chiave per la loro distinzioni dagli esseri non viventi: il sistema vivente è tale, infatti, perché oltre alle caratteristiche di morfogenesi autonoma e di invarianza riproduttiva presenta anche quella di essere un oggetto dotato di un progetto e dunque orientato verso un fine. Tale determinismo viene a perdersi nell'imprevedibilità che caratterizza l'evolversi dei sistemi autopoietici attraverso la deriva, che più che a caso e necessità sembrano rispondere a vincoli e possibilità. Per rendere più chiara l'immagine della deriva naturale gli autori tentano di illustrarla con un utile esempio: se lasciamo cadere delle gocce d'acqua lungo una collina, il risultato finale ci apparirà come un insieme articolato e ramificato di rivoli e grovigli d'acqua, che in qualche modo hanno adattato il loro percorso all'ambiente come meglio potevano, evitando ostacoli e subendo gli effetti di agenti esterni come i venti. Nel momento in cui osserviamo l'intricato disegno dei rivoli d'acqua possiamo pensare che questo fenomeno della deriva abbia seguito strade casuali, ma ad un analisi più attenta possiamo accorgerci che ogni goccia d'acqua ha risposto coerentemente a quelli che Ceruti chiamerebbe vincoli imposti dall'ambiente (Ceruti 1986). Dunque il sistema vivente appare alla luce della nuova visione qui proposta, come più autonomo e creativo: non reagisce agli stimoli imposti dall'ambiente in modo passivo, ma diviene il primo responsabile delle stasi o dei cambiamenti che attraversa senza mettere a repentaglio la propria identità. La vita sembra non adattarsi agli input prescrittivi che riceve, ma pare ricrearsi seguen- 32 The Lab’s Quarterly, 1, 2015 do i propri percorsi e comportandosi in modo plastico, flessibile e complesso. Viene a perdersi, dunque, la visione lineare e graduale del processo evolutivo che aveva caratterizzato negli anni Trenta e Quaranta del Ventesimo secolo il pensiero della sintesi neo-evoluzionista. Alla metafora dell'evoluzione come scala progressiva di perfezionamento che parte dai batteri e prosegue fino al vertice occupato dall' Homo Sapiens, si sostituisce un metafora ben più modesta del processo evolutivo: L'evoluzione… assomiglia a uno scultore vagabondo che passeggia per il mondo e raccoglie un filo qui, una latta là, un pezzo di legno più in là e li unisce nel modo consentito dalle loro strutture e circostanze, senza altro motivo se non che è lui che può unirli. E così nel suo vagabondare, si producono forme complesse composte da parti armonicamente interconnesse, che non sono prodotto di un progetto ma di una deriva naturale (ivi, 111). Un'altra metafora in grado di render conto, oltre che del carattere plastico e creativo del processo evolutivo, anche della sua capacità di riutilizzo intelligente di alcune strutture storiche, è quella di evoluzione come bricoleur. Tale immagine di un processo creativo di assemblaggi e riadattamenti si deve far risalire a Lèvi-Strauss che la adotta in analogia alla formazione delle credenze mitiche (Strauss 1962, 32). Viene poi ripresa da Francois Jacob per sostituire la classica immagine dell'orologio e della macchina nella raffigurazione dell'andamento del processo evolutivo (Jacob 1978). Così si esprime Jacob nella descrizione di questa felice metafora che richiama nel passaggio qui di seguito riportato l'immagine del creativo scultore già fornitaci in Varela-Maturana: ...l'evoluzione si comporta come un bricoleur che nel corso di milioni e milioni di anni rimaneggia lentamente la sua opera, ritoccandola continuamente, tagliando da una parte, allungando da un'altra, cogliendo tutte le occasioni per modificare le vecchie strutture in vista delle nuove funzioni (ivi, 18). Tale bricoleur inoltre “non sa esattamente che cosa produrrà, ma recupera tutto quello che trova in giro, si arrangia con gli scarti, le cose più strane e diverse, pezzi di spago e di legno, vecchi cartoni, insomma utilizza tutto ciò che ha sottomano per farne qualche oggetto utile” (ib.) Il tempo, dunque, in questa nuova visione di rottura con il programma “adattamentista” non viene azzerato nella prospettiva del raggiungimento di un grado maggiore di ottimizzazione, ma la storicità di qualsiasi organismo biologico entra prepotentemente a far parte della dina- Irene Conti 33 mica del cambiamento per essere adattata a nuove, specifiche funzioni (Bocchi,Ceruti, 2007, XIV). A questa direzione di storicismo e riutilizzo a cui rimanda il processo evolutivo del bricolage, si può ricondurre il concetto di exattamento, coniato dai paleontologi Stephen Jay Gould ed Elisabeth S. Vrba (1982), per cui, ancora una volta, al momento della necessità di utilizzo di funzioni nuove, la natura non le crea dal nulla, ma riadatta forme preesistenti a utilizzi correnti. L'exattamento differisce dal processo di adattamento della teoria darwinista, poiché ancora una volta sottolinea una sottesa logica di non linearità come peculiare caratteristica del cambiamento evolutivo “Se nel paradigma ingegneristico l'adattamento ha un ruolo predominante, in quello del bricolage esso è in concorrenza con mutazioni neutrali, exattamenti, disfunzioni” (Sapienza 2005). Alcuni caratteri scelti dalla selezione naturale per lo svolgimento di determinate funzioni, vengono difatti “cooptati” e exattati per un nuovo uso o, ancora, alcuni caratteri che in origine non erano stati presi in considerazione dall'opera della selezione naturale, vengono ora cooptati per essere utilizzati. Gould e Vrba ipotizzano che le suture visibili nel cranio di giovani mammiferi, siano da ritenersi indispensabili per facilitare il momento della nascita. Ma le stesse suture appaiono anche nel cranio di giovani uccelli e rettili, la cui nascita avviene semplicemente con la fuoriuscita da un uovo rotto. Si può dunque vedere in queste suture una forma di exattamento, un esempio di riuso creativo ed intelligente di alcune strutture “cooptate” per asservire nuove funzioni e nuovi scopi (Gould – Vrba, , 5). Nell'evoluzionismo classico le canalizzazioni sono invece viste come frutto di precedente selezione, tenendo fermo e preminente, dunque, il ruolo dell'adattamento. Allo stesso modo le strutture cooptate sono ritenute forme di preadattamento, sorte per adattarsi a funzioni diverse, ma pur sempre in versione adattiva. Quello che Gould e Vrba contestano con la teoria dell'exaptations, è proprio il voler considerare ogni struttura sorta per la cooptazione, così come ogni canalizzazione come forme di adattamento o di preadattamento: “… molti canali di sviluppo non sono mai stati adattamenti ad alcunchè, ma sono invece sorti come prodotti secondari o conseguenze accidentali di cambiamenti basati sulla selezione” (Gould, cit. in Bocchi - Ceruti 1984, 211). Gli evoluzionisti ammettono sicuramente questo fenomeno, ma sono in errore, in quanto tendono a considerarlo come marginale, relegandolo al ruolo di eccezione marginale che può tranquillamente venire ignorata, non costituendo alcuna minaccia per l'impostazione della logica classica. 34 The Lab’s Quarterly, 1, 2015 … si tende a considerare questi non adattamenti come una sorta di frangia evolutiva, come un insieme di modifiche piccole e accidentali che non comportano alcuna conseguenza fondamentale. È questa una valutazione che io contesto, sostenendo invece che l'insieme dei non adattamenti, possa avere un'estensione più ampia degli adattamenti diretti che li generano (ivi, 212). Pertanto si fa sempre più evidente la necessità di ricercare proprio in queste eccezioni, in queste marginalità, la strada compiuta dall'evoluzione e tali ricerche aprono le porte ad uno scenario del tutto nuovo in cui si fa sempre più evidente come la natura non operi al pari di un divino artefice o di un erudito, ma di un abile artigiano e creativo bricoleur. Sono tracce di imperfezioni, discontinuità stranezze che questo bricoleur lascia dietro di sé e da cui possiamo trarre qualche indizio per la ricostruzione del percorso evolutivo: “Sono dunque gli strani espedienti e le soluzioni buffe quelli più adatti ad illustrare la teoria dell'evoluzione, poiché sono alternative che un Dio non avrebbe preso in considerazione ma che un processo naturale limitato dalla storia doveva scegliere per forza” (Golud, 1980, 13). Così è per esempio per il pollice del panda, che non si è evoluto separatamente come quinto dito, ma come ristrutturazione dell'osso sesamoide del polso che si è ingrandito e allungato fino a raggiungere le dimensioni di un pollice normale dal momento che il panda ha ristretto la sua dieta alla sola pianta di bambù. La necessità con il passaggio al vegetarianesimo è divenuta quella di ripulire le canne dalle foglie e per questo la natura ha ristrutturato la piccola parte del polso, il sesamoide, per riadattarla al nuovo scopo. (ib., 13-14) Un altro esempio di exattameto può essere quello che riguarda l'utilizzo delle piume negli uccelli: originariamente il piumaggio aveva infatti lo scopo di mantenere la temperatura corporea e solo in un secondo tempo venne utilizzato per il volo (Gould 2002, 1520). L'antropologo Ian Tattersall osserva come, lo stesso sviluppo di una tecnica decisiva per la storia di Homo Sapiens, come quella del linguaggio, possa essere considerata come un'abilità exattata: le caratteristiche anatomiche che contraddistinguono un essere parlante e che comprendono il tratto della laringe bassa e la faringe alta, erano difatti presenti molto tempo prima che il linguaggio venisse utilizzato. Quindi lungi dal seguire un percorso ordinato all'interno di un progetto prestabilito, lineare e finalistico, l'evoluzione si comporta in modo imprevedibile rifuggendo dalla logica di una legge prescrittiva. È al contrario, ad una logica proscrittiva che la selezione naturale del più adatto va conformandosi, passando dunque dal monito “ciò che non è permesso è vietato” a quello secondo il quale “ciò che non è vietato è Irene Conti 35 permesso” (Gambardella, 2009). “Il caso e la necessità” proposti da Monod come principi cardine per la spiegazione evoluzionista, vengono dunque sostituiti da quelli di “vincolo e possibilità” proposti da Ceruti, rendendo così conto della pluralità ed eterogeneità delle strategie adottate e dell'imprevedibilità dei percorsi seguiti. 2.3. Tra gradualismo e antigradualismo Oltre alla visione di un'evoluzione volta all'ottimizzazione attraverso un progressivo adattamento delle specie all'ambiente, la teoria classica prevede che tutti questi cambiamenti adattivi avvengano seguendo un ritmo costante, in un processo di sviluppo continuo e graduale. Già all'epoca di Darwin la geologia e la paleontologia dimostravano un'irriducibile discontinuità nella storia dell'evoluzione, ma questo aspetto, documentato dai resti fossili, veniva ricondotto ai limiti e alle imperfezioni della ricerca, che si sarebbero potuti superare con l'affinamento della documentazione. Per Darwin non esistevano vie di mezzo: o si aderiva alla teoria dell'evoluzione o si prestava fede all'incompletezza dei ritrovamenti fossili, ma pareva che l'uno e l'altro di questi due aspetti fossero destinati a rimanere inconciliabili. Ogni volta che si presentava il problema di dover giustificare la mancanza della continuità storica postulata dalla teoria, la questione si risolveva ipotizzando che la deperibilità del materiale fossile avesse causato la perdita degli “anelli mancanti”della documentazione. Darwin era talmente concentrato nella difesa serrata dell'impianto evoluzionistico e gradualista da voltare le spalle cocciutamente ad ogni riprova empirica che contrastasse con il suo grande progetto: I nostri documenti geologici sono estremamente imperfetti, e ciò spiega perché non troviamo varietà intermedie che colleghino insieme tutte le forma estinte a quelle esistenti attraverso passaggi graduali della maggior sottigliezza possibile. Chi respinge questo punto di vista sui documenti geologici rigetterà giustamente l'intera mia teoria (Darwin, cit. in Gould, 1980, 171). Uno dei problemi più spinosi che venne definito da Darwin un “abominevole mistero” fu, ad esempio, quello della comparsa repentina e improvvisa delle angiosperme, le piante dotate di fiori apparse nel Cretaceo, di cui non si trovò alcuna traccia in epoca precedente. Ancora 36 The Lab’s Quarterly, 1, 2015 una volta si preferì aderire ciecamente alla logica gradualista della teoria liquidando le evidenze empiriche (Bocchi-Ceruti 1984, 21-22). Altra particolare e significativa incongruenza con l'ipotesi gradualista emerse quando, grazie alla scoperta della radioattività, fu possibile stabilire che l'età della terra corrispondeva ad alcuni miliardi di anni e che le prime elementari forme di vita come i procarioti e i batteri datassero la propria comparsa più o meno allo stesso periodo, intorno ai 3,5 miliardi di anni fa: “La vita, con tutta la sua complessità, è probabilmente emersa rapidamente, più presto che ha potuto”.(Gould 1980, 206). Darwin aveva ipotizzato invece il tempo profondo per giustificare la graduale comparsa delle prime forma di vita. Altro schiaffo all'idea di uno sviluppo lento e progressivo viene dalla datazione della formazione della vita pluricellulare che avviene miliardi di anni dopo quando l'ottanta per cento del tempo è già passato ed esplode repentinamente e senza alcun preavviso. Le rocce più antiche risalgono a 4 miliardi di anni fa, e le prime e già complesse forme di vita (alghe verdi e bul e batteri) hanno più di 3,5 miliardi di anni. La teoria classica non è in gradi di spiegare come un tale livello di complessità possa essere emerso nel periodo relativamente breve di 500 milioni di anni: una mistura casuale del brodo molecolare avrebbe richiesto un tempo incomparabilmente maggiore per produrli (Laszlo 2005). Ma Darwin, nonostante i dubbi sollevati dall'amico Thomas Henry Huxley, non rinunciò all'antico adagio natura non facit saltus offrendo dunque una visione della selezione naturale come una forza sotterranea e paziente che opera con continuità e costanza e, al pari della mano invisibile postulata da Adam Smith, agisce avendo come unico scopo il massimo perfezionamento della specie. Tra gli anni Trenta e Quaranta del ventesimo secolo , la sintesi neodarwiniana tentò di far convergere il programma di ricerca mendeliano con la teoria classica: alla base dell'evoluzione vi sarebbero i cambiamenti genetici, le “mutazioni”, sui quali poi entrerebbe in azione l'opera della selezione naturale. Queste mutazioni consterebbero in cambiamenti piccoli ed impercettibili ed è in questa asserzione che si rincontra il postulato gradualista della visione classica. Nel 1972 Stephen Jay Gould e Niels Eldredge propongono una visione alternativa a quella del gradualismo formulando la teoria degli equilibri punteggiati (Gold Eldredge, in T.J.M. Schopf 1972, 82). Secondo i due paleontologi il vecchio adagio di Linneo strenuamente difeso da Darwin va capovolto a seguito della grande mole di prove e ritrovamenti fossili: la natura avanza per salti e a lunghi periodi di stasi Irene Conti 37 seguono fasi di rapidi e repentini mutamenti. Le nuove specie secondo questa ipotesi non discenderebbero da una popolazione antenata, ma a seguito di una scissione dalla linea evolutiva originaria. Le due evidenze che secondo Gould minerebbero alle basi la visione gradualista in favore dell'andamento descritto dall'equilibrio punteggiato riguardano l'osservazione della stabilità e dell'apparizione improvvisa: La stabilità: la maggior parte delle specie non presentano alcun cambiamento direzionale durante la durata della loro presenza sulla terra. I primi fossili che si posseggono assomigliano molto agli ultimi; i cambiamenti morfologici sono generalmente limitati e senza direzione. L'apparizione improvvisa: in una data zona, una specie non appare progressivamente in seguito alla trasformazione regolare dei suoi antenati; essa sorge tutt'ad un tratto e completamente formata (Gould 1980, 172). Tuttavia, nonostante la sua posizione strettamente antigradualista Gould non si spingerà sino a rifiutare in blocco il pensiero fornito dalla sintesi moderna. Ciò da cui prende le distanze è piuttosto quella perniciosa triade che il darwinismo nella sua formulazione classica porta con sé. Gli studi e le ricerche più recenti, infatti, non sembrano confutare il nocciolo duro dell'evoluzionismo darwininano, la creatività della selezione naturale, ma ciò che, fuor di dubbio, è destinato a scomparire per sempre, sono quei capisaldi che si scontrano ripetutamente con l'evidenza della complessità e pluralità della vita: gradualismo, adattamento, riduzionismo. Questi postulati sono ormai da abbandonare e sta nella mancanza del loro rifiuto il limite della sintesi neodarwiniana. Nello stesso tempo si comprende come essi siano riusciti a resistere così a lungo se osserviamo che la loro forza sta nell'essere strettamente correlati tra loro tanto da alimentarsi continuamente gli uni con gli altri. Tale quadro preciso ed organizzato si deve ancora una volta al paradigma meccanicista che i recenti studi sulla complessità stanno tentando, su più fronti, di demolire. Tale modello è però particolarmente difficile da arginare proprio per l'insistenza con cui si ripropone all'occhio dell'osservatore, condizionandone il punto di vista. Il gradualismo, in particolare, si lega strettamente al presupposto adattamentista poiché: Se la selezione diventa creativa sovrintendendo, generazione dopo generazione, al continuo inserimento di variazioni favorevoli in forme mutevoli, allora il cambiamento evolutivo deve essere fondamentalmente adattivo. Se l'evoluzione procedesse a salti, o fosse guidata da tendenze generate internamente in direzione della variazione, l'adattamento non 38 The Lab’s Quarterly, 1, 2015 sarebbe un attributo necessario del cambiamento evolutivo (Gould in Bocchi Ceruti 1985, 205). Adattamento e gradualismo partecipano coerentemente all'opera della “mano invisibile” della selezione, attraverso la lotta tra gli individui, che è sottesa al processo evolutivo, solo in apparenza così ordinato e armonico. Tale visione di lotta e competizione per il mantenimento dell'equilibrio conduce ad estrapolare gli organismi individuali come principali protagonisti dell'opera di selezione, adoperando quindi una prospettiva riduzionista: Darwin sviluppò la sua teoria della selezione naturale trasponendo nella natura l'affermazione fondamentale dell'economia di Adam Smith: l'ordine economico può essere meglio realizzato se si consente agli individui di lottare per i loro profitti personali, realizzando con ciò una sorta di setaccio naturale che vaglia i più competitivi (laissez fair). Così l'ordine ecologico è un equilibrio transitorio ottenuto da concorrenti di successo che ricercano il proprio vantaggio darwiniano. Come conseguenza di fondo, questa focalizzazione sugli organismi individuali conduce al riduzionismo, anche se naturalmente non agli atomi e alle molecole quali elementi fondamentali: conduce al riduzionismo dei processi di ordine superiore, o macroevolutivi, a una serie di ripetute lotte tra individui (ivi, 206). Ma il modello biologico evoluzionista centrato sui piccoli cambiamenti continui e graduali finalizzati all'adattamento attraverso la competizione tra i singoli organismi, non riproduce soltanto ed in modo assai coerente, il modello economico liberista che andava prendendo piede in quegli altri, ma anche un determinato assetto sociale che contribuiva a legittimarlo e a farsi, a sua volta, legittimare. Se infatti i dati empirici della paleontologia continuavano ad alzare voci contrastanti rispetto alla teoria dominante, questa poteva contare sull'appoggio di un ordine culturale e politico, grato di vedersi rispecchiare nelle leggi della natura. Nell'era delle monarchie europee, il cambiamento veniva aberrato dagli scienziati della natura, mentre si inneggiava all'ordine statico come prova della legge divina riflessa nelle monarchie illuminate. Poi le cose cambiarono e nell'epoca delle rivoluzioni che seguirono nel XVIII secolo al crollo dell'assetto monarchico, il cambiamento, nella forma graduale e costante che voleva il liberismo, cominciò ad emergere prepotentemente come protagonista del mito scientifico che si andava costruendo. Se dunque l'idea del cambiamento e, più specificatamente, la visione di un cambiamento di tipo gradualista, si è formata di riflesso ad un determinato assetto culturale, è guardando a culture “altre” che probabilmente, prosegue Gould, possiamo pervenire ad una filosofia in grado di rispec- Irene Conti 39 chiare al meglio il tipo di evoluzione ad equilibri punteggiati che viene prospettata. Potremmo, ad esempio, rifarci alle leggi della dialettica di Engels che gli scienziati dell'Unione Sovietica adoperavano per illustrare una teoria del cambiamento: una visione questa senz'altro più adatta a render conto della progressione evolutiva per salti ed apparizioni improvvise. Questo poterebbe apparire confuso, ma suggerisce che i cambiamenti avvengono attraverso grandi salti in seguito ad una lenta accumulazione di sforzi a cui il sistema oppone la sua resistenza fino a che non ha raggiunto il punto di rottura (Gould 1980, 175). Ritroviamo qui il postulato dell'auto-organizzazione dei sistemi complessi adattivi per cui tali sistemi hanno la capacità di utilizzare espedienti creativi per evitare il collasso, nel momento in cui l'accumulazione dei feedback positivi di rinforzo sembrerebbe minacciare l'equilibrio del sistema. In realtà è proprio un perenne stato di disequilibrio e precarietà a rendere il sistema flessibile ed in grado di trovare sempre strade nuove per potersi rinnovare. 2.4. Autorganizzazione ed exattamento: l'integrazione nella proposta di Stuart Kauffman Negli anni Novanta la ricerca biologica apporta grandi contributi alla scienza della complessità grazie al lavoro svolto al Santa Fe Institute dal biochimico Stuart Kauffman e dai suoi collaboratori. Nel saggio A Casa nell'universo. Le leggi del caos e della complessità (1995) Kauffman riprende i fili del percorso già cominciato negli anni Settanta da Ilya Prigogine esplorando il sistema vivente a ridosso del caos, dove avvengono i cambiamenti più sorprendenti che ne rivelano l'irriducibile complessità. È da questo volume che Kauffman tenta di avvicinarsi all'individuazione di una possibile definizione di vita, che verrà poi meglio puntualizzata nel lavoro conclusivo di Esplorazioni evolutive (2000). Il quadro che l'autore ci fornisce della vita in A casa nell'universo, ci conduce verso una proliferazione conturbante e allo stesso tempo affascinante di diversità che è alla radice stessa di ciò che possiamo considerare come sistema vivente, dove, ancora una volta, incontriamo un intero non scomponibile che è molto di più della somma delle sue parti: 40 The Lab’s Quarterly, 1, 2015 …un fenomeno emergente che si sviluppa quando la diversità molecolare di un sistema chimico pre-biotico supera un dato livello di complessità. Se questo è vero, allora la vita non si trova nelle proprietà individuali di ogni singola molecola (nei dettagli) ma è una proprietà collettiva di sistemi di molecole interagenti tra loro. In quest'ottica la vita è emersa per intero ed è sempre rimasta un tutt'uno. In quest'ottica, essa non deve essere ricercata nelle sue parti, ma nel complesso delle proprietà emergenti che creano il tutto … Nel tutto che emerge e si auto-riproduce non è presente alcuna forza vitale o sostanza estranea. E tuttavia, il sistema complessivo possiede una sorprendente proprietà che è assente in ognuna delle sue parti: può riprodurre se stesso ed evolversi. Il sistema complessivo è vivo, mentre le sue parti non sono altro che molecole chimiche (Kauffman 1995, 122). Si può pertanto provare a problematizzare quell'approccio riduzionista proposto da Weinberg (Weinberg 1993) secondo cui è possibile postulare un'unità della scienza dal momento in cui, in ogni sua branca, per poter rispondere alle domande ultime dobbiamo rivolgerci al mondo microscopico, direzionare la nostra attenzione verso il basso, verso le particelle, le cellule e i geni. Kauffman propone una visione per cui, al contrario, è alla rete che bisogna guardare, al complesso dell'insieme, poiché è dall'interazione tra le parti che si sviluppa quel qualcosa di misterioso che chiamiamo “vita”, che in ciascuna parte presa singolarmente, non sarebbe stato possibile nemmeno prefigurarsi (Kauffman 2000, 341). Telmo Pievani individua nell'ultimo saggio di Kauffman, Esplorazioni evolutive una svolta intellettuale e scientifica assai significativa, di notevole rottura con le sue opere precedenti e soprattutto con la visione presentata in A casa nell'universo: si rintraccia qui infatti una prospettiva prettamente astorica dell'evoluzione, dove il processo della vita viene a configurarsi come una semplice conseguenza dell'inevitabile, dove la dimensione storica ha sì un ruolo, ma assai marginale poiché, alla lunga, viene riassorbita da un ordine statistico ripetitivo inserito in schemi generali (Telmo Pievani, in Stuart Kauffman 2000, 347-348). Ciò significherebbe, allora, che la storia non ha il potere di intaccare la prevedibilità di tali schemi generali: ripetendo il film della vita infinite volte, in qualche modo dovremmo ritrovare ogni volta gli stessi modelli e un'analoga tendenza verso la complessità autorganizzata. L'origine della vita non sarebbe una congiunzione di improbabilità, ma una conseguenza necessaria, date certe condizioni iniziali astratte, delle leggi universali dell'organizzazione emergente. Allo stesso modo, noi esseri umani non eravamo, per il Kauffman prima maniera, l'ultimo capitolo di una serie di biforcazioni storiche contingenti, bensì l'esito prevedibile di tali leggi: noi esseri coscienti erava- Irene Conti 41 mo “previsti” nella logica dell'evoluzione; eravamo “a casa nell'universo” (ivi, 348). La novità di Esplorazioni Evolutive, sempre seguendo la linea interpretativa di Pievani, sta nel tentativo mirabile di oltrepassare la sua precedente convinzione facendo convergere la teoria dei sistemi complessi come auto-organizzati, o nella terminologia utilizzata da MaturanaVarela “autopoietici”, con quella dei sistemi complessi come riorganizzati, seguendo in questo il suggerimento di Gould e Vrba sull'abilità dell'exaptation. Kauffman dunque nelle sue “esplorazioni” abbandona recisamente, l'ideale della previsione a cui ci aveva abituato la fisica classica, e ciò che lo conduce a questa conclusione radicale, in grado di soppiantare tutto il suo precedente bagaglio metodologico di scienziato, è proprio il concetto di exattamento. Attraverso la meccanica statistica e la fisica newtoniana, ma il discorso, ci dice Kauffman, può essere esteso anche alla relatività generale, è possibile, date le condizioni iniziali e prestabilite le leggi della forza e le particelle pervenire allo spazio di tutte le configurazioni possibili, che vengono stabilite in modo finito e rendono conto di tutti gli universi possibili, permessi a partire dalle nostre condizioni iniziali. Dunque, si può osservare, come applicando questi principi della fisica allo studio della biosfera, si possa, seguendo il disegno dell'evoluzione per selezione naturale, rinunciare alla contingenza della storia a favore della prevedibilità di un ordine replicabile. Ciò che però scuote le fondamenta di questa certezza, sono tutte quelle caratteristiche di un organismo, inizialmente prive di significato, che acquisiscono un'improvvisa rilevanza in nuovi ambienti e divengono protagoniste di primaria importanza di adattamenti dallo sbalorditivo potere evolutivo: gli exattamenti. Così hanno avuto origine l'udito, i polmoni e il volo: pressoché tutti gli adattamenti maggiori e probabilmente la maggior parte, se non tutti, di quelli minori. Ma potremmo mai predire tutte le bizzarre conseguenze causali, dipendenti dal contesto, di frammenti e parti di organismi che potrebbero avere un significato selettivo in un ambiente anomalo e assumere pertanto esistenza fisica reale nella biosfera? Credo di no. E se è no, allora non possiamo prestabilire in modo definito lo spazio delle configurazioni possibili di una biosfera ( Kauffman 2000, VIII). È per questo che Kauffman ci fornisce l'immagine del biologo come narratore di storie e con l'asserzione “noi non deduciamo le nostre vite, le viviamo” sembra avvicinarsi molto a quella ricorsività già individuata 42 The Lab’s Quarterly, 1, 2015 da Bateson e Varela-Maturana tra conoscenza e vita biologica. Se, infatti, è impossibile dedurre le configurazioni possibili per quanto riguarda la biosfera, l'unico modo che possediamo per dare senso alle nostre azioni è quello di trasformarle in storie da narrare, storie in cui anche la metafora, già cara a Bateson, riveste un ruolo preminente poiché riflette fedelmente la complessa tortuosità della vita, molto di più di quanto riesca a fare un algoritmo (177). Nel corso della storia della biologia, molti sono stati i passi avanti compiuti grazie all'ingegno e alla tenacia di ricercatori e scienziati, ma nonostante questo, Kauffman osserva come tutti questi studi, seppur nell'indubitabile vastità de loro contributo, abbiano mancato il bersaglio più significativo: nessuno infatti si è mai avvicinato ad un'accettabile definizione della vita. Kauffman vuole cimentarsi con questa sfida e senza troppi preamboli offre la sua definizione di vita: un agente autonomo e auto riproduttivo, definito come sistema che accoppia uno o più cicli di lavoro termodinamico e autocatalitico, all'interno di una rete chimica aperta e in non equilibrio. Tali agenti autonomi, mentre agiscono nel mondo, debbono riuscire a modificarlo in qualche modo a proprio vantaggio, si parla dunque di coevoluzione e cocostruzione. Organismi, nicchie e procedure di ricerca si co-costruiscono dunque a vicenda congiuntamente e in modo autoconsistente! Noi costruiamo il mondo in cui ci guadagniamo da vivere in modo da essere più o meno padroni, e lo siamo stati, di quel mondo in evoluzione mentre lo costruiamo (ivi, 29). In questo imprevedibile processo di co-evoluzione ciò che fa la la biosfera è descritto da quella che Kauffman ci offre come quarta legge della termodinamica: una biosfera co-evolvente “co-costruisce organizzazione che si propaga” (ivi, 8) Volendo formulare approssimativamente la legge proposta, avanzo l'ipotesi che le biosfere massimizzino la costruzione media secolare della diversità degli agenti autonomi e dei modi in cui quegli agenti possono guadagnarsi da vivere per propagarsi oltre. Significa che, in media, le biosfere accrescono persistentemente la diversità di quello che potrà succedere in futuro (ivi, 6). Questo è ciò che la biosfera, attraverso i cicli di lavoro e la coevoluzione produce: un continuo propagarsi di forme organizzative sempre più complesse che però, e qui sta la fondamentale integrazione con l'exattamento di Gould, non possiamo prevedere a partire dalla configurazioni di partenza, perché la vita si esplica nella sua forma nel mo- Irene Conti 43 mento stesso in cui viene vissuta, in una sorta di estemporaneità biologica che l'avvicina di più ad una performance jazz che ad una composizione classica. Come scrive Pievani, l'unico modo per rendere conto di tutte le possibili modalità per exattare una struttura sarebbe “un algoritmo lungo tanto quanto l'intera sequenza delle possibilità attualizzate. Ma un algoritmo di questo tipo, inutile per i suoi scopi, non sarebbe altro che una descrizione del sistema”. Il meccanismo exattativo se è da una parte responsabile della necessità di abbandonare tutti i tentativi di predizione messi a disposizione dalla scienza fisica e trasponibili in quella biologica, è però, dall'altra, anche il principale motore a cui possiamo attribuire l'evolvibilità del sistema e la sua capacità di resistere in una posizione di disequilibrio costante ai margini del caos. In altre parole, è proprio l'exattamento che fa dell'universo un sistema non ergodico, cioè non ripetitivo, rendendolo nel suo continuo divenire “più ricco di tutti i nostri sogni” (183). Dunque, ancora una volta, è la vita stessa, nella sua molteplicità e ricchezza formale, ad indurci a riconsiderare con sempre maggior scetticismo quelle metafore da “orologiai” che presupponevano l'ordine, l'equilibrio, la linearità. È proprio grazie agli studi su questo regno multiforme della Creatura, che la scienza della complessità può arricchirsi di nuovi, importanti contributi, contributi che, ad ogni modo, nel progetto di Gould e di Kauffman, rimangono legati ad un nucleo fortemente Darwinista non marginalizzando i meccanismi selettivi, ma integrandoli con la visione dell'autorganizzazione e con la nozione di exattamento. Come scrive Gould: A mio avviso, oggi siamo in grado di percorrere una strada intermedia tra l'anarchia che caratterizzava il periodo di Bateson e la visione ristretta proposta dalla sintesi moderna. […] Ritengo che possiamo ancora sperare nell'uniformità delle cause e, di conseguenza, in un'unica teoria che si sviluppi intorno ad un nucleo tipicamente darwiniano (Gould 1980, 6). Sono molti comunque i punti ancora da chiarire e le questioni rimaste in sospeso per poter procedere verso un'analisi unificata dei fenomeni di livello superiore con quelli di livello inferiore e questo si lega strettamente con l' “irriducibile complessità della natura”: Gli organismi non sono palle da biliardo che vengono spinte sul tavolo verso nuove posizioni da forze esterne semplici e misurabili. I sistemi sufficientemente complessi presentano una maggior ricchezza. Gli organismi hanno una storia che contiene il loro futuro in modi sottili e molteplici (ib.). 44 The Lab’s Quarterly, 1, 2015 2.5. Verso una prospettiva biofisica: Ilya Prigogine e James Lovelock Come abbiamo visto, uno degli snodi fondamentali di tutto il pensiero batesoniano, sta nel tentativo di superare il dualismo cartesiano, provando a far emergere tutte le sue pesanti implicazioni teoriche. Questo conduce direttamente all'esigenza di un'epistemologia nuova che prevede l'unificazione di mente e natura attraverso il principio dell'informazione, definita come differenza che genera differenza. Quello che rimane però centrale in questa disamina è la permanenza di una separazione, che con Iacono, non definiamo un dualismo ma una dualità: quella tra regno della Creatura e regno del Pleroma, ossia tra regno organico e regno inorganico, con la differenza che qui, diversamente dal cartesianesimo, viene ad instaurarsi un canale di comunicazione tra i due mondi: Il dualismo...si trasforma qui in dualità dal momento che nel rapporto tra Pleroma e Creatura, tra mappa e territorio, tra nome e cosa il confine non appare come un luogo di separazione, ma, al contrario, come quello della comunicazione (Iacono, in Manghi 1998, 221). A partire dagli studi sulla complessità in ambito biologico, chimico e fisico, le ricerche di molti studiosi, stanno progredendo verso una prospettiva che sembra intaccare questo postulato di dualità: si sta facendo strada l'esigenza di un'integrazione tra i due piani, che forse, con il contributo delle rivoluzioni quantistiche che ci apprestiamo ad esplorare, arriverà sino a mettere in discussione il concetto stesso di materia inerme che nell'analisi di Bateson veniva esclusa dal processo di propagazione d' informazione. Nel 1977 Ilya Prigogine riceve il premio Nobel per la Chimica. Nel discorso di presentazione il prof.re Stig Claesson si esprime con le seguenti parole: “Prigogine's researches into irreversible thermodynamics have fundamentally transformed and revitalized the science, given it a new relevance and created theories to bridge the gap between chemical, biological and social scientific fields of inquiry”(S. Claesson, Award Ceremony Speech, www.nobelprize.org). Già si è visto come tra i più rilevanti contributi della scienza della complessità vi sia quello di oltrepassare la classica divisione tra studi umanistici e scientifici, in prosecuzione del tentativo già compiuto dalla cibernetica e in particolare della cibernetica di second'ordine. Ma quello che Cleasson afferma è in effetti qualcosa di ancora più rilevante, perché Prigogine, con l'analisi delle strutture dissipative, ha gettato per la prima volta un ponte tra la chimica e la biologia, ovvero tra la materia vivente e non vivente e forse questo “gap”, come lo definisce Cleasson, Irene Conti 45 è per il senso comune, come per la prospettiva filosofica e scientifica, ancora più arduo da superare di quello tra gli studi umanistici e le scienze “dure”. Che cosa può infatti avere in comune un sostanza inorganica con una vivente? Oppure, in un altro senso, cosa è che distingue il mondo del Pleroma da quello della Creatura? Conosciamo la risposta che al quesito fornì Bateson, ma vedremo come la questione possa dirsi tutt'altro che conclusa. Nello studio di alcuni sistemi chimici, Prigogine si accorse come anch'essi, al pari dei sistemi viventi, presentano la capacità di autorganizzarsi. Quest'autorganizzazione avviene attraverso quelle che chiamò “strutture dissipative”, poiché dissipano materia ed energia all'esterno, creando entropia nell'ambiente in cui si trovano. Le strutture dissipative, però compaiono solo in una condizione di instabilità e disequilibrio: è ai margini del caos che possono venire inaspettatamente osservati i fenomeni di autorganizzazione dei sistemi chimici. A questo proposito Prigogine cita il sorprendente fenomeno dell'orologio chimico: Per esempio, lontano dall'equilibrio possiamo vedere con i nostri occhi la comparsa di orologi chimici, cioè reazioni chimiche che si comportano in maniera ritmica e coerente. Possiamo anche avere processi di autorganizzazione che danno luogo a strutture disomogenee. Vorremmo sottolineare il carattere inatteso di questo comportamento. Ognuno di noi ha qualche idea intuitiva di come avvenga una reazione chimica; ci si immagina molecole fluttuanti nello spazio, che collidono e riappaiono in nuove forme. Ci immaginiamo un comportamento caotico, simile a quello che gli atomisti descrivevano quando parlavano della polvere che danza nell'aria. Ma il comportamento delle molecole in un orologio chimico è assai diverso. Semplificando un po' troppo, possiamo dire che in un orologio chimico tutte le molecole cambiano la loro identità chimica simultaneamente a regolari intervalli di tempo (Prigogine – Stengers 1979, 15). Un altro caso esemplificativo di strutture dissipative non viventi è quello dei vortici ad imbuto straordinariamente stabili che forma l'acqua mentre defluisce verso il centro del lavandino. Anche questi sistemi inorganici sono in grado, dunque, di comportarsi seguendo una dinamica sinergica di coordinazione e reciproca, costante, interazione in una sola parola essi sono in grado di autorganizzarsi: Le strutture chimiche dissipative manifestano la dinamica dell'autorganizzazione nella sua forma più semplice, esibendo la maggior parte dei fenomeni tipici della vita: autorinnovamento, adattamento, evoluzione e persino 46 The Lab’s Quarterly, 1, 2015 forma primitive di processi “mentali”. L'unica ragione per cui esse non sono considerate vive è che non si riproducono né formano cellule. Questi interessanti sistemi rappresentano quindi un anello di congiunzione fra materia animata e inanimata. Se vengano chiamati organismi viventi o no è, in definitiva, un fatto di convenzione (Capra 1982, 226). Ciò che, inoltre, ha da sempre decretato una separazione tra fisica e biologia è la dimensione temporale: mentre in biologia il tempo è una variabile centrale e costitutiva del processo evolutivo e tutto viene studiato in una chiave di cambiamento e storicità, in fisica invece ha classicamente prevalso un punto di vista atemporale e astorico, assumendo come parametri cardine le nozioni di eternità e immobilità. Secondo la formulazione della dinamica classica, e prima dell'avvento del secondo principio della termodinamica, il tempo veniva considerato un'illusione e la realtà fisica come fondamentalmente stabile e ripetitiva, in perfetto stile meccanicista. Con l'introduzione della nozione di tempo interno, a partire dalla fisica contemporanea, si ricuce quel “gap” sussistente tra mondo fisicochimico e mondo biologico: la vita non è più così lontana dal mondo considerato inorganico e inanimato: Possiamo dunque attenderci di trovare una storia naturale del tempo, che comincia con i fenomeni dissipativi elementari della fisica, e che continua attraverso le reazioni chimiche e attraverso la vita, a partire dalla quale la storia del tempo viene a raggiungere una certa continuità, che in realtà esiste sin da quando si è prodotta la vita miliardi di anni fa e che prosegue poi con il corso dell'evoluzione biologica (Progogine, in Bocchi-Ceruti 2007, 162). Sia per i sistemi fisici, che per quelli biologici, si presenta dunque la necessità, attraverso il secondo principio, di considerare la freccia del tempo, la dimensione di storicità dei fenomeni del mondo in cui viviamo. Al contrario di quanto è stato inteso in passato, il secondo principio non presuppone che la realtà che conosciamo stia progredendo verso una degradazione, verso un'inesorabile e alla lunga catastrofico aumento di entropia. Quello che Prigogine tenta di chiarire è che con la nuova interpretazione che egli dà al suddetto principio, si viene a configurare un mondo prettamente instabile e in perenne mutamento caratterizzato da fenomeni irreversibili e dunque non immune al trascorrere del tempo. Ma, con l'aumento di entropia, e con il procedere del sistema preso in esame verso la soglia del caos, non si va incontro a degradazione bensì a una rottura della simmetria iniziale da cui si passa poi, attraverso la stabilità asintotica, al ripristino dell'omeostasi (con la stabilità definita asintotica si vuole definire quella proprietà dei sistemi di dimenticare le per- Irene Conti 47 turbazioni iniziali). Tale fenomeno è ravvisabile sia nei fenomeni fisico meccanici illustrati dall'esempio del pendolo, si in quegli fisiologici illustrati dall'esempio della corsa: Quando prendo un pendolo e lo lascio oscillare, finirà per fermarsi in un punto a causa dell'attrito, e avrà così dimenticato le perturbazioni. Se al contrario non si dà l'attrito, allora il pendolo continuerà ad oscillare, e l'oscillazione dipenderà dalle condizioni iniziali. Non appena si è in presenza di fenomeni irreversibili si possono dimenticare le condizioni iniziali. Questo è ciò che accade quando corro: il mio cuore batte più forte, ma quando ritorno in stato di quiete esso riprende il suo ritmo iniziale (Prigogine, in Bocchi – Ceruti 2007, 156). Un altro tentativo di superamento della separazione tra il comparto biotico e abiotico avviene con gli studi che negli anni ottanta confluirono nella cosiddetta “Ipotesi di Gaia”, suggerita dal chimico James Lovelock e dal microbiologo Lynn Margulis. Con questi studi si aprirono molteplici piste verso un tentativo di spostare di un altro livello l'unificazione fisico-biologica proposta da Prigogine verso l'allargamento al campo geologico: comincia a profilarsi una visione biogeochimica della vita che amplia l'applicazione delle ipotesi di Progogine dal campo microscopico della chimica a quello macroscopico della geologia e dell'astronomia: Prigogine e i suoi collaboratori (1984) sono penetrati nel mondo dei sistemi lontani dall'equilibrio, in quel mondo così distante dal pensiero della fisica classica. Si potrebbe dire che il loro approccio consiste nel trasporre la scienza puramente fisica della meccanica statistica nel mondo della cinetica chimica e biologica ... Fino ad oggi la tendenza è di produrre applicazioni di questa nuova biofisica a livello microscopico. La teoria di Gaia si riferisce all'intero pianeta, ed è al contrario di scala quasi astronomica (Lovelock, in Bocchi-Ceruti 2007, 184). In questi studi si prospetta una visione dell'ecosfera come struttura dissipativa, un gigantesco organismo che, dal punto di vita termodinamico, può essere considerato di proprio diritto, vivo: le attività di questo sistema planetario vivente non possono essere dedotte dall'insieme delle sue parti, il sistema “Gaia” è autorganizzato, si mantiene in uno stato neghentropico, è un organismo che si autorinnova e si evolve perennemente, garantendo alla vita di poter pullulare e alla sua diversità di proliferarsi. Forme di autoregolazione e di cooperazione all'interno di reti sistemiche planetarie sono ad esempio il clima, la composizione chimica dell'atmosfera e quella dei sali degli oceani. Per quanto riguarda il cli- 48 The Lab’s Quarterly, 1, 2015 ma, se consideriamo che la radiazione solare sia aumentata di almeno il 30 per cento a partire da quattro miliardi di anni fa, periodo in cui si può attestare la presenza delle prime forma di vita, dobbiamo presupporre che, se la terra fosse davvero inerte, le condizioni di vita sarebbero state pressoché impossibili e la superficie terrestre ghiacciata per più di un miliardo di anni. Il nostro pianeta deve essere, dunque, in grado di mantenere una temperatura della superficie costante e non dipendente in maniera passiva dall'emissione della radiazione solare (Lovelock – Margulis 1974). Così Lovelock spiega questo particolare tipo di fenomeno, illustrando un tipo di modello che si basa su quello esposto da Walker nel 1981: Nel corso dell'evoluzione del Sole e dell'aumento del flusso di radiazioni da esso provenienti, la temperatura viene mantenuta quasi costante da una diminuzione progressiva di CO2. Il processo di eliminazione di CO2 consiste nell'erosione delle rocce di silicato di calcio, e il modello suppone che l'andamento di questo processo sia direttamente proporzionale alla biomassa del pianeta. Se si produce una situazione di caldo o di freddo eccessivo, il tasso di erosione rallenta e di conseguenza-quale risultato della produzione costante di CO2 per fuoriuscita di gas dall'interno della Terra- la pressione parziale di CO2 aumenta (Lovelock in Bocchi – Ceruti 2007, 195-197). Questo modello induce a ritenere che anche per il sistema geofisico valga il principio della stabilità asintotica: la termostasi indica la capacità di dimenticare le perturbazioni e di pervenire, a seguito della rottura della simmetria, allo stato di omeostasi precedente alla fluttuazione generativa di instabilità. L'ipotesi di Gaia sottolinea ancora una volta l'importanza della coevoluzione, di come le specie producano fluttuazioni e perturbazioni nell'ambiente, che a sua volta attraverso feedback positivi, può condurre il sistema - specie verso una riorganizzazione. Secondo Lovelock tale visione degli equilibri geofisici contribuirebbe a rinforzare la teoria dell'evoluzione per salti e periodi stazionari postulata da Gould ed Eldredge. La teoria di Gaia spinge a un approccio unitario all'evoluzione. L'ambiente e le specie non possono essere considerati separatamente, ed esaminati ognuno separatamente, da una differente disciplina accademica. Ogni cambiamento della specie influenza l'evoluzione dell'ambiente e viceversa. Il dibattito sul gradualismo, sulla deriva naturale e sulla punteggiatura è rischiarato dalla previsione di ordine geofisiologico secondo cui le specie e l'ambiente rimarranno in uno stato stabile di omeostasi finché non incontreranno per- Irene Conti 49 turbazioni superiori alla capacità di regolazione dei sistemi viventi (Lovelock, in Bocchi – Ceruti, 201). Come si è visto questi studi mettono a dura prova concetti piuttosto significativi di cui ci siamo serviti per investigare e tentare di rendere accessibile la realtà alla nostra comprensione, attraverso l'aderenza ad un certo tipo di epistemologia. In particolare, subisce un forte smacco il tentativo di Bateson di isolare un mondo di forze fisiche da quello prettamente biologico definitivo come caratterizzato dalla propagazione di informazione. Come dimostrano, infatti, i vortici stabili dell'acqua, le reazioni che si producono in un orologio chimico, la capacità di termoregolazione del pianeta attraverso il rilascio di CO2, è molto difficile isolare un insieme di fenomeni che possano effettivamente dirsi “pleromatici” fenomeni ciò in cui non circola una qualche forma di informazione. Ma come vedremo, il filone di ricerche in cui questa “dualità” tenderà ad essere sempre più problematica, è quello che fa capo ai recenti studi in campo quantistico. 3. LA RIVOLUZIONE QUANTISTICA Nella mia vita ho messo la descrizione dei bastoni, delle pietre, delle palle da biliardo e delle galassie in una scatola...e li ho lasciati lì. In un'altra scatola ho messo le cose viventi: i granchi, le persone, i problemi riguardanti la bellezza...(Bateson 1979, 20). Le cose viventi si distinguono dagli eventi della fisica, descritti da forze, urti, gravità, materia ed energia, poiché presentano una natura “mentale”. A partire da Maturana, Varela e Prigogine questa natura mentale è venuta precisandosi in una specifica ontologia: quella dei sistemi autorganizzantesi. È questa capacità dei sistemi biologici, e come abbiamo visto, anche dei sistemi prebiologici, ha far sì che alla natura possa essere riconosciuta una qualche forma di “mentalizzazione”. Come Bateson spesso teneva a sottolineare, dal momento in cui si abbandona la linearità e si entra nel mondo dei sistemi circolari chiusi, ci si addentra in universo dove la nostra logica consueta non può che entrare in contraddizione. Come Bateson puntualizzò in una conversazione con Fritjoff Capra l'equivalente cibernetico della logica è l'oscillazione (Capra 1988, p 67). Sempre nel saggio di Capra, Verso una nuova saggezza, dove il fisico austriaco ci fornisce un prezioso ed affettuoso quadro del suo incontro con “Gregory” presso l'Esalen Institute, si rammenta anche come 50 The Lab’s Quarterly, 1, 2015 Bateson si fosse dimostrato inizialmente assai scettico e guardingo rispetto alle ricerche del suo interlocutore nell'ambito della fisica quantistica: poco tempo dopo che i due si conobbero Bateson si espresse così con un amico comune “Capra? Quell'uomo è pazzo!Pensa che siamo tutti elettroni” (Capra 1988, 63). Capra non rimase indifferente alle critiche di Bateson e si prodigò nel tentativo di comprendere dove fossero i limiti delle sue ricerche precedenti raccolte nel saggio del 1975 Il Tao della fisica. Pare che proprio questo mancato apprezzamento, da parte di un intellettuale così stimato da Capra, lo condusse a rivisitare parte delle sue posizioni, ad abbandonare l'attenzione esclusiva sul mondo della fisica per dedicarsi allo studio dei sistemi complessi che furono raccolti nel saggio Il Punto di svolta (1982). Nel giustificare questo cambiamento di prospettiva Capra sostiene di essere caduto in un errore “cartesiano” nel momento in cui ha creduto di poter fare della fisica la base per tutte le altre scienze: “Presentando la nuova fisica come modello per una nuova medicina, per una nuova psicologia o per una nuova scienza sociale, ero caduto in quella trappola cartesiana che mi proponevo di evitare” (Capra 1988, 63). Tuttavia ne Il punto di svolta, dedicherà un intero e denso capitolo alla trattazione della nuova fisica, segno che alla fine pervase in lui la tentazione di non escludere “quei bastoni, quelle pietre, quelle palle da biliardo...” dalla trattazione della teoria dei sistemi: “… non presentai più la nuova fisica come un modello per le altre scienze ma piuttosto come un importante caso speciale di una cornice di riferimento più generale, la cornice della teoria dei sistemi”(Capra 1988, 63). Tale scelta fu, a quanto pare, ulteriormente sancita da una sorta di alleanza intellettuale che, con il tempo, si instaurò tra Bateson e Capra, sorretta da una parte da un affetto quasi filiale e dall'altra da una progressiva apertura e curiosità verso i nuovi scenari illustrati dal “ragazzo brillante”(ivi, 65), in cui sembra quasi ricucirsi quel gap generazionale e culturale che fino ad allora li aveva divisi. A questo proposito è esemplare un passaggio di una conversazione che avvenne tra i due che conclude alcune osservazioni di Bateson sulla contraddittorietà in cui cade la logica ce applicata allo studio dei sistemi: Si fermò di nuovo, e in quel momento ebbi improvvisamente un'intuizione, stabilendo una connessione con qualcosa a cui ero interessato da molto tempo. Fui preso da una grande eccitazione e dissi con un sorriso provocatorio: “Eraclito lo sapeva!” “Eraclito lo sapeva”, ripeté Bateson, rispondendo con un sorriso al mio sorriso. Irene Conti 51 “E anche Lao-Tzu” rincalzai. “Sì, è vero; e anche quegli alberi laggiù. La logica non funziona con loro.”(ivi, 67). Quello che premeva a Capra era probabilmente la trasmissione del principio più anti-dualista che sia possibile immaginare e, al contrario di quello che egli afferma definendo il suo Tao della fisica, improntato su un sottile pregiudizio ancora cartesiano, si apre qui la strada per una fondamentale ricongiunzione tra il mondo dei sassi e dei bastoni e quello dei granchi e delle persone. Il fatto è che, nella trattazione dei punti cardine della rivoluzione quantistic,a si viene in contatto con un universo molto affine a quello prospettato da Bateson nell'esplorazione del mondo creaturale, un universo dove regna l'assenza di logica, dove domina la relazione e dove emerge sorprendentemente come, anche alla fine di ciò che abbiamo da sempre considerato così indubitabilmente oggettivo e materiale, alla fine dell'atomo, dell'elettrone e della particella, stia di nuovo un'acuta problematizzazione del riduzionismo. Come la biologia evoluzionista post-darwinista, ha messo alla berlina “l'oggetto specie”, la geologia “l'oggetto pianeta-Terra”, la biologia molecolare “l'oggetto cellula”, anche la fisica quantistica conduce a porre nuove questioni sulla possibilità di definire compiutamente l'ultimo mattone della vita, con una decisiva recisione dalla fisica atomista e newtoniana. Qui sta dunque il primo filo conduttore che lega la fisica contemporanea agli studi dei sistemi complessi, seguito dal postulato costruttivista e da quello reticolare e relazionale, che si esprime in fisica attraverso il concetto di non-località e gli effetti delle sue implicazioni. 3.1. L'oggetto problematico Enrico Bellone afferma nel suo Le molte Nature (2008) di trovarsi in accordo con le conclusioni che suggerisce Einstein in merito alla natura fondante della scienza che, nelle parole dello scopritore della relatività è “un affinamento del pensiero comune” (A. Einstein 1936, 528). Tale pensiero comune è l'artefice di una selezione inconscia che conduce a stabilire cosa, nel flusso continuo di dati sensoriali che riceviamo, possa essere considerato “oggetto corporeo”. In questa disamina Einstein, dunque, si situa in una posizione di particolare vicinanza con l'epistemologia batesoniana e con il pensiero che esplora la complessità e la natura dei sistemi. L'atto primigenio e fondativo di tutta la conoscenza, coincide con un processo di “reificazione”, che dal senso comune, viene assorbito nel 52 The Lab’s Quarterly, 1, 2015 paradigma scientifico dominante e che stabilisce dunque l'oggetto e la sua collocazione nella dimensione dello spazio-tempo, anch'essa risultante da un processo costruttivista. Com'è evidente Einstein sostiene che gli esseri umani, a livello di senso comune, costruiscono, alcuni enti a partire da dati sensoriali, e attribuiscono a quegli enti uno statuto di realtà. Una costruzione che accomuna i vari costruttori, i quali trovano un buon accordo nel mettere cose nello spazio e nel tempo in modo da muoversi nella “realtà esterna” (Bellone 2008, 115). Nel percorso tracciato da Bellone emerge chiaramente come queste costruzioni siano relative ad un periodo storico e ad una corrente scientifica dominante che, come vuole la “danza” kuhniana, subiscono dapprima una consacrazione e poi, come ogni sistema, raggiungono la loro “biforcazione catastrofica” e si avviano verso il collasso. Tra i concetti scientifici che subiscono tale dinamica di ascesa e declino vi è quello di oggetto corporeo la cui famiglia è “instabile, sempre soggetta a operazione di bonifica” (Bellone 2008, 116). Molti secoli prima della trattazione di questo tipo di concetto da parte della fisica moderna con Laplace, Galileo, Newton, già Democrito e Leucippo avevano fornito la loro risposta in merito all'individuazione dell'elemento ultimo e fondante la realtà. È da qui che, infatti, si pongono le basi per il pensiero atomista, destinato a raggiungere una così ampia eco nel futuro costellato dalle eccitanti scoperte della scienza moderna. Con Heisenberg, è doveroso comunque sottolineare, la necessità di effettuare accostamenti tra il pensiero scientifico moderno e i postulati della filosofia classica con grande prudenza, in gioco è infatti la definizione stessa di “scienza”: Può sembrare a prima vista che i filosofi greci siano pervenuti, per non so quale geniale intuizione, alle stesse conclusioni o a conclusioni molto simili a quelle che noi abbiamo raggiunto ai nostri tempi soltanto dopo molti secoli di duro lavoro sperimentale e matematico. Una tale interpretazione dell'affronto fatto da noi significherebbe un'assoluta incomprensione .C'è un'enorme differenza fra la scienza moderna e la filosofia greca ed essa consiste proprio nell'atteggiamento empiristico della scienza moderna … Quando Platone afferma, ad esempio, che le più piccole particelle di fuoco sono tetraedri … la scienza moderna finirebbe col chiedere: come si può stabilire sperimentalmente che gli atomi del fuoco sono tetraedri e non per esempio dei cubi? (Heisenberg 1958, 92). Tenuta ferma questa premessa, Heisenberg riconosce comunque il grande apporto, seppur solo filosofico, di Democrito nella formazione di una Irene Conti 53 visione di senso comune atta a concepire la realtà come costituita, in ultima analisi, da piccoli mattoncini di massa, indivisibili e privi di qualsiasi qualità sensibile. Gli atomi si muovono e interagiscono all'interno di uno spazio vuoto che sarà un elemento fondamentale anche per la fisica di Newton, prima di venire definitivamente aborrito dagli studi della meccanica quantistica in cui sembra riconfermarsi il vecchio adagio aristotelico dell' horror vacui. Alcuni vedono nell'antica filosofia atomista democritea un anticipazione di alcuni principi che derivano dalla reificazione e dalla definizione di oggetto corporeo e dalla sua collocazione in uno spazio vuoto, che saranno centrali per la scienza moderna. Tra questi principi troviamo quello di inerzia, anticipato dalla concezione democritea, secondo cui gli atomi sono mossi da un impeto interno, dalla loro stessa natura, e non per mano di una causa prima (Geymonat 1989, 105). Secondo A. Pagano possiamo ritrovare in Democrito anche una conoscenza abbozzata del principio di accelerazione dei corpi e un anticipazione di quello di entropia. Dall'esame dei pochi frammenti di Democrito si rimane stupefatti dalla potenza intellettuale del suo pensiero scientifico che senz'altro si può dire di tipo Galileo-Newtoniano, se a ciò non fosse d'ostacolo il fatto che Democrito nasce molto tempo prima di Galileo. È giusto riconoscere che le idee generali della meccanica di Galileo-Newton (classica) sono una riscoperta (consapevole, secondo ciò che testimonia lo stesso Galilei) della fisica di Democrito. Pertanto la fisica dei corpi che accelerano a causa di forze impresse, meriterebbe di essere detta democritea (Pagano 20102). In più, sempre come anticipazione della visione newtoniana, incontriamo in Democrito una visione dinamica degli atomi, che danno vita a tutte le qualità che possiamo riscontrare nel mondo sensibile, attraverso la loro composizione e ricomposizione, in una continua interazione che ricorda le “formule di struttura” della chimica (Geymonat 1989, 106). Proprio questa caratteristica è una tra le distinzioni tra la visione che Galilei espone nel suo Saggiatore e quelle postulata da Newton in merito ai suoi corpuscoli. La visione di Newton, nonostante i sorprendenti risultati che in quegli anni si profilavano in merito allo studio delle forze magnetiche, rimase una visione strettamente materialista, incentrata sulla disseminazione di particelle e circuiti di cariche elettriche in un grande contenitore, lo spazio, dotato solo di proprietà geometriche. 2 Posizione 504, e-book reader, Amazon. 54 The Lab’s Quarterly, 1, 2015 È con Faraday che questa scissione tra materia contenuta e spazio contenitore viene messa in discussione attraverso la scoperta di quello che egli nomina continuum e che emerge dall'osservazione del fenomeno magnetico: Il continuum di Faraday … era un intricato aggrovigliamento di di curve -le linee di forza- la cui forma era governata dalla presenza di entità puntiformi che agivano come sorgenti da cui scaturivano le linee di forza, o come pozzi in cui tale linee scomparivano. Gli enti puntiformi non erano corpuscoli forniti di dimensioni, e lo spazio non era il loro contenitore passivo. Non esistevano insomma atomi materiali disseminati in un'enorme scatola: esisteva soltanto una struttura continua in cui si fondevano insieme materia e geometria, e al cui interno operavano soltanto azioni per contatto mediate dalle linee di forza (Bellone 2008, 126). Nel 1865 Maxwell fece confluire il continuum di Faraday nella teoria del campo elettromagnetico e nel 1897 Thomson scopriva l'elettrone che apriva la strada a nuove svolte teoriche e ai paradossi quantistici. Si pensava, infatti, che ad essere messo in discussione non fosse il concetto di ente materiale indivisibile e fondativo della realtà, ma semplicemente il livello nel quale fin'ora si credeva di averlo individuato. Bastava semplicemente spostarsi verso una scala più microscopica e l'oggetto, l'ultimo elemento della realtà, avrebbe confermato tutte le precedenti ipotesi riduzioniste. Fu proprio la fisica quantistica, però, a mettere in luce come, anche le particelle subatomiche come gli elettroni, non avevano nulla a che fare con l'oggetto solido postulato dall'atomismo e dalla visione scientifica classica. Si apre così forse uno dei momenti più salienti, sia dal punto di vista filosofico che da quello scientifico, con cui l'era moderna e contemporanea si sia mai trovata a confrontarsi, un momento in cui l'ipotesi materialista e meccanicista viene una volta per tutte smentita da evidenze empiriche a cui è impossibile sottrarsi, soppiantata da una visione assolutamente innovativa e rivoluzionaria per le conseguenze epistemologiche che porta con sé. La natura stessa dell'elettrone, infatti, non può adeguatamente sopperire all'inadeguatezza della teoria atomista nel render conto dell'ente ultimo del reale, poiché questa stessa natura, si presenta come ambivalente, a volte fa sì che l'elettrone appaia in forma di particella, a volte in forma di onda. Questo paradosso fra concezione corpuscolare e concezione ondulatoria produsse molteplici tentativi nella direzione di una risoluzione, un aggiramento o una integrazione delle due nature delle particelle subatomiche. Irene Conti 55 De Broglie nella sua tesi di dottorato del 1925 espose una teoria che considerava gli atomi simili a strumenti musicali, il moto delle particelle subatomiche sarebbe stato guidato da onde-pilota lungo le orbite quantiche. Nel 1926 Schrodinger tradusse l'innovativa teoria delle onde-pilota in un'equazione generale in cui la teoria di De Broglie venne confermata. Con grande stupore dei fisici dell'epoca, contemporaneamente alla pubblicazione dell'articolo di Schrodinger, apparve anche uno scritto di Heinsenberg in cui si perveniva agli stessi risultati seguendo tuttavia una strada del tutto diversa, attraverso la meccanica delle matrici. Ma, come scrive lo stesso Heisenberg: “paradossi del dualismo fra concezione ondulatoria e concezione corpuscolare non erano risolti: essi restavano per così dire nascosti dietro il calcolo matematico”. Nel 1924 Bhor, Krasmers e Slater avevano tentato di risolvere il paradosso appellandosi al concetto di onda di probabilità. Seppur le conclusioni che trassero non si rivelarono esatte alla luce dei successivi esperimenti esse però, come sottolinea Heisenberg, misero in luce un importante aspetto della nuova fisica, quello di onde di probabilità, del tutto ignoto alla teoria newtoniana classica. Così Capra descrive quello che diviene presto un radicale cambiamento di punto di vista sulla realtà, in aperta rottura con il passato: La risoluzione del paradosso particella/onda costrinse i fisici ad accettare un aspetto della realtà che metteva in discussione il fondamento stesso della visione del mondo meccanicista: il concetto della realtà della materia. Al livello subatomico la materia non esiste con certezza in posti definiti, ma presenta piuttosto “tendenze ad esistere”, e gli eventi atomici non si verificano con certezza in tempi determinati e in modi determinati, ma presentano piuttosto “tendenze a verificarsi” (Capra 1982, 69). Ma il contributo forse più significativo nella direzione di un'interpretazione dei paradossi emersi con il sorgere della nuova fisica, venne dalle animate discussioni che ebbero sede a Copenaghen tra i più eminenti fisici dell'epoca, tra cui Bohr ed Heisenberg. Quest'ultimo rammenta così quei mesi intensi che mutarono il volto della scienza contemporanea Ricordo delle discussioni con Bohr che si prolungarono per molte ore fino a notte piena e che ci condussero quasi a uno stato di disperazione; e quando al termine della discussione me ne andavo solo a fare una passeggiata nel parco vicino continuavo sempre a ripropormi il problema: è possibile che la natura sia così assurda come ci appariva in quegli esperimenti atomici (Heisenberg 1958, 55). 56 The Lab’s Quarterly, 1, 2015 I risultati di queste ardue riflessioni furono raccolti nella cosiddetta Interpretazione di Copenaghen in cui confluirono le relazioni d'incertezza, il principio d'indeterminazione e quello di complementarietà. Tale interpretazione fornì un grado sufficientemente completo per esplicitare quella che fosse la situazione, nonostante i palesi limiti che il linguaggio e il formalismo matematico ponevano, di fronte a scenari di incredibile non-logicità. I riferimenti teorici a cui pervennero i fisici alla fine degli anni venti dello scorso secolo, sorreggono ancora, nonostante le ripetute critiche, gran parte dell'odierno impianto teorico quantistico. In queste interpretazione vengono congiunti i tre principali nodi concettuali atti a convivere, non certo a risolvere, il paradosso che emerge dagli studi del mondo subatomico. Un primo punto su cui focalizzare l'attenzione è quello già visto delle relazioni d'incertezza, che sono le funzioni di probabilità, di cui bisogna servirsi per indagare i fenomeni subatomici. Il carattere probabilistico di questi fenomeni induce a ritenere che esistano delle “variabili nascoste” nei fenomeni stessi che indurranno gli esiti di un'osservazione a presentare comunque dei margini d'errore. Questo aspetto probabilistico del fenomeno fisico era già conosciuto dalla fisica classica. Ma con la fisica quantistica esso si tinge di una nuova sfumatura, quella della non-località che insieme al dualismo onda-particella sancisce l'indeterminazione del fenomeno quantistico nei termini della fisica classica. 3.2. Il principio di non località: l'entanglement quantistico Le variabili di probabilità che scaturiscono dall'osservazione dei fenomeni della fisica quantistica scaturiscono da proprietà che non si presentano nello studio del mondo macroscopico della fisica classica. Da una parte notiamo che il sistema quantistico reagisce in qualche modo alla presenza di un osservatore ed altera la sua natura a seconda dello strumento di misurazione che viene utilizzato. L'osservatore in qualche modo compartecipa attivamente alla creazione della realtà di cui vuole rendere conto. Nonostante la riluttanza di Bateson nell'affrontare lo studio dei fenomeni fisici, emerge nel campo quantistico una visione della realtà perfettamente in accordo con quella supposta dall'antropologo britannico. Anche qui infatti, oltre alla conferma di un marcato soggettivismo come elemento di primo piano nella costruzione della realtà, si palesa anche un universo microscopico che in qualche modo presenta qualità mentali, o come preferirebbe Bateson “creaturali”. Scrive infatti Capra: Irene Conti 57 Le evidenti somiglianze fra la struttura della materia e la struttura della mente non dovrebbero sorprenderci troppo, giacché la coscienza umana svolge un ruolo determinante nel processo di osservazione, e nella fisica atomica determina in grande misura le proprietà dei fenomeni osservati (Capra 1982, 74). Oltre a questo punto di contatto, se ne può evidenziare un altro che accorderebbe alla realtà microscopica le stesse proprietà relazionali già individuate da Bateson e dalla biologia post-darwiniana. Questo fenomeno è ciò che determina la presenza delle funzioni di probabilità e delle variabili nascoste nelle equazioni che tentano di formalizzare l'intricato universo quantistico. Le particelle elementari, oltre ad essere influenzate dall'osservatore e dallo strumento di misurazione, subiscono anche l'azione di altre particelle che possono situarsi anche ad una notevole distanza. Tale fenomeno di connessioni non-locali viene definito entanglement e così viene descritto da Amir Aczel: Ma il fenomeno del bizzarro mondo dei quanti che lascia più perplessi è quello noto sotto il nome di entanglement. Due particelle separate, distanti tra loro anche milioni o miliardi di chilometri, possono risultare misteriosamente collegate: qualunque cosa accade a una delle due causa cambiamenti immediati sull'altra (Aczel 2001, XIII). Questo fenomeno fu la “pietra della discordia” che fece nascere la controversia tra Einstein e Bohr proprio durante il quinto congresso di Solvay nell'ottobre del 1927 dove furono presentate le idee nate dalla Scuola di Copenaghen e confluite nella già discussa Interpretazione. Proprio il fenomeno dell'entaglement fu l'argomento usato per tentare di dimostrare l'incompletezza della teoria quantistica. L'entanglement avrebbe infatti avuto implicazioni così assurde da risultare inaccettabili. La riluttanza di Einstein ad accettare le conseguenze di quella teoria che egli stesso aveva contribuito a fondare con la sua opera anteriore è uno fra gli episodi più affascinanti della storia della scienza. L'essenza del suo disaccordo con Bohr risiedeva nella sua ferma convinzione che esistesse una qualche realtà esterna, formata da elementi indipendenti, spazialmente separati (Capra 1982, 71). Nella nota affermazione “Dio non gioca a dadi con l'universo” che rivolse a Bohr trapela la difficoltà ad abbandonare il mondo deterministico delle cause tipico della fisica precedente e, nonostante dovette ammettere alla fine del confronto che la fisica quantistica si presentasse in 58 The Lab’s Quarterly, 1, 2015 realtà come coerente, mantenne la convenzione che gli sviluppi della scienza avrebbe portato alla scoperta di una modalità non probabilistica di indagine. Fu Schrodinger a coniare per la prima volta il nuovo termine, a cui conferì il nome di entanglement nel 1935 nella sua recensione all'articolo di Einstein-Podolsky-Rosen in cui veniva presentato l'esperimento mentale noto come EPR, nel tentativo di dimostrare la contraddittorietà della teoria di Bohr. La definizione che Schrodinger dette al fenomeno è la seguente: Quando sui sistemi, dei quali conosciamo gli stati sulla base della loro rispettiva rappresentazione, subiscono una interazione fisica temporanea dovuta a forze note che agiscono tra di loro, e quando, dopo un certo periodo di mutua interazione, i sistemi si separano nuovamente, non possiamo più descriverli come prima dell'interazione, cioè dotando ognuno di loro di una propria rappresentazione. Non chiamerei questo un tratto ma il tratto distintivo della meccanica quantistica (Schrodinger 1935, 555, cit. in Aczel 2001, 63). La non località non agisce soltanto al livello di questa connessione esistente tra i sistemi di particelle, ma anche sulla posizione delle particelle stesse che possono trovarsi in due luoghi al medesimo tempo. Per illustrare questo strano fenomeno Schrodinger si serve del celebre esempio di un gatto in una scatola che può presentare due stati alterni: vivo o morto. Come scrive Aczel, riprendendo un osservazione già compita da Murray Gell-Mann, quello di Schrodinger non è tra i sistemi più esemplari per illustrare il fenomeno della sovrapposizione. Senza ricorrere alle fiale di veleno e ai materiali radioattivi previsti dall'esperimento del fisico austriaco, si può semplicemente considerare il caso di un gatto chiuso in una scatola dello scompartimento bagagli di un volo intercontinentale: “All'aeroporto di arrivo, il proprietario potrebbe porsi la stessa terrificante domanda nel riprendere il contenitore al ritiro bagagli: il mio gatto è vivo o morto?”(Gell-Mann, cit. in Aczel 2001, 74). L'esempio alternativo proposto da Aczel fa a meno degli stati vivomorto, per considerare un tipo di sovrapposizione spaziale: Poniamo che io sia in banca e che, di fronte agli sportelli, ci siano due code. Sono lunghe uguali e non ho nessuno dietro di me. Io voglio essere nella coda che si muove più veloce, ma non so quale potrebbe essere delle sue. Posso allora stare in mezzo tra le due cose o iniziare a saltare da una coda all'altra, ogni volta che una delle due diventa più corta. Così mi trovo “in entram- Irene Conti 59 be le code nello stesso tempo”. Sono in una sovrapposizione di due stati: [Sono nella coda 1] e [Sono nella coda 2] (Aczel 2001, 75). Come già accennato, con quanto formulato nell'articolo EPR, Einstein Podolsky e Rosen, tentano di salvare il principio di località e con esso il concetto tanto avvalorato dal senso comune dell'oggetto corporeo. I due principi sono difatti strettamente correlati, dal momento che il principio dell'entanglement condurrebbe ad una visione della realtà come sistema e non più come somma di parti isolate. All'unità dell'oggetto si sostituisce l'unità dell'insieme in un tutto armonico ed integrato. Anche una delle mente più illustri della storia della scienza, Albert Einstein, non riuscì a rinunciare a quelle regole di base con cui siamo solito ordinare la realtà, che andavano infrangendosi con l'interpretazione di Copenaghen e il principio di non-località. Pertanto nell'esperimento mentale riportato nell'articolo EPR, con l'aiuto dei suoi collaboratori, egli raggiunse la conclusione che “Se si è in grado di predire con certezza (cioè con probabilità uguale a uno) il valore di una grandezza fisica senza perturbare in alcun modo un sistema, allora esiste un elemento della realtà fisica corrispondente a questa grandezza fisica” (cit. in Aczel 2001, 110). In altre parole, sussiste la possibilità di effettuare una misurazione su una parte del sistema quantistico, senza che queste inficino i risultati delle misurazione di un'altra parte del sistema, a prescindere dalla distanza a cui si situino le due parti. Nel 1952 Bohm fornì una versione alternativa e semplificata dell'esperimento EPR sostituendo alle variabili di posizione e moto, considerate dall'esperimento originario, la variabile di “spin” dell'elettrone, cioè la rotazione di una particella subatomica che avviene senza riferimento ad una massa interna e quindi con l'impossibilità di definire univocamente il suo asse di rotazione (Bohm 1952, 166-179). Gli spin delle due particelle esistono prima della misurazione solo come tendenze, poiché l'inesistenza dell'asse interno impedisce di poter predire quale sia la natura dello spin in assenza di un osservatore. Sarà lo sperimentatore a rendere “attuali” quelle che in sua assenza erano le “tendenze” soltanto potenziali dello spin, semplicemente scegliendo l'asse di misurazione. Ponendo che lo sperimentatore scelga l'asse verticale, lo stato dello spin di un elettrone 1 sarà “in su” e quello di un elettrone 2 entangled con l'elettrone 1 sarà “in giù” . Secondo la fisica quantistica a prescindere dalla distanza a cui saranno posti i due elettroni correlati essi continueranno a fornire due stati opposti. Il paradosso che per Einstein conduceva a dover trarre la conclusione di un'incompletezza della teoria quantistica dovuta alla presenza di variabili nascoste non 60 The Lab’s Quarterly, 1, 2015 ancora intercettate, sta tutto nell'impossibilità che la particella 2 riceva un segnale istantaneo dalla misurazione scelta per la particella 1 (ib.). Il punto cruciale è che noi possiamo scegliere il nostro asse di misurazione all'ultimo minuto, quando le particelle sono già molto lontane l'una dall'altra. Nell'istante in cui noi eseguiamo la nostra misurazione sulla particella 1, la particella 2, che può trovarsi alla distanza di migliaia di chilometri, acquisterà uno spin definito “in su” o “in giù” … Come può sapere la particella 2 quale spin abbiamo scelto? Non c'è tempo a sufficienza perché essa riceva tale informazione per mezzo di qualsiasi segnale convenzionale (Capra 1982, 73). Il punto in questione qui è che nella formulazione del postulato di nonlocalità è in gioco la compatibilità stessa tra meccanica quantistica e relatività ristretta, motivo centrale per cui ad Einstein premeva trattare con la massima prudenza il principio dell'entanglement, esso infatti avrebbe condotto a dover supporre che qualcosa si propagava nello spazio del sistema quantico ad una velocità superiore a quella della luce, ma di cosa poteva trattarsi? 3.3. Le in-formazioni Ervin Laszlo : l'universo in-formato A partire dagli anni Ottanta il progresso tecnologico permise verifiche sempre più precise che andarono definitivamente confermando la non-località quantistica. Non solo si può osservare una forma di comunicazione a distanza che lega coppie gemelle di particelle, in modo tale che B sappia quando e come A venga misurato, reagendo di conseguenza, ma la propagazione di questo segnale avviene ad una velocità incredibile, istantanea. La velocità di propagazione è di lunga superiore a quella della luce: negli esperimenti di Aspect la comunicazione tra particelle situate a una distanza di dodici chilometri tra loro è inferiore a un miliardesimo di secondo, più di venti volte la velocità della luce. Mentre negli esperimento più recenti di Gisin, particelle distanti tra loro dieci chilometri comunicano ad una velocità ventimila volte superiore a quella della luce (Cantalupi 1998). Pare che nel tentativo di trovare il modo per identificare tale misteriosa sostanza che si propaga e trasmette segnali istantanei tra due particelle subatomiche gemelle, ci ritroviamo proprio come Bateson, a dover escludere la materia e l'energia e a proiettarci nel mondo dell'informazione, o più precisamente dell' “in-formazione”. Irene Conti 61 … è chiaro che la coerenza non-locale ha implicazioni importanti. Essa segnala che nell'universo non vi sono soltanto materia ed energia, ma anche un elemento più sottile ma del tutto reale: un elemento che collega e che produce le forme di coerenza quasi istantanea osservate. Identificare questo elemento di connessione potrebbe risolvere gli enigmi fronteggiati dalla ricerca scientifica e indicare la strada verso un paradigma più fertile. Possiamo compiere il primo passo verso questo obbiettivo affermando che le informazioni sono presenti, e hanno un ruolo decisivo, in tutti i principali regni della natura. Ovviamente, le informazioni presenti in natura non sono la forma quotidiana di informazioni, ma sono di un genere speciale: si tratta di “in-formazioni”, la varietà attiva e fisicamente efficace che “forma” il ricevente, che si tratti di un quanto, di una galassia o di un essere umano (Laszlo 20103). Il filosofo ungherese Ervin Laszlo procede la sua disamina sostenendo come tali in-formazioni vengano rappresentate da molteplici esperimenti come connessioni evanescenti e non energetiche che sussistono fra vari fenomeni della natura indipendentemente dalla loro distanza e dal tempo che è passato da quando sono entrati per la prima volta in contatto tra loro. La teoria dei fisici russi di Shipov e Akimov ipotizza la creazione di vortici da parte delle particelle cariche, vortici che, propagandosi nel vuoto quantico, fanno sì che l'informazione si propaghi tra le particelle. Anche per il fisico ungherese Laszlo Ganzdag l'informazione viene trasportata da vortici creati questa volta dall'effetto magnetico prodotto dallo “spin” di elettroni, fotoni, neutroni. Questi vortici produrrebbero la creazione e la propagazione di onde e memorie d'onda, creando schemi d'interferenza con le altre onde e contenendo in sé le informazioni relative allo stato delle particelle da cui sono partiti i vortici. Nel vuoto quantico verrebbe dunque a sussistere un vero e proprio “campo di in-formazioni”, che come il campo elettromagnetico, quello quantico e quello gravitazionale, fugge alla nostra percezione sensibile, ma si palesa attraverso gli effetti che produce. È comunque assolutamente chiaro che questo campo esiste, poiché produce effetti reali . Proprio come il campo EM produce effetti elettrici e magnetici, il campo G è responsabile dell'attrazione tra oggetti dotati di massa, e i campi quantici producono attrazione e repulsione tra le particelle nucleari, dob- 3 Posizione 915-926, e-book reader, Amazon. 62 The Lab’s Quarterly, 1, 2015 biamo riconoscere che vi è un campo universale di in-formazioni che produce l'effetto che abbiamo descritto come “coerenza non-locale” nei numerosi regni della natura (ib.). Ordine implicato ed esplicato: David Bohm La coerenza non-locale che genera questo tipo particolare di informazione è il punto dai cui partono tutti quei fisici che stanno tentando con risultati incoraggianti di esplorare la possibilità di un incontro tra i processi mentali e l'universo fisico subatomico. Per alcuni di questi studiosi la realtà che la fisica quantistica ha messo in luce non è sorprendente soltanto per lo svelamento di una logica ambivalente e contraddittoria, di un comportamento non-locale e di una natura a-casuale e non lineare dei fenomeni, ma anche e soprattutto, perché tutte queste caratteristiche “quantistiche” comporterebbero incredibili conseguenze se applicate al problema della coscienza. Inoltre tale tentativo di applicazione si rende necessario dal momento che, come stabilito dall'interpretazione di Copenaghen, la mente, la coscienza dell'osservatore, non può più essere esclusa dall'indagine del mondo microscopico. Già Bohr e Heisenberg riconobbero che attraverso la misurazione e l'osservazione del sistema, la coscienza produce il cosiddetto “collasso della funzione d'onda”, ovvero “l'in-formazione” dell'onda di probabilità in particella. È così che se la realtà subatomica viene interrogata dallo sperimentatore muta la forma in cui appare. Se ne può trarre, dunque, un ulteriore conferma di quello che è il principio costruttivista già postulato da Bateson e dagli studiosi della complessità, qui, lo ripetiamo, con un apporto in più rispetto alla visione batesonina: anche la realtà fisica degli ombrelli e delle palle da biliardo non si esima dal processo costruttivista a cui costantemente sottoponiamo e ordiniamo inconsapevolmente il nostro mondo. Non solo: se la realtà fisica “risponde” in qualche modo al processo informazionale a cui la nostra mente la sottopone, deve possedere come suggerì David Bohm, una qualche forma rudimentale di qualità mentale, una forma di coscienza. Nell'ordine implicato non svolto (implicate enfolded order) di Bohm, ossia quello che incontriamo quando esploriamo la materia del mondo subatomico, la coscienza si trova allo stesso livello della materia, mente e materia sono un'unica cosa e si congiungono nell'atto dell'in-formazione che coincide con il collasso della funzione d'onda. L'esperienza soggettiva a cui quotidianamente prendiamo parte si situa, invece, nell'ordine esplicato svolto (explicate unfolded order) del livello macroscopico, in cui mente e materia tornano ad essere separate (Bohm 1982). Irene Conti 63 Il modello ORCH-OR: Hameroff e Penrose Una decina di anni più tardi dalla comparsa di Wholeness and the Implicate Order di David Bohm, un altra ricerca destinata ad avere larga risonanza nel mondo accademico anglosassone e statunitense viene resa nota attraverso il denso saggio “Ombre della mente” dello scienziato britannico Roger Penrose. Le idee riportate in questo lavoro sono il punto di approdo di una ricerca iniziata qualche anno prima nel campo degli studi sulla coscienza, i cui risultati vennero raccolti nel saggio dell' '89 “La mente nuova dell'imperatore”. Stuart Hameroff Professore del dipartimento di Anestesiologia e Psicologia dell'Università di Tucson in Arizona, letto il primo lavoro di Penrose, crede di poter fornire un suggerimento per completare la sua ricerca nella direzione di integrare la visione quantistica con un adeguato modello di attività neuronale. Hameroff ha infatti potuto osservare, negli anni di lavoro sulla ricerca anestesiologa, come, durante la somministrazione delle sostanza anestetiche, la normale attività cosciente viene impedita da alcuni fenomeni che si verificano all'interno dei microtuboli neuronali. I microtuboli sono strutture di tubulina, una classe di proteine, che formano il citoscheletro di tutte le cellule eucariote, tra cui anche i neuroni, e che hanno la funzione di trasportare materiali all'interno della cellula, controllando il movimento di organelli e vescicole citoplasmatiche e assicurando la stabilità della cellula stessa (Penrose 1994, 357358). Tali microtuboli, come gli studi di Hameroff hanno confermato, possiedono per alcuni studiosi anche proprietà elettriche e quantistiche attraverso le quali si potrebbero spiegare numerosi fenomeni cognitivi, tra cui, secondo l'ipotesi di Hameroff-Penrose, lo stesso processo della coscienza. Infatti la presenza di proprietà quantistiche all'interno di questi microtubuli, spiegherebbe le forme di comunicazione intracellulare, che renderebbero conto anche dell'impossibilità di ridurre la coscienza ad un'area specifica del cervello, assumendola, invece, come il risultato di un'azione orchestrata di più parti interagenti. Questo fenomeno viene collegato da Penrose alla cosiddetta “coerenza quantistica”, un meccanismo fisico in cui i metalli se portati a basse temperature diventano superconduttori, riuscendo a condurre l'elettricità senza fine, ponendo una resistenza pari a zero. Tale fenomeno avviene grazie ad un movimento coerente e simultaneo degli elettroni che si muovono come se fossero un'unica particella. Questo meccanismo di coerenza quantistica secondo l'ipotesi di Penrose è lo stesso che avviene nei microtuboli neuronali e che permette alla nostra attività cosciente di muoversi in un flusso con- 64 The Lab’s Quarterly, 1, 2015 tinuo, facendo sì che il mondo materiale possa incontrarsi con quello mentale (Penrose 1994, 306). Il modello che Penrose elabora assieme al contributo di Hameroff è definito ORCH-OR: Orchestrated Objective Reduction, dove con “riduzione oggettiva” s'intende il collasso della funzione d'onda, che, secondo i due ricercatori, avverrebbe ogni 25msec all'interno dei microtuboli rendendo possibile l'esperienza cosciente come risultato di un'orchestrazione delle varie aree celebrali coinvolte nell'effetto della coerenza quantistica (ib.). Henry Stapp Un'altro modello quantistico di coscienza è quello proposto dal fisico statunitense Henry Stapp, che parte dal cosiddetto Processo 1 elaborato da Von Neumann nel 1955 secondo cui: una volta che l'osservatore sceglie attivamente la propria intenzione, il mondo fisico risponde di conseguenza seguendo le note leggi della meccanica quantistica (Vannini 2007). Il Processo 1 implica anche una totale libertà di scelta riservata all'osservatore che può decidere quale domanda rivolgere al sistema, e dunque, in quale tipo di forma esaminarlo. La teoria di Von Neumann è un'elaborazione dell'Interpretazione di Copenaghen secondo cui i numeri della fisica classica divengono in quella quantistica operatori matematici: la fisica classica può dunque salvarsi se considerata però come un'approssimazione, riducendo la costante di Planck al valore zero (ib.). Nel Processo 1 di Von Neumann la coscienza che si palesa con la scelta intenzionale dell'osservatore sarebbe la causa del collasso della funzione d'onda, ma Stapp ribalta la questione: la coscienza è la rappresentazione del collasso della funzione d'onda, la sua immagine isomorfa. In altre parole, nel cervello gli eventi si mantengono in inconscia sovrapposizione di stati fino a quando essi vengono resi psicologicamente coscienti dal collasso fisico della funzione d'onda, e la coscienza è quindi la controparte macroscopica del processo di fissazione delle strutture microscopiche del cervello (così come le sensazioni sono la controparte macroscopica del funzionamento dell'organismo) [Brenda Dunne, <www.ais-pain.it/files>, 60]. Attraverso il collasso della funzione d'onda, la mente trasforma la potenza in atto ed è questo processo di attualizzazione a generare la coscienza. Ogni evento attualizzato si presenta come una configurazione neuronale momentaneamente stabile definita “simbolo”. Ogni simbolo Irene Conti 65 si lega per associazione ad altre componenti potenziali che sono le sue stratificazione inconsce e che vengono attualizzate dal successivo evento cosciente (ib.). Per Stapp, inoltre, la chiave per uscire dal puro soggettivismo e dal solipsismo costruttivista risiede nella rappresentazione del mondo fenomenico come processo termodinamico informazionale, nei sistemi termodinamici in non equilibrio si forma una “vera mente” che rende conto della possibilità di un universo oggettivo. Se dunque in questo aspetto Prigogine aveva ragione si trova però nel torto nel ritenere che i sistemi termodinamici possano adeguatamente descrivere tale processo informativo, i sistemi termodinamici lontani dall'equilibrio risultano infatti incompleti nel momento in cui si tenta di render conto della complessità del vivente. Il fenomeno della coscienza può essere invece descritto dai modelli algoritmici capaci di un “interpretazione universale”. Luce, suoni e azioni fisiche sul mondo esterno veicolano informazione connettendo in un processo informazionale universale tutte le cose esistenti. Per un interprete universale particolare, i segnali fisici sono equivalenti a fibre nervose che trasmettono e ricevono informazioni; in questo modo, esso diventa centro integrante di un processo informazionale che si estende enormemente al di fuori del suo organismo fisico. Questo processo globale comprende altri interpreti universali. Tutte le cose visibili, udibili e trasformabili che esistono in natura costituiscono per ogni interprete universale una sorta di gigantesca memoria esterna che alimenta la sua attività di interpretazione universale (Brenda Dunne <www.ais-pain.it/files>, 62). 3.4. Il Quantum bit Come già a partire dalla prima cibernetica, con il cosiddetto Quantum Computing si procede nello sviluppo di una linea di ricerca in cui possano incontrarsi fisica e tecnologia. I modelli algoritmici quantistici che sono utilizzati nel Quantum Computing, stanno rivoluzionando il mondo dell'informatica dimostrando come il connubio tra meccanica quantistica e teoria dell'informazione prometta di riservarci numerose e inattese sorprese. L'unità di misura utilizzata da un computer quantistico è il quantum bit, anche detto qubit, che ha la caratteristica di potersi trovare in una sovrapposizione di due stati contemporaneamente. Il bit classico presenta una natura binaria, può difatti trovarsi o nello stato 1 o nello stato 0, il qubit invece può presentarsi contemporaneamente in questi due stati. È come se il bit classico fosse simile ad una monetina che una volta lan- 66 The Lab’s Quarterly, 1, 2015 ciata ed aver compiuto qualche oscillazione, mostri una delle sue due facce. Il qubit è invece paragonabile ad una monetina che non cessa mai di oscillare mostrando ora l'una ora l'altra faccia obbedendo alla bizzarra legge di complementarietà quantistica. Al contrario dei computer classici che svolgono le loro operazioni servendosi di calcoli seriali e lineari, il computer quantistico è in grado, grazie all'informazione veicolata nel quantum bit, di svolgere più calcoli contemporaneamente, in parallelo, caratteristica che lo accomuna ai processi cognitivi umani. Se per esempio utilizziamo un registro composto da 3 bit, vengono immagazzinati gli otto stati possibili derivati dalla combinazione dei 3 bit, singolarmente, uno alla volta, mentre in un registro di 3 qubit gli 8 stati sono immagazzinati simultaneamente. È evidente come questo aspetto produca enormi vantaggi in campo informatico e una velocizzazione sorprendente per quanto riguarda alcune operazioni di calcolo, tanto che l'avvento della computazione quantistica ha seriamente compromesso l'efficacia del sistema crittografico RSA. Tale sistema di sicurezza traeva la sua solidità dall'impossibilità computazionale di ricavare i fattori dei numeri primi. Attraverso l'algoritmo quantistico che Sohr individuò nel 1994 questo ostacolo è stato superato rendendo necessaria l'implementazione di nuovi sistemi crittografici inattaccabili dagli algoritmi quantistici. Al momento sono numerosi gli ostacoli che si incontrano per la realizzazione di calcolatori quantistici. Il più difficile da arginare è senz'altro quello che produce il cosiddetto fenomeno della decoerenza: a contatto con l'ambiente le caratteristiche quantistiche risultano compromesse. Tra le proposte avanzate per tentare di delimitare le interferenze dell'ambiente la più promettente sembra quella che suggerisce l'utilizzazione di nanocircuiti superconduttivi per implementare i calcolatori di futura generazione. Le proprietà superconduttive permetterebbero infatti una maggior stabilità e resistenza ai fenomeni di decoerenza grazie alle loro proprietà coesive e strutturali: “la moltitudine di gradi di libertà che descrivono microscopicamente un'isola metallica è congelata in virtù della condensazione superconduttiva” (Falci-Fazio-Palma 2001). Si può notare come anche nell'ambito della tecnologia informatica si stia tentando di far confluire fisica e biologia attraverso l'incontro tra il computer molecolare a base di Dna e il calcolatore quantistico: il codice della materia e quello della vita potrebbero fondersi rilevando le loro similarità e le potenzialità della loro sinergia. Al di là degli scenari che ci riserva il futuro che saranno accessibili grazie al progresso tecnologico e informatico quello che occorre qui tenere fermo è il risvolto teorico che l'unità di misura informatica del qu- Irene Conti 67 bit fornisce alla teoria dell'informazione. Possiamo considerare il qubit come il veicolo d'informazione che oscilla tra due stati alterni, e che rappresenta questi due stati alterni simultaneamente. Come si è visto negli studi di Gregory Bateson già esiste questa peculiare caratteristica del concetto d'informazione, caratteristica che ci viene presentata come l'essenza stessa e fondativa di tale concetto. L'informazione del mondo creaturale è infatti, come nel mondo del QuBit, rappresentata più dalla complementarietà di stati contrapposti che dalla logicità. Il processo del pensiero che viene a intessersi con quello della vita stessa è per sua natura illogico, metaforico e presenta un andamento oscillatorio, aspetto questo che richiama piuttosto precisamente la caratteristica dell'elemento subatomico e del quantum bit informatico. 4. L'ANTROPOLOGIA NELL'ERA DELLA COMPLESSITÀ In Mente e Natura Gregory Bateson definisce l'abduzione come “una descrizione doppia o multipla di qualche oggetto o evento sequenza”, in altre parole essa è una forma di estensione delle caratteristiche attribuite ad un evento o ad una cosa, ad altri eventi o cose appartenenti a domini differenti. Se ad esempio in una società incontriamo una determinata credenza cosmologica, o una specifica visione del funzionamento del mondo naturale, tale credenza si rifletterà nell'ordinamento della società stessa. Pertanto, continua Bateson, ci si ritroverà a far parte di un mondo dove tutti i fenomeni, o meglio, tutte le interpretazioni che siamo soliti attribuire ai fenomeni, si rispecchieranno nei diversi settori della vita e della conoscenza umana. Ne segue che, ogni paradigma culturale o scientifico per essere sostituito, avrà bisogno di molto tempo perché con esso, ad effetto domino, entreranno in crisi anche tutti gli altri fenomeni legati alla vita, al sapere, alla società: si verificherà quella che definiamo una svolta epistemologica e il nostro stesso senso comune quotidiano ne sarà attraversato. Se ci rivolgiamo al clima culturale dell'era industriale, osserviamo, come si è visto, una particolare coerenza nell'attribuzione di significato ai fenomeni, siano essi di natura storica, biologica, fisica. La società stessa era il riflesso di questo paradigma scientifico, così come il paradigma scientifico era, a sua volta, il riflesso di un particolare assetto sociale e culturale. Il clima di quell'epoca era attraversato da immagini di ordine e rigore meccanico, il preciso ingranaggio del mondo fisico era la base per garantire al mondo biologico di proliferare nella sua battaglia 68 The Lab’s Quarterly, 1, 2015 per il predominio, in un costante progresso verso forme sempre più raffinate di perfezione. Lo stesso valeva per la visione di un sistema economico il cui ordine era garantito dalla corsa di ogni individuo verso l'accumulo della propria ricchezza, al resto avrebbe pensato una mano invisibile atta a selezionare naturalmente coloro che avevano accesso al dominio capitalista, eliminando le economie deboli e fallimentari. In quest'ottica di preciso e deterministico ordine piramidale inserito in un universo fisico e cosmologico ridotto al rotolio delle palle da biliardo, s'inserisce, per abitudine ad abdurre, anche la risposta coerente dell'antropologia evoluzionista e con essa l'immagine della scala di progresso culturale che va dal primitivo al civilizzato, come dal microbo al mammifero, dal baratto al liberismo. Con un salto nel tempo di appena un secolo, è facile rendersi conto con quanta rapidità quel mondo sembra essersi capovolto, ma anche come, d'altra parte, non sia cambiato quel processo di abduzione per cui “..si può descrivere un certo evento o cosa...e poi ci si può guardare intorno e cercare nel mondo altri casi che obbediscano alle stesse regole da noi escogitate per la nostra descrizione” (Bateson 1979, 190). Se ci osserviamo intorno e proviamo ad applicare ai fenomeni sociali e antropologici le nuove scommesse della fisica e della biologia, viene in effetti da chiedersi se tali proposte siano state ispirate dal cambiamento sociale o se all'inverso sia la società a cambiare il proprio volto sulla scia dei nuovi paradigmi scientifici. Come sempre la risposta sta in una ricorsività circolare che a questo primo livello connette società, visione scientifica, senso comune e ad un secondo livello, tutto epistemologico, connette la nostra stessa mente con il mondo di cui fa esperienza in una danza ininterrotta in cui da un polo si torna all'altro. Poste queste premesse ciò che in ogni caso resta indubbio, aldilà di insanabili quesiti sulla natura puramente costruttivista della nostra esperienza, il modo in cui la società oggi si è evoluta sembra far affiorare sulla superficie della dimensione umana, quei caratteri di complessità, disequilibrio, marginalità, complementarietà che sono stati individuati a livello biologico e fisico. Il primo e sicuramente più evidente insieme di fenomeni in cui questo passaggio è ravvisabile è quello della dinamica tra locale e globale. 4.1. La frontiera glocal Tra i vari concetti che sono passati sotto il vaglio critico dei nuovi studi sulla complessità, possiamo far rientrare in una prospettiva antro- Irene Conti 69 pologica anche quello di “cultura”. Tale termine acquisisce oggi un'accezione problematica e liquida rifuggendo ancora una volta alla logica riduzionista che il paradigma determinista e meccanicista le aveva conferito. La trama del tessuto che connette il mondo è andata nell'ultimo secolo infittendosi a dismisura, intrecciando i localismi con un flusso di informazioni globalizzate sempre più rapido e penetrante. È diventato così assai complesso poter parlare di “culture” come di isole confinate dietro usi, costumi e sistemi di credenze determinati. Anche all'interno della disciplina antropologica una delle più rilevanti svolte di paradigma degli ultimi decenni sta proprio nella problematizzazione di questa nozione nella sua forma sostantivata , la svolta è importante perché proprio la cultura è stato l'oggetto privilegiato dello studio etnografico sin dal suo primo sviluppo. Ma oggi questo “oggetto” pare condividere la stessa sorte che vive il concetto di “specie” nella biologia evolutiva, il concetto di “cellula” in quella molecolare e quello di “atomo” nella fisica quantistica: anche qui il sostanzialismo lascia il posto al primato delle relazioni. Oggi più che mai possiamo osservare il fenomeno del proliferare di nuove forme di culturalismo che rifuggono dai consueti confinamenti territoriali. Tali culture diventano fenomeno translocali che grazie all'alta volatilità dei sistemi di comunicazione di massa riescono a preservare la propria identità, nutrendosi di immagini, icone, simboli, veicolati dal flusso mass mediale. Diana Crane (1972) ha parlato dei “college invisibili” che nel mondo scientifico, grazie alla proliferazione dei media elettronici, diventano comunità virtuali per la trasmissione e la generazione del sapere istantaneamente e a distanza. Appadurai (1990) fa invece riferimento alle “comunità di sentimento” che possono generare sodalizi di vario tipo sempre a livello translocale e transnazionale: La fruizione collettiva dei mass media, soprattutto film e video, può creare sodalizi di culto e carisma, come quelli che si sono formati a livello regionale attorno alla divinità femminile di Santoshi negli anni Settanta e Ottanta, e a livello transnazionale attorno all'ayatollah Khomeini più o meno nello stesso periodo. Sodalizi simili possono costituirsi attorno allo sport a livello internazionale, come dimostrano chiaramente gli effetti transnazionali delle Olimpiadi...(Appadurai 1990, 22-23). La circolarità retroattiva dei sistemi complessi può ben applicarsi al fenomeno che il sociologo Zygmunt Bauman denominò “glocalizzazione”, si può osservare, infatti, come vi sia tra localismi e globalismi una comunicazione dialettica interattiva che porta gli uni ad agire sugli altri: 70 The Lab’s Quarterly, 1, 2015 una volta che le informazioni vengono trasmesse dal primo al secondo polo non sono assimilate passivamente, ma vengono adattate creativamente per convivere con il sottosistema locale e ritrasmesse in questa forma al sistema globale. Questa sorta di feedback negativo glocale passa per quello che Appadurai definisce “processo di indigenizzazione”: ...appena le forze provenienti da diverse metropoli sono portate all'interno di nuove società esse tendono, in un modo o nell'altro, a subire un processo di indigenizzazione: questo è vero della musica come degli stili abitativi, dei procedimenti scientifici come del terrorismo, degli spettacoli come delle norma costituzionali. In poche parole le singole culture possono riprodursi o ricostruire la propria specificità sottoponendo le forme culturali transnazionali ad un processo di indigenizzazione (Appadurai 1990, 24). Si può affermare come sia questo processo di rielaborazione e indigenizzazione a far sì che le forme culturali specifiche possano sopravvivere, attraverso questa circolarità a ricorsività negativa, che le vede creativamente impegnate in un processo di continua trasformazione. Se infatti l'input derivante dal sistema globale non venisse inglobato e declinato da forme di integrazione locale, ma assorbito senza mediazione, con l'accumulo di cambiamenti non integrati, il sottosistema locale si avvierebbe verso il collasso e molte specificità culturali sarebbero destinate a scomparire. Questo è uno degli aspetti che conduce a sperare che il futuro, tenuto debitamente conto dei disequilibri economici e politici, non ci riserverà un quadro di piatta omogeneizzazione culturale, ma apparirà imprevedibilmente tratteggiato da nuovi flussi e nuove forme di ibridazione e creolizzazione. Tanto più se teniamo presenti gli studi sui sistemi viventi di Ilya Prigogine e dei suoi collaboratori tale aspetto può essere ulteriormente riconfermato: anche i sistemi sociali come i sistemi biologici non evolvono all'interno di cornici dove a prevalere è l'ordine, ma ai margini del caos, in condizioni spesso liminali dove si escogitano soluzioni e strategie per adattarsi al meglio ai rapidi cambiamenti che attraversano l'ecumene globale. In quest'ottica un po' tutti ci troviamo, e non solo i popoli del sud del mondo, in uno stato di confine e marginalità, ma proprio questo stato ci permette, stimolandoci a ridisegnare continuamente i contorni della nostra identità sociale e culturale, di restare flessibili e permeabili alle miriadi di trasformazioni e innovazioni che caratterizzano la nostra epoca. Anche la storia umana come quella biologica non scorre in un flusso continuo e ordinato, qui, come l'evoluzionismo post-darwiniano ravvisa nel mondo naturale, si procede per improvvise accelerazioni, lunghi periodi di latenza, impreviste deviazioni. Proprio le crisi , le fasi di disequilibrio ed instabilità sono quelle che Irene Conti 71 fanno emergere il cambiamento e generano l'evolversi di una struttura sociale: Ogni evoluzione è frutto di una devianza riuscita, il cui sviluppo trasforma il sistema nel quale essa è nata: la devianza disorganizza il sistema mentre lo riorganizza. Le grandi trasformazioni sono morfogenesi, creatrici di nuove forme, che possono costituire vere metamorfosi. In ogni modo non esiste evoluzione che non sia disorganizzatrice/riorganizzatrice nel suo processo di trasformazione o di metamorfosi (Morin 2001, 82). Ovviamente il cambiamento ha da sempre contraddistinto la storia umana di ogni epoca e latitudine, quello che diviene peculiare della nostra era complessa è, però, il grado di rapidità con cui questo cambiamento si verifica, tanto che si ha una percezione di accelerazione del tempo e di riduzione e dilatazione dello spazio: Nel mondo che abitiamo, disseminato di schermi piccolissimi e giganti, tutto sembra darsi e farsi in tempo reale, "qui e ora". Nella percezione di ciascuno gli avvenimenti si moltiplicano producendo una sorta di accelerazione della storia: lo spazio attorno a noi si dilata e paradossalmente si restringe poiché ogni luogo è raggiungibile in poche ore di volo e qualsiasi messaggio può pervenire in pochi istanti a un destinatario che fisicamente si trova lontano a migliaia di chilometri. (Callari Galli 1999). Questa istantaneità nella trasmissione e percezione dei cambiamenti che ci coinvolgono su scala globale viene nell'analisi di Glissant collegata all'immagine di un caos-mondo intricato ed in pieno fermento, richiamando ancora la disamina di Prigogine sui sistemi viventi autoorganizzantisi ai margini del caos: Chiamo caos-mondo...lo choc, l'intreccio, le repulsioni, le attrazioni, le connivenze, i conflitti fra le culture dei popoli, nella totalità-mondo contemporanea...le relazioni, i contatti tra le culture si perpetuavano nel passato attraverso archi temporali immensi. Erano contatti che, per questi motivi, non venivano riconosciuti...L'arco temporale era così lungo che le trasformazioni non venivano percepite, si sostituivano ad esse altre trasformazioni...La novità presentata dai tempi contemporanei è che gli archi temporali non sono più immensi: sono fulminei e così i loro effetti. Le influenze e le ripercussioni delle culture le une sulle altre sono immediatamente percepibili come tali (Glissant 2011). La riduzione del tempo all'istante e la scomparsa delle distanze spaziali, resa possibile dai mezzi di trasporto e mezzi elettronici di comunicazione, produce dunque la trasmissione fulminea di informazioni da un capo The Lab’s Quarterly, 1, 2015 72 all'altro del mondo. Nell'ecumene globale anche i sistemi sociali sono tra loro entangled: un fenomeno che si genera in una parte del globo, come ad esempio un focolaio di rivolta, può avere un'influenza decisiva su un'altra area del pianeta situata a migliaia di chilometri di distanza. La meccanica quantistica può fornirci anche un'altra lente attraverso cui poter osservare e comprendere la realtà contemporanea: il principio di complementarietà. Tale principio può rendere adeguatamente conto di una realtà in cui molteplici ed eterogenei modelli culturali si ritrovano a convivere in una sorta di “sovrapposizione di stati”. Al di là della logica binaria, è con il principio di complementarietà, declinato nel moderno Quantum Computing, che possiamo oggi accettare l'esistenza simultanea di 0 e 1, di onda e particella, di locale e globale, di identità e nomadismo. 4.2. Antropologia post-einsteiniana Questa integrazione di due realtà contraddittorie resa possibile dalla rivoluzione quantistica può essere effettuata nell'analisi dei fenomeni sociali e culturali della contemporaneità e risultare, ad un tempo, un utile strumento di applicazione nel campo della metodologia etnografica. Come afferma Elisabeth Vann nel suo articolo Quantum Ethnography: Anthropology in the Post-Einsteinian Era <soar.wichita.edu>, a partire dalla crisi che attraversa l'antropologia negli anni Sessanta, sono due le principali correnti che vengono a delinearsi e che contrappongono due modelli etnografici solo in apparenza inconciliabili: da una parte incontriamo l'antropologia interpretativa, i cui principali esponenti sono Clifford Geertz, Marcus e Fisher, dall'altra incontriamo la visione politico-economica sostenuta da Polier e Roseberry.4 Per i postmodernisti è necessario indirizzare il discorso etnografico verso una cornice interpretativa che si focalizzi sulla metafora testuale: l'antropologo non è uno scienziato, ma un interprete culturale, che si approccia alla realtà etnografica come se fosse un testo letterario. La sua comprensione, inoltre, non sarà condizionata solo dal suo punto di vista, ma anche da quello degli informatori, con il risultato che nella produzione etnografica si avrà a che fare con più livelli interpretativi, con una “pluralità di voci”. È solo al nativo che spetta comunque il primo livello interpretativo, l'antropologo avrà invece sempre accesso ad una rappresentazione di second'ordine dei testi culturali che potrà leggere soltanto 4 Tale distinzione viene ripresa da Robert Ulin (1991). Irene Conti 73 “sopra le spalle di quelli a cui appartengono di diritto” (Geertz 1973, 447). La cultura è un testo agito composto da descrizione dense: una strizzatina d'occhio può prestarsi a numerosi significati, è dal contesto in cui avviene che possiamo attribuirgli quello giusto. È dunque impossibile estrapolare gesti e azioni culturali dal proprio contesto dialogico e interrelazionale conferendoli uno status ontologico assoluto e oggettivo, abbiamo sempre a che fare con un discorso sociale immerso in una ragnatela di significati. Estrarre cristalli simmetrici di significato, purificati dalla complessità materiale in cui erano collocati, e poi attribuire la loro esistenza a principi di ordine autogeni, proprietà trasversali della mente umana, o vaste Weltanschauungen aprioristiche, è simulare una scienza che non esiste e immaginare una realtà che non si può trovare. L'analisi culturale consiste (o dovrebbe consistere) nell'ipotizzare significati, valutare le ipotesi e trarre conclusioni esplicative dalle ipotesi migliori ma non scoprire il Continente del Significato e tracciarne il paesaggio immateriale su una sorta di carta geografica (ivi. 30). Vann, seguendo Ulin, continua la sua dissertazione introducendo la visione proposta da Marcus e Fisher (1986) che proseguono il discorso avviato da Geertz, focalizzandosi sulla metafora testuale e proponendo delle strategie di stile letterario, per pervenire ad una produzione etnografica, maggiormente in grado di riflettere la complessità della realtà sociale. A questo proposito può, secondo i due autori, risultare utile una scrittura dialogica che renda conto della molteplicità delle voci nel flusso di discorso sociale e la costruzione di “collage” etnografici che riflettano la frammentazione delle società moderne. Le critiche a questi tipo di definizione di una realtà etnografica come fiction e dell'antropologo come autore testuale non tardano ad arrivare: è soprattutto con gli economisti politici, tra cui Polier e Roseberry, che il postmodernismo viene messo a dura prova. Si contesta infatti il carattere frammentario e disorganico che, seguendo l'impostazione interpretativa, verrebbe attribuito alla realtà sociale. Essa, si presenta invece nella visione economico-politica, connessa a ben precise coordinate storiche che ne determinano il profilo attuale. In particolare, si rende necessario sostituire la metafora testuale con quella di commodity, cioè di prodotto, che, con lo sviluppo di un'economia basata sullo scambio e non più sul consumo diretto, è venuto a coincidere con il compenso salariale. Con l'espansione del capitalismo questo aspetto è stato generalizzato, sino a coinvolgere l'intera realtà sociale (Ulin 1991, 76; cit. in Vann 73). 74 The Lab’s Quarterly, 1, 2015 Come sottolinea Vann, la metafora del commodity non appare però come una soluzione alle problematiche sollevate dal postmodernismo, ma come uno slittamento di prospettiva, da una questione, ad un'altra: pare proprio che gli economisti politici e i postmodernisti parlino due lingue diverse (ib.). Ma il punto centrale su cui l'articolo di Vann si focalizza è il tentativo di riuscire, attraverso le nuove possibilità epistemologiche offerte dalla fisica quantistica, a conciliare queste due proposte metodologiche collimanti. Il dibattito che ha scosso le fondamenta della fisica newtoniana a partire dagli inizi del Novecento, ha prodotto nuove metafore, tra cui sono centrali quelle di complementarietà e relativismo, che sono già state adottate in campo psicologico, economico e in quello della critica letteraria. Come suggerisce Vann, è giunto il momento che anche il dibattito antropologico tragga preziosi contributi teorici e metodologici dalle metafore del mondo quantistico. La fisica e l'antropologia presentano infatti numerosi punti di convergenza: entrambe si occupano di investigare le forme della realtà, l'antropologia al livello macroscopico della ricerca sociale, la fisica a livello microscopico dell'esplorazione atomica e subatomica. Entrambe le discipline si sono occupate, inoltre, del modo in cui queste forme di realtà microscopica e macroscopica si relazionano con le coordinate del tempo e dello spazio. In più, vi è un punto di convergenza assai significativo, che è quello del ruolo dell'osservatore e dagli effetti da lui prodotti sulla realtà osservata. L'Interpretazione di Copenaghen mette in luce come siano proprio l'osservatore o lo strumento di misurazione a influenzare e decidere la forma con cui la realtà subatomica si presenterà. Anche nella ricerca etnografica si fa riferimento al modo in cui la presenza dell'antropologo susciti un'influenza sul campo sociale di indagine e di come, a sua volta, la realtà etnografica, produca un'influenza sull'osservatore. Il principio di complementarietà e quello di indeterminazione, possono fornire un ulteriore spunto di comparazione tra le due discipline e forse una soluzione al dibattito tra postmodernisti ed economisti politici. Questi principi ci dicono che la realtà si presenta in forma duale, che può essere compresa solo in termini di probabilità, che è interconnessa, e che ontologia ed epistemologia non possono più essere disgiunte. Partendo da questi postulati si può osservare come sia la prospettiva postmodernista che quella ecomomico-politica, siano parzialmente esatte e risultino incomplete se assunte singolarmente. Il postmodernista è in errore nel ritenere che la realtà sociale sia frammentata e disorganica: la Irene Conti 75 visione che la fisica quantistica ci offre del mondo subatomico è quella infatti di una realtà profondamente “entangled”, mentre è in accordo con i principi della nuova fisica nel momento in cui sostiene che la realtà sia il prodotto relativo di osservatore e partecipanti. Ma questo, ammonisce Vann, non deve condurre ad interpretare la realtà come pura fiction, né a rigettare l'applicazione di modelli di ricerca sociale, deve invece renderci sempre consapevoli che qualsiasi modello da noi utilizzato e qualunque rappresentazione della realtà osservata, siano irriducibilmente solo parziali alla stregua delle onde di probabilità quantistiche: quello che conosciamo è determinato dal modo in cui conosciamo, dallo strumento metodologico di riferimento. Questo significa che l'analisi del micro livello condotta dai postmodernisti, funzionerà solo in aderenza ad un livello micro, ma non potrà essere applicata al macro livello delle strutture politico economiche. Il micro e macro livello non possono darsi simultaneamente in un unico testo etnografico, pertanto anche la realtà etnografica come quella fisica, apparirà indeterminata, potrà mostrare solo una delle sue due facce per volta: Proprio come un fisico non può misurare l'esatta posizione e il movimento di una particella simultaneamente, nemmeno l'etnografo può completamente e accuratamente rappresentare i livelli micro e macro della realtà attraverso un singolo testo etnografico. Questo significa semplicemente che gli antropologi devono ammettere, sia a se stessi che ai loro lettori, che un testo etnografico non potrà mai presentare un immagine-specchio della realtà ( 78, trad. mia). Tuttavia, nella proposta di Vann, l'etnografia post-einsteiniana può rifarsi al modello di funzione d'onda postulato dalla fisica quantistica per rendere conto ad un solo tempo del processo voluto dagli economisti politici e della pluralità di voci voluta dai postmodernisti. Infatti le reti di relazioni intersoggettive possono essere espresse nei termini di una funzione d'onda: ogni componente di questa rete possiede infatti una propria interpretazione e idealizzazione della realtà presente, che non è certo assoluta ma si presenta come un'onda di possibilità. Attraverso il resoconto della pluralità di voci senza un chiaro riferimento al contesto sociale, culturale, economico, da cui tale voci provengono, i postmodernisti hanno causato inavvertitamente il collasso di questa funzione d'onda sociale. D'altra parte, anche gli economisti politici non hanno tenuto conto delle onde di probabilità sociali, rappresentando una realtà ad un livello esclusivamente materiale. Ne risulta dunque che entrambe le prospettive si rivelano fallaci proprio per il mancato riferimento alla funzione d'onda: da una parte si tiene conto delle voci, ignorando il tessuto 76 The Lab’s Quarterly, 1, 2015 sociale e culturale, sfociando in un completo relativismo, mentre dall'altra si genera un punto di vista riduzionista che subordina gli attori alla struttura e al processo. In conclusione, Vann argomenta che: In sintesi, un modello di funzione d'onda delle relazioni sociali dovrebbe rappresentare entrambe le realtà alternative che sono integrate attraverso il network di relazioni sociali...Questa dissertazione ha lo scopo di dimostrare come i modelli usati dai postmodernisti e dagli economisti politici non riflettano la realtà. Essi falliscono perché ciascuna delle due prospettive è semplicemente questo – una prospettiva... La teoria quantistica fornisce un modello alternativo a quello proposto dai postmodernisti e dagli economisti politici...I suoi metodi e applicazioni permettono alle prospettive teoretiche attualmente in uso, come quelle postmoderniste e politico economiche, di essere riformulate e reinterpretate utilizzando nuove e più accurate ipotesi sulla realtà (ivi, 80, trad. mia). Dunque la fisica quantistica può prestarsi alla formulazioni di utili metafore che possano dare impulso alla ricerca etnografica, portando luce in quelle zone oscure ove il dibattito sul modello e sulle metodologie più adeguate alla ricerca sociale aveva rischiato di arenarsi. 4.3. Ecologia della cultura L'antropologo britannico Tim Ingold, a seguito delle prime ricerche sul campo presso la comunità dei Saami Skolt nel Nord della Finlandia, decide di orientare le proprie ricerche nell'ambito dell'antropologica ecologica. L'interesse di Ingold si indirizza in particolare verso la ricorsività tra mente e natura teorizzata da Bateson, la teoria dei sistemi, la biocibernetica, i sistemi autopoietici di Varela e Maturana e il darwinismo neurale di Edelman. Come si vede l'eterogeneità di questi studi fanno di Ingold un pensatore che avverte la necessità di spostarsi oltre i propri confini disciplinari, nell'esigenza di prefigurarsi quadri più organici, compiuti e interconnessi della realtà studiata. A partire dagli anni Ottanta questi studi lo conducono a delineare una visione chiara di quelli che sono i tre modelli di pensiero che in tre diversi ambiti disciplinari si alimentano pericolosamente l'uno con l'altro, generando un impianto teorico estremamente solido e difficilmente intaccabile che Ingold denomina. I tre ambiti disciplinari interessati sono la biologia, la psicologia e l'antropologia e i tre modelli teorici a cui ciascuno di questi settori fa riferimento sono nell'ordine: il neodarwinismo, le scienze cognitive, la teoria della cultura. Si viene a fondare, co- Irene Conti 77 sì, quella che Ingold denomina: ortodossia bio-psico-culturale; alla base di tale prospettiva teoretica vi sono infatti postulati comuni: il riduzionismo, il determinismo, la linearità, il meccanicismo. Tale alleanza si manifesta quando, ad esempio, vogliamo produrre una teoria sulla locomozione delle persone in varie aree culturali. Se infatti la propensione a camminare è universale essa viene declinata nelle varie società in modi particolari. L'essere umano possiede, infatti, strutture anatomiche che permettono la locomozione, una mente umana che grazie ai suoi “processori” è in grado di cogliere l'input dell'esterno per l'apprendimento dei codici culturali e la capacità di assemblare tali codici di modo che divengano coerenti con le rappresentazioni collettive della comunità di appartenenza. In questi tre passaggi ci siamo serviti di tre supporti fondamentali: il corpo, la mente, la cultura. In questa “complementarietà” di parti interagenti ma distinte risiede il pernicioso postulato di dualità mente-corpo che richiama l'epistemologia di radice cartesiana ancora dominante nella visione occidentale. Nella biologia neodarwiniana, ad esempio, si presume l'esistenza di un genotipo che coincide con l'idea di “forma”: contiene in sé già tutte le caratteristiche potenziali che andranno poi ad essere attualizzate nel fenotipo. Lo sviluppo evolutivo è quindi in qualche modo predeterminato e prevedibile, ridotto a delle componenti genetiche che forniscono preventivamente tutte le informazioni circa il suo . Nelle scienze cognitive incontriamo ancora, specularmente, questa descrizione determinista insita nella biologia neodarwinista: i genotipi nella psicologia cognitiva diventano le strutture innate atte ad accogliere e assorbire le acquisizioni tramite l'apprendimento. La cultura, a sua volta, è un corpus omogeneo di tecniche, abilità, conoscenze, che viene trasmesso di generazione in generazione per divenire poi sostanziato nell'utilizzo sociale. La logica che sottende questa separazione è la stessa di quella che separa l'equipaggiamento genotipico dall'espressione fenotipica nella biologia evolutiva. Proprio come il genotipo contiene un disegno indipendente dal contesto per il modello dell'organismo, così l'informazione culturale trasmessa contiene delle specificazioni per il comportamento che sono indipendenti dal contesto, e queste consistono di ciò che è stato variamente definito come piani, programmi, schemi, rappresentazioni, regole e istruzioni. Come si dice che il genotipo si “realizza” nella forma specifica al contesto del fenotipo, attraverso un processo di sviluppo in un ambiente, così si dice che la cultura si “esprime” nella storia di vita dell'individuo attraverso il suo comportamento situato in un ambiente (Ingold 2001, 57). 78 The Lab’s Quarterly, 1, 2015 È necessario spostare l'attenzione da questi “enti” immaginari con cui ordiniamo la realtà biologica e sociale, ai processi e alle relazioni che sottendono il passaggio da genotipo a fenotipo, da apprendimento a conoscenza culturale, accorgendosi di come non si dia separazione alcuna tra l'individuo e il suo ambiente: il compito dell'antropologia diventa dunque quello di “ri-radicare il soggetto umano nel continuo della vita organica” (106). Questa vita organica è caratterizzata, nell'ipotesi di Ingold, da un interscambio continuo di informazioni tra l'individuo e il suo ambiente, dal coinvolgimento attivo dell'essere vivente in questo processo di sviluppo e dalla sua capacità di auto- organizzarsi. Anche i processi culturali, alla stregua di quelli biologici, dovranno essere letti in questa prospettiva di tipo “organicista”: Ora desidero sostenere... che l'accoppiamento cultura-comportamento non lascia spazio alcuno alle complesse relazioni psicologiche e ai processi che intervengono tra l'uno e l'altro, e che questo campo di relazioni corrisponde a ciò che chiamiamo coscienza, e che è solo nei termini delle proprietà di autoorganizzazione della coscienza che possiamo raggiungere una comprensione delle strutture e delle trasformazioni della vita sociale...Per riassumere il nucleo principale della mia tesi direi che: un'adeguata integrazione dell'antropologia nel più ampio campo della biologia richiede che lo studio delle persone sia concepito come un aspetto dello studio degli organismi (ivi, 98, 106). Alla perniciosa alleanza della triade costituita da neo-darwinismo, scienze cognitive e antropologia della cultura, Ingold sostituisce tre modelli che segnano un radicale mutamento di paradigma: la biologia dello sviluppo, che mette al centro il processo morfogenetico, la psicologia della Gestalt, che si concentra sulle relazioni ed i mutui rimandi tra individuo e corpus sociale, e l'antropologia della pratica, che vede l'agente sociale continuamente immerso nell'esplicarsi delle sue abilità. Facendo riferimento a quest'ultimo modello disciplinare viene descritto un modus operandi della pratica esperta all'interno delle comunità umane, assai diverso da quello prospettato dalla nozione di “cultura”. In questa visone di matrice riduzionista e meccanicista, la tecnologica sarebbe la risultante filogenetica, di un progetto mentale ontogenetico: al design preventivamente strutturato farebbe dunque seguito la costruzione tecnica. Ingold mette in luce come sia invece centrale nel processo dell'acquisizione dell'abilità pratica, il contatto e lo scambio continuo con la rete di relazioni sociali in cui il “praticante” è immerso. L'apprendista non mette in pratica mere istruzioni formali in una realizzazione tecnica, ma si muove per tentativi di imitazione che gradualmente lo portano a impadronirsi della tecnica dei nodi, dell'arte della tessitura e dell'intreccio. In Irene Conti 79 altre parole le istruzioni non sono situate al di sopra dell'attività pratica ma al suo interno: Ma se...non ci può essere un programma esauriente per compiti come fare nodi, tessere o intrecciare che non sia immanente all'attività stessa, allora interpretare il comportamento dell'uccello tessitore come il risultato di un programma genetico non ha più senso dell'interpretare il comportamento del pescatore o del cestinaio come il risultato di un programma culturale. In entrambi i casi ci troviamo di fronte a un'abilità che non è né innata né acquisita, ma volutamente incarnata, nel modus operandi del corpo dell'uccello come dell'uomo, attraverso la pratica e l'esperienza (ivi, 154). Pertanto Ingold può concludere affermando che le attività dell'intreccio e della tessitura sono profondamente imbricate nell'esperienza, non c'è separazione alcuna tra l'idea e la sua realizzazione, poiché la mente non si situa al di sopra dell'azione: la mente è nell'intreccio stesso. Nella produzione di un cestino, ad esempio, è innegabile che l'esecutore debba possedere nella sua mente una qualche idea, seppur vaga, del prodotto concluso, ma quello che è centrale per il cestinaio è la tecnica che si produce nell'atto stesso dell'intreccio, che avviene attraverso movimenti regolari, seguendo un ritmo costante, in una performance che coincide con l'oggetto performato. La creatività non sta dunque tutta nello stampo che precede il prodotto finito, ma nella dinamica del processo produttivo. Anche il linguaggio, come la tecnica, presenta un carattere performativo più che “ingegneristico”: la grammatica e la sintassi non si apprendono come prerequisiti per formulare parole o frasi, ma si apprende a parlare attraverso una pratica abile di confronto con l'altro da sé, di ripetizione continua, di tentativi, di correzione dei propri errori. Ecco che, anche il linguaggio, dunque, scivola in forme di arte verbale improvvisate, imbevute di ritmo e danza, come in un'immagine emblematica dove la pratica linguistica e quella tecnica si “intrecciano” in una sola cosa: Penso alla donna africana che macina il miglio con pestello e mortaio con un movimento costante, ritmico, di danza, e canta mentre lavora – questa per me è l'immagine archetipo della situazione umana dell'utilizzo di utensili, non lo scenario da problem-solving preferito dagli psicologi cognitivi (ivi, 159). 80 The Lab’s Quarterly, 1, 2015 CONCLUSIONI Il percorso che è stato svolto in questo lavoro ha tentato di offrire un quadro dei cambiamenti e delle evoluzioni che si sono verificati nel campo delle scienze, a partire dal secolo scorso, e che vengono raggruppati entro la cornice di una comune denominazione: “l'epistemologia della complessità”. A discapito di quanto una denominazione così “importante” possa far intravedere, ci pare che questa corrente di studi, proceda nella direzione di una semplificazione più che di una ulteriore “complessificazione”. L'universo biologico, fisico, sociale, che esse ci presentano, è un universo dove l'uomo può legittimamente trovare posto come cocreatore, e non più come semplice spettatore di un congegno meccanicistico e finalistico che lo relega alla pura passività. Anche i tradizionali “oggetti di studio” vengono posti sotto una lente critica, epistemologica, che ne problematizza la reificabilità, riconducendoli ad un'irriducibile unità con chi ne fa esperienza: l'osservatore. Ci sembra che già questi due punti di partenza, conducano ad una maggior semplificazione, intesa non già nella dispregiativa accezione di ottica riduzionista, ma in quella che, richiamando il senso etimologico, ci riconduce all'unità, alla ricomposizione delle dualità, ad una concezione più armonica ed integra della realtà e di chi ne fa esperienza. Se di complessità si può parlare, essa non rimanda all'esaltazione di ciò che comunemente si intende per complesso, ciò che è difficile e complicato, ma alla composizione latina di cum plexum: ciò che è intrecciato insieme, connesso, integrato. La realtà, dunque, non è complicata, è, piuttosto, intrecciata, interrelata, come nell'ottica sintetica e organica proposta nella Teoria dei Sistemi. Proprio ricalcando questa impostazione, si è voluto dare precedenza, nel testo, alle connessioni tra le parti, tentando di far emergere la “metastruttura” che le sovrasta, a discapito, forse, di un'analisi più particolareggiata delle componenti singole. Ma, ci è parso doveroso, tentare di trasmettere quel senso primario, tutto contenuto nell'accezione corretta di “complessità”, che vede ogni componente della realtà, imbricata in questo processo, senza precedenti, di rivisitazione e riconnessione. Quello di cui stiamo parlando non è soltanto un necessario ed auspicabile travalicamento delle tradizionali cornici disciplinari, ma è anche un ricondurre tali cornici disciplinari a confrontarsi con ciò che fino ad ora è stato rimosso: lo stesso processo del conoscere. Irene Conti 81 Ecco dunque che ci si muove sui confini della triade Mente, Materia, Vita, tentando di individuare, in tali confini, interfaccia che permettano nuove connessioni e arrivando ad affrontare “la minaccia di quel caos dove il pensiero diventa impossibile”. BIBLIOGRAFIA Aczel A.D. (2001), Entanglement: the Greatest Mistery in Physics, New York, Four Room Eight Windows; trad. it. Entanglement: il più grande mistero della fisica, Milano, Raffaello Cortina, 2004. Amoretti M. C., Vassallo N. (2010), Piccolo trattato di epistemologia, Torino, Codice Edizioni, Versione E-book, Amazon. Appadurai A. (1996), Modernity at Large: Cultural Dimension of Globalization, Minneapolis, University of Minnesota Press; trad. it. Modernità in polvere, Roma, Meltemi, 2001. Ashby R. (1956), An Introduction to Cybernetics, London, Chaoman & Hall Ltd; trad. it. Introduzione alla cibernetica, Torino, Einaudi, 1971. Barret J. (2006), A Quantum-Mechanical Argument for Mind-Body Dualism, «Erkenntnis», n. 65. Bateson G. (1936), Naven, Cambridge, Cambridge University Press; trad. it. Naven, Torino, Einaudi, 1988. Bateson G. (1972), Steps to an Ecology of Mind, San Francisco, Chandler; trad. it. Verso un'ecologia della mente, Milano, Adelphi, 1976. Bateson G. (1979), Mind and Nature: a Necessary Unity, New York, Dutton; trad. it. Mente e Natura: un'unità necessaria, Milano, Adelphi, 1984. Bateson G. (1991), a cura di Donaldson R. E., A Sacred Unity. Further Steps to an Ecology of Mind, New York, Harper Collins; trad. it. a cura di Donaldson R. E., Una Sacra Unità. Altri passi verso un'ecologia della mente, Milano, Adelphi, 1997. Bateson G., Bateson M.C. (1987), Angels Fear. Toward an Epistemology of the Sacred, New York, Macmillan; trad. it. Dove gli angeli esitano. Verso un'epistemologia del sacro, Milano, Adelphi, 1989. Bateson M.C. (1984), With Daughter's Eyes, New York, Morrow; trad. it. Con occhi di figlia, Milano, Feltrinelli, 1985. Bellone E. (2004), Caos e Armonia, Torino, UTET. Bellone E. (2008), Molte Nature. Saggio sull'evoluzione culturale, Milano, Raffaello Cortina. 82 The Lab’s Quarterly, 1, 2015 Bellone E. (2011), Qualcosa là fuori, Come il cervello crea la realtà, Torino, Codice. Bertalanffy v. L. (1968), General Systemos Theory, New York, Braziller; trad. it. Teoria generale dei sistemi, Milano, ISEDI, 19762. Bettolotti L. (2006), La proposta dell'epistemologia come scienza, «Spaziomente Pagine di libera divulgazione scientifica». www.spaziomente.com/ARTICOLI/La_proposta_dellepistemologia_co me_scienza.pdf Bettolotti L. (2006), Verso un nuovo metodo scientifico, «Spaziomente. Pagine di libera divulgazione scientifica». www.spaziomente.com/Articoli/Verso_un_nuovo_metodo_scientifico.p df Bertrando P., Bianciardi M. (2009), La natura sistemica dell'uomo: attualità del pensiero di Gregory Bateson, Milano, Cortina. Bocchi G., Ceruti M. (1984), Modi di pensare post-darwiniani: saggio sul pluralismo evolutivo, Bari, Dedalo. Bocchi G., Ceruti M. (1985), a cura, La sfida alla complessità, Milano, Mondadori. 20079. Bohm D. (1952), Quantum Theory, New York, Dover; trad. it. Bohm D. (1957), Causality and Chance in modern Physics, New York, Harper Edition; trad. it. Causalità e Caso. La fisica moderna, Napoli, CUEN, 1997. Bohm D. (1982), Wholeness and the implicate order, London, Routledge and Kegan Paul. Bohm D. (1996), Universo, mente, materia, Como, Red. Boudon R. (1980), The crisis in sociology: problems in sociological epistemology, London, Mcmillan. Brogaard B. (2011), The epistemolgy of perception, Boston, WileyBlackwell. Calcaterra R. M. (2010), Mente e Natura tra metafisica ed epistemologia, in «Natura, Storia, Società. Studi in onore di Mario Alcaro», Milano, Mimesis. Callari Galli M. (1999), La fusione degli orizzonti. Non dobbiamo inseguire sogni di globalizzazione, ma avviare forme concrete di mediazione, «Pluriverso», n. 4. Callari Galli M., Cambi F., Ceruti M. (20064), Formare alla complessità. Prospettive dell'educazione nelle società globali, Roma, Carocci. Cantalupi T. (1998), Nel mondo dei quanti, Milano, Rizzoli. 2004, Psiche e Realtà: psicologia e fisica quantistica: la natura profonda della realtà umana e materiale, Torino, Tirrenia Stampatori. Irene Conti 83 Cantalupi T., La teoria quantistica: una rivoluzione scientifica e filosofica passata sotto silenzio, s.d. www.teoriaquantistica.xoom.it/Mqfull.html Capobianco L. (1981), Fisica e Storia: due percorsi paralleli, Napoli, Guida. Capra F. (1975), The Tao of Physics, Berkeley, Shambhala Publication; trad. it. Il Tao della Fisica, Milano, Adelphi, 1982. Capra F. (1982), The Turning Point, London, Wildwood House; trad. it. Il punto di svolta, Milano, Feltrinelli, 200912. Capra F. (1988), Uncommon Wisdom. Conversation with Remarkable People, New York, Simon and Shuster; trad. it. Verso una nuova saggezza, Milano, Feltrinelli, 1988. Capra F. (1996), The Web of Life, New York, Doubleday-Anchor Book; trad. it. La rete della vita, Milano, Biblioteca Scientifica Sansoni, 1998. Cavalli Sforza L. (1989), La danza che crea: evoluzione e cognizione nell'epistemologia genetica, Milano, Feltrinelli. Cavalli Sforza L. (2010), L'evoluzione della cultura, Torino, Codice Edizioni. Cavallini G., La conoscenza come combinazione di effettivo e ipotetico, s.d. www.teoriaquantistica.xoom.it/Cavallini.html Ceruti M. (1986), Il vincolo e la possibilità, Milano, Feltrinelli. Cini M. (2010), Materia inerte e materia vivente. Riflessioni di un fisico irrequieto, «Rivista italiana di riflessioni sistemiche», n. 2. www.aiems.eu/archivio/files/riflessioni_sistemiche_completo.pdf. Crane D. (1972), Invisible colleges: diffusion of knowledge in scientific communities, Chicago, University of Chicago Press. Creath R., Maienschein J. (2000), a cura, Biology and Epistemology, Cambridge, Cambridge University Press. Dalla Chiara M., Toraldo di Francia G. (1981), Le teorie fisiche, Torino, Boringhieri. Damasio A. (1994), Descartes' Error. Emotion, Reason and the Human Brain, London, Picador; trad. it. L'errore di Cartesio. Emozione, ragione e cervello umano, Milano, Adelphi, 1995. Damasio A. (1999), The Feeling of What happens: body and emotion in the making of concsiousness, London, Heinnemann; trad. it. Emozione e coscienza, Milano, Adelphi, 2000. De Angelis V. (1996), La logica della complessità, Milano, Mondadori. De Biasi R.(2007), Gregory Bateson. Antropologia, comunicazione, ecologia, Milano, Raffaello Cortina Editore. 84 The Lab’s Quarterly, 1, 2015 Deriu M. (2000), a cura, Gregory Bateson, Milano, Bruno Mondadori. Di Bernardo M. (2010), Complessità e significato nei sistemi biologici http//www.mondodomani.org/dialeghestai/mdb06.htm. Dunne B., La coscienza e l'approccio quantistico, s.d, www.aist-pain.it/it/files/.../ Dunne B., Jahn, R. (2005), Coscienza, informazione e sistemi viventi, «Spazio mente. Pagine di divulgazione scientifica». www.spaziomente.com/Articoli/Coscienza_informazione_e_sistemi_vi venti.pdf Fabietti U. (20012), Storia dell'antropologia, Bologna, Zanichelli. Falci G., Fazio R., Palma G.M. (2011), Superconduttori come computer quantistici, «Il nuovo Saggiatore», n. 17. Franzese P. P., Scopa A., Riccio A., Barone G. (2003), Studio di sistemi complessi: la prospettiva ecodinamica in chimica-fisica ambientale, «Ecodinamica». www.onb.it/writable/editoriale/Franzese/ProspettivaEcodinamicainChi mica_FisicaAmbientale.pdf Foerster H. von (1984), Observing Systems, Seaside, Intersystems; trad. it. Sistemi che osservano, Roma, Astrolabio, 1987. Gambardella F. (2009), Ecologia e nuove biologie: una svolta verso la cooperazione, «Scienza e Filosofia», n. 2. www.scienzaefilosofia.it/res/site70201/res508205_09GAMBARDELLA.pdf Gamow G. (1966), Thrty Years That Shook Physics, New York, Anchor Books; trad. it. Trent'anni che sconvolsero la fisica, Bologna, Zanichelli, 1966. Gandolfi A. (20082), Formicai, imperi, cervelli, Torino, Bollati Boringhieri. Geertz C. (1973), Interpretation of Cultures, New York, Basic Books; trad. it. Interpretazione di Culture, Bologna, Il Mulino, 1987. Gell-Mann M. (1994), The Quark and the Jaguar: Adventures in the Simple and the Complex, New York, St Martin Press; trad. it. Il quark e il giaguaro. Avventure nel semplice e nel complesso, Torino, Bollati Boringhieri. Geymonat L. (1989), Immagini dell'uomo, vol.1, Milano, Garzanti. Giannetto E., Giannini G., Toscano M. (2010), a cura, Relatività, quanti, chaos e altre rivoluzioni della fisica: atti del 27. Congresso nazionale di storia della fisica e dell'astronomia, Bergamo 2007, Rimini, Guaraldi. Giglietto F. (2006), Alle radici del futuro. Dalla teoria dell'informazione ai sistemi sociali, Milano, FrancoAngeli. Irene Conti 85 Glasersfeld E. V., Distinguere l'osservatore: un tentativo di interpretare Maturana, s.d.s.p., www.oikos.org/vonosserv.htm Glissant E. (2001), Le poetiche del caos, «Studi Culturali», n. 3. Gould S. T. (1980), The Panda's Thumb, New York, Norton & Company; trad. it. Il pollice del panda, Milano, il Saggiatore, 20092. Gould S. T. (2002), The Structure of Evolutionary Theory, Cambridge, Belknap Press; La struttura della teoria dell'evoluzione, Codice, Torino, 2005. Gould S. T., Eldredge N. (1972), Punctuated equilibria: an alternative to phyletic gradualism, in T.J.M. Schopf, Models in Paleobiology, San Francisco, Cooper & Company. Gould, S.T., Vrba E. (1982), Exaptation-A Missing Term in the Science of Form, «Paleobiology», vol. 8, n. 1. Grasseni C., Ronzon F. (2004), Pratiche e cognizione. Note di ecologia della cultura, Roma, Meltemi Heidegger M. (19669, Einführung in die Metaphysik, Tubingen, Max Niemeyer Verlag; trad. it. Introduzione alla metafisica, Milano, Mursia, 19946. Heisenberg W. (1958), Physics and Philosophy, New York, Harper Tourchbook; trad. it. Fisica e Filosofia, Milano, il Saggiatore, 1961. Hoffman L. (1990), Constructing Realities: an Art of Lenses, «Family Process», n. 29. Inglod T. (20042), a cura di Grasseni C., Ronzon F., Ecologia della cultura, Roma, Meltemi. Jacob F. (1977), Evolution and tinkering, «Science», n. 196; trad. it. Evoluzione e bricolage, Torino, Einaudi, 1997. Jaynes. J. (1976), The origin of Consciousness in the Breakdown of the Bicameral Mind, Boston, Houghton Mifflin; trad. it. Il crollo della mente bicamerale e l'origine della coscienza, Milano, Adelphi, 20073. Jung C.G. (1961), a cura di A. Jaffè, Errinerungen, Traume, Gedanken von Carl Gustav Jung, Zurigo, Rascher Verlag; trad. it. Ricordi, Sogni, Riflessioni, Milano, Rizzoli, 20069. Kauffman S. (1995), In At Home in the Universe. The search for laws of Complexity, Oxford, Oxford University Press; trad. it. A casa nell'universo. Le leggi del caos e della Complessità, Roma, Editori Riuniti, 2001. Kauffman S. (2000), Investigations, Oxford, Oxford University Press; trad. it. Esplorazioni evolutive, Torino, Einaudi, 2005. 86 The Lab’s Quarterly, 1, 2015 Kenny V., La nozione di sacro in Bateson. Cosa ci può insegnare per vivere costruttivamente?, s. d s. p., www.oikos.org/vinsacro Kuhn T. S. (1970), The Structure of Scientific Revolution, Chicago, Chicago Univeristy Press; trad. it. La struttura delle rivoluzioni scientifiche, Torino, Einaudi, 19785. Laszlo E. (1987), Evolution, Boston, Shambhala; trad. it. Evoluzione, Milano, Feltrinelli, 1986. Laszlo E. (2005), Convergenza di scienza e spiritualità, «Syntropy», n.3. Laszlo E. (2006), Quantum and Consciousness: in search of a new paradigm, «Zygon», vol. 41, n. 3. Laszlo E. (2010), La scienza e il campo akashico, Milano, Feltrinelli Lentini L. (1990), Il paradigma del sapere: conoscenza e teoria della conoscenza, Milano, FrancoAngeli. Lévi-Strauss C. (1955), Tristes Tropiques, Paris, Plon; trad. it. Tristi Tropici, Milano, il Saggiatore, 1956. Lévi-Strauss C. (1962), Le pensée sauvage, Paris, Plon; trad. it. Il pensiero selvaggio, Milano, Il Saggiatore, 1964a. Lipset D.(1980), Gregory Bateson: the Legacy of a Scientist, Engelwood Cliffs NJ, Prentice-Hall. Lovelock J. (1972), Gaia as Seen through the Atmosphere, «Atmospheric Environment», vol. 6. Lovelock J. (1979), Gaia, Oxford, Oxford University Press; trad. it. Gaia. Nuove idee sull'ecologia, Torino, Boringhieri, 1981. Lovelock J. (1991), Healing Gaia, New York, Harmoy Books; trad. it. Gaia: manuale di medicina planetaria, Bologna, Zanichelli, 1992. Lovelock J., Margulis L. (1974), Biological Modulation of the Earth's Atmosphere, «Icarus», vol. 21. Luoni Gagliasso E. (2006), Quel che resta dell'ordine, in Tavola rotonda virtuale a partire dal libro, Una lunga pazienza cieca. Storia dell'evoluzionismo, di G. Barsanti, in Laboratorio dell'ISPF. www.ispf.cnr.it/ispf-lab Manghi S. (1998), Attraverso Bateson. Ecologia della mente e relazioni sociali, Milano, Raffaello Cortina. Manghi S. (1990), Il gatto con le ali. Tre saggi per un'ecologia delle pratiche sociali, Milano, Feltrinelli. Manghi S. (2004), La conoscenza ecologica. Attualità di Gregory Bateson, Milano, Raffaello Cortina. Irene Conti 87 Marcus G., Fisher M. (1986), Anthropology as a Cultural Critique, Chicago, University of Chicago Press; trad. it. Antropologia come critica culturale, Roma, Meltemi, 1998. Maturana H., Varela F. (1974), Autopoiesisi: the Organization of the Living Systems, its Characterization and a Model, «BioSystems», n. 5. Maturana H., Varela F. (1980), Autopoiesis and cognition, Dordrecht, D. Reidel; trad. it. Autopoiesi e cognizione, Venezia, Marsilio. Maturana H., Varela F. (1987), The Three of Knowledge, Boston, Shambhala; trad. it. L'albero della conoscenza, Milano, Garzanti, 1987. Magrassi P. (2008), Sfruttare il caos, «Nova Rewiew», n. 4. Margulis L. (1989), “Gaia: the Living Earth” dialogue with Fritjof Capra, «The Enwood Newsletter», vol.5, n. 2 Maryuama M. (1963), The Second Cybernetics, «America Scientist», vol. 51. Mitchell S. (19889, a cura, Tao The Ching, New York, Harper & Row ; trad. it. Tao Te Ching, Vicenza, Il Punto d'Incontro, 2011. Morchio R. (1988), Nel labirinto dell'informazione: i sistemi complessi, «Epistemologia: Rivista italiana di Filosofia della Scienza», n. 11 vol. 2. Morin E. (1973), Le paradigme perdu: la nature humain, Paris, Edition du Seuil; trad. it. Il paradigma perduto, Milano, Feltrinelli, 1974. Morin E. (1982), Science avec conscience, Paris, Fayard; trad. it. Scienza con coscienza, Milano, FrancoAngeli, 1984. Morin E. (20112), La sfida della complessità, Firenze, Le Lettere. Nobili R. (2004), La biologia teorica come scienza della complessità. http://www.steppa.net/html/scientifica/scientifica7.pdf Ong W.J. (1982), Orality and Literacy. The Techologizing of the World, London and New York, Methuen; trad. it. Oralità e scrittura. Le tecnologie della parola, Bologna, Il Mulino, 1986. Penrose R. (1989), The Emperor's New Mind. Oxford, Oxford University Press. Penrose R. (1994), Shadows of the Mind, Oxford, Oxford University Press. Polier N., Roseberry W. (1989), Tristes Tropes: Postmodern Anthropologists Encounter the Other and Discover Themselves, «Economy and Society», n.18, vol. 2. Possamai T. (2009), Dove il pensiero esita: Gregory Bateson e il “doppio vincolo”, Verona, Ombre Corte. Prigogine I,. Stengers I. (1979), La nouvelle alliance, Paris, Gallimard; trad. it. La nuova alleanza, Torino, Einaudi, 1981 88 The Lab’s Quarterly, 1, 2015 Prigogine I,. Stengers I. (1993), Le leggi del caos, Roma-Bari, Gius. Laterza & Figli Spa. Putti R. (2011), Tra il dire e il fare non c'è di mezzo il mare, s.e. Quattrocchi P. (1984), Etica, scienza e complessità: etica della scienza e filosofia della natura nell'epistemologia della complessità, Milano, FrancoAngeli. Racami E., Aspetti moderni della fisica greca, s.d. http://arxiv.org/ftp/arxiv/papers/0709/0709.1277.pdf Regge T. (1982), Il vuoto dei fisici, «L'Astronomia», n.18. Riccio B., Brambilla C. (2010), Transnational Migration, Cosmopolitamism and dis-located Borders, Rimini, Guaraldi. Rushdie S. (1994), East West, New York, Pantheon Books. Sapienza G. (2005), Il modello del bricolage evolutivo dagli organismi al linguaggio, «Annali», vol. 4. http://ojs.unict.it/ojs/index.php/annali-sdf/article/view/36/23 Selleri F. (1987), La causalità impossibile, Milano, Jaca Book. Sharpe M. D. (2005), Maghreby Migrants ad Writers: Liminality, Transgression and the Tranferal of Identity, «Dialectical Anthropology», n. 29. Sosa E., Jaegwon K.(2012), a cura, Epistemology: an anthology, Malden, Blackwell. Sparti D. (2002), Epistemologia delle scienze sociali, Bologna, il Mulino. Stapp H. (2006), Quantum interactive dualism: an alternative to materialism, «Zygon», n. 3, vol. 41. Tinti T. (1998), La sfida della complessità verso il Terzo Millennio, «Novecento», n. 38. Turner V. (1967), The Forest of Symbol, New York, Cornell University Press: trad.it. La foresta dei simboli, Morcelliana, Brescia 1972. Ulin R. (1991), Critical Anthropology Twenty Years Later: Modernism and Postmodernism in Anthropology Critique of Anthropology, London, Sage Press. Van Gennep A. (1909), Le rites de passage, Paris, Nourry; trad.it. I riti di passaggio, Torino, Bollati Boringhieri, 1991. Vann E., Quantum Ethnography: Anthropology in the Post-Einstenian Era, s.d. http://soar.wichita.edu/dspace/bitstream/handle/... Vannini A. (2007), Modelli Quantistici della Coscienza, «Syntropy», n.1. Irene Conti 89 Varela, F., Thompson E., Rosch E. (1991), The Embodied Mind, Cambridge, MIT Press; trad. it. La via di mezzo della conoscenza, Milano, Feltrinelli, 1992. Watzlawick P., Beavin J. H., Jackson D. D. (19679, Pragmatic of human communication, New York, Norton & Company; trad it. Pragmatica della comunicazione umana, Roma, Astrolabio, 1971. Wiener N. (1948), Cybernetics, or control and communication in the animal and the machine, Cambridge, MIT Press; trad. it. La Cibernetica, Milano, Bompiani, 1953. Wiener N. (1950), The Human Use of Human Biengs, New York, Houghton Mifflin; trad. it. Introduzione alla cibernetica: l'uso umano degli esseri umani, Torino, Einaudi, 1953. Zanarini G., Entropia, informazione, complessità, s.d. s.p. http://space.reggionet.it/rcs/ruffini/zanarini.htm Zeleny M. (1980), Autopiesis, Dissipative Structure and Spontaneous Social Orders, Washington, AAAS. Zerzan J. (1994), Future Primitive, New York, Autonomedia; trad. it. Primitivo attuale, Viterbo, Nuovi Equilibri, 2004. Zito C. (1999), Gregory Bateson: circolarità epistemica e logica della complessità, Bari, Cacucci. Zoletto D. (2001), Pensiero e scrittura del doppio legame: A partire da Bateson, Trieste, Università di Trieste. RECENSIONI GIUSEPPE GAGLIANO, I CHIERICI DELLA RIVOLUZIONE E DELLA REAZIONE. SAGGIO SUL TOTALITARISMO, SULL’ANTILIBERALISMO E SULL’ANTICAPITALISMO DEL NOVECENTO, ARACNE, 2013 di Luca Corchia Poche passioni hanno infiammato gli animi dei più intransigenti epigoni del pensiero rivoluzionario e conservatore della comune avversione al modello societario elaborato dal liberalismo, intorno all’interdipendenza tra l’economia capitalistica e la democrazia politica attraverso la costituzionalizzazione giuridica del potere. Sin dalle origini di questo assetto sociale che identifica la modernità occidentale, sono state ricorrenti le ondate anti-liberali, con livelli d’allarme verso la metà del XIX secolo, tra le due guerre mondiali e negli ultimi due decenni. Alexis de Tocqueville, Friedrich Von Hayek e Ralf Dahrendorf furono testimoni e critici intransigenti dei cedimenti intellettuali alle tentazioni del “totalitarismo”. Perché se seguiamo le riflessioni dei classici del pensiero liberale, dagli assunti alle deduzioni, dai teoremi alle costatazioni, tertium non datur. È vero che l’enormità dei misfatti perpetrati in nome dell’umanità nuova fu tale che pochi intellettuali salutarono con favore l’avvento dei regimi fascisti e comunisti ed oggi solo un novero di irriducibili fanatici ne alimenta la nostalgia. Così come vi sono state e vi sono tuttora dottrine e movimenti politici di ispirazione liberale tanto a destra quanto a sinistra. Eppure l’antinomia “liberale-totalitario” assume una stringenza logica se consideriamo che uno dei principi cardine del pensiero liberale è il rifiuto di un modello dirigista che convogli tutti i mezzi economici e sociali per realizzare finalità e obiettivi predefiniti dai leader carismatici e realizzati da appartati tecnocratici. Possono variare la direzione, Luca Corchia 91 l’intensità e gli strumenti dell’impresa ma ciò che è comune alle concezioni interventiste di destra o di sinistra è la pretesa di imporre coercitivamente un sistema di rilevanze giustificato eticamente dalla preminenza di qualche “interesse collettivo”. Nulla è più lontano dalla matrice individualista che alimenta il pensiero liberale, secondo cui la libertà personale è l’unica fonte di progresso materiale e spirituale e ogni forma di pianificazione della vita umana degenera inevitabilmente nel privilegio e nel dominio di gruppi organizzati sull’intera comunità sociale. Il liberalismo è compatibile solo con progetti universali non totalizzanti in cui la cooperazione tra gli individui poggi su scelte libere e responsabili. Questa breve premessa può rendere conto solo in minima misura dell’importanza della questione culturale al centro del volume I chierici della rivoluzione e della reazione. Saggio sul totalitarismo, sull’antiliberalismo e sull’anticapitalismo del Novecento, pubblicato da Giuseppe Gagliano per le Edizioni Aracne. La posta in gioco è difendere lo spirito libertario dell’architettura democratica contro chi rivendica la speciale delega a decidere, obtorto collo, nostro malgrado, quale sia la scala dei valori legittimi e quali norme devono disciplinare le condotte di vita. Una tentazione che ha attratto gli intellettuali, che più di altri si interessano a cose di rilevanza pubblica e vorrebbero instillare nei dirigenti politici le loro idee, finendo sovente per vedere frustrate tali ambizioni. Nell’imponente parterre de Rois dei “cattivi maestri” – l’ampiezza della disamina merita già una nota di merito – vi sono senz’altro figure intellettuali molto eterogenee, tra le fila stesse degli opposti schieramenti, se tali possono essere considerati, da un lato, le correnti marxiste, socialiste utopiche ed anarchiche della sinistra radicale e, dall’alto lato, quelle controrivoluzionarie, nazionaliste e fasciste della destra estrema. Tra i “chierici della rivoluzione” sono annoverati Lenin, Lukács e Gramsci, i maggiorenti della Scuola di Francoforte (Adorno, Horkheimer, Marcuse e Fromm), Ivan Illich, Simone Weil, la controcultura della nuova sinistra americana e Theodore Roszak, l’Internazionale situazionista di Guy Débord e Raul Vaneigem, i socialisti anticapitalisti e antistalinisti della rivista “Politics” di Dwight Macdonald, sino Serge Latouche. Li accomuna una critica al sistema capitalistico che, attraverso il tema dell’illuminismo rovesciato, si allarga alla moderna civiltà occidentale, rea di aver tradito le attese di emancipazione materiale e spirituale. Gli Stati Uniti d’America sono il campo di osservazione privilegiato di un agire sociale che ha smarrito il senso dei fini e perduto quella libertà di cui le scelte di consumo sono solo un surrogato funzionale al sistema. Comune è poi l’attacco al sapere scientifico piegato alle istanze tecniche, a loro volta asservite a una gestione di impresa che sfrutta il lavoratore e 92 The Lab’s Quarterly, 1, 2015 inganna il consumatore e a un’ingegneria politico-amministrativa che spoliticizza la sovranità popolare trasformando i cittadini in placidi utenti. Queste riflessioni che alimentano sentimenti di repulsa e, non di rado, vagheggiano romanticamente nuovi movimenti collettivi, sono state tramandate a lungo nei circuiti della cultura della sinistra europea da veri e propri prototipi di “intellettuale antagonista”, che Gagliano ben stigmatizza nella prima sezione ripercorrendo le analisi compiute da Raymond Aron, Luciano Pellicani, Lucio Colletti, Giuseppe Bedeschi e Daniel Bell. Tra i “chierici della reazione”, per contro, i fascisti spiritualisti della rivista “Combat” di Jean de Fabrègrues e Thierry Maulnier, il nichilismo di Céline, il pensiero neoconservatore di Ernst Jünger, intellettuali di regime, come Heidegger, Schmitt e Gentile, il razzista Julius Evola, il tradizionalismo esoterico e mistico alla René Guénon, Elémire Zolla e Alain De Benoist, i fautori della Nuova Destra, il Groupement de Recherche et d’Études pour la Civilisation Européenne, la Neu Rechte di Henning Eichberg, il Circolo Thulé e il pensiero di Frans Van der Hoff. Non mancano gli italiani Adriano Romualdi, il negazionismo di Cesare Saletta, il Fronte Nazionale tilgheriano, Forza Nuova, il Partito Comunitario Nazional-Europeo, il periodico “L’uomo libero”, la rivista “Orion” e l’Editrice Barbarossa, le case editrici “All’insegna del Veltro” fondata da Claudio Mutti, le Edizioni Settimo Sigillo di Enzo Cipriano, Marco Tarchi direttore di “Diorama letterario”, sino agli scritti di Massimo Fini, Marcello Veneziani, Stenio Solinas e Gianfranco De Turris. La selezione, inevitabilmente, rimane discrezionale. Si può discutere sull’esclusione di altri parimenti significativi e di taluni compresi che solo forzatamente rientrano in questo gioco di estremismi opposizionali. Altrettanto scontate saranno, poi, le precisazioni e distinguo dei cultori di ciascuno di essi, a cui compete la precisione filologica e storiografica e che difficilmente si accontenteranno di brevi ma incisive illustrazioni. Ad esempio, personalmente, trovo la ricostruzione della teoria critica poco differenziata rispetto alla parabola intellettuale dei diversi protagonisti, le cui cadute antimoderniste o escatologiche vanno pur sottolineate. Il libro di Gagliano, però, può essere considerato un buon “antidoto” verso l’anti-liberalismo che cova all’interno dei “templi” di una cultura accademica e pubblicistica che, in verità, presenta segni di logoramento; ed anche l’occasione per fare in conti con le nostre letture di formazione.