The Lab’s Quarterly
Il Trimestrale del Laboratorio
2015 / n. 1 / gennaio-marzo
Laboratorio di Ricerca Sociale
Dipartimento di Scienze Politiche
Università di Pisa
Comitato direttivo
Direttore
Massimo Ampola
Comitato editoriale
Luca Corchia (segretario)
Marco Chiuppesi
Gerardo Pastore
Comitato scientifico
Paolo Bagnoli
Roberto Faenza
Mauro Grassi
Elena Gremigni
Franco Martorana
Antonio Thiery
Contatti
[email protected]
Gli articoli della rivista sono sottoposti a un doppio processo di peer-review.
Le informazioni per i collaboratori sono disponibili sul sito della rivista.
ISSN 1724-451X
© Laboratorio di Ricerca Sociale
Dipartimento di Scienze Politiche
Università di Pisa
The Lab’s Quarterly
Il Trimestrale del Laboratorio
2015 / n. 1 / gennaio-marzo
EPISTEMOLOGIA E METODI DI RICERCA
Irene Conti
Per un’epistemologia della complessità.
Biologia, fisica e antropologia
Luca Corchia
Giuseppe Gagliano, I chierici della rivoluzione e della reazione. Saggio sul totalitarismo, sull’antiliberalismo
Laboratorio di Ricerca Sociale
Dipartimento di Scienze Politiche
Università di Pisa
5
90
“The Lab’s Quarterly” è una rivista che risponde alla necessità degli
studiosi del Laboratorio di Ricerca sociale dell’Università di Pisa di
contribuire all’indagine teorica ed empirica e di divulgarne i risultati
presso la comunità scientifica e il più vasto pubblico degli interessati.
I campi di studio riguardano le riflessioni epistemologiche sullo statuto conoscitivo delle scienze sociali, le procedure logiche comuni a
ogni forma di sapere e quelle specifiche del sapere scientifico, le tecniche di rilevazione e di analisi dei dati, l’indagine sulle condizioni di genesi e di utilizzo della conoscenza e le teorie sociologiche sulle formazioni sociali contemporanee, approfondendo la riproduzione materiale e
simbolica del mondo della vita: lo studio degli individui, dei gruppi sociali, delle tradizioni culturali, dei processi economici e politici.
Un contributo significativo è offerto dagli studenti del Dipartimento di
Scienze Politiche dell’Università di Pisa e di altri atenei, le cui tesi di laurea costituiscono un materiale prezioso che restituiamo alla conoscenza.
Il direttore
Massimo Ampola
EPISTEMOLOGIA E METODI DI RICERCA
PER UN’EPISTEMOLOGIA DELLA COMPLESSITÀ.
BIOLOGIA, FISICA E ANTROPOLOGIA
di Irene Conti
Indice
Introduzione
1. Verso un’epistemologia della complessità
2. La biologia post-darwinista
3. La rivoluzione quantistica
4. L’antropologia nell’era della complessità
Conclusioni
Riferimenti bibliografici
6
8
26
49
67
80
81
6
The Lab’s Quarterly, 1, 2015
INTRODUZIONE
Con lo sviluppo e la diffusione degli studi sulla complessità, si tenta
di rispondere all'esigenza di un radicale mutamento di paradigma che,
già a partire dagli inizi del Novecento, comincia ad avvertirsi sempre
più distintamente in vari ambiti delle scienze.
In più discipline risulta ormai chiara la necessità di oltrepassare i postulati riduzionisti e meccanicisti che, dalla filosofia di Cartesio alla fisica di Newton, hanno contribuito a generare un'abitudine di pensiero erronea e perniciosa, che va ad infiltrarsi in alcuni ambiti della nostra vita
che, al contrario di quel che si possa pensare, ci riguardano molto da vicino, come il rapporto con l'ecosistema e l'attuale ordine economico
globale.
I nuovi studi sulla complessità appaiono in questo senso rivoluzionari perché scardinano il dualismo soggetto-oggetto, uomo-ambiente,
scienziato-scienza, ponendo al centro del proprio modello interpretativo
i concetti di rete, sistema, autorganizzazione, epistemologia.
Per questo, in accordo con Isabelle Stengers, si rifiuta l'idea della nascita di un nuovo “paradigma” della complessità: ciò che questi studi,
dal marcato profilo transdisciplinare, tentano di fare è proprio spingerci
continuamente oltre il confine di qualsiasi modello che si dica conchiuso e definito. “Risvegliano a un problema” invece di risolverlo, ponendosi ad un tempo al di fuori e al di dentro del fenomeno osservato, consci dell'irriducibilità del nostro coinvolgimento diretto nel processo della
vita, che rifugge a qualsiasi tentativo di reificazione.
L'obbiettivo di questo lavoro è quello di fornire una rassegna dei
principali contributi che si sono sviluppati all'insegna della complessità,
nei vari ambiti disciplinari presi in esame. Ma è bene sottolineare come
questi contributi siano sfumature dello stesso quadro, inserito in una
precisa cornice di riferimento. Ogni contributo si lega all'altro, ed è questa interdipendenza, in risonanza con la visione sistemica, che ci si augura prevalga sulla singola declinazione di ciascun ambito particolare.
Il vero obbiettivo del lavoro è infatti, nella fedeltà all'interconnessione e
allo sguardo d'insieme, quello di produrre una sorta di ricorsività tra i
temi trattati e la forma strutturale in cui vengono presentati, spostandosi
continuamente da un livello sostanziale ad uno formale per venire incontro, nella pratica del testo, a quell'istanza epistemologica e circolare
invocata dal pensiero complesso. Verranno qui delineate le principali
caratteristiche di un sistema complesso come l'interdipendenza, l'autorganizzazione, la non-linearità, la retroazione. Si affronteranno poi le tematiche sviluppate dalla biologia post-darwinista all'interno della nuova
Irene Conti
7
cornice della complessità. In particolare, si osserverà come l'epistemologia batesoniana acquisisce una più solida base ontologica attraverso i
sistemi autopoietici dei biologi cileni Varela e Maturana. Si passeranno
quindi in rassegna alcuni nuovi concetti come quello di exattamento,
deriva, bricolage, che mettono in crisi la prospettiva gradualista e lineare
prospettata da Darwin. In seguito, si tratteranno i più recenti ed ultimi
contributi forniti da Stuart Kauffman del Santa Fe Institute ed, infine, si
farà accenno ad una prospettiva biofisica attraverso una breve trattazione delle strutture dissipative di Ilya Prigogine e dell'Ipotesi di Gaia di
James Lovelock. Si osserva come, anche l'esistenza di quella realtà che
Bateson definì pleromatica, che corrisponde alla massa solida ed inerme, viene ad essere problematizzata attraverso la nuova visione che si
prospetta a seguito della rivoluzione quantistica. Si farà qui riferimento
a come, anche la fisica contemporanea, possa adeguatamente entrare a
far parte dell'orizzonte della complessità, poiché ci pone davanti ad una
realtà non più reificabile (dualismo onda-particella) e profondamente
interconnessa (entanglement). Verranno inoltre proposti alcuni modelli
quantistici della coscienza che, a partire dall'Interpretazione di Copenaghen, tentano di pervenire ad una realtà costituita dall'unione di Mente e
Materia. La chiave di questa unione è per alcuni fisici come Henry
Stapp e filosofi come Ervin Laszlo proprio l'informazione, dimostrando
come, anche nella “scatola degli ombrelli e delle palle da biliardo” possiamo ritrovare quell'unità sostanziale ravvisata per il regno creaturale.
Infine, si propone di gettare uno sguardo sui contributi che l'antropologia può ricevere dagli studi sulla complessità e sugli aspetti del dibattito
antropologico contemporaneo che dimostrano come, anche questa disciplina, non possa esimersi da un confronto con le tematiche complesse
e sistemiche.La disamina riguardante il rapporto tra locale e globale, i
temi del nomadismo e del meticciato, i fenomeni migratori, le diaspore
culturali, sono tutti aspetti della modernità che sono stati passati al vaglio dell'antropologia del contemporaneo. Il capitolo finale tenta di far
convergere alcuni postulati chiave del pensiero complesso con questi
studi, dimostrando come alcuni concetti, come quello di feedback e di
sistemi ai margini del caos, possano risultare utili strumenti interpretativi se applicati a questo campo di studio, aderendo perfettamente dunque, ai cambiamenti sociali ad oggi in atto. Di seguito si osserverà in
che modo “l'antropologia post-einsteiniana” possa ricavare un valido
contributo dalla fisica quantistica per il superamento della dicotomia, in
ambito metodologico, tra scuola interpretativa e prospettiva politicoeconomica. L'ultimo paragrafo sarà invece riservato, in conclusione, alla
presentazione dell'antropologia della pratica nell'ottica di Tim Ingold,
8
The Lab’s Quarterly, 1, 2015
che auspica il superamento della nozione di cultura come insieme di
pratiche scorporate dal contesto sociale ed ambientale.
1. VERSO UN’EPISTEMOLOGIA DELLA COMPLESSITÀ
È nel corso degli anni Quaranta, quando prese avvio il ciclo delle
Macy Conferences, che una ristretta cerchia di ricercatori, tra cui Gregory Bateson, cominciò prudentemente ad avvicinarsi alle tematiche del
pensiero complesso.
Come sottolinea Tinti nel suo articolo La “sfida della complessità”
verso il terzo millennio (Tinti 1998), non è propriamente corretto parlare
di complessità nei termini di una precisa e conchiusa teoria scientifica.
Proprio come la stessa parola “complessità” evoca, non ci troviamo, difatti, di fronte ad un paradigma concluso e statico, ma ad un insieme di
nuovi scenari che si svelano a partire dalle più eterogenee cornici disciplinari. Tali scenari tentano di trovare risposte, o meglio, di formulare in
modo nuovo le domande, che la crisi epistemologica del secolo scorso
ha sollevato. Per questo è divenuto sempre più urgente spostare l'attenzione della ricerca sociale, filosofica e scientifica dal “che cosa” al “come”, intendendo con questo fare riferimento a due dei più importanti
presupposti che il pensiero complesso porta con sé: il costruttivismo e
l'epistemologia.
Così, ritornando a Tinti, possiamo formulare al meglio la denominazione di questa nuova corrente conoscitiva parlando di epistemologia della complessità: “È proprio come prospettiva epistemologica, infatti, che la
complessità svolge un ruolo cruciale nel pensiero contemporaneo”.
Nonostante questo tipo di approccio innovativo stesse già prendendo
piede con le prime Macy Conferences, è con la scissione che avvenne
alla fine degli anni Settanta che si consacrò definitivamente la posizione
della cosiddetta cibernetica di secondo ordine di cui facevano parte alcuni “dissidenti” tra cui Bateson, Maturana, Varela, von Foester, von
Glasersfeld e andò maturando sempre più quell'attenzione sul processo
dell'osservazione, centrale per l'epistemologia della complessità (Hoffman 1990).
La prima comparsa dell'espressione “teoria della complessità” risale
al 1978 in un articolo pubblicato su Scientific American (ib.), sono passati parecchi anni, dunque, dai tentativi di Bateson e Mead di introdurre
le scienze sociali e umane entro le ricerche nel campo della cibernetica e
pare che il loro lavoro, come quello di tanti altri, sia stato più che fecon-
Irene Conti
9
do e complice di aver dato l'impulso per il formularsi di questa nuova
“scienza con coscienza”1.
A partire dagli anni Sessanta, la cibernetica era stata vittima del contrasto
delle opinioni e della dispersione degli interessi. Lasciò comunque al futuro
la grande eredità delle riflessioni sui sistemi autorganizzatori e autoriproduttori, sulla logica e sul funzionamento del sistema umano e animale, e sul
ruolo dell'osservatore nella costruzione delle conoscenze,, tutti temi che
avrebbero goduto di un forte rilancio nei decenni successivi. Ma soprattutto
la cibernetica lasciò al futuro prossimo la passione, per esponenti di discipline e di punti di vista anche assai diversi, di sedersi attorno a un tavolo comune e di affrontare attraverso l'articolazione dei punti di vista, tematiche di
grande portata: in primis, nuovi possibili fondamenti delle scienze dell'uomo
(Bocchi-Ceruti 2010, X).
Questa eredità fu raccolta, sempre nelle parole di Bocchi e Ceruti, da
Jean Piaget e dai suoi collaboratori, da Jacque Monod, Edgar Morin,
come anche dal chimico Ilya Prigogine, dal premio Nobel per la fisica
Murray Gell-Mann, dalla filosofa Isabelle Stengers, per citarne solo alcuni.
1.1. Una definizione complessa
Come si è già visto, però, la definizione con la quale ci si può correttamente riferire all'epistemologia della complessità, è di per sé una
definizione complessa e aperta. Secono Margassi l'utilizzo del termine
complessità gode di una grande liberalità: “Il fisico Seth Lloyd disse pochi anni fa di aver catalogato 32 definizioni diverse di complessità e
questo ci dà l'idea della nebulosa di concetti e di iniziative coi quali ci
troviamo a che fare” (Margassi 2008).
Margassi tenta così di sintetizzare l'ampia portata di studi e ricerche
che questo quadro di riferimento ci fornisce, rimarcando, come già in
Tinti, la mancata identità con le consuete teorie scientifiche:
In realtà non si tratta di una teoria né di una disciplina scientifica:
per alcuni, è il tentativo di raccogliere sotto lo stesso titolo un insieme di
sforzi scientifici solitamente separati ma caratterizzati da tratti comuni; per
altri un'analisi del pensiero scientifico nel tentativo di cogliere novità meto-
1 L'espressione è ripresa dal titolo del saggio del sociologo Edgar Morin pubblicato in
edizione italiana nel 1988 da FrancoAngeli.
10
The Lab’s Quarterly, 1, 2015
dologiche emergenti , per altri ancora, il rifiuto del riduzionismo e la negazione della tirannia delle leggi fondamentali riguardanti le particelle elementari (ib.).
Uno dei contesti in cui, sempre seguendo l'analisi di Magrassi, il termine
complessità viene utilizzato è quello in cui ci si occupa della Teoria del
Caos. Se consideriamo tale teoria come facente parte del pensiero complesso, allora non possiamo che riconoscere una ben più antica origine
da cui discese il filone di ricerca trattato.
Magrassi fa così riferimento a Henri Poincaré e alla sua scoperta, risalente alla fine dell'Ottocento, secondo cui osservò che “un sistema costituito da tre soli corpi nello spazio, benché soggetto alle leggi note e
ordinate della meccanica newtoniana e laplaciana, poteva esibire anche
comportamenti non-deterministici” (ib.). Da qui dovette passare un secolo perché la Teoria del caos ricevesse l'attenzione mediatica, con la
nota immagine dell' “effetto farfalla” del meteorologo Edward Lorenz.
Ma perché è tanto difficile definire una volta per tutte il campo di
applicazione e i confini disciplinafri di quella che Tinti definisce “una
delle pagine più interessanti della storia del pensiero filosofico e scientifico contemporaneo” ? Per rispondere a questa domanda è necessario
focalizzare l'attenzione sulla nozione di “epistemologia”, che ha prodotto un completo rovesciamento della prospettiva usuale con cui si era soliti approcciare gli studi delle scienze umane. A partire dalla “svolta epistemologica”, resasi necessaria dal crollo dei paradigmi della fisica
newtoniana, della biologia darwinista e della teoria della cultura, al centro del dibattito e dell'interesse scientifico e filosofico non vi è più l'oggetto di studio, sia esso un gruppo umano, una particella subatomica o
una cellula, ma lo scienziato che svolge la ricerca e che influisce, con la
sua sola presenz,a sull'andamento dei fenomeni considerati. Così argomenta Von Foerster:
L'attuale rivoluzione scientifica riguarda la scienza stessa. Non molti anni fa,
i filosofi della scienza si interessavano alle finalità della scienza, o al suo significato. Oggi ci interessiamo di più alle finalità delle “finalità”, o al significato del “significato”. Oggi, ci interessiamo alla struttura logica delle nozioni che possono applicarsi a sé medesime. Perché? Per il semplice motivo
che oggi vediamo la necessità di inserire lo scienziato nella sua scienza. In
caso contrario, le affermazioni di un osservatore: “io ho misurato questo...”,
“io ho osservato quello...” non possono essere interpretate finché non si determina precisamente, sul piano epistemologico, l'enigmatico operatore: “io”
(Von Foerster, in Bocchi-Ceruti 2007, 94).
Irene Conti
11
Come sostiene la filosofa Isabelle Stengers, se vogliamo vedere la teoria
della complessità nell'ottica di una “scoperta”, è necessario tener fermo
il punto che non si tratta di una scoperta del tipo che ci raffiguriamo
quando abbiamo a che fare con la storia del pensiero scientifico, che
procede per continue sostituzioni dei vecchi paradigmi con i nuovi. In
questo caso ci troviamo, infatti, più di fronte ad una scoperta intesa come “risveglio ad un problema” come “presa di coscienza” (Stengers in
Bocchi-Ceruti 2007, p. 37).
Stengers rifiuta la possibilità di trasformare il nuovo pensiero complesso in paradigma, proprio perché esso solleva e problematizza la
questione dell'onniscenza del punto di vista infinito e porta in primo
piano la questione della “pertinenza”:
In questo senso la “scoperta della complessità” avrebbe come prima caratteristica non quella di sostituire un'evidenza oggettiva con un' altra, ma quella
di introdurre il problema della pertinenza di uno strumento che fornisce i
mezzi per giudicare il “reale” (ciò con cui abbiamo “a che fare”) e per costituirlo come oggetto dalle categorie ben definite e che nello stesso tempo è
suscettibile di essere giudicato dal reale stesso (ivi, 48).
Già l'epistemologo Thomas Kuhn (1962) aveva sottoposto il percorso
del pensiero scientifico ad un'analisi che poneva in primo piano quella
che è la “storia” dietro la storia, una sorta di “meta-struttura” attraverso
cui si disvela la fallacia delle pretese universalistiche dei modelli scientifici. Nel corso dei secoli i vari paradigmi elaborati dalla scienza, hanno
attraversato le stesse fasi cicliche, in un primo momento c'è la generazione della nuova scienza, che domina incontrastata e che risponde coerentemente alle esigenze socio-politiche e culturali dell'epoca in cui sorge. Nel corso del tempo la visione dominante comincia ad essere intaccata da contraddizioni perturbative sempre più difficili da reinglobare
all'interno del panorama ortodosso e dunque si passa, raggiunto il livello
di soglia, alla scienza eterodossa che, attraverso una nuova rivoluzione,
sostituisce il vecchio paradigma per essere destinata a subire, a sua volta, lo stesso tipo di processo.
Molti di questi paradigmi si nutrono di miti rafforzati da cieche pretese di assolutismo e spesso dalla necessità di legittimare assetti politici
ed economici. Attraverso l'epistemologia della complessità si tenta dunque di imboccare un percorso alternativo e non paradigmatico, ma critico nei confronti di modelli che non tengono conto dell'irriducibilità
dell'interrelazione soggetto-oggetto, e capace di acquisire consapevolezza in merito a quella meta-struttura scientifica di cui argomenta Khun.
12
The Lab’s Quarterly, 1, 2015
Tra le sfide della complessità vi è dunque quella di reinterrogare la
scienza in merito ai suoi presupposti e fondamenti, assieme alla problematizzazione del concetto di “oggetto” di studio e di ricerca. Questo può
essere inteso, ad un livello più specifico, come il fenomeno o l'aspetto
del mondo naturale, fisico, umano che una determinata disciplina tenta
di indagare, in senso più trasversale come la messa in discussione
dell'attribuzione di singole competenze a settorializzati campi del sapere, che conduce ad una delle caratteristiche più significative e innovative
del pensiero della complessità: la transdisciplinarietà.
1.2. Oltre il settorialismo
La pretesa di scomporre lo sterminato flusso dello scibile umano in
aree di competenza appartenenti a discipline differenziate, appare allo
scienziato della complessità come un retaggio del pensiero meccanicistico e riduzionista di difficile estirpazione. I criteri della chiarezza e
della distinzione cartesiana e, ancor più significativamente, la frattura
che il pensiero del cogito viene a creare tra sostanza pensante e sostanza
estesa, comportano l'illusione di riuscire a semplificare un mondo complesso e sistemico, in parti e settori, la cui somma parrebbe restituire
l'interezza dell'insieme. In una visione sistemica, come quella complessa, questo diventa impossibile poiché il senso del tutto unificato non è
dato dalla somma di un insieme di parti isolate, ma dalla rete dinamica e
flessibile delle relazioni che tra queste parti si vengono a creare. È dunque ormai da abbandonare la classica divisione in discipline e settori di
competenza, perché questi non fanno che rinforzare un'idea che sottende
quella che Bateson definirebbe “cattiva epistemologia”:
Così isolando e/o frammentando i suoi oggetti, questo modo di conoscenza
cancella non solo il loro contesto, ma anche la loro singolarità, la loro località, la loro temporalità, il loro essere e la loro esistenza. Esso tende a spopolare il mondo. Riducendo la conoscenza degli insiemi alla somma dei loro
elementi, indebolisce la nostra capacità di accorpare le conoscenze; più generalmente atrofizza la nostra attitudine a collegare ( le informazioni, i dati, i
saperi, le idee) a solo vantaggio della nostra attitudine a separare (Morin
2011, 28).
La separazione che probabilmente si situa alle origini di tutte le altre è
quella tra filosofia e scienza, da cui appunto derivarono tutti gli altri e
più specifici campi disciplinari che andarono a situarsi da una parte o
dall'altra della barricata, o ancora, più problematicamente si trovarono,
Irene Conti
13
come le scienze sociali, su un confine incerto, tanto che ancora non si dà
per concluso il dibattito per affermarne l'appartenenza. Questa incertezza e questa confusione derivano ancora una volta da una scorretta impostazione dualista per cui processi mentali e fenomeni sociali e culturali
appaiono disgiunti dalle scienze fisiche e biologiche, alla stregua di sostanze immateriali che, prive di radici, volteggiano in una sorta di iperuranio metafisico. Così come, e forse più pericolosamente, alcuni scienziati vorrebbero ridurre la psicologia umana a una questione di chimica
neuronale, situando competenze o stati d'animo in questo o quell'angolo
del cervello, facendo sì che anche quella sacralità dell'integrazione invocata da Bateson ricada sotto il rasoio del brutale dissezionamento
meccanicistico.
Secondo quanto argomenta Morin (2011) due dei principi che vengono individuati come postulati fondanti della certezza del paradigma
pre-Novecentesco, sarebbero tra di loro intrecciati e si rafforzerebbero
reciprocamente. Questi postulati sono fondamentali per comprendere
l'inclinazione settoriale a livello disciplinare che ha animato il “pensiero
semplificante” e che ancora oggi scandisce e ordina il vasto campo del
sapere. Si tratta del principio di separabilità e del principio di riduzione.
Il primo deriverebbe direttamente dal Discorso sul metodo di Cartesio
dove il pensatore francese sostiene che per risolvere un problema sia
necessario scomporlo nei suoi elementi più semplici. La conseguenza di
questa asserzione ha fatto sì che nell'ambito scientifico si venisse sempre più a sviluppare una tendenza alla specializzazione e, come degenerazione di questo processo, alla “iper-specializzazione” e “compartimentazione disciplinare in cui gli insiemi complessi, come la natura o
l'essere umano, sono stati frammentati in parti non comunicanti”. Da qui
alla “parcellizzazione generalizzata del sapere” e alla “separazione tra la
scienza e la filosofia, e più in generale tra la cultura umanistica e la
nuova cultura scientifica”, il passo è breve. Il principio di riduzione discende strettamente dal suddetto principio di separabilità e ne alimenta
le istanze, i due principi associati danno vita a una diade che sembrerebbe essere costruita come una fortezza dietro cui il pensiero semplificante
ha potuto trincerarsi e rendersi immune a qualsivoglia attacco. Solo l'epistemologia e il completo rovesciamento di prospettiva che essa ha
permesso, ha saputo infiltrarsi ed intaccare questa formazione diadica
talmente impeccabile e solida.
La riduzione è il principio che attribuisce il diritto di cittadinanza
nell'universo della scienza solo ai fenomeni misurabili e quantificabili.
14
The Lab’s Quarterly, 1, 2015
Il principio di riduzione anima tutte le imprese che cercano di dissolvere lo spirito nel cervello, di ricondurre il cervello al neurone, di
spiegare l'umano attraverso il biologico, il biologico attraverso il chimico o il meccanico. Esso anima tutte le imprese che si occupano della
storia e della società umana, facendo l'economia degli individui, della
coscienza, degli avvenimenti (ivi, 34).
Come si vede il riduzionismo fa parte di quel tentativo, già visto nella trattazione del principio di separabilità, di scomporre un problema in
elementi sempre più piccoli. In questa indicazione sta dunque sia la separazione, che quel processo di riduzione che induce a procedere dal
grande al piccolo, dal complesso al semplice e che, in ultima analisi,
procede verso il tentativo di individuazione dell'elemento ultimo e fondativo di materia e fenomeni, perseguito con abbondanza di eclatanti
sorprese dalla fisica contemporanea.
Rispetto alla madre di tutte le separazioni disciplinari, quella tra filosofia e scienza, Morin così argomenta:
…il mulino della filosofia, cessando di trarre alimento dalle scienze, e in
particolare dalla conoscenze chiave sul mondo, sulla realtà fisica, sulla vita,
sulla società, gira a vuoto, dedicandosi essenzialmente a macinare la sua
stessa sostanza, il che del resto comporta la sua fecondità, ma rompe con
una delle sue missioni tradizionali, quella di pensare e riflettere sui saperi
acquisiti dalle scienze (Morin 2011, 31).
D'altro canto la scienza, nella sua veste semplificatoria e riduzionista, ha
solo apparentemente vinto sul pensiero filosofico complesso delle origini, così come lo spirito greco, sembra soltanto ad un analisi superficiale,
essere stato soppiantato da quello romano:
La semplificazione scientifica, proprio essa, ha fallito nella sua vittoria stessa: nella sua ricerca ossessiva del mattone elementare e della Legge Suprema dell'Universo ha incontrato, nei suoi ultimi progressi, e senza poterla
riassorbire, la complessità che aveva eliminato nel suo principio (ivi, 39).
Anche nella visione di Fritjof Capra (1982), la separazione tra cultura
umanistica e scientifica, è un segno della nascita del pensiero riduzionista. In precedenza, questi due mondi non erano considerati strade alternative al percorso conoscitivo, ma convergevano entrambi verso un fine
comune. Gli albori del pensiero moderno possono essere ravvisati nella
Rivoluzione scientifica che ha per protagonisti Copernico, Keplero, Galileo, Bacone. In particolare a Bacone viene attribuita la formulazione
esplicita del nuovo metodo scientifico:
Irene Conti
15
Bacone fu il primo a formulare una teoria chiara del procedimento induttivo
- a compiere esperimenti e a derivarne conclusioni generali, da verificare in
ulteriori esperimenti- e acquistò una grandissima influenza grazie alla sua
energica difesa del nuovo metodo. Egli attaccò coraggiosamente le scuole di
pensiero tradizionali e sviluppò una vera passione per la sperimentazione
scientifica (ivi, 49).
Il metodo di Bacone raggiunse poi la definitiva consacrazione e sistematizzazione nella grande opera filosofica di René Descartes.
A partire dal Cinquecento, dunque, iniziano a modificarsi drasticamente i fini e le modalità della ricerca scientifica. Il batesoniano finalismo cosciente, soppianta il rapporto olistico e sistemico tra uomo e natura, asservendo quest'ultima al dominio “patriarcale” della ricerca
scientifica (ivi, 49).
Nelle piccole comunità medievali, Capra ravvisa una mentalità molto più aperta nei confronti dell'organicità delle parti, sia sociali, che filosofiche e culturali. In questa prospettiva era naturale che lo scienziato
fosse anche filosofo e sapiente poiché nulla di quello che la Natura mostrava veniva considerato in termini oggettivanti e dunque passibile di
sperimentazione e analisi induttiva, l'universo era concepito come fonte
continua di mistero ed induceva a una profonda reverenza e timore nei
confronti del suo Creatore. L'ordine naturale era indagato ai fini di ravvisarvi e riconoscervi un senso più vasto e non già per sottoporlo alla
logica del controllo e della predizione, che si farà poi strada con la metafora dell'Universo-macchina.
Nemmeno i teologi, nell'ottica di Prigogine-Stengers (PrigogineStengers 1979, 50), riuscivano ad accettare la concezione del mondo di
questi filosofi medievali, troppo complessa per essere soggetta al rigoroso controllo di Dio, la cui onnipotenza veniva vista come garanzia per
l'esistenza di un ordine naturale tanto meccanico quanto domabile e facilmente assoggettabile.
Il mondo naturale aristotelico, distrutto dalla scienza moderna non era accettabile, né da questi teologi, né da questi fisici. Tale mondo ordinato, armonioso, gerarchico e razionale, era un mondo troppo autonomo, gli esseri che
lo abitavano erano troppo potenti e attivi, la loro sottomissione al Sovrano
era troppo sospetta e limitata. D'altra parte era troppo complesso e qualitativamente differenziato per essere matematizzato. (ib.)
Con la nascita della scienza classica, avviene dunque il processo di
emancipazione della scienza dalla filosofia e dalla teologia, che, se da
una parte conferisce grande stimolo e nuova linfa vitale allo sviluppo
16
The Lab’s Quarterly, 1, 2015
della conoscenza, grazie al graduale distacco dalla dipendenza con l'aristotelismo, dall'altra finisce, però, con il perdere quell'autocoscienza filosofica che avevo permesso uno sguardo meno dissezionante ed ossessivamente analitico.
Tra la fine del diciannovesimo secolo e gli inizi del ventesimo, consci oramai della fallibilità del mito scientifico dell'universalità e dell'oggettività, si cominciò ad avvertire l'esigenza di portare ad una nuova
convergenza gli studi filosofici e scientifici superando il baratro che li
divideva e che vedeva la filosofia ripiegarsi sempre più su sé stessa e la
scienza inaridirsi attraverso iper-specializzazioni che lasciavano fuori
fuoco la visione d'insieme. Nell'interrogarsi sul rapporto tra scienza e
filosofia i filosofi di quest'epoca proposero varie soluzioni che Tinti così
riassume:
...la definitiva diversificazione tra scienze naturali e “scienze dello spirito”
[Dilthey], l'integrazione delle scienze in un sapere più vasto, filosofico, fondato sulla critica della scienza tradizionale [Husserl], la trasformazione della
filosofia in analisi logica del linguaggio oppure in una sorta di appendice riflessiva della scienza [neopostivismo] (Tinti 1998).
Ma Tinti osserva come tutte queste proposte sembrarono portare filosofia e scienza a divergere sempre più fino ad un inasprimento dei rapporti
a partire dagli anni Trenta (“Heidegger e l'esistenzialismo, la Scuole di
Francoforte, l'ermeneutica, le correnti spiritualistiche e neoidealistiche”). È solo a partire dalla metà del Novecento che sembra si possa ritornare per scienza e filosofia a dialogare su un terreno comune. Già si è
visto come la cibernetica abbia tentato di far riavvicinare gli studi umanistici e sociali con le scienze matematiche e informatiche:
…la prima impresa scientifica esplicitamente transdisciplinare che – come
testimonia Norbert Wiener – mise a confronto e fece interagire neurofisiologi e matematici, studiosi di balistica, economisti e antropologi... Fu quello –
ha osservato Francisco Varela - “un momento particolarmente entusiasmante per le persone che lo vissero, paragonabile forse soltanto all'eccitazione
che si produsse nel processo di consolidamento della meccanica quantistica,
nei primi anni del secolo. Ed ebbe, a lungo andare, un impatto analogo sulla
scienza e sulla società (Bocchi-Ceruti 2007, XXIV).
Altro tentativo può essere ravvisato negli studi trans-disciplinari che furono raccolti sotto la dicitura di scienze cognitive e il più recente progetto di superare le barriere disciplinari è proprio quello che si sta sperimentando con l'epistemologia della complessità.
Irene Conti
17
Anche in questo caso il riferimento al tema della multi disciplinarietà di questa nuova corrente di pensiero, non è assunto come semplice
caratteristica di questa “sfida”, anche in questo caso infatti la trattazione
è più complessa, poiché il superamento del settorialismo è ad un tempo
causa e conseguenza del sorgere della complessità, è inscindibile dalla
complessità, la fonda e la giustifica.
Come Bocchi e Ceruti, sottolineano:
La scoperta della complessità, o meglio la storia della complessità, rimanda
all'intera storia della nostra tradizione scientifica ed epistemologica. Rimanda – come ci ha suggerito Isabelle Stengers – al problema di come si sia determinata l'identificazione della conoscenza con “il tipo di formazione disciplinare inventato per le cosiddette scienze 'dure' nel corso del diciannovesimo secolo” (ib.).
Quindi è sia un decisivo punto di partenza teorico che rompe in maniera
definitiva con il passato, sia un costante declinarsi di questa teoria in
prassi, con il dialogo tra filosofi e scienziati che, all'interno di questa
nuova cornice epistemologica, si è reso nuovamente possibile e fortemente auspicabile.
1.3. I sistemi complessi
Se, come si è visto, non è possibile attribuire all'epistemologia della
complessità una definizione univoca poiché sono molteplici e disparati i
contributi che, dalle discipline più diverse, vi si riversano, è però possibile rintracciare e descrivere i tratti caratteristici che ricorrono nel riconoscimento di un sistema complesso.
Richiamando una distinzione di Ashby, Tinti classifica i sistemi
complessi in tre gruppi seguendo il loro grado minore o maggiore di
complessità.
I cosiddetti sistemi minimamente complessi sono quelli che i cibernetici chiamano “macchine banali”. Tra questi sistemi, troviamo “cristalli, nuvole, fiumi, particelle elementari e intere galassie (prive di vita), nonché tutti i dispositivi artificiali completamente descrivibili in
termini di ingressi/uscite” (Tinti 1998).
Con i sistemi di media complessità si comincia invece ad entrare
nella categoria delle “macchine non-banali” della cibernetica, qui incontriamo i sistemi prebiotici, come i virus, i computer, i termostati e “tutti i
dispositivi che hanno stati interni e che, pertanto non sono descrivibili
18
The Lab’s Quarterly, 1, 2015
completamente in termini di ingressi/uscite, tutte le macchine virtuali
implementabili su computer e i virus informatici” (ib.).
Si arriva infine ai sistemi complessi veri e propri, trovando ad un
estremo i batteri e dall'altro le popolazioni umane, all'interno di quest'ultima categoria troviamo, inoltre, una suddivisione ulteriore: sistemi a
complessità medio-alta come quelli dell'universo biologico, e sistemi ad
alta complessità come quelli neurobiologici.
Queste tre categorie possono essere distinte anche attraverso un ulteriore caratteristica: mentre i sistemi minimamente complessi non presentano interazioni adattive con l'ambiente, i sistemi di media complessità possono presentare funzioni adattive, manifestando nuovi comportamenti e sono per questo definiti “innocentemente emergenti”. I sistemi
complessi, invece, sono tutti adattivi e danno vita ai cosiddetti fenomeni
emergenti, tra i quali vengono comprese vita, mente, organizzazione sociale (ib.).
Nella definizione operativa che ci viene offerta da Gandolfi un sistema complesso adattivo è “…un sistema aperto, formato da numerosi
elementi che interagiscono fra loro in modo non lineare e che costituiscono una entità unica, organizzata e dinamica, capace di evolvere e
adattarsi all'ambiente...” (Gandolfi 2008, 19).
Ma quali sono le caratteristiche per identificare questi sistemi complessi? Di seguito verranno trattate le sei principali: l'interazione dinamica, l'apertura, la non linearità, la retroazione, l'autorganizzazione.
L'interazione dinamica
Si può notare, innanzitutto, che per i sistemi vale la celebre massima
di Aristotele secondo cui il tutto è più della somma delle sue parti. Le
componenti di un sistema interagiscono tra loro dando vita ad architetture che aumentano la complessità del sistema in un continuo alternarsi di
nuove combinazioni. L'informazione che le parti del sistema si passano
può essere scambiata sotto forma di materia, di energia o sotto forma
digitale.
Nell'interazione e nel comportamento organizzativo che le componenti presentano sta l'essenza di ciò distingue il sistema complesso da
uno non complesso, come nell'esempio di Vester (Vester, 1983), riportato in Gandolfi: se consideriamo un mucchio di sabbia ci accorgiamo
subito che non possiamo trovarci di fronte ad un sistema complesso
proprio perché i granelli che lo compongono non hanno funzioni organizzative, non interagiscono tra loro e se vengono scambiati con altri
granelli la natura del mucchio di sabbia resta inalterata (Gandolfi 2008,
17).
Irene Conti
19
Il sistema aperto
L'informazione non si propaga soltanto da una componente del sistema all'altra, ma anche dal sistema all'ambiente e dall'ambiente al sistema. Questo interscambio di informazioni è descritto dai termini “input-output”, dove per input si intende un'informazione che viene ricevuta dal sistema e per output, al contrario, un'informazione che viene inviata dal sistema verso l'esterno. Come si è già visto il sistema complesso adattivo è stato definito “un sistema aperto” e questa caratteristica
permette all'interscambio di informazioni in entrata e in uscita di avere
luogo. Questi flussi e scambi continui possono presentarsi, come nel caso delle interazioni tra le componenti del sistema, sotto forma di materia, energia, informazione. Per questo Gandolfi sottolinea come non ci si
debba figurare gli scambi input-output, come prodotti veri e propri poiché questi possono avvenire anche semplicemente sotto forma di calore,
di energia e in quest'ottica risulta chiaro come ogni sistema per garantire
la propria sopravvivenza, debba necessariamente configurarsi come “sistema aperto”e poter ricevere, così, il nutrimento dall'ambiente (Gandolfi 1999, 20-21).
Ciò che fa la vera differenza tra un sistema chiuso e uno aperto e
conduce il secondo verso livelli sempre maggiori di complessità, è il
rapporto che ciascuno dei due sistemi presenta con l'entropia.
Va premesso, innanzitutto, che il sistema aperto presenta uno stato
interno ordinato e, allo stesso tempo, dinamico, in continuo cambiamento, in cui l'ordine viene di volta in volta ristabilito reagendo con straordinaria flessibilità alle perturbazione provenienti dall'ambiente. Questo
stato dei sistemi aperti viene definito “stazionario” e presenta la caratteristica dell'irreversibilità: ogni volta che al suo interno si presenta un
cambiamento, non è più possibile tornare indietro, la trasformazione avvenuta è irreversibile. Dove c'è irreversibilità c'è anche entropia, intesa
come il procedere, all'interno di un sistema, da un grado minore ad uno
maggiore, di disordine. Nei sistemi chiusi, invece, le reazioni che interessano il sistema sono in parte reversibili (De Angelis 1996, 20).
L'irreversibilità del sistema aperto dovrebbe, stando al secondo
principio della termodinamica, condurre il sistema verso un'entropia
crescente. Invece, i sistemi complessi sembrano contraddire questo secondo principio: malgrado questi continui processi irreversibili il sistema mantiene il suo ordine interno, più di quanto riesca a fare un sistema
chiuso. Lo stato stazionario dei sistemi aperti rasenta spesso l'inconciliabilità con le leggi della fisica, poiché riesce ad assumere configura-
20
The Lab’s Quarterly, 1, 2015
zione altamente improbabili, che sono però, allo stesso tempo, formidabili ed efficaci strategie adattive.
In base al secondo principio della termodinamica, la tendenza generale degli
eventi della natura fisica è rivolta verso stati di massimo disordine e di eliminazione e appiattimento delle differenze...Al contrario il mondo vivente
mostra una transizione verso ordini di carattere più elevato, verso l'eterogeneità e l'organizzazione (Bertalanffy 1969, 77).
La non linearità
Altra caratteristica che rende conto della complessità dei sistemi trattati è la non linearità. Nella sua definizione la linearità richiama la già
discussa caratteristica dei sistemi complessi come composti da parti interagenti ed interdipendenti tra loro: “un problema è lineare se lo si può
scomporre in una somma di componenti indipendenti tra loro” (Magrassi 2008). Abbiamo visto come tale proprietà non possa essere attribuita
ai nostri sistemi che esprimono nel Tutto più di quanto risulterebbe dalla
somma delle loro parti.
Magrassi riporta anche la definizione sistemistica di linearità: “in
Teoria dei Sistemi si dice lineare un sistema (meccanico oppure elettrico, termico, eccetera) che risponda in modo direttamente proporzionale
alle sollecitazioni ricevute”. Lo stesso tipo di concetto viene espresso
così nelle parole di Gandolfi “..non lineare significa che, anche variando in modo regolare l'input, l'output può comportarsi in modo non regolare e in modo non proporzionale alle variazioni dell'input” (Gandolfi 2008, 23, corsivo nel testo).
Per chiarire meglio questo concetto possiamo rifarci al caso emblematico dell'oscillazione di una molla. Sappiamo che una molla vibra in
un rapporto direttamente proporzionale alla forza applicata, quindi è
possibile prevedere quale sarà l'output, la risposta della molla, conoscendo l'input, la sollecitazione a cui viene sottoposta. Sembrerebbe
dunque che la molla non possa considerarsi tra i fenomeni definiti
“complessi” poiché risponde ai criteri della linearità. Ma tra lo stato della molla che oscilla ordinatamente e proporzionalmente alla sollecitazione subita e lo stato limite in cui la molla sottoposta a una forza eccessiva si spezza, esiste uno stato intermedio in cui il comportamento lineare scompare. In questo stato di forze, la molla reagisce con comportamenti assai bizzarri e disordinati e non ha più valore la legge secondo
cui all'aumentare della forza cresce proporzionalmente anche l'oscillazione osservata. In natura la stragrande maggioranza dei sistemi possono essere definiti non lineari, la linearità è un “artificio che ci serve per
descriverne il comportamento normale, ossia nel suo intervallo usuale di
Irene Conti
21
funzionamento” (Magrassi 2008). Quindi la linearità ben lungi che una
questione epistemologica appare come una questione prettamente pratica dal momento che “non ci interessano le chitarre con le corde spezzate
o gli amplificatori che distorcono il segnale: progettiamo chitarre pensando che a suonarle saranno chitarristi e non mocciosi dispettosi o
scimmie, e progettiamo sistemi hi-fi che verranno installati in ambienti
noti e controllati, con persone ragionevoli come utilizzatori” (ib.).
Il carattere non lineare dei sistemi complessi conduce alla conclusione che il comportamento che tale sistema assumerà nel tempo rimane
per lo più imprevedibile. La teoria della complessità infierisce un colpo
ulteriore a quella che Ceruti chiama la hybris dell'onniscenza del pensiero scientifico moderno, il cui pilastro fondante era proprio quello della
previsione di fenomeni attraverso la formulazione di leggi.
L'esclusiva attenzione della scienza per ciò che è generale e ripetibile lascia
il passo a una presa in considerazione anche di ciò che è singolare, irripetibile, contingente…Emergono così le limitazioni della previsione, non soltanto
quelle dovute a una nostra ignoranza contingente ma anche e soprattutto
quelle inerenti ai meccanismi stessi di costruzione delle conoscenze (Ceruti
in Bocchi-Ceruti 2007, 5).
Dalla non-linearità e dall'imprevedibilità si arriva facilmente alla visione
non deterministica del sistema. Per cui non possiamo aspettarci che la
molla risponda seguendo parametri che restano invariati e costanti nel
tempo alle sollecitazioni a cui la sottoponiamo. Infatti anche il determinismo è un modello ideale che, come la linearità, non è riscontrabile in
natura. Alla fine tendiamo comunque a servirci di sistemi non deterministici, a patto che questa caratteristica non ci disturbi troppo, a patto
che un violino non si scordi troppo in fretta, che una radio non si desintonizzi con troppa frequenza , insomma anche in questo caso il determinismo è l'artificio che usiamo all'interno dell'intervallo usuale di
funzionamento di una corda, una molla, una radio (Magrassi 2008).
In altre parole, le leggi della scienza classica svelano ad oggi la loro
natura costruttivista, tanto che non è più possibile mettere da parte la
funzione fondativa che ha l'osservatore, lo scienziato, nella formulazione di determinati modelli che, come si è visto, rispondono a criteri artificiosi, piegano i comportamenti naturali ad una regolarità soltanto relativa e artificiosa.
Possiamo parlare di una transizione ad una nozione di legge prescrittiva e
necessitante a un'idea di legge intesa come espressione di un vincolo. […]
Le leggi sono simili alle regole di un gioco che stabiliscono un universo di
22
The Lab’s Quarterly, 1, 2015
discorso, una gamma di possibilità in cui si ritagliano gli effettivi decorsi
spazio-temporali, dovuti in parte al caso e in parte alle abilità o alle deficienze dei giocatori (Ceruti in Bocchi-Ceruti, 6).
La retroazione
La retroazione individuata dalla cibernetica e applicata ai sistemi
circuitali, è uno strumento utile per far luce su ulteriori caratteristiche
proprie dei sistemi complessi: la non linearità e il loro carattere non deterministico, implica infatti che nella loro trattazione non ci si possa rifare a catene lineali di processi, dove A ha un effetto su B che a sua volta ha un effetto su C. Nel caso dei processi sistemici complessi non solo
da C possiamo tornare ad A formando il processo circuitale cibernetico,
ma l'output di C può influenzare anche B. Nei sistemi complessi non
dobbiamo più considerare il circuito, ma la rete, in cui ogni componente
del sistema può essere influenzata dall'altra e a sua volta influenzarla.
I sistemi complessi reali sono infatti costituiti da reti di una complessità
inimmaginabile, con migliaia d' interazioni che si intrecciano, si incrociano,
si inibiscono o si rafforzano a vicenda, si biforcano o si riuniscono, in un delirante gioco che nemmeno Dalì sarebbe riuscito ad illustrare (Gandolfi
2008, 26).
Ci troviamo all'interno di interazioni incredibilmente complesse e dinamiche dove si producono circoli di feedback altamente articolati, al punto che non è possibile individuare il punto da cui è partito il primo input
del processo, né il punto in cui si giungerà all'output finale. Un'altra
conferma utile per abbandonare il mito scientifico della previsione.
Com'è ovvio per applicare la nozione di retroazione ai processi
complessi è necessario discostarsi dall'originario riferimento della cibernetica ai fenomeni meccanici. Introdurre il concetto nel mondo della
psicologia e della biologia implica infatti che venga focalizzata attentamente la suddetta nozione di rete “Se gli elementi di un sistema sono più
di due, le interazioni non possono essere trattate come se fossero indipendenti le une dalle altre e l'insieme deve essere osservato come un tutto” (De Angelis 1996, 15).
Si vengono a produrre, tra gli elementi di un sistema, complessi circoli di feedback, per cui gli output tornando alla loro origine influenzano il successivo input, conducendo ad un processo che ricorda l'antico e
insoluto quesito che chiede se sia nato prima l'uovo o la gallina (Gandolfi 2008, 27).
Mentre il feedback negativo ha la funzione di mantenere la stabilità
del sistema, riconducendolo sempre all'equilibrio, il feedback positivo è
Irene Conti
23
quello che conduce al cambiamento progressivo e, se spinto oltre una
certa soglia, può condurre il sistema al suo collasso. In un esempio molto banale possiamo raffigurarci di rispondere ad una sfida con un sorriso
e di stemperare dunque le intenzioni dello “sfidante”, ma se rispondiamo con un “rilancio”, con una provocazione ulteriore, il sistema inizia
ad incrinarsi pericolosamente, aumentando il grado di tensione. Nella
sua ricerca etnografica presso la Nuova Guinea, Bateson si concentra
sul rituale del Naven e sui concetti di schismogenesi simmetrica e complementare che possono essere considerati concetti antesignani del
feedback.
In una relazione caratterizzata da schismogenesi simmetrica, A risponderà con una sfida ancora più grande a quella proposta da B, mentre in una relazione complementare più B tenterà di sfidare A, più A si
tirerà indietro mostrando un sorriso e ripristinando così l'equilibrio. Una
società in cui i rapporti simmetrici aumentando sino a raggiungere il
punto critico collasserà se non verranno attuate forme di schismogenesi
complementare. Il rituale del travestitismo del Naven ha per Bateson
proprio la funzione di ripristinare l'equilibrio controbilanciando relazioni simmetriche con relazioni complementari.
In tutti i sistemi sembra che prima che il processo autocatalitico del
feedback positivo raggiunga proporzioni insostenibili, si escogitino
espedienti creativi come quello del rituale Naven per scongiurare il pericolo. Al contrario di quello che potremmo aspettarci quando un sistema si trova vicino a quella soglia critica che lo porta a sconfinare nella
non linearità, diventando imprevedibile, e vedendo moltiplicarsi il livello di entropia interna, lungi dal precipitare nella catastrofe e nel caos, si
fa più creativo aumentando flessibilmente il suo grado di adattamento.
Questo è dovuto ha un'altra importante caratteristica dei sistemi complessi: l'autorganizzazione.
L'autorganizzazione
“… che cosa succede quando un sistema complesso adattivo si trova
al margine del caos? Il sistema si auto-organizza” (Tinti 1998).
Già come per Ashby il sistema ultrastabile ha ben poche possibilità
di sopravvivere mentre in condizioni di instabilità e disequilibrio il sistema viene spinto ad uscire da forme cristallizzate che potrebbe condurlo all'atrofia e alla morte, rigenerandosi in nuove geometrie creative
attraverso un'organizzazione spontanea. Compiendo questa nuova organizzazione si passa alla strutturazione di insiemi più complessi come
può essere nel caso degli atomi che ad un livello superiore si organizzano in molecole. Salendo di livello in livello e passando dagli atomi, alle
24
The Lab’s Quarterly, 1, 2015
molecole, alle cellule fino ad arrivare all'ecosistema, si riscontra un aumento esponenziale delle possibilità di combinazione ed interazione, ma
non per questo tali combinazioni ed interazioni potenzialmente infinite
risultano attualizzabili. Compito di ogni parte del sistema è infatti quello
di rispondere a “vincoli” che, se da una parte ne limitano la libertà,
dall'altra rendono possibile che nel sistema finale ed intero emergano
qualità non concepibili a livello delle componenti particolari.
… il concetto di un vincolo … non limita semplicemente i possibili ma è
anche opportunità; non si impone semplicemente dall'esterno a una realtà
esistente prima di tutto, ma partecipa alla costruzione di una struttura integrata e determina all'occasione uno spettro di conseguenze intellegibili e
nuove (Prigogine, Stengers 1981, 1076, cit. in Bocchi, Ceruti 2007, 7).
Ancora non è chiara la ragione che spieghi il motivo per cui i sistemi
“decidono” di ricorrere all'autorganizzazione, come abbiamo visto è
plausibile che questo momento coincida con un' “emergenza” in cui,
sulla soglia del caos, un sistema ricorra alla nuova organizzazione avendo raggiunto un punto critico oltre in quale o collassa o adotta nuove
strategie per sopravvivere. Ma resta da chiarire come faccia il sistema a
sapere in anticipo che sta per avvicinarsi a quella soglia critica, oltre la
quale rischia il collasso. Una risposta a tale quesito può derivare dal riferimento alla proprietà reticolare del sistema, che determina un'interdipendenza tra tutti gli elementi dei sottosistemi, tra i sottosistemi e gli
altri sottosistemi e tra tutti i particolari livelli gerarchici e l'insieme che
vengono a formare. Per questa ragione Tinti parla di “gerarchia non piramidale”, volendo sottolineare la mancanza per quanto concerne la
struttura dei livelli vista sopra, di un leader, di un centro operativo, che
gestisce e controlla dall'alto le attività dei sottosistemi. Ogni livello è
infatti asservito al superiore, ma non passivo. Ogni livello possiede al
suo interno le informazioni che regolano il funzionamento di tutto l'insieme: il sistema è ologrammatico (Pribram 1977).
Questa integrazione e sinergia e questa compresenza del tutto nelle
parti e nelle parti nel tutto, rende il sistema più vigile e sensibile nei confronti di tutti i cambiamenti di stato che avvengono al suo interno e lo
inducono, in un gioco di reciproche risonanze, a “sentire” con più esattezza quale sia la strada conveniente da percorre per non sopperire.
Bisogna notare come la strutturazione di livelli gerarchici superiori
non coincide con un cambiamento riguardante la natura degli elementi:
il cambiamento avviene rispetto alle relazioni che si instaurano tra questi elementi, che si articolano con sempre maggiore complessità.
Irene Conti
25
Anche se in un primo momento può sembrare che il sistema, formatosi a seguito del periodo caotico e irregolare che attraversa il sistema di
origine, abbia acquisito un grado maggiore di semplicità, basta attendere
affinché anche la nuova organizzazione cominci il suo processo evolutivo (Gandolfi 2008, pp 44-45).
Il paradosso si stempera subito, appena il nuovo livello gerarchico, ormai
stabilizzato inizia a sua volta una evoluzione, che lo porterà a livelli di complessità sempre maggiori e finalmente, una volta superata l'ennesima soglia
critica, a un nuovo processo di autorganizzazione. Il processo si ripete ad infinitum, in un perenne alternarsi di semplificazione e complessificazione (
46-47).
È come se il sistema che attraversa la fase critica verso il cambiamento,
si trovasse in quel particolare stato che Turner (1967), riprendendo una
distinzione di Van Gennep, chiama liminale. Il periodo liminale nei riti
di passaggio di Van Gennep (1909) è quello che segue la separazione
dall'ordine sociale prescritto e che getta l'individuo in una “terra di nessuno”, lontano da leggi e convenzioni. É quello che si osserva laddove
un sistema, come quello precedentemente illustrato della molla, comincia ad assumere comportamenti che non rientrano più nei criteri di linearità e determinismo che ci attenderemmo. Anche lo stato di liminalità, di
confine, di margine, è un momento assai critico e rischioso per chi lo
vive, che esula dall'analisi strutturalista, proprio perchè in questa fase la
communitas prende il posto della societas, è dunque anch'esso un tipo di
realtà, questa volta sociale, che rifugge da ogni previsione. È in questa
fase che hanno luogo tutti i cambiamenti di status, come quello espresso
dal fenomeno del travestitismo in Naven, che servono nella loro forma
simbolica e rituale proprio per rinsaldare i valori sociali, attivando una
soglia più alta di consapevolezza. Al termine del periodo liminale, l'individuo o il gruppo vengono infatti riassimilati all'interno della societas
che, attraversata la fase della turbolenza e del caos, si è rinnovata, acquisendo un ritrovato equilibrio. Sharpe (Sharpe 2005) sottolinea come
la perdita del riferimento ad una struttura sociale, comporta, oltre ad un
alto ed ovvio grado di disorientamento e di rischio, anche una notevole
potenzialità creativa. Questo spazio di confine se può convertirsi nella
disintegrazione dell'individuo, come dei sistemi, può anche veicolare
prospettive impreviste, fungendo da fecondo processo di gestazione che
conduce all'articolazione di un nuovo tipo di ordine.
Nella società contemporanea sono sempre di più i gruppi e gli individui che si trovano ad attraversare o a passare un'intera vita in una fase
di liminalità culturale. Il processo di passaggio dal non luogo caotico di
26
The Lab’s Quarterly, 1, 2015
sospensione delle appartenenze alla nuova organizzazione è un processo
tutt'altro che concluso: su scala globale osserviamo un moltiplicarsi delle soglie, un pericoloso incrinarsi delle linearità culturali, un aumento
esponenziale delle reti comunicative. Il sistema culturale globale si trova
in una fase in cui, per parafrasare Salman Rushdie “a volte ci sembra di
cavalcare due culture, altre volte ci pare di cadere fra due sedie” (Rushdie 1994), la frizione tra locale e globale sembrerebbe declinarsi a volte
in una sintesi organizzativa superiore, ed altre provocare un senso di
profondo smarrimento, di insidiosa perdita di ogni certezza.
Come abbiamo visto, l'obbiettivo di questa “sfida della complessità”,
non è quello di fornire risposte consolatorie ad un andamento globale
che in termini sociali, economici, politici, rasenta livelli sempre più alti
e indecifrabili di articolazione. L'obbiettivo degli studi sulla complessità
è proprio quello di far emergere queste dinamiche articolazioni, di sollevare nuove questioni, di problematizzare un'epistemologia con cui per
molto tempo ci siamo illusi di pervenire alle ultime verità, ma che a
fronte delle nuove evoluzioni scientifiche e sociali appare ormai consunta ed inutilizzabile.
2. LA BIOLOGIA POST-DARWINISTA
Come si è visto, lo studio della complessità si presenta come un panorama dalla natura altamente multidisciplinare, caratteristica che deriva, riflessivamente, dalla visione che si impone attraverso le nuove
esplorazioni compiute nei diversi ambiti della ricerca scientifica e sociale. La nuova visione impone infatti la definitiva affermazione della profonda ed essenziale interrelazione tra i fenomeni fisici, biologici, chimici, sociali e culturali. Questa interrelazione, che si compie a partire dal
movimento cibernetico, viene accolta da esponenti provenienti dai più
svariati campi del sapere, tra i quali un consistente numero di biologi,
impegnati nel tentativo di far confluire le nuove proposte della biologia,
all'interno del più ampio orizzonte degli studi complessi. Vedremo come il grande pilastro teorico con cui questi ricercatori si trovano a confrontarsi è quello del darwinismo e della sintesi che ne segue a partire
dalla genetica mendeliana.
In tutti questi autori si riconosce il tentativo di accogliere il grande
contributo proposto nell'Origine della specie rivisitandone però alcuni
specifici contenuti, che lungi dal voler sovvertire radicalmente le intuizioni e l'impianto teorico darwiniano, rendono però conto dei limiti che
questo presenta di fronte alle recenti indagini empiriche.
Irene Conti
27
Tra gli elementi di rottura con la tradizione e con la sintesi neodarwiniana, vale la pena di passare in rassegna i contenuti proposti dai
biologi cileni Francisco Varela e Humberto Maturana nell'ambito della
natura autopoietica dei sistemi viventi, in secondo luogo si farà riferimento alla problematicità riscontrata nel tradizionale approccio gradualista al fenomeno dell'evoluzione, e infine si procederà alla trattazione
delle nuove accezioni di pluralismo evolutivo e coevoluzione.
2.1. I sistemi autopoietici
Quando in una delle ultime interviste fu chiesto a Bateson chi altri
stesse portando avanti lo studio del regno della Creatura, egli rispose
che il centro di queste ricerche era a Santiago, in Cile, sotto la direzione
di un uomo chiamato Maturana (Keeney 1979, cit. in Dell 1985).
È a seguito di molte ricerche compiute nell'ambito della neurofisiologia e degli studi sulla percezione che Maturana comincia, a partire dagli anni Sessanta, a sviluppare la sua teoria dell'autopoiesi spostando
l'attenzione dai rapporti tra l'organismo e l'ambiente, ai processi interni
al sistema vivente stesso compiendo, dunque, una deviazione sul tradizionale tracciato del modello darwinista. È in questi anni che inizia la
collaborazione con il suo allievo Varela che confluirà nel saggio Autopoiesi e cognizione: la realizzazione del vivente. Quattro anni più tardi il
pensiero dei due ricercatori sarà più compiutamente sistematizzato con
la pubblicazione de L'albero della conoscenza. In questo ultimo saggio
prosegue il tentativo di gettare un ponte tra i fenomeni della conoscenza,
dell'apprendimento, del linguaggio e quelli delle scienze biologiche ed
evolutive, un po' sulla scia di quel grande maestro, Gregory Bateson,
che concentrò tutta la sua sfida nel cercare di unificare tre grandi questioni delle scienze umane: evoluzione, epistemologia, problema mentecorpo, vanificando per sempre la separazione infeconda tra le scienze
“dure” e quelle sociali.
Le conclusioni che i due autori trarranno nel corso del loro percorso
di ricerca concorderanno con quelle di Bateson per cui non si può dare
distinzione alcuna tra il mondo mentale e il mondo dei sistemi viventi,
ma tra le due dimensione c'è completa e perfetta sovrapposizione, poiché i nostri filtri percettivi ci impediscono di pervenire alla cosa in sé,
ed ogni conoscenza sarà pertanto frutto di costruzione e creazione soggettiva, dalle possibilità potenzialmente infinite, ma limitata, di fatto,
dai vincoli imposti dall'esterno.
28
The Lab’s Quarterly, 1, 2015
Allo stesso modo per Maturana e Varela, non è possibile dare conto
del mondo biologico, senza passare dalla trattazione dei fenomeni della
cognizione e del linguaggio. La vita stessa è cognizione, la vita stessa è
linguaggio, poiché tutti i fenomeni che noi crediamo astratti al dominio
scorporato della mente, sono in realtà fenomeni strettamente biologici.
Seguendo l'osservazione di Dell P. F. (Dell 1985) mentre in Bateson c'è
un richiamo continuo all'epistemologia, in Maturana incontriamo anche
la formulazione di un'ontologia abbastanza precisa. Nell'intuizione
dell'andamento processuale e circolare del sistema vivente, per cui conoscere equivale a vivere e vivere equivale a conoscere, si pone una
premessa importante, da cui discende il nodo nevralgico delle teorie dei
due ricercatori cileni. Un sistema circolare è anche un sistema chiuso
dal punto di vista organizzativo perché ha la capacità di autogenerarsi
senza bisogno di un intervento esterno. Da qui dunque deriva l'intuizione del sistema come autopoietico e cioè come sistema in grado di autorganizzarsi in maniera autonoma, chiuso rispetto alle informazioni derivanti dall'ambiente. Ovviamente un sistema si relaziona e riceve informazione dall'ambiente esterno, ma è chiuso ed autonomo nel senso che
è lui stesso che decide come gestire queste informazioni, in altre parole,
è la sua struttura che determina a quali interazioni partecipare e a quali
rinunciare.
Per ciò, se una cellula interagisce con una molecola X incorporandola nei
suoi processi, quello che avviene come conseguenza di tale interazione non
è determinato dalla proprietà della molecola X, ma dal modo con cui tale
molecola è “vista” e assunta dalla cellula quando la incorpora (MaturanaVarela 1985, 66).
Come in Bateson, anche per i due autori è importante capire fino in fondo quali siano le radici di certi criteri di distinzione che diamo per scontati, come ad esempio quello tra il mondo vivente e non vivente. Anche
qui, dunque, troviamo riproposto il dilemma batesoniano tra mondo
creaturale e pleromatico che venne risolto dallo stesso Bateson riscorrendo all'informazione. Mentre qui, il confine tra ciò che è da considerare parte del mondo organico e ciò che invece entra a far parte del dominio del vivente, è tutto da ricercarsi nella proprietà dell'autorganizzazione che come abbiamo visto è una proprietà centrale nella descrizione dei
sistemi complessi.
Quando parliamo degli esseri viventi, supponiamo che ci sia qualcosa in
comune fra di essi, altrimenti non li metteremmo nella stessa classe che designiamo con la denominazione di “vivente”. Quello che non è stato detto,
Irene Conti
29
tuttavia, è qual'è l'organizzazione che li definisce come classe. La nostra
proposta è che gli esseri viventi si caratterizzano perché si producono continuamente da soli, il che indichiamo denominando l'organizzazione che li definisce organizzazione autopoietica (Maturana - Varela 1985, 59).
Gli autori però riconoscono che in questa definizione potrebbe rientrare
tutto ciò che viene definito come sistema, ogni sistema possiede infatti
la capacità di autorganizzarsi e dunque anche un termostato potrebbe
essere considerato un sistema vivente che mantiene l'equilibrio attraverso il circuito di risonanza negativa. Ma qui sta la peculiarità che distingue nettamente il mondo del vivente da quello inorganico:
Quello che è però tipico degli esseri viventi è il fatto che gli unici prodotti
della loro organizzazione sono essi stessi, per cui non c'è separazione tra
produttore e prodotto. L'essere e l'agire di un'unità autopoietica sono inseparabili, e ciò costituisce la sua modalità specifica di organizzazione (Maturana – Varela 1985, 63).
Quindi è alla stessa circolarità e ricorsività che lega il mondo dei fenomeni biologici con quelli sociali e cognitivi, che ci si riferisce allorché,
come in questo caso, si incontri la necessità di dover operare un distinguo ulteriore e amplificare la portata del meccanismo autopoietico, che
non solo genera, ma si auto-genera continuamente.
Con la formulazione del concetto di autopoiesi si è pervenuti anche
ad una visione che chiarisce quella di “apertura” dei sistemi complessi
così com'era stata esposta da Bertalanffy. Secondo Bertalanffy un sistema vivente è organizzato mediante gerarchie “che predominano su tutte
le altre forme organizzate perchè hanno avuto il tempo di evolvere e di
predisporre le relazioni con l'esterno in modo restrittivo, impedendo che
la complessità diventasse incontrollabile” (De Angelis, 1996, 48). Tale
gerarchia si forma all'interno di sistemi aperti, la cui sopravvivenza è
garantita dagli scambi di energia con l'ambiente esterno. Come osserva
Ceruti nell'Introduzione a L'albera della conoscenza, a Maturana e Varela si deve il prezioso contributo di aver chiarito una volta per tutte la
distinzione tra i sistemi aperti e i sistemi chiusi, e il riconoscimento della loro irriducibile complementarietà. Tale passaggio avviene con le definizioni di organizzazione e di struttura, che così vengono esposte da
Maturana e Varela:
Per organizzazione si intende l'insieme dei rapporti che devono esistere fra i
componenti di un qualcosa perchè questo possa essere considerato come appartenente a una classe particolare.
30
The Lab’s Quarterly, 1, 2015
Per struttura di un qualcosa s'intende l'insieme dei componenti e dei rapporti
che, concretamente, costituiscono una unità particolare nella realizzazione
della sua organizzazione (Maturana – Varela 1985, 62).
Mentre l'organizzazione fa riferimento al sistema come unità, come insieme di componenti che devono restare tali affinché il sistema si preservi e mantenga il suo ordine, la struttura attiene invece al contesto
spazio-temporale in cui il sistema si contestualizza e a tutta la serie di
relazioni che esso viene ad intessere con l'ambiente circostante. Mentre
l'organizzazione resta invariata, la struttura può variare, ed è qui che può
essere chiarita la distinzione tra sistema aperto e sistema chiuso:
La chiusura si riferisce all'organizzazione (e all'ordine ciclico che la definisce), mentre l'apertura si riferisce alla struttura di un sistema particolare.
L'autonomia di un sistema è definita dunque come la capacità del sistema di
subordinare tutti i suoi cambiamenti strutturali alla conservazione dell'invarianza (chiusura) della sua organizzazione. (Maturana – Varela 1985, 18).
È così che in questa compresenza di sistema aperto e chiuso nella descrizione del sistema vivente, si compie un'importante svolta rispetto
alla tradizionale visione della biologia darwinista. L'ambiente è infatti
ivi considerato non più come una sorgente istruttiva di cambiamento ma
come una fonte di perturbazioni che solo il sistema nella sua circolarità
chiusa può decidere se inglobare oppure no per produrre una trasformazione dell'organizzazione interna.
Più sistemi o il sistema più l'ambiente sono in relazione tra loro attraverso quello che i due autori definiscono accoppiamento strutturale
che è una “congruenza strutturale necessaria” che viene a costituirsi tra i
vari sistemi che un osservatore costruttivamente fa emergere da uno
sfondo in cui si trovavano in unità.
In tale congruenza strutturale una perturbazione dell'ambiente non contiene
in sé la specificazione dei suoi effetti sull'essere vivente, ma è questo con la
propria struttura che determina il suo stesso cambiamento in rapporto alla
perturbazione (Maturana – Varela 1985, 93).
È attraverso questo accoppiamento strutturale, questa correlazione dove
coesistono vincolo e libertà, indipendenza e coordinazione, che viene a
costituirsi il fenomeno dell'adattamento, attraverso un particolare tipo di
processo che può introdurre il secondo elemento di rottura con la sintesi
neo-evoluzionista: la deriva.
Irene Conti
31
2.2. Deriva, bricolage, exattamento: al di là della logica prescrittiva
All'idea dell'evoluzione per tappe lineari e progressive Varela e Maturana contrappongono l'immagine della deriva naturale, in cui non si
rende più necessaria la presenza di una direzionalità esterna, poiché
l'obbiettivo dell'evoluzione non è quello di ottimizzare l'adattamento
dell'organismo al suo ambiente, quanto piuttosto il mantenimento
dell'omeostasi interna:
Quello che noi proponiamo qui è che l'evoluzione si verifica come un fenomeno di deriva strutturale sotto continua selezione filogenetica , in cui non
c'è progresso né ottimizzazione dell'uso dell'ambiente, ma solamente conservazione dell'adattamento e dell'autopoiesi, in un processo in cui organismo e ambiente permangono in continuo accoppiamento strutturale (Maturana – Varela 1985, 63).
Viene qui, dunque, scardinato il concetto di teleonomia proposto da
Monod (Monod 1970), che veniva attribuito agli esseri viventi come
criterio chiave per la loro distinzioni dagli esseri non viventi: il sistema
vivente è tale, infatti, perché oltre alle caratteristiche di morfogenesi autonoma e di invarianza riproduttiva presenta anche quella di essere un
oggetto dotato di un progetto e dunque orientato verso un fine. Tale determinismo viene a perdersi nell'imprevedibilità che caratterizza l'evolversi dei sistemi autopoietici attraverso la deriva, che più che a caso e
necessità sembrano rispondere a vincoli e possibilità.
Per rendere più chiara l'immagine della deriva naturale gli autori
tentano di illustrarla con un utile esempio: se lasciamo cadere delle gocce d'acqua lungo una collina, il risultato finale ci apparirà come un insieme articolato e ramificato di rivoli e grovigli d'acqua, che in qualche
modo hanno adattato il loro percorso all'ambiente come meglio potevano, evitando ostacoli e subendo gli effetti di agenti esterni come i venti.
Nel momento in cui osserviamo l'intricato disegno dei rivoli d'acqua
possiamo pensare che questo fenomeno della deriva abbia seguito strade
casuali, ma ad un analisi più attenta possiamo accorgerci che ogni goccia d'acqua ha risposto coerentemente a quelli che Ceruti chiamerebbe
vincoli imposti dall'ambiente (Ceruti 1986). Dunque il sistema vivente
appare alla luce della nuova visione qui proposta, come più autonomo e
creativo: non reagisce agli stimoli imposti dall'ambiente in modo passivo, ma diviene il primo responsabile delle stasi o dei cambiamenti che
attraversa senza mettere a repentaglio la propria identità. La vita sembra
non adattarsi agli input prescrittivi che riceve, ma pare ricrearsi seguen-
32
The Lab’s Quarterly, 1, 2015
do i propri percorsi e comportandosi in modo plastico, flessibile e complesso.
Viene a perdersi, dunque, la visione lineare e graduale del processo
evolutivo che aveva caratterizzato negli anni Trenta e Quaranta del Ventesimo secolo il pensiero della sintesi neo-evoluzionista. Alla metafora
dell'evoluzione come scala progressiva di perfezionamento che parte dai
batteri e prosegue fino al vertice occupato dall' Homo Sapiens, si sostituisce un metafora ben più modesta del processo evolutivo:
L'evoluzione… assomiglia a uno scultore vagabondo che passeggia per il
mondo e raccoglie un filo qui, una latta là, un pezzo di legno più in là e li
unisce nel modo consentito dalle loro strutture e circostanze, senza altro motivo se non che è lui che può unirli. E così nel suo vagabondare, si producono forme complesse composte da parti armonicamente interconnesse, che
non sono prodotto di un progetto ma di una deriva naturale (ivi, 111).
Un'altra metafora in grado di render conto, oltre che del carattere plastico e creativo del processo evolutivo, anche della sua capacità di riutilizzo intelligente di alcune strutture storiche, è quella di evoluzione come
bricoleur. Tale immagine di un processo creativo di assemblaggi e riadattamenti si deve far risalire a Lèvi-Strauss che la adotta in analogia
alla formazione delle credenze mitiche (Strauss 1962, 32). Viene poi
ripresa da Francois Jacob per sostituire la classica immagine dell'orologio e della macchina nella raffigurazione dell'andamento del processo
evolutivo (Jacob 1978). Così si esprime Jacob nella descrizione di questa felice metafora che richiama nel passaggio qui di seguito riportato
l'immagine del creativo scultore già fornitaci in Varela-Maturana:
...l'evoluzione si comporta come un bricoleur che nel corso di milioni e milioni di anni rimaneggia lentamente la sua opera, ritoccandola continuamente, tagliando da una parte, allungando da un'altra, cogliendo tutte le occasioni per modificare le vecchie strutture in vista delle nuove funzioni (ivi, 18).
Tale bricoleur inoltre “non sa esattamente che cosa produrrà, ma recupera tutto quello che trova in giro, si arrangia con gli scarti, le cose più
strane e diverse, pezzi di spago e di legno, vecchi cartoni, insomma utilizza tutto ciò che ha sottomano per farne qualche oggetto utile” (ib.)
Il tempo, dunque, in questa nuova visione di rottura con il programma “adattamentista” non viene azzerato nella prospettiva del raggiungimento di un grado maggiore di ottimizzazione, ma la storicità di qualsiasi organismo biologico entra prepotentemente a far parte della dina-
Irene Conti
33
mica del cambiamento per essere adattata a nuove, specifiche funzioni
(Bocchi,Ceruti, 2007, XIV).
A questa direzione di storicismo e riutilizzo a cui rimanda il processo evolutivo del bricolage, si può ricondurre il concetto di exattamento,
coniato dai paleontologi Stephen Jay Gould ed Elisabeth S. Vrba
(1982), per cui, ancora una volta, al momento della necessità di utilizzo
di funzioni nuove, la natura non le crea dal nulla, ma riadatta forme
preesistenti a utilizzi correnti. L'exattamento differisce dal processo di
adattamento della teoria darwinista, poiché ancora una volta sottolinea
una sottesa logica di non linearità come peculiare caratteristica del cambiamento evolutivo “Se nel paradigma ingegneristico l'adattamento ha
un ruolo predominante, in quello del bricolage esso è in concorrenza
con mutazioni neutrali, exattamenti, disfunzioni” (Sapienza 2005). Alcuni caratteri scelti dalla selezione naturale per lo svolgimento di determinate funzioni, vengono difatti “cooptati” e exattati per un nuovo uso
o, ancora, alcuni caratteri che in origine non erano stati presi in considerazione dall'opera della selezione naturale, vengono ora cooptati per essere utilizzati. Gould e Vrba ipotizzano che le suture visibili nel cranio
di giovani mammiferi, siano da ritenersi indispensabili per facilitare il
momento della nascita. Ma le stesse suture appaiono anche nel cranio di
giovani uccelli e rettili, la cui nascita avviene semplicemente con la fuoriuscita da un uovo rotto. Si può dunque vedere in queste suture una
forma di exattamento, un esempio di riuso creativo ed intelligente di alcune strutture “cooptate” per asservire nuove funzioni e nuovi scopi
(Gould – Vrba, , 5).
Nell'evoluzionismo classico le canalizzazioni sono invece viste come frutto di precedente selezione, tenendo fermo e preminente, dunque,
il ruolo dell'adattamento. Allo stesso modo le strutture cooptate sono
ritenute forme di preadattamento, sorte per adattarsi a funzioni diverse,
ma pur sempre in versione adattiva. Quello che Gould e Vrba contestano con la teoria dell'exaptations, è proprio il voler considerare ogni
struttura sorta per la cooptazione, così come ogni canalizzazione come
forme di adattamento o di preadattamento: “… molti canali di sviluppo
non sono mai stati adattamenti ad alcunchè, ma sono invece sorti come
prodotti secondari o conseguenze accidentali di cambiamenti basati sulla selezione” (Gould, cit. in Bocchi - Ceruti 1984, 211). Gli evoluzionisti ammettono sicuramente questo fenomeno, ma sono in errore, in
quanto tendono a considerarlo come marginale, relegandolo al ruolo di
eccezione marginale che può tranquillamente venire ignorata, non costituendo alcuna minaccia per l'impostazione della logica classica.
34
The Lab’s Quarterly, 1, 2015
… si tende a considerare questi non adattamenti come una sorta di frangia
evolutiva, come un insieme di modifiche piccole e accidentali che non comportano alcuna conseguenza fondamentale. È questa una valutazione che io
contesto, sostenendo invece che l'insieme dei non adattamenti, possa avere
un'estensione più ampia degli adattamenti diretti che li generano (ivi, 212).
Pertanto si fa sempre più evidente la necessità di ricercare proprio in
queste eccezioni, in queste marginalità, la strada compiuta dall'evoluzione e tali ricerche aprono le porte ad uno scenario del tutto nuovo in
cui si fa sempre più evidente come la natura non operi al pari di un divino artefice o di un erudito, ma di un abile artigiano e creativo bricoleur.
Sono tracce di imperfezioni, discontinuità stranezze che questo bricoleur
lascia dietro di sé e da cui possiamo trarre qualche indizio per la ricostruzione del percorso evolutivo: “Sono dunque gli strani espedienti e le
soluzioni buffe quelli più adatti ad illustrare la teoria dell'evoluzione,
poiché sono alternative che un Dio non avrebbe preso in considerazione
ma che un processo naturale limitato dalla storia doveva scegliere per
forza” (Golud, 1980, 13).
Così è per esempio per il pollice del panda, che non si è evoluto separatamente come quinto dito, ma come ristrutturazione dell'osso sesamoide del polso che si è ingrandito e allungato fino a raggiungere le dimensioni di un pollice normale dal momento che il panda ha ristretto la
sua dieta alla sola pianta di bambù. La necessità con il passaggio al vegetarianesimo è divenuta quella di ripulire le canne dalle foglie e per
questo la natura ha ristrutturato la piccola parte del polso, il sesamoide,
per riadattarla al nuovo scopo. (ib., 13-14)
Un altro esempio di exattameto può essere quello che riguarda l'utilizzo delle piume negli uccelli: originariamente il piumaggio aveva infatti lo scopo di mantenere la temperatura corporea e solo in un secondo
tempo venne utilizzato per il volo (Gould 2002, 1520). L'antropologo
Ian Tattersall osserva come, lo stesso sviluppo di una tecnica decisiva
per la storia di Homo Sapiens, come quella del linguaggio, possa essere
considerata come un'abilità exattata: le caratteristiche anatomiche che
contraddistinguono un essere parlante e che comprendono il tratto della
laringe bassa e la faringe alta, erano difatti presenti molto tempo prima
che il linguaggio venisse utilizzato.
Quindi lungi dal seguire un percorso ordinato all'interno di un
progetto prestabilito, lineare e finalistico, l'evoluzione si comporta in
modo imprevedibile rifuggendo dalla logica di una legge prescrittiva.
È al contrario, ad una logica proscrittiva che la selezione naturale del
più adatto va conformandosi, passando dunque dal monito “ciò che non
è permesso è vietato” a quello secondo il quale “ciò che non è vietato è
Irene Conti
35
permesso” (Gambardella, 2009). “Il caso e la necessità” proposti da
Monod come principi cardine per la spiegazione evoluzionista, vengono
dunque sostituiti da quelli di “vincolo e possibilità” proposti da Ceruti,
rendendo così conto della pluralità ed eterogeneità delle strategie
adottate e dell'imprevedibilità dei percorsi seguiti.
2.3. Tra gradualismo e antigradualismo
Oltre alla visione di un'evoluzione volta all'ottimizzazione attraverso
un progressivo adattamento delle specie all'ambiente, la teoria classica
prevede che tutti questi cambiamenti adattivi avvengano seguendo un
ritmo costante, in un processo di sviluppo continuo e graduale. Già
all'epoca di Darwin la geologia e la paleontologia dimostravano
un'irriducibile discontinuità nella storia dell'evoluzione, ma questo
aspetto, documentato dai resti fossili, veniva ricondotto ai limiti e alle
imperfezioni della ricerca, che si sarebbero potuti superare con
l'affinamento della documentazione.
Per Darwin non esistevano vie di mezzo: o si aderiva alla teoria
dell'evoluzione o si prestava fede all'incompletezza dei ritrovamenti
fossili, ma pareva che l'uno e l'altro di questi due aspetti fossero
destinati a rimanere inconciliabili. Ogni volta che si presentava il
problema di dover giustificare la mancanza della continuità storica
postulata dalla teoria, la questione si risolveva ipotizzando che la
deperibilità del materiale fossile avesse causato la perdita degli “anelli
mancanti”della documentazione. Darwin era talmente concentrato nella
difesa serrata dell'impianto evoluzionistico e gradualista da voltare le
spalle cocciutamente ad ogni riprova empirica che contrastasse con il
suo grande progetto:
I nostri documenti geologici sono estremamente imperfetti, e ciò spiega
perché non troviamo varietà intermedie che colleghino insieme tutte le
forma estinte a quelle esistenti attraverso passaggi graduali della maggior
sottigliezza possibile. Chi respinge questo punto di vista sui documenti
geologici rigetterà giustamente l'intera mia teoria (Darwin, cit. in Gould,
1980, 171).
Uno dei problemi più spinosi che venne definito da Darwin un
“abominevole mistero” fu, ad esempio, quello della comparsa repentina
e improvvisa delle angiosperme, le piante dotate di fiori apparse nel
Cretaceo, di cui non si trovò alcuna traccia in epoca precedente. Ancora
36
The Lab’s Quarterly, 1, 2015
una volta si preferì aderire ciecamente alla logica gradualista della teoria
liquidando le evidenze empiriche (Bocchi-Ceruti 1984, 21-22).
Altra particolare e significativa incongruenza con l'ipotesi
gradualista emerse quando, grazie alla scoperta della radioattività, fu
possibile stabilire che l'età della terra corrispondeva ad alcuni miliardi di
anni e che le prime elementari forme di vita come i procarioti e i batteri
datassero la propria comparsa più o meno allo stesso periodo, intorno ai
3,5 miliardi di anni fa: “La vita, con tutta la sua complessità, è
probabilmente emersa rapidamente, più presto che ha potuto”.(Gould
1980, 206). Darwin aveva ipotizzato invece il tempo profondo per
giustificare la graduale comparsa delle prime forma di vita. Altro
schiaffo all'idea di uno sviluppo lento e progressivo viene dalla
datazione della formazione della vita pluricellulare che avviene miliardi
di anni dopo quando l'ottanta per cento del tempo è già passato ed
esplode repentinamente e senza alcun preavviso.
Le rocce più antiche risalgono a 4 miliardi di anni fa, e le prime e già
complesse forme di vita (alghe verdi e bul e batteri) hanno più di 3,5
miliardi di anni. La teoria classica non è in gradi di spiegare come un tale
livello di complessità possa essere emerso nel periodo relativamente breve
di 500 milioni di anni: una mistura casuale del brodo molecolare avrebbe
richiesto un tempo incomparabilmente maggiore per produrli (Laszlo 2005).
Ma Darwin, nonostante i dubbi sollevati dall'amico Thomas Henry
Huxley, non rinunciò all'antico adagio natura non facit saltus offrendo
dunque una visione della selezione naturale come una forza sotterranea
e paziente che opera con continuità e costanza e, al pari della mano
invisibile postulata da Adam Smith, agisce avendo come unico scopo il
massimo perfezionamento della specie.
Tra gli anni Trenta e Quaranta del ventesimo secolo , la sintesi
neodarwiniana tentò di far convergere il programma di ricerca
mendeliano con la teoria classica: alla base dell'evoluzione vi sarebbero i
cambiamenti genetici, le “mutazioni”, sui quali poi entrerebbe in azione
l'opera della selezione naturale. Queste mutazioni consterebbero in
cambiamenti piccoli ed impercettibili ed è in questa asserzione che si
rincontra il postulato gradualista della visione classica.
Nel 1972 Stephen Jay Gould e Niels Eldredge propongono una
visione alternativa a quella del gradualismo formulando la teoria degli
equilibri punteggiati (Gold Eldredge, in T.J.M. Schopf 1972, 82).
Secondo i due paleontologi il vecchio adagio di Linneo strenuamente
difeso da Darwin va capovolto a seguito della grande mole di prove e
ritrovamenti fossili: la natura avanza per salti e a lunghi periodi di stasi
Irene Conti
37
seguono fasi di rapidi e repentini mutamenti. Le nuove specie secondo
questa ipotesi non discenderebbero da una popolazione antenata, ma a
seguito di una scissione dalla linea evolutiva originaria.
Le due evidenze che secondo Gould minerebbero alle basi la visione
gradualista in favore dell'andamento descritto dall'equilibrio punteggiato
riguardano l'osservazione della stabilità e dell'apparizione improvvisa:
La stabilità: la maggior parte delle specie non presentano alcun
cambiamento direzionale durante la durata della loro presenza sulla terra. I
primi fossili che si posseggono assomigliano molto agli ultimi; i
cambiamenti morfologici sono generalmente limitati e senza direzione.
L'apparizione improvvisa: in una data zona, una specie non appare
progressivamente in seguito alla trasformazione regolare dei suoi antenati;
essa sorge tutt'ad un tratto e completamente formata (Gould 1980, 172).
Tuttavia, nonostante la sua posizione strettamente antigradualista Gould
non si spingerà sino a rifiutare in blocco il pensiero fornito dalla sintesi
moderna. Ciò da cui prende le distanze è piuttosto quella perniciosa
triade che il darwinismo nella sua formulazione classica porta con sé.
Gli studi e le ricerche più recenti, infatti, non sembrano confutare il
nocciolo duro dell'evoluzionismo darwininano, la creatività della
selezione naturale, ma ciò che, fuor di dubbio, è destinato a scomparire
per sempre, sono quei capisaldi che si scontrano ripetutamente con
l'evidenza della complessità e pluralità della vita: gradualismo,
adattamento, riduzionismo. Questi postulati sono ormai da abbandonare
e sta nella mancanza del loro rifiuto il limite della sintesi neodarwiniana.
Nello stesso tempo si comprende come essi siano riusciti a resistere così
a lungo se osserviamo che la loro forza sta nell'essere strettamente
correlati tra loro tanto da alimentarsi continuamente gli uni con gli altri.
Tale quadro preciso ed organizzato si deve ancora una volta al
paradigma meccanicista che i recenti studi sulla complessità stanno
tentando, su più fronti, di demolire. Tale modello è però particolarmente
difficile da arginare proprio per l'insistenza con cui si ripropone
all'occhio dell'osservatore, condizionandone il punto di vista.
Il gradualismo, in particolare, si lega strettamente al presupposto
adattamentista poiché:
Se la selezione diventa creativa sovrintendendo, generazione dopo
generazione, al continuo inserimento di variazioni favorevoli in forme
mutevoli, allora il cambiamento evolutivo deve essere fondamentalmente
adattivo. Se l'evoluzione procedesse a salti, o fosse guidata da tendenze
generate internamente in direzione della variazione, l'adattamento non
38
The Lab’s Quarterly, 1, 2015
sarebbe un attributo necessario del cambiamento evolutivo (Gould in Bocchi
Ceruti 1985, 205).
Adattamento e gradualismo partecipano coerentemente all'opera della “mano invisibile” della selezione, attraverso la lotta tra gli individui,
che è sottesa al processo evolutivo, solo in apparenza così ordinato e
armonico. Tale visione di lotta e competizione per il mantenimento
dell'equilibrio conduce ad estrapolare gli organismi individuali come
principali protagonisti dell'opera di selezione, adoperando quindi una
prospettiva riduzionista:
Darwin sviluppò la sua teoria della selezione naturale trasponendo nella natura l'affermazione fondamentale dell'economia di Adam Smith: l'ordine
economico può essere meglio realizzato se si consente agli individui di lottare per i loro profitti personali, realizzando con ciò una sorta di setaccio naturale che vaglia i più competitivi (laissez fair). Così l'ordine ecologico è un
equilibrio transitorio ottenuto da concorrenti di successo che ricercano il
proprio vantaggio darwiniano. Come conseguenza di fondo, questa focalizzazione sugli organismi individuali conduce al riduzionismo, anche se naturalmente non agli atomi e alle molecole quali elementi fondamentali: conduce al riduzionismo dei processi di ordine superiore, o macroevolutivi, a una
serie di ripetute lotte tra individui (ivi, 206).
Ma il modello biologico evoluzionista centrato sui piccoli cambiamenti
continui e graduali finalizzati all'adattamento attraverso la competizione
tra i singoli organismi, non riproduce soltanto ed in modo assai coerente, il modello economico liberista che andava prendendo piede in quegli
altri, ma anche un determinato assetto sociale che contribuiva a legittimarlo e a farsi, a sua volta, legittimare. Se infatti i dati empirici della
paleontologia continuavano ad alzare voci contrastanti rispetto alla teoria dominante, questa poteva contare sull'appoggio di un ordine culturale e politico, grato di vedersi rispecchiare nelle leggi della natura. Nell'era delle monarchie europee, il cambiamento veniva aberrato dagli scienziati della natura, mentre si inneggiava all'ordine statico come prova della legge divina riflessa nelle monarchie illuminate. Poi le cose cambiarono e nell'epoca delle rivoluzioni che seguirono nel XVIII secolo al
crollo dell'assetto monarchico, il cambiamento, nella forma graduale e
costante che voleva il liberismo, cominciò ad emergere prepotentemente
come protagonista del mito scientifico che si andava costruendo. Se
dunque l'idea del cambiamento e, più specificatamente, la visione di un
cambiamento di tipo gradualista, si è formata di riflesso ad un determinato assetto culturale, è guardando a culture “altre” che probabilmente,
prosegue Gould, possiamo pervenire ad una filosofia in grado di rispec-
Irene Conti
39
chiare al meglio il tipo di evoluzione ad equilibri punteggiati che viene
prospettata. Potremmo, ad esempio, rifarci alle leggi della dialettica di
Engels che gli scienziati dell'Unione Sovietica adoperavano per illustrare una teoria del cambiamento: una visione questa senz'altro più adatta a
render conto della progressione evolutiva per salti ed apparizioni improvvise.
Questo poterebbe apparire confuso, ma suggerisce che i cambiamenti avvengono attraverso grandi salti in seguito ad una lenta accumulazione di
sforzi a cui il sistema oppone la sua resistenza fino a che non ha raggiunto il
punto di rottura (Gould 1980, 175).
Ritroviamo qui il postulato dell'auto-organizzazione dei sistemi complessi adattivi per cui tali sistemi hanno la capacità di utilizzare espedienti creativi per evitare il collasso, nel momento in cui l'accumulazione dei feedback positivi di rinforzo sembrerebbe minacciare l'equilibrio
del sistema. In realtà è proprio un perenne stato di disequilibrio e precarietà a rendere il sistema flessibile ed in grado di trovare sempre strade
nuove per potersi rinnovare.
2.4. Autorganizzazione ed exattamento: l'integrazione nella proposta di
Stuart Kauffman
Negli anni Novanta la ricerca biologica apporta grandi contributi alla
scienza della complessità grazie al lavoro svolto al Santa Fe Institute dal
biochimico Stuart Kauffman e dai suoi collaboratori.
Nel saggio A Casa nell'universo. Le leggi del caos e della complessità (1995) Kauffman riprende i fili del percorso già cominciato negli
anni Settanta da Ilya Prigogine esplorando il sistema vivente a ridosso
del caos, dove avvengono i cambiamenti più sorprendenti che ne rivelano l'irriducibile complessità. È da questo volume che Kauffman tenta di
avvicinarsi all'individuazione di una possibile definizione di vita, che
verrà poi meglio puntualizzata nel lavoro conclusivo di Esplorazioni
evolutive (2000). Il quadro che l'autore ci fornisce della vita in A casa
nell'universo, ci conduce verso una proliferazione conturbante e allo
stesso tempo affascinante di diversità che è alla radice stessa di ciò che
possiamo considerare come sistema vivente, dove, ancora una volta, incontriamo un intero non scomponibile che è molto di più della somma
delle sue parti:
40
The Lab’s Quarterly, 1, 2015
…un fenomeno emergente che si sviluppa quando la diversità molecolare di
un sistema chimico pre-biotico supera un dato livello di complessità. Se
questo è vero, allora la vita non si trova nelle proprietà individuali di ogni
singola molecola (nei dettagli) ma è una proprietà collettiva di sistemi di
molecole interagenti tra loro. In quest'ottica la vita è emersa per intero ed è
sempre rimasta un tutt'uno. In quest'ottica, essa non deve essere ricercata
nelle sue parti, ma nel complesso delle proprietà emergenti che creano il tutto … Nel tutto che emerge e si auto-riproduce non è presente alcuna forza
vitale o sostanza estranea. E tuttavia, il sistema complessivo possiede una
sorprendente proprietà che è assente in ognuna delle sue parti: può riprodurre se stesso ed evolversi. Il sistema complessivo è vivo, mentre le sue parti
non sono altro che molecole chimiche (Kauffman 1995, 122).
Si può pertanto provare a problematizzare quell'approccio riduzionista
proposto da Weinberg (Weinberg 1993) secondo cui è possibile postulare un'unità della scienza dal momento in cui, in ogni sua branca, per poter rispondere alle domande ultime dobbiamo rivolgerci al mondo microscopico, direzionare la nostra attenzione verso il basso, verso le particelle, le cellule e i geni. Kauffman propone una visione per cui, al contrario, è alla rete che bisogna guardare, al complesso dell'insieme, poiché è dall'interazione tra le parti che si sviluppa quel qualcosa di misterioso che chiamiamo “vita”, che in ciascuna parte presa singolarmente,
non sarebbe stato possibile nemmeno prefigurarsi (Kauffman 2000,
341).
Telmo Pievani individua nell'ultimo saggio di Kauffman, Esplorazioni
evolutive una svolta intellettuale e scientifica assai significativa, di notevole rottura con le sue opere precedenti e soprattutto con la visione presentata in A casa nell'universo: si rintraccia qui infatti una prospettiva
prettamente astorica dell'evoluzione, dove il processo della vita viene a
configurarsi come una semplice conseguenza dell'inevitabile, dove la
dimensione storica ha sì un ruolo, ma assai marginale poiché, alla lunga,
viene riassorbita da un ordine statistico ripetitivo inserito in schemi generali (Telmo Pievani, in Stuart Kauffman 2000, 347-348).
Ciò significherebbe, allora, che la storia non ha il potere di intaccare la prevedibilità di tali schemi generali: ripetendo il film della vita infinite volte, in
qualche modo dovremmo ritrovare ogni volta gli stessi modelli e un'analoga
tendenza verso la complessità autorganizzata. L'origine della vita non sarebbe una congiunzione di improbabilità, ma una conseguenza necessaria, date
certe condizioni iniziali astratte, delle leggi universali dell'organizzazione
emergente. Allo stesso modo, noi esseri umani non eravamo, per il Kauffman prima maniera, l'ultimo capitolo di una serie di biforcazioni storiche
contingenti, bensì l'esito prevedibile di tali leggi: noi esseri coscienti erava-
Irene Conti
41
mo “previsti” nella logica dell'evoluzione; eravamo “a casa nell'universo”
(ivi, 348).
La novità di Esplorazioni Evolutive, sempre seguendo la linea interpretativa di Pievani, sta nel tentativo mirabile di oltrepassare la sua precedente convinzione facendo convergere la teoria dei sistemi complessi
come auto-organizzati, o nella terminologia utilizzata da MaturanaVarela “autopoietici”, con quella dei sistemi complessi come riorganizzati, seguendo in questo il suggerimento di Gould e Vrba sull'abilità dell'exaptation.
Kauffman dunque nelle sue “esplorazioni” abbandona recisamente,
l'ideale della previsione a cui ci aveva abituato la fisica classica, e ciò
che lo conduce a questa conclusione radicale, in grado di soppiantare
tutto il suo precedente bagaglio metodologico di scienziato, è proprio il
concetto di exattamento. Attraverso la meccanica statistica e la fisica
newtoniana, ma il discorso, ci dice Kauffman, può essere esteso anche
alla relatività generale, è possibile, date le condizioni iniziali e prestabilite le leggi della forza e le particelle pervenire allo spazio di tutte le
configurazioni possibili, che vengono stabilite in modo finito e rendono
conto di tutti gli universi possibili, permessi a partire dalle nostre condizioni iniziali. Dunque, si può osservare, come applicando questi principi
della fisica allo studio della biosfera, si possa, seguendo il disegno
dell'evoluzione per selezione naturale, rinunciare alla contingenza della
storia a favore della prevedibilità di un ordine replicabile. Ciò che però
scuote le fondamenta di questa certezza, sono tutte quelle caratteristiche
di un organismo, inizialmente prive di significato, che acquisiscono
un'improvvisa rilevanza in nuovi ambienti e divengono protagoniste di
primaria importanza di adattamenti dallo sbalorditivo potere evolutivo:
gli exattamenti.
Così hanno avuto origine l'udito, i polmoni e il volo: pressoché tutti gli adattamenti maggiori e probabilmente la maggior parte, se non tutti, di quelli
minori. Ma potremmo mai predire tutte le bizzarre conseguenze causali, dipendenti dal contesto, di frammenti e parti di organismi che potrebbero avere un significato selettivo in un ambiente anomalo e assumere pertanto esistenza fisica reale nella biosfera? Credo di no. E se è no, allora non possiamo prestabilire in modo definito lo spazio delle configurazioni possibili di
una biosfera ( Kauffman 2000, VIII).
È per questo che Kauffman ci fornisce l'immagine del biologo come
narratore di storie e con l'asserzione “noi non deduciamo le nostre vite,
le viviamo” sembra avvicinarsi molto a quella ricorsività già individuata
42
The Lab’s Quarterly, 1, 2015
da Bateson e Varela-Maturana tra conoscenza e vita biologica. Se, infatti, è impossibile dedurre le configurazioni possibili per quanto riguarda
la biosfera, l'unico modo che possediamo per dare senso alle nostre
azioni è quello di trasformarle in storie da narrare, storie in cui anche la
metafora, già cara a Bateson, riveste un ruolo preminente poiché riflette
fedelmente la complessa tortuosità della vita, molto di più di quanto riesca a fare un algoritmo (177).
Nel corso della storia della biologia, molti sono stati i passi avanti
compiuti grazie all'ingegno e alla tenacia di ricercatori e scienziati, ma
nonostante questo, Kauffman osserva come tutti questi studi, seppur
nell'indubitabile vastità de loro contributo, abbiano mancato il bersaglio
più significativo: nessuno infatti si è mai avvicinato ad un'accettabile
definizione della vita.
Kauffman vuole cimentarsi con questa sfida e senza troppi preamboli offre la sua definizione di vita: un agente autonomo e auto riproduttivo, definito come sistema che accoppia uno o più cicli di lavoro termodinamico e autocatalitico, all'interno di una rete chimica aperta e in non
equilibrio. Tali agenti autonomi, mentre agiscono nel mondo, debbono
riuscire a modificarlo in qualche modo a proprio vantaggio, si parla
dunque di coevoluzione e cocostruzione.
Organismi, nicchie e procedure di ricerca si co-costruiscono dunque a vicenda congiuntamente e in modo autoconsistente! Noi costruiamo il mondo
in cui ci guadagniamo da vivere in modo da essere più o meno padroni, e lo
siamo stati, di quel mondo in evoluzione mentre lo costruiamo (ivi, 29).
In questo imprevedibile processo di co-evoluzione ciò che fa la la biosfera è descritto da quella che Kauffman ci offre come quarta legge della termodinamica: una biosfera co-evolvente “co-costruisce organizzazione che si propaga” (ivi, 8)
Volendo formulare approssimativamente la legge proposta, avanzo l'ipotesi
che le biosfere massimizzino la costruzione media secolare della diversità degli agenti autonomi e dei modi in cui quegli agenti possono guadagnarsi da vivere per propagarsi oltre. Significa che, in media, le biosfere accrescono persistentemente la diversità di quello che potrà succedere in futuro (ivi, 6).
Questo è ciò che la biosfera, attraverso i cicli di lavoro e la coevoluzione produce: un continuo propagarsi di forme organizzative
sempre più complesse che però, e qui sta la fondamentale integrazione
con l'exattamento di Gould, non possiamo prevedere a partire dalla configurazioni di partenza, perché la vita si esplica nella sua forma nel mo-
Irene Conti
43
mento stesso in cui viene vissuta, in una sorta di estemporaneità biologica che l'avvicina di più ad una performance jazz che ad una composizione classica. Come scrive Pievani, l'unico modo per rendere conto di
tutte le possibili modalità per exattare una struttura sarebbe “un algoritmo lungo tanto quanto l'intera sequenza delle possibilità attualizzate.
Ma un algoritmo di questo tipo, inutile per i suoi scopi, non sarebbe altro che una descrizione del sistema”.
Il meccanismo exattativo se è da una parte responsabile della necessità di abbandonare tutti i tentativi di predizione messi a disposizione
dalla scienza fisica e trasponibili in quella biologica, è però, dall'altra,
anche il principale motore a cui possiamo attribuire l'evolvibilità del sistema e la sua capacità di resistere in una posizione di disequilibrio costante ai margini del caos. In altre parole, è proprio l'exattamento che fa
dell'universo un sistema non ergodico, cioè non ripetitivo, rendendolo
nel suo continuo divenire “più ricco di tutti i nostri sogni” (183).
Dunque, ancora una volta, è la vita stessa, nella sua molteplicità e
ricchezza formale, ad indurci a riconsiderare con sempre maggior scetticismo quelle metafore da “orologiai” che presupponevano l'ordine, l'equilibrio, la linearità. È proprio grazie agli studi su questo regno multiforme della Creatura, che la scienza della complessità può arricchirsi di
nuovi, importanti contributi, contributi che, ad ogni modo, nel progetto
di Gould e di Kauffman, rimangono legati ad un nucleo fortemente
Darwinista non marginalizzando i meccanismi selettivi, ma integrandoli
con la visione dell'autorganizzazione e con la nozione di exattamento.
Come scrive Gould:
A mio avviso, oggi siamo in grado di percorrere una strada intermedia tra
l'anarchia che caratterizzava il periodo di Bateson e la visione ristretta proposta dalla sintesi moderna. […] Ritengo che possiamo ancora sperare
nell'uniformità delle cause e, di conseguenza, in un'unica teoria che si sviluppi intorno ad un nucleo tipicamente darwiniano (Gould 1980, 6).
Sono molti comunque i punti ancora da chiarire e le questioni rimaste in
sospeso per poter procedere verso un'analisi unificata dei fenomeni di
livello superiore con quelli di livello inferiore e questo si lega strettamente con l' “irriducibile complessità della natura”:
Gli organismi non sono palle da biliardo che vengono spinte sul tavolo verso
nuove posizioni da forze esterne semplici e misurabili. I sistemi sufficientemente complessi presentano una maggior ricchezza. Gli organismi hanno
una storia che contiene il loro futuro in modi sottili e molteplici (ib.).
44
The Lab’s Quarterly, 1, 2015
2.5. Verso una prospettiva biofisica: Ilya Prigogine e James Lovelock
Come abbiamo visto, uno degli snodi fondamentali di tutto il pensiero batesoniano, sta nel tentativo di superare il dualismo cartesiano, provando a far emergere tutte le sue pesanti implicazioni teoriche. Questo
conduce direttamente all'esigenza di un'epistemologia nuova che prevede l'unificazione di mente e natura attraverso il principio dell'informazione, definita come differenza che genera differenza. Quello che rimane però centrale in questa disamina è la permanenza di una separazione,
che con Iacono, non definiamo un dualismo ma una dualità: quella tra
regno della Creatura e regno del Pleroma, ossia tra regno organico e regno inorganico, con la differenza che qui, diversamente dal cartesianesimo, viene ad instaurarsi un canale di comunicazione tra i due mondi:
Il dualismo...si trasforma qui in dualità dal momento che nel rapporto tra
Pleroma e Creatura, tra mappa e territorio, tra nome e cosa il confine non
appare come un luogo di separazione, ma, al contrario, come quello della
comunicazione (Iacono, in Manghi 1998, 221).
A partire dagli studi sulla complessità in ambito biologico, chimico e
fisico, le ricerche di molti studiosi, stanno progredendo verso una prospettiva che sembra intaccare questo postulato di dualità: si sta facendo
strada l'esigenza di un'integrazione tra i due piani, che forse, con il contributo delle rivoluzioni quantistiche che ci apprestiamo ad esplorare,
arriverà sino a mettere in discussione il concetto stesso di materia inerme che nell'analisi di Bateson veniva esclusa dal processo di propagazione d' informazione.
Nel 1977 Ilya Prigogine riceve il premio Nobel per la Chimica. Nel
discorso di presentazione il prof.re Stig Claesson si esprime con le seguenti parole: “Prigogine's researches into irreversible thermodynamics
have fundamentally transformed and revitalized the science, given it a
new relevance and created theories to bridge the gap between chemical,
biological and social scientific fields of inquiry”(S. Claesson, Award
Ceremony Speech, www.nobelprize.org).
Già si è visto come tra i più rilevanti contributi della scienza della
complessità vi sia quello di oltrepassare la classica divisione tra studi
umanistici e scientifici, in prosecuzione del tentativo già compiuto dalla
cibernetica e in particolare della cibernetica di second'ordine. Ma quello
che Cleasson afferma è in effetti qualcosa di ancora più rilevante, perché Prigogine, con l'analisi delle strutture dissipative, ha gettato per la
prima volta un ponte tra la chimica e la biologia, ovvero tra la materia
vivente e non vivente e forse questo “gap”, come lo definisce Cleasson,
Irene Conti
45
è per il senso comune, come per la prospettiva filosofica e scientifica,
ancora più arduo da superare di quello tra gli studi umanistici e le scienze “dure”. Che cosa può infatti avere in comune un sostanza inorganica
con una vivente? Oppure, in un altro senso, cosa è che distingue il mondo del Pleroma da quello della Creatura? Conosciamo la risposta che al
quesito fornì Bateson, ma vedremo come la questione possa dirsi tutt'altro che conclusa.
Nello studio di alcuni sistemi chimici, Prigogine si accorse come anch'essi, al pari dei sistemi viventi, presentano la capacità di autorganizzarsi. Quest'autorganizzazione avviene attraverso quelle che chiamò
“strutture dissipative”, poiché dissipano materia ed energia all'esterno,
creando entropia nell'ambiente in cui si trovano.
Le strutture dissipative, però compaiono solo in una condizione di
instabilità e disequilibrio: è ai margini del caos che possono venire inaspettatamente osservati i fenomeni di autorganizzazione dei sistemi
chimici. A questo proposito Prigogine cita il sorprendente fenomeno
dell'orologio chimico:
Per esempio, lontano dall'equilibrio possiamo vedere con i nostri occhi la
comparsa di orologi chimici, cioè reazioni chimiche che si comportano in
maniera ritmica e coerente. Possiamo anche avere processi di autorganizzazione che danno luogo a strutture disomogenee. Vorremmo sottolineare il
carattere inatteso di questo comportamento. Ognuno di noi ha qualche idea
intuitiva di come avvenga una reazione chimica; ci si immagina molecole
fluttuanti nello spazio, che collidono e riappaiono in nuove forme. Ci immaginiamo un comportamento caotico, simile a quello che gli atomisti descrivevano quando parlavano della polvere che danza nell'aria. Ma il comportamento delle molecole in un orologio chimico è assai diverso. Semplificando un po' troppo, possiamo dire che in un orologio chimico tutte le molecole
cambiano la loro identità chimica simultaneamente a regolari intervalli di
tempo (Prigogine – Stengers 1979, 15).
Un altro caso esemplificativo di strutture dissipative non viventi è quello dei vortici ad imbuto straordinariamente stabili che forma l'acqua
mentre defluisce verso il centro del lavandino.
Anche questi sistemi inorganici sono in grado, dunque, di comportarsi seguendo una dinamica sinergica di coordinazione e reciproca, costante, interazione in una sola parola essi sono in grado di autorganizzarsi:
Le strutture chimiche dissipative manifestano la dinamica dell'autorganizzazione nella sua forma più semplice, esibendo la maggior parte dei fenomeni tipici della vita: autorinnovamento, adattamento, evoluzione e persino
46
The Lab’s Quarterly, 1, 2015
forma primitive di processi “mentali”. L'unica ragione per cui esse non sono
considerate vive è che non si riproducono né formano cellule. Questi interessanti sistemi rappresentano quindi un anello di congiunzione fra materia
animata e inanimata. Se vengano chiamati organismi viventi o no è, in definitiva, un fatto di convenzione (Capra 1982, 226).
Ciò che, inoltre, ha da sempre decretato una separazione tra fisica e biologia è la dimensione temporale: mentre in biologia il tempo è una variabile centrale e costitutiva del processo evolutivo e tutto viene studiato
in una chiave di cambiamento e storicità, in fisica invece ha classicamente prevalso un punto di vista atemporale e astorico, assumendo come parametri cardine le nozioni di eternità e immobilità.
Secondo la formulazione della dinamica classica, e prima dell'avvento del secondo principio della termodinamica, il tempo veniva considerato un'illusione e la realtà fisica come fondamentalmente stabile e
ripetitiva, in perfetto stile meccanicista.
Con l'introduzione della nozione di tempo interno, a partire dalla fisica contemporanea, si ricuce quel “gap” sussistente tra mondo fisicochimico e mondo biologico: la vita non è più così lontana dal mondo
considerato inorganico e inanimato:
Possiamo dunque attenderci di trovare una storia naturale del tempo, che
comincia con i fenomeni dissipativi elementari della fisica, e che continua
attraverso le reazioni chimiche e attraverso la vita, a partire dalla quale la
storia del tempo viene a raggiungere una certa continuità, che in realtà esiste
sin da quando si è prodotta la vita miliardi di anni fa e che prosegue poi con
il corso dell'evoluzione biologica (Progogine, in Bocchi-Ceruti 2007, 162).
Sia per i sistemi fisici, che per quelli biologici, si presenta dunque la necessità, attraverso il secondo principio, di considerare la freccia del tempo, la dimensione di storicità dei fenomeni del mondo in cui viviamo.
Al contrario di quanto è stato inteso in passato, il secondo principio non
presuppone che la realtà che conosciamo stia progredendo verso una
degradazione, verso un'inesorabile e alla lunga catastrofico aumento di
entropia. Quello che Prigogine tenta di chiarire è che con la nuova interpretazione che egli dà al suddetto principio, si viene a configurare un
mondo prettamente instabile e in perenne mutamento caratterizzato da
fenomeni irreversibili e dunque non immune al trascorrere del tempo.
Ma, con l'aumento di entropia, e con il procedere del sistema preso in
esame verso la soglia del caos, non si va incontro a degradazione bensì a
una rottura della simmetria iniziale da cui si passa poi, attraverso la stabilità asintotica, al ripristino dell'omeostasi (con la stabilità definita asintotica si vuole definire quella proprietà dei sistemi di dimenticare le per-
Irene Conti
47
turbazioni iniziali). Tale fenomeno è ravvisabile sia nei fenomeni fisico
meccanici illustrati dall'esempio del pendolo, si in quegli fisiologici illustrati dall'esempio della corsa:
Quando prendo un pendolo e lo lascio oscillare, finirà per fermarsi in un
punto a causa dell'attrito, e avrà così dimenticato le perturbazioni. Se al contrario non si dà l'attrito, allora il pendolo continuerà ad oscillare, e l'oscillazione dipenderà dalle condizioni iniziali. Non appena si è in presenza di fenomeni irreversibili si possono dimenticare le condizioni iniziali. Questo è
ciò che accade quando corro: il mio cuore batte più forte, ma quando ritorno
in stato di quiete esso riprende il suo ritmo iniziale (Prigogine, in Bocchi –
Ceruti 2007, 156).
Un altro tentativo di superamento della separazione tra il comparto biotico e abiotico avviene con gli studi che negli anni ottanta confluirono
nella cosiddetta “Ipotesi di Gaia”, suggerita dal chimico James Lovelock e dal microbiologo Lynn Margulis. Con questi studi si aprirono
molteplici piste verso un tentativo di spostare di un altro livello l'unificazione fisico-biologica proposta da Prigogine verso l'allargamento al
campo geologico: comincia a profilarsi una visione biogeochimica della
vita che amplia l'applicazione delle ipotesi di Progogine dal campo microscopico della chimica a quello macroscopico della geologia e dell'astronomia:
Prigogine e i suoi collaboratori (1984) sono penetrati nel mondo dei sistemi
lontani dall'equilibrio, in quel mondo così distante dal pensiero della fisica
classica. Si potrebbe dire che il loro approccio consiste nel trasporre la
scienza puramente fisica della meccanica statistica nel mondo della cinetica
chimica e biologica ... Fino ad oggi la tendenza è di produrre applicazioni di
questa nuova biofisica a livello microscopico. La teoria di Gaia si riferisce
all'intero pianeta, ed è al contrario di scala quasi astronomica (Lovelock, in
Bocchi-Ceruti 2007, 184).
In questi studi si prospetta una visione dell'ecosfera come struttura dissipativa, un gigantesco organismo che, dal punto di vita termodinamico,
può essere considerato di proprio diritto, vivo: le attività di questo sistema planetario vivente non possono essere dedotte dall'insieme delle
sue parti, il sistema “Gaia” è autorganizzato, si mantiene in uno stato
neghentropico, è un organismo che si autorinnova e si evolve perennemente, garantendo alla vita di poter pullulare e alla sua diversità di proliferarsi. Forme di autoregolazione e di cooperazione all'interno di reti
sistemiche planetarie sono ad esempio il clima, la composizione chimica
dell'atmosfera e quella dei sali degli oceani. Per quanto riguarda il cli-
48
The Lab’s Quarterly, 1, 2015
ma, se consideriamo che la radiazione solare sia aumentata di almeno il
30 per cento a partire da quattro miliardi di anni fa, periodo in cui si può
attestare la presenza delle prime forma di vita, dobbiamo presupporre
che, se la terra fosse davvero inerte, le condizioni di vita sarebbero state
pressoché impossibili e la superficie terrestre ghiacciata per più di un
miliardo di anni. Il nostro pianeta deve essere, dunque, in grado di mantenere una temperatura della superficie costante e non dipendente in
maniera passiva dall'emissione della radiazione solare (Lovelock –
Margulis 1974).
Così Lovelock spiega questo particolare tipo di fenomeno, illustrando un tipo di modello che si basa su quello esposto da Walker nel 1981:
Nel corso dell'evoluzione del Sole e dell'aumento del flusso di radiazioni da
esso provenienti, la temperatura viene mantenuta quasi costante da una diminuzione progressiva di CO2. Il processo di eliminazione di CO2 consiste
nell'erosione delle rocce di silicato di calcio, e il modello suppone che l'andamento di questo processo sia direttamente proporzionale alla biomassa del
pianeta. Se si produce una situazione di caldo o di freddo eccessivo, il tasso
di erosione rallenta e di conseguenza-quale risultato della produzione costante di CO2 per fuoriuscita di gas dall'interno della Terra- la pressione
parziale di CO2 aumenta (Lovelock in Bocchi – Ceruti 2007, 195-197).
Questo modello induce a ritenere che anche per il sistema geofisico valga il principio della stabilità asintotica: la termostasi indica la capacità di
dimenticare le perturbazioni e di pervenire, a seguito della rottura della
simmetria, allo stato di omeostasi precedente alla fluttuazione generativa di instabilità.
L'ipotesi di Gaia sottolinea ancora una volta l'importanza della coevoluzione, di come le specie producano fluttuazioni e perturbazioni
nell'ambiente, che a sua volta attraverso feedback positivi, può condurre
il sistema - specie verso una riorganizzazione. Secondo Lovelock tale
visione degli equilibri geofisici contribuirebbe a rinforzare la teoria
dell'evoluzione per salti e periodi stazionari postulata da Gould ed Eldredge.
La teoria di Gaia spinge a un approccio unitario all'evoluzione. L'ambiente e
le specie non possono essere considerati separatamente, ed esaminati ognuno separatamente, da una differente disciplina accademica. Ogni cambiamento della specie influenza l'evoluzione dell'ambiente e viceversa. Il dibattito sul gradualismo, sulla deriva naturale e sulla punteggiatura è rischiarato
dalla previsione di ordine geofisiologico secondo cui le specie e l'ambiente
rimarranno in uno stato stabile di omeostasi finché non incontreranno per-
Irene Conti
49
turbazioni superiori alla capacità di regolazione dei sistemi viventi (Lovelock, in Bocchi – Ceruti, 201).
Come si è visto questi studi mettono a dura prova concetti piuttosto significativi di cui ci siamo serviti per investigare e tentare di rendere accessibile la realtà alla nostra comprensione, attraverso l'aderenza ad un
certo tipo di epistemologia. In particolare, subisce un forte smacco il
tentativo di Bateson di isolare un mondo di forze fisiche da quello prettamente biologico definitivo come caratterizzato dalla propagazione di
informazione. Come dimostrano, infatti, i vortici stabili dell'acqua, le
reazioni che si producono in un orologio chimico, la capacità di termoregolazione del pianeta attraverso il rilascio di CO2, è molto difficile
isolare un insieme di fenomeni che possano effettivamente dirsi “pleromatici” fenomeni ciò in cui non circola una qualche forma di informazione. Ma come vedremo, il filone di ricerche in cui questa “dualità”
tenderà ad essere sempre più problematica, è quello che fa capo ai recenti studi in campo quantistico.
3. LA RIVOLUZIONE QUANTISTICA
Nella mia vita ho messo la descrizione dei bastoni, delle pietre, delle palle
da biliardo e delle galassie in una scatola...e li ho lasciati lì. In un'altra scatola ho messo le cose viventi: i granchi, le persone, i problemi riguardanti la
bellezza...(Bateson 1979, 20).
Le cose viventi si distinguono dagli eventi della fisica, descritti da
forze, urti, gravità, materia ed energia, poiché presentano una natura
“mentale”. A partire da Maturana, Varela e Prigogine questa natura
mentale è venuta precisandosi in una specifica ontologia: quella dei sistemi autorganizzantesi. È questa capacità dei sistemi biologici, e come
abbiamo visto, anche dei sistemi prebiologici, ha far sì che alla natura
possa essere riconosciuta una qualche forma di “mentalizzazione”. Come Bateson spesso teneva a sottolineare, dal momento in cui si abbandona la linearità e si entra nel mondo dei sistemi circolari chiusi, ci si
addentra in universo dove la nostra logica consueta non può che entrare
in contraddizione. Come Bateson puntualizzò in una conversazione con
Fritjoff Capra l'equivalente cibernetico della logica è l'oscillazione (Capra 1988, p 67).
Sempre nel saggio di Capra, Verso una nuova saggezza, dove il fisico austriaco ci fornisce un prezioso ed affettuoso quadro del suo incontro con “Gregory” presso l'Esalen Institute, si rammenta anche come
50
The Lab’s Quarterly, 1, 2015
Bateson si fosse dimostrato inizialmente assai scettico e guardingo rispetto alle ricerche del suo interlocutore nell'ambito della fisica quantistica: poco tempo dopo che i due si conobbero Bateson si espresse così
con un amico comune “Capra? Quell'uomo è pazzo!Pensa che siamo
tutti elettroni” (Capra 1988, 63). Capra non rimase indifferente alle critiche di Bateson e si prodigò nel tentativo di comprendere dove fossero i
limiti delle sue ricerche precedenti raccolte nel saggio del 1975 Il Tao
della fisica. Pare che proprio questo mancato apprezzamento, da parte di
un intellettuale così stimato da Capra, lo condusse a rivisitare parte delle
sue posizioni, ad abbandonare l'attenzione esclusiva sul mondo della
fisica per dedicarsi allo studio dei sistemi complessi che furono raccolti
nel saggio Il Punto di svolta (1982). Nel giustificare questo cambiamento di prospettiva Capra sostiene di essere caduto in un errore “cartesiano” nel momento in cui ha creduto di poter fare della fisica la base per
tutte le altre scienze:
“Presentando la nuova fisica come modello per una nuova medicina,
per una nuova psicologia o per una nuova scienza sociale, ero caduto in
quella trappola cartesiana che mi proponevo di evitare” (Capra 1988,
63).
Tuttavia ne Il punto di svolta, dedicherà un intero e denso capitolo
alla trattazione della nuova fisica, segno che alla fine pervase in lui la
tentazione di non escludere “quei bastoni, quelle pietre, quelle palle da
biliardo...” dalla trattazione della teoria dei sistemi: “… non presentai
più la nuova fisica come un modello per le altre scienze ma piuttosto
come un importante caso speciale di una cornice di riferimento più generale, la cornice della teoria dei sistemi”(Capra 1988, 63).
Tale scelta fu, a quanto pare, ulteriormente sancita da una sorta di alleanza intellettuale che, con il tempo, si instaurò tra Bateson e Capra,
sorretta da una parte da un affetto quasi filiale e dall'altra da una progressiva apertura e curiosità verso i nuovi scenari illustrati dal “ragazzo
brillante”(ivi, 65), in cui sembra quasi ricucirsi quel gap generazionale e
culturale che fino ad allora li aveva divisi. A questo proposito è esemplare un passaggio di una conversazione che avvenne tra i due che conclude alcune osservazioni di Bateson sulla contraddittorietà in cui cade
la logica ce applicata allo studio dei sistemi:
Si fermò di nuovo, e in quel momento ebbi improvvisamente un'intuizione,
stabilendo una connessione con qualcosa a cui ero interessato da molto tempo.
Fui preso da una grande eccitazione e dissi con un sorriso provocatorio:
“Eraclito lo sapeva!”
“Eraclito lo sapeva”, ripeté Bateson, rispondendo con un sorriso al mio sorriso.
Irene Conti
51
“E anche Lao-Tzu” rincalzai.
“Sì, è vero; e anche quegli alberi laggiù. La logica non funziona con loro.”(ivi, 67).
Quello che premeva a Capra era probabilmente la trasmissione del principio più anti-dualista che sia possibile immaginare e, al contrario di
quello che egli afferma definendo il suo Tao della fisica, improntato su
un sottile pregiudizio ancora cartesiano, si apre qui la strada per una
fondamentale ricongiunzione tra il mondo dei sassi e dei bastoni e quello dei granchi e delle persone. Il fatto è che, nella trattazione dei punti
cardine della rivoluzione quantistic,a si viene in contatto con un universo molto affine a quello prospettato da Bateson nell'esplorazione del
mondo creaturale, un universo dove regna l'assenza di logica, dove domina la relazione e dove emerge sorprendentemente come, anche alla
fine di ciò che abbiamo da sempre considerato così indubitabilmente
oggettivo e materiale, alla fine dell'atomo, dell'elettrone e della particella, stia di nuovo un'acuta problematizzazione del riduzionismo. Come la
biologia evoluzionista post-darwinista, ha messo alla berlina “l'oggetto
specie”, la geologia “l'oggetto pianeta-Terra”, la biologia molecolare
“l'oggetto cellula”, anche la fisica quantistica conduce a porre nuove
questioni sulla possibilità di definire compiutamente l'ultimo mattone
della vita, con una decisiva recisione dalla fisica atomista e newtoniana.
Qui sta dunque il primo filo conduttore che lega la fisica contemporanea
agli studi dei sistemi complessi, seguito dal postulato costruttivista e da
quello reticolare e relazionale, che si esprime in fisica attraverso il concetto di non-località e gli effetti delle sue implicazioni.
3.1. L'oggetto problematico
Enrico Bellone afferma nel suo Le molte Nature (2008) di trovarsi
in accordo con le conclusioni che suggerisce Einstein in merito alla natura fondante della scienza che, nelle parole dello scopritore della relatività è “un affinamento del pensiero comune” (A. Einstein 1936, 528).
Tale pensiero comune è l'artefice di una selezione inconscia che conduce a stabilire cosa, nel flusso continuo di dati sensoriali che riceviamo,
possa essere considerato “oggetto corporeo”. In questa disamina Einstein, dunque, si situa in una posizione di particolare vicinanza con l'epistemologia batesoniana e con il pensiero che esplora la complessità e la
natura dei sistemi.
L'atto primigenio e fondativo di tutta la conoscenza, coincide con
un processo di “reificazione”, che dal senso comune, viene assorbito nel
52
The Lab’s Quarterly, 1, 2015
paradigma scientifico dominante e che stabilisce dunque l'oggetto e la
sua collocazione nella dimensione dello spazio-tempo, anch'essa risultante da un processo costruttivista.
Com'è evidente Einstein sostiene che gli esseri umani, a livello di senso comune, costruiscono, alcuni enti a partire da dati sensoriali, e attribuiscono a
quegli enti uno statuto di realtà. Una costruzione che accomuna i vari costruttori, i quali trovano un buon accordo nel mettere cose nello spazio e nel
tempo in modo da muoversi nella “realtà esterna” (Bellone 2008, 115).
Nel percorso tracciato da Bellone emerge chiaramente come queste costruzioni siano relative ad un periodo storico e ad una corrente scientifica dominante che, come vuole la “danza” kuhniana, subiscono dapprima
una consacrazione e poi, come ogni sistema, raggiungono la loro “biforcazione catastrofica” e si avviano verso il collasso.
Tra i concetti scientifici che subiscono tale dinamica di ascesa e declino vi è quello di oggetto corporeo la cui famiglia è “instabile, sempre
soggetta a operazione di bonifica” (Bellone 2008, 116).
Molti secoli prima della trattazione di questo tipo di concetto da parte della fisica moderna con Laplace, Galileo, Newton, già Democrito e
Leucippo avevano fornito la loro risposta in merito all'individuazione
dell'elemento ultimo e fondante la realtà. È da qui che, infatti, si pongono le basi per il pensiero atomista, destinato a raggiungere una così ampia eco nel futuro costellato dalle eccitanti scoperte della scienza moderna. Con Heisenberg, è doveroso comunque sottolineare, la necessità
di effettuare accostamenti tra il pensiero scientifico moderno e i postulati della filosofia classica con grande prudenza, in gioco è infatti la definizione stessa di “scienza”:
Può sembrare a prima vista che i filosofi greci siano pervenuti, per non so
quale geniale intuizione, alle stesse conclusioni o a conclusioni molto simili
a quelle che noi abbiamo raggiunto ai nostri tempi soltanto dopo molti secoli
di duro lavoro sperimentale e matematico. Una tale interpretazione dell'affronto fatto da noi significherebbe un'assoluta incomprensione .C'è un'enorme differenza fra la scienza moderna e la filosofia greca ed essa consiste
proprio nell'atteggiamento empiristico della scienza moderna … Quando
Platone afferma, ad esempio, che le più piccole particelle di fuoco sono tetraedri … la scienza moderna finirebbe col chiedere: come si può stabilire
sperimentalmente che gli atomi del fuoco sono tetraedri e non per esempio
dei cubi? (Heisenberg 1958, 92).
Tenuta ferma questa premessa, Heisenberg riconosce comunque il grande apporto, seppur solo filosofico, di Democrito nella formazione di una
Irene Conti
53
visione di senso comune atta a concepire la realtà come costituita, in ultima analisi, da piccoli mattoncini di massa, indivisibili e privi di qualsiasi qualità sensibile. Gli atomi si muovono e interagiscono all'interno
di uno spazio vuoto che sarà un elemento fondamentale anche per la fisica di Newton, prima di venire definitivamente aborrito dagli studi della meccanica quantistica in cui sembra riconfermarsi il vecchio adagio
aristotelico dell' horror vacui.
Alcuni vedono nell'antica filosofia atomista democritea un anticipazione di alcuni principi che derivano dalla reificazione e dalla definizione di oggetto corporeo e dalla sua collocazione in uno spazio vuoto, che
saranno centrali per la scienza moderna. Tra questi principi troviamo
quello di inerzia, anticipato dalla concezione democritea, secondo cui
gli atomi sono mossi da un impeto interno, dalla loro stessa natura, e
non per mano di una causa prima (Geymonat 1989, 105).
Secondo A. Pagano possiamo ritrovare in Democrito anche una conoscenza abbozzata del principio di accelerazione dei corpi e un anticipazione di quello di entropia.
Dall'esame dei pochi frammenti di Democrito si rimane stupefatti dalla potenza intellettuale del suo pensiero scientifico che senz'altro si può dire di tipo Galileo-Newtoniano, se a ciò non fosse d'ostacolo il fatto che Democrito
nasce molto tempo prima di Galileo. È giusto riconoscere che le idee generali della meccanica di Galileo-Newton (classica) sono una riscoperta (consapevole, secondo ciò che testimonia lo stesso Galilei) della fisica di Democrito. Pertanto la fisica dei corpi che accelerano a causa di forze impresse,
meriterebbe di essere detta democritea (Pagano 20102).
In più, sempre come anticipazione della visione newtoniana, incontriamo in Democrito una visione dinamica degli atomi, che danno vita a
tutte le qualità che possiamo riscontrare nel mondo sensibile, attraverso
la loro composizione e ricomposizione, in una continua interazione che
ricorda le “formule di struttura” della chimica (Geymonat 1989, 106).
Proprio questa caratteristica è una tra le distinzioni tra la visione che
Galilei espone nel suo Saggiatore e quelle postulata da Newton in merito ai suoi corpuscoli. La visione di Newton, nonostante i sorprendenti
risultati che in quegli anni si profilavano in merito allo studio delle forze
magnetiche, rimase una visione strettamente materialista, incentrata sulla disseminazione di particelle e circuiti di cariche elettriche in un grande contenitore, lo spazio, dotato solo di proprietà geometriche.
2
Posizione 504, e-book reader, Amazon.
54
The Lab’s Quarterly, 1, 2015
È con Faraday che questa scissione tra materia contenuta e spazio
contenitore viene messa in discussione attraverso la scoperta di quello
che egli nomina continuum e che emerge dall'osservazione del fenomeno magnetico:
Il continuum di Faraday … era un intricato aggrovigliamento di di curve -le
linee di forza- la cui forma era governata dalla presenza di entità puntiformi
che agivano come sorgenti da cui scaturivano le linee di forza, o come pozzi
in cui tale linee scomparivano. Gli enti puntiformi non erano corpuscoli forniti di dimensioni, e lo spazio non era il loro contenitore passivo. Non esistevano insomma atomi materiali disseminati in un'enorme scatola: esisteva
soltanto una struttura continua in cui si fondevano insieme materia e geometria, e al cui interno operavano soltanto azioni per contatto mediate dalle linee di forza (Bellone 2008, 126).
Nel 1865 Maxwell fece confluire il continuum di Faraday nella teoria
del campo elettromagnetico e nel 1897 Thomson scopriva l'elettrone che
apriva la strada a nuove svolte teoriche e ai paradossi quantistici.
Si pensava, infatti, che ad essere messo in discussione non fosse il
concetto di ente materiale indivisibile e fondativo della realtà, ma semplicemente il livello nel quale fin'ora si credeva di averlo individuato.
Bastava semplicemente spostarsi verso una scala più microscopica e
l'oggetto, l'ultimo elemento della realtà, avrebbe confermato tutte le precedenti ipotesi riduzioniste. Fu proprio la fisica quantistica, però, a mettere in luce come, anche le particelle subatomiche come gli elettroni,
non avevano nulla a che fare con l'oggetto solido postulato dall'atomismo e dalla visione scientifica classica.
Si apre così forse uno dei momenti più salienti, sia dal punto di vista
filosofico che da quello scientifico, con cui l'era moderna e contemporanea si sia mai trovata a confrontarsi, un momento in cui l'ipotesi materialista e meccanicista viene una volta per tutte smentita da evidenze
empiriche a cui è impossibile sottrarsi, soppiantata da una visione assolutamente innovativa e rivoluzionaria per le conseguenze epistemologiche che porta con sé. La natura stessa dell'elettrone, infatti, non può
adeguatamente sopperire all'inadeguatezza della teoria atomista nel render conto dell'ente ultimo del reale, poiché questa stessa natura, si presenta come ambivalente, a volte fa sì che l'elettrone appaia in forma di
particella, a volte in forma di onda. Questo paradosso fra concezione
corpuscolare e concezione ondulatoria produsse molteplici tentativi nella direzione di una risoluzione, un aggiramento o una integrazione delle
due nature delle particelle subatomiche.
Irene Conti
55
De Broglie nella sua tesi di dottorato del 1925 espose una teoria che
considerava gli atomi simili a strumenti musicali, il moto delle particelle
subatomiche sarebbe stato guidato da onde-pilota lungo le orbite quantiche. Nel 1926 Schrodinger tradusse l'innovativa teoria delle onde-pilota
in un'equazione generale in cui la teoria di De Broglie venne confermata. Con grande stupore dei fisici dell'epoca, contemporaneamente alla
pubblicazione dell'articolo di Schrodinger, apparve anche uno scritto di
Heinsenberg in cui si perveniva agli stessi risultati seguendo tuttavia
una strada del tutto diversa, attraverso la meccanica delle matrici. Ma,
come scrive lo stesso Heisenberg: “paradossi del dualismo fra concezione ondulatoria e concezione corpuscolare non erano risolti: essi restavano per così dire nascosti dietro il calcolo matematico”. Nel 1924
Bhor, Krasmers e Slater avevano tentato di risolvere il paradosso appellandosi al concetto di onda di probabilità. Seppur le conclusioni che
trassero non si rivelarono esatte alla luce dei successivi esperimenti esse
però, come sottolinea Heisenberg, misero in luce un importante aspetto
della nuova fisica, quello di onde di probabilità, del tutto ignoto alla teoria newtoniana classica. Così Capra descrive quello che diviene presto
un radicale cambiamento di punto di vista sulla realtà, in aperta rottura
con il passato:
La risoluzione del paradosso particella/onda costrinse i fisici ad accettare un
aspetto della realtà che metteva in discussione il fondamento stesso della visione del mondo meccanicista: il concetto della realtà della materia. Al livello subatomico la materia non esiste con certezza in posti definiti, ma presenta piuttosto “tendenze ad esistere”, e gli eventi atomici non si verificano con
certezza in tempi determinati e in modi determinati, ma presentano piuttosto
“tendenze a verificarsi” (Capra 1982, 69).
Ma il contributo forse più significativo nella direzione di un'interpretazione dei paradossi emersi con il sorgere della nuova fisica, venne dalle
animate discussioni che ebbero sede a Copenaghen tra i più eminenti
fisici dell'epoca, tra cui Bohr ed Heisenberg. Quest'ultimo rammenta
così quei mesi intensi che mutarono il volto della scienza contemporanea
Ricordo delle discussioni con Bohr che si prolungarono per molte ore fino a
notte piena e che ci condussero quasi a uno stato di disperazione; e quando
al termine della discussione me ne andavo solo a fare una passeggiata nel
parco vicino continuavo sempre a ripropormi il problema: è possibile che la
natura sia così assurda come ci appariva in quegli esperimenti atomici (Heisenberg 1958, 55).
56
The Lab’s Quarterly, 1, 2015
I risultati di queste ardue riflessioni furono raccolti nella cosiddetta Interpretazione di Copenaghen in cui confluirono le relazioni d'incertezza,
il principio d'indeterminazione e quello di complementarietà.
Tale interpretazione fornì un grado sufficientemente completo per
esplicitare quella che fosse la situazione, nonostante i palesi limiti che il
linguaggio e il formalismo matematico ponevano, di fronte a scenari di
incredibile non-logicità.
I riferimenti teorici a cui pervennero i fisici alla fine degli anni venti
dello scorso secolo, sorreggono ancora, nonostante le ripetute critiche,
gran parte dell'odierno impianto teorico quantistico. In queste interpretazione vengono congiunti i tre principali nodi concettuali atti a convivere, non certo a risolvere, il paradosso che emerge dagli studi del mondo subatomico. Un primo punto su cui focalizzare l'attenzione è quello
già visto delle relazioni d'incertezza, che sono le funzioni di probabilità,
di cui bisogna servirsi per indagare i fenomeni subatomici. Il carattere
probabilistico di questi fenomeni induce a ritenere che esistano delle
“variabili nascoste” nei fenomeni stessi che indurranno gli esiti di un'osservazione a presentare comunque dei margini d'errore. Questo aspetto
probabilistico del fenomeno fisico era già conosciuto dalla fisica classica. Ma con la fisica quantistica esso si tinge di una nuova sfumatura,
quella della non-località che insieme al dualismo onda-particella sancisce l'indeterminazione del fenomeno quantistico nei termini della fisica
classica.
3.2. Il principio di non località: l'entanglement quantistico
Le variabili di probabilità che scaturiscono dall'osservazione dei fenomeni della fisica quantistica scaturiscono da proprietà che non si presentano nello studio del mondo macroscopico della fisica classica.
Da una parte notiamo che il sistema quantistico reagisce in qualche
modo alla presenza di un osservatore ed altera la sua natura a seconda
dello strumento di misurazione che viene utilizzato. L'osservatore in
qualche modo compartecipa attivamente alla creazione della realtà di
cui vuole rendere conto. Nonostante la riluttanza di Bateson nell'affrontare lo studio dei fenomeni fisici, emerge nel campo quantistico una visione della realtà perfettamente in accordo con quella supposta dall'antropologo britannico. Anche qui infatti, oltre alla conferma di un marcato soggettivismo come elemento di primo piano nella costruzione della
realtà, si palesa anche un universo microscopico che in qualche modo
presenta qualità mentali, o come preferirebbe Bateson “creaturali”.
Scrive infatti Capra:
Irene Conti
57
Le evidenti somiglianze fra la struttura della materia e la struttura della mente non dovrebbero sorprenderci troppo, giacché la coscienza umana svolge
un ruolo determinante nel processo di osservazione, e nella fisica atomica
determina in grande misura le proprietà dei fenomeni osservati (Capra 1982,
74).
Oltre a questo punto di contatto, se ne può evidenziare un altro che accorderebbe alla realtà microscopica le stesse proprietà relazionali già
individuate da Bateson e dalla biologia post-darwiniana. Questo fenomeno è ciò che determina la presenza delle funzioni di probabilità e delle variabili nascoste nelle equazioni che tentano di formalizzare l'intricato universo quantistico. Le particelle elementari, oltre ad essere influenzate dall'osservatore e dallo strumento di misurazione, subiscono anche
l'azione di altre particelle che possono situarsi anche ad una notevole
distanza. Tale fenomeno di connessioni non-locali viene definito entanglement e così viene descritto da Amir Aczel:
Ma il fenomeno del bizzarro mondo dei quanti che lascia più perplessi è
quello noto sotto il nome di entanglement. Due particelle separate, distanti
tra loro anche milioni o miliardi di chilometri, possono risultare misteriosamente collegate: qualunque cosa accade a una delle due causa cambiamenti
immediati sull'altra (Aczel 2001, XIII).
Questo fenomeno fu la “pietra della discordia” che fece nascere la controversia tra Einstein e Bohr proprio durante il quinto congresso di Solvay nell'ottobre del 1927 dove furono presentate le idee nate dalla Scuola di Copenaghen e confluite nella già discussa Interpretazione. Proprio
il fenomeno dell'entaglement fu l'argomento usato per tentare di dimostrare l'incompletezza della teoria quantistica. L'entanglement avrebbe
infatti avuto implicazioni così assurde da risultare inaccettabili.
La riluttanza di Einstein ad accettare le conseguenze di quella teoria che egli
stesso aveva contribuito a fondare con la sua opera anteriore è uno fra gli
episodi più affascinanti della storia della scienza. L'essenza del suo disaccordo con Bohr risiedeva nella sua ferma convinzione che esistesse una
qualche realtà esterna, formata da elementi indipendenti, spazialmente separati (Capra 1982, 71).
Nella nota affermazione “Dio non gioca a dadi con l'universo” che rivolse a Bohr trapela la difficoltà ad abbandonare il mondo deterministico delle cause tipico della fisica precedente e, nonostante dovette ammettere alla fine del confronto che la fisica quantistica si presentasse in
58
The Lab’s Quarterly, 1, 2015
realtà come coerente, mantenne la convenzione che gli sviluppi della
scienza avrebbe portato alla scoperta di una modalità non probabilistica
di indagine.
Fu Schrodinger a coniare per la prima volta il nuovo termine, a cui
conferì il nome di entanglement nel 1935 nella sua recensione all'articolo di Einstein-Podolsky-Rosen in cui veniva presentato l'esperimento
mentale noto come EPR, nel tentativo di dimostrare la contraddittorietà
della teoria di Bohr.
La definizione che Schrodinger dette al fenomeno è la seguente:
Quando sui sistemi, dei quali conosciamo gli stati sulla base della loro rispettiva rappresentazione, subiscono una interazione fisica temporanea dovuta a forze note che agiscono tra di loro, e quando, dopo un certo periodo
di mutua interazione, i sistemi si separano nuovamente, non possiamo più
descriverli come prima dell'interazione, cioè dotando ognuno di loro di una
propria rappresentazione. Non chiamerei questo un tratto ma il tratto distintivo della meccanica quantistica (Schrodinger 1935, 555, cit. in Aczel 2001,
63).
La non località non agisce soltanto al livello di questa connessione esistente tra i sistemi di particelle, ma anche sulla posizione delle particelle
stesse che possono trovarsi in due luoghi al medesimo tempo. Per illustrare questo strano fenomeno Schrodinger si serve del celebre esempio
di un gatto in una scatola che può presentare due stati alterni: vivo o
morto. Come scrive Aczel, riprendendo un osservazione già compita da
Murray Gell-Mann, quello di Schrodinger non è tra i sistemi più esemplari per illustrare il fenomeno della sovrapposizione. Senza ricorrere
alle fiale di veleno e ai materiali radioattivi previsti dall'esperimento del
fisico austriaco, si può semplicemente considerare il caso di un gatto
chiuso in una scatola dello scompartimento bagagli di un volo intercontinentale: “All'aeroporto di arrivo, il proprietario potrebbe porsi la stessa
terrificante domanda nel riprendere il contenitore al ritiro bagagli: il mio
gatto è vivo o morto?”(Gell-Mann, cit. in Aczel 2001, 74).
L'esempio alternativo proposto da Aczel fa a meno degli stati vivomorto, per considerare un tipo di sovrapposizione spaziale:
Poniamo che io sia in banca e che, di fronte agli sportelli, ci siano due code.
Sono lunghe uguali e non ho nessuno dietro di me. Io voglio essere nella coda che si muove più veloce, ma non so quale potrebbe essere delle sue. Posso allora stare in mezzo tra le due cose o iniziare a saltare da una coda all'altra, ogni volta che una delle due diventa più corta. Così mi trovo “in entram-
Irene Conti
59
be le code nello stesso tempo”. Sono in una sovrapposizione di due stati:
[Sono nella coda 1] e [Sono nella coda 2] (Aczel 2001, 75).
Come già accennato, con quanto formulato nell'articolo EPR, Einstein
Podolsky e Rosen, tentano di salvare il principio di località e con esso il
concetto tanto avvalorato dal senso comune dell'oggetto corporeo. I due
principi sono difatti strettamente correlati, dal momento che il principio
dell'entanglement condurrebbe ad una visione della realtà come sistema
e non più come somma di parti isolate. All'unità dell'oggetto si sostituisce l'unità dell'insieme in un tutto armonico ed integrato.
Anche una delle mente più illustri della storia della scienza, Albert
Einstein, non riuscì a rinunciare a quelle regole di base con cui siamo
solito ordinare la realtà, che andavano infrangendosi con l'interpretazione di Copenaghen e il principio di non-località. Pertanto nell'esperimento mentale riportato nell'articolo EPR, con l'aiuto dei suoi collaboratori,
egli raggiunse la conclusione che “Se si è in grado di predire con certezza (cioè con probabilità uguale a uno) il valore di una grandezza fisica
senza perturbare in alcun modo un sistema, allora esiste un elemento
della realtà fisica corrispondente a questa grandezza fisica” (cit. in
Aczel 2001, 110).
In altre parole, sussiste la possibilità di effettuare una misurazione su
una parte del sistema quantistico, senza che queste inficino i risultati
delle misurazione di un'altra parte del sistema, a prescindere dalla distanza a cui si situino le due parti.
Nel 1952 Bohm fornì una versione alternativa e semplificata dell'esperimento EPR sostituendo alle variabili di posizione e moto, considerate dall'esperimento originario, la variabile di “spin” dell'elettrone, cioè
la rotazione di una particella subatomica che avviene senza riferimento
ad una massa interna e quindi con l'impossibilità di definire univocamente il suo asse di rotazione (Bohm 1952, 166-179).
Gli spin delle due particelle esistono prima della misurazione solo
come tendenze, poiché l'inesistenza dell'asse interno impedisce di poter
predire quale sia la natura dello spin in assenza di un osservatore. Sarà
lo sperimentatore a rendere “attuali” quelle che in sua assenza erano le
“tendenze” soltanto potenziali dello spin, semplicemente scegliendo
l'asse di misurazione. Ponendo che lo sperimentatore scelga l'asse verticale, lo stato dello spin di un elettrone 1 sarà “in su” e quello di un elettrone 2 entangled con l'elettrone 1 sarà “in giù” . Secondo la fisica quantistica a prescindere dalla distanza a cui saranno posti i due elettroni correlati essi continueranno a fornire due stati opposti. Il paradosso che per
Einstein conduceva a dover trarre la conclusione di un'incompletezza
della teoria quantistica dovuta alla presenza di variabili nascoste non
60
The Lab’s Quarterly, 1, 2015
ancora intercettate, sta tutto nell'impossibilità che la particella 2 riceva
un segnale istantaneo dalla misurazione scelta per la particella 1 (ib.).
Il punto cruciale è che noi possiamo scegliere il nostro asse di misurazione
all'ultimo minuto, quando le particelle sono già molto lontane l'una dall'altra.
Nell'istante in cui noi eseguiamo la nostra misurazione sulla particella 1, la
particella 2, che può trovarsi alla distanza di migliaia di chilometri, acquisterà uno spin definito “in su” o “in giù” … Come può sapere la particella 2
quale spin abbiamo scelto? Non c'è tempo a sufficienza perché essa riceva
tale informazione per mezzo di qualsiasi segnale convenzionale (Capra
1982, 73).
Il punto in questione qui è che nella formulazione del postulato di nonlocalità è in gioco la compatibilità stessa tra meccanica quantistica e relatività ristretta, motivo centrale per cui ad Einstein premeva trattare con
la massima prudenza il principio dell'entanglement, esso infatti avrebbe
condotto a dover supporre che qualcosa si propagava nello spazio del
sistema quantico ad una velocità superiore a quella della luce, ma di cosa poteva trattarsi?
3.3. Le in-formazioni
Ervin Laszlo : l'universo in-formato
A partire dagli anni Ottanta il progresso tecnologico permise verifiche sempre più precise che andarono definitivamente confermando la
non-località quantistica. Non solo si può osservare una forma di comunicazione a distanza che lega coppie gemelle di particelle, in modo tale
che B sappia quando e come A venga misurato, reagendo di conseguenza, ma la propagazione di questo segnale avviene ad una velocità incredibile, istantanea. La velocità di propagazione è di lunga superiore a
quella della luce: negli esperimenti di Aspect la comunicazione tra particelle situate a una distanza di dodici chilometri tra loro è inferiore a un
miliardesimo di secondo, più di venti volte la velocità della luce. Mentre
negli esperimento più recenti di Gisin, particelle distanti tra loro dieci
chilometri comunicano ad una velocità ventimila volte superiore a quella della luce (Cantalupi 1998).
Pare che nel tentativo di trovare il modo per identificare tale misteriosa sostanza che si propaga e trasmette segnali istantanei tra due particelle subatomiche gemelle, ci ritroviamo proprio come Bateson, a dover
escludere la materia e l'energia e a proiettarci nel mondo dell'informazione, o più precisamente dell' “in-formazione”.
Irene Conti
61
… è chiaro che la coerenza non-locale ha implicazioni importanti. Essa segnala che nell'universo non vi sono soltanto materia ed energia, ma anche un
elemento più sottile ma del tutto reale: un elemento che collega e che produce le forme di coerenza quasi istantanea osservate.
Identificare questo elemento di connessione potrebbe risolvere gli enigmi
fronteggiati dalla ricerca scientifica e indicare la strada verso un paradigma
più fertile. Possiamo compiere il primo passo verso questo obbiettivo affermando che le informazioni sono presenti, e hanno un ruolo decisivo, in tutti
i principali regni della natura. Ovviamente, le informazioni presenti in natura non sono la forma quotidiana di informazioni, ma sono di un genere speciale: si tratta di “in-formazioni”, la varietà attiva e fisicamente efficace che
“forma” il ricevente, che si tratti di un quanto, di una galassia o di un essere
umano (Laszlo 20103).
Il filosofo ungherese Ervin Laszlo procede la sua disamina sostenendo
come tali in-formazioni vengano rappresentate da molteplici esperimenti come connessioni evanescenti e non energetiche che sussistono fra
vari fenomeni della natura indipendentemente dalla loro distanza e dal
tempo che è passato da quando sono entrati per la prima volta in contatto tra loro.
La teoria dei fisici russi di Shipov e Akimov ipotizza la creazione di
vortici da parte delle particelle cariche, vortici che, propagandosi nel
vuoto quantico, fanno sì che l'informazione si propaghi tra le particelle.
Anche per il fisico ungherese Laszlo Ganzdag l'informazione viene trasportata da vortici creati questa volta dall'effetto magnetico prodotto
dallo “spin” di elettroni, fotoni, neutroni.
Questi vortici produrrebbero la creazione e la propagazione di onde
e memorie d'onda, creando schemi d'interferenza con le altre onde e
contenendo in sé le informazioni relative allo stato delle particelle da cui
sono partiti i vortici.
Nel vuoto quantico verrebbe dunque a sussistere un vero e proprio
“campo di in-formazioni”, che come il campo elettromagnetico, quello
quantico e quello gravitazionale, fugge alla nostra percezione sensibile,
ma si palesa attraverso gli effetti che produce.
È comunque assolutamente chiaro che questo campo esiste, poiché produce
effetti reali . Proprio come il campo EM produce effetti elettrici e magnetici,
il campo G è responsabile dell'attrazione tra oggetti dotati di massa, e i campi quantici producono attrazione e repulsione tra le particelle nucleari, dob-
3
Posizione 915-926, e-book reader, Amazon.
62
The Lab’s Quarterly, 1, 2015
biamo riconoscere che vi è un campo universale di in-formazioni che produce l'effetto che abbiamo descritto come “coerenza non-locale” nei numerosi
regni della natura (ib.).
Ordine implicato ed esplicato: David Bohm
La coerenza non-locale che genera questo tipo particolare di informazione è il punto dai cui partono tutti quei fisici che stanno tentando con risultati incoraggianti di esplorare la possibilità di un incontro tra
i processi mentali e l'universo fisico subatomico.
Per alcuni di questi studiosi la realtà che la fisica quantistica ha messo in luce non è sorprendente soltanto per lo svelamento di una logica
ambivalente e contraddittoria, di un comportamento non-locale e di una
natura a-casuale e non lineare dei fenomeni, ma anche e soprattutto,
perché tutte queste caratteristiche “quantistiche” comporterebbero incredibili conseguenze se applicate al problema della coscienza. Inoltre
tale tentativo di applicazione si rende necessario dal momento che, come stabilito dall'interpretazione di Copenaghen, la mente, la coscienza
dell'osservatore, non può più essere esclusa dall'indagine del mondo microscopico. Già Bohr e Heisenberg riconobbero che attraverso la misurazione e l'osservazione del sistema, la coscienza produce il cosiddetto
“collasso della funzione d'onda”, ovvero “l'in-formazione” dell'onda di
probabilità in particella. È così che se la realtà subatomica viene interrogata dallo sperimentatore muta la forma in cui appare. Se ne può trarre,
dunque, un ulteriore conferma di quello che è il principio costruttivista
già postulato da Bateson e dagli studiosi della complessità, qui, lo ripetiamo, con un apporto in più rispetto alla visione batesonina: anche la
realtà fisica degli ombrelli e delle palle da biliardo non si esima dal processo costruttivista a cui costantemente sottoponiamo e ordiniamo inconsapevolmente il nostro mondo. Non solo: se la realtà fisica “risponde” in qualche modo al processo informazionale a cui la nostra mente la
sottopone, deve possedere come suggerì David Bohm, una qualche forma rudimentale di qualità mentale, una forma di coscienza.
Nell'ordine implicato non svolto (implicate enfolded order) di
Bohm, ossia quello che incontriamo quando esploriamo la materia del
mondo subatomico, la coscienza si trova allo stesso livello della materia, mente e materia sono un'unica cosa e si congiungono nell'atto
dell'in-formazione che coincide con il collasso della funzione d'onda.
L'esperienza soggettiva a cui quotidianamente prendiamo parte si situa,
invece, nell'ordine esplicato svolto (explicate unfolded order) del livello
macroscopico, in cui mente e materia tornano ad essere separate (Bohm
1982).
Irene Conti
63
Il modello ORCH-OR: Hameroff e Penrose
Una decina di anni più tardi dalla comparsa di Wholeness and the
Implicate Order di David Bohm, un altra ricerca destinata ad avere larga
risonanza nel mondo accademico anglosassone e statunitense viene resa
nota attraverso il denso saggio “Ombre della mente” dello scienziato
britannico Roger Penrose. Le idee riportate in questo lavoro sono il punto di approdo di una ricerca iniziata qualche anno prima nel campo degli
studi sulla coscienza, i cui risultati vennero raccolti nel saggio dell' '89
“La mente nuova dell'imperatore”. Stuart Hameroff Professore del dipartimento di Anestesiologia e Psicologia dell'Università di Tucson in
Arizona, letto il primo lavoro di Penrose, crede di poter fornire un suggerimento per completare la sua ricerca nella direzione di integrare la
visione quantistica con un adeguato modello di attività neuronale. Hameroff ha infatti potuto osservare, negli anni di lavoro sulla ricerca anestesiologa, come, durante la somministrazione delle sostanza anestetiche, la normale attività cosciente viene impedita da alcuni fenomeni che
si verificano all'interno dei microtuboli neuronali.
I microtuboli sono strutture di tubulina, una classe di proteine, che
formano il citoscheletro di tutte le cellule eucariote, tra cui anche i neuroni, e che hanno la funzione di trasportare materiali all'interno della
cellula, controllando il movimento di organelli e vescicole citoplasmatiche e assicurando la stabilità della cellula stessa (Penrose 1994, 357358).
Tali microtuboli, come gli studi di Hameroff hanno confermato,
possiedono per alcuni studiosi anche proprietà elettriche e quantistiche
attraverso le quali si potrebbero spiegare numerosi fenomeni cognitivi,
tra cui, secondo l'ipotesi di Hameroff-Penrose, lo stesso processo della
coscienza. Infatti la presenza di proprietà quantistiche all'interno di questi microtubuli, spiegherebbe le forme di comunicazione intracellulare,
che renderebbero conto anche dell'impossibilità di ridurre la coscienza
ad un'area specifica del cervello, assumendola, invece, come il risultato
di un'azione orchestrata di più parti interagenti. Questo fenomeno viene
collegato da Penrose alla cosiddetta “coerenza quantistica”, un meccanismo fisico in cui i metalli se portati a basse temperature diventano superconduttori, riuscendo a condurre l'elettricità senza fine, ponendo una
resistenza pari a zero. Tale fenomeno avviene grazie ad un movimento
coerente e simultaneo degli elettroni che si muovono come se fossero
un'unica particella. Questo meccanismo di coerenza quantistica secondo
l'ipotesi di Penrose è lo stesso che avviene nei microtuboli neuronali e
che permette alla nostra attività cosciente di muoversi in un flusso con-
64
The Lab’s Quarterly, 1, 2015
tinuo, facendo sì che il mondo materiale possa incontrarsi con quello
mentale (Penrose 1994, 306).
Il modello che Penrose elabora assieme al contributo di Hameroff è definito ORCH-OR: Orchestrated Objective Reduction, dove con “riduzione oggettiva” s'intende il collasso della funzione d'onda, che, secondo i due ricercatori, avverrebbe ogni 25msec all'interno dei microtuboli
rendendo possibile l'esperienza cosciente come risultato di un'orchestrazione delle varie aree celebrali coinvolte nell'effetto della coerenza
quantistica (ib.).
Henry Stapp
Un'altro modello quantistico di coscienza è quello proposto dal fisico statunitense Henry Stapp, che parte dal cosiddetto Processo 1 elaborato da Von Neumann nel 1955 secondo cui: una volta che l'osservatore
sceglie attivamente la propria intenzione, il mondo fisico risponde di
conseguenza seguendo le note leggi della meccanica quantistica (Vannini 2007). Il Processo 1 implica anche una totale libertà di scelta riservata all'osservatore che può decidere quale domanda rivolgere al sistema, e dunque, in quale tipo di forma esaminarlo. La teoria di Von Neumann è un'elaborazione dell'Interpretazione di Copenaghen secondo cui
i numeri della fisica classica divengono in quella quantistica operatori
matematici: la fisica classica può dunque salvarsi se considerata però
come un'approssimazione, riducendo la costante di Planck al valore zero
(ib.).
Nel Processo 1 di Von Neumann la coscienza che si palesa con la
scelta intenzionale dell'osservatore sarebbe la causa del collasso della
funzione d'onda, ma Stapp ribalta la questione: la coscienza è la rappresentazione del collasso della funzione d'onda, la sua immagine isomorfa.
In altre parole, nel cervello gli eventi si mantengono in inconscia sovrapposizione di stati fino a quando essi vengono resi psicologicamente coscienti
dal collasso fisico della funzione d'onda, e la coscienza è quindi la controparte macroscopica del processo di fissazione delle strutture microscopiche
del cervello (così come le sensazioni sono la controparte macroscopica del
funzionamento dell'organismo)
[Brenda Dunne, <www.ais-pain.it/files>, 60].
Attraverso il collasso della funzione d'onda, la mente trasforma la potenza in atto ed è questo processo di attualizzazione a generare la coscienza. Ogni evento attualizzato si presenta come una configurazione
neuronale momentaneamente stabile definita “simbolo”. Ogni simbolo
Irene Conti
65
si lega per associazione ad altre componenti potenziali che sono le sue
stratificazione inconsce e che vengono attualizzate dal successivo evento cosciente (ib.).
Per Stapp, inoltre, la chiave per uscire dal puro soggettivismo e dal
solipsismo costruttivista risiede nella rappresentazione del mondo fenomenico come processo termodinamico informazionale, nei sistemi
termodinamici in non equilibrio si forma una “vera mente” che rende
conto della possibilità di un universo oggettivo. Se dunque in questo
aspetto Prigogine aveva ragione si trova però nel torto nel ritenere che i
sistemi termodinamici possano adeguatamente descrivere tale processo
informativo, i sistemi termodinamici lontani dall'equilibrio risultano infatti incompleti nel momento in cui si tenta di render conto della complessità del vivente. Il fenomeno della coscienza può essere invece descritto dai modelli algoritmici capaci di un “interpretazione universale”.
Luce, suoni e azioni fisiche sul mondo esterno veicolano informazione connettendo in un processo informazionale universale tutte le cose esistenti. Per
un interprete universale particolare, i segnali fisici sono equivalenti a fibre
nervose che trasmettono e ricevono informazioni; in questo modo, esso diventa centro integrante di un processo informazionale che si estende enormemente al di fuori del suo organismo fisico. Questo processo globale comprende altri interpreti universali. Tutte le cose visibili, udibili e trasformabili
che esistono in natura costituiscono per ogni interprete universale una sorta
di gigantesca memoria esterna che alimenta la sua attività di interpretazione
universale (Brenda Dunne <www.ais-pain.it/files>, 62).
3.4. Il Quantum bit
Come già a partire dalla prima cibernetica, con il cosiddetto Quantum Computing si procede nello sviluppo di una linea di ricerca in cui
possano incontrarsi fisica e tecnologia. I modelli algoritmici quantistici
che sono utilizzati nel Quantum Computing, stanno rivoluzionando il
mondo dell'informatica dimostrando come il connubio tra meccanica
quantistica e teoria dell'informazione prometta di riservarci numerose e
inattese sorprese.
L'unità di misura utilizzata da un computer quantistico è il quantum
bit, anche detto qubit, che ha la caratteristica di potersi trovare in una
sovrapposizione di due stati contemporaneamente. Il bit classico presenta una natura binaria, può difatti trovarsi o nello stato 1 o nello stato 0, il
qubit invece può presentarsi contemporaneamente in questi due stati. È
come se il bit classico fosse simile ad una monetina che una volta lan-
66
The Lab’s Quarterly, 1, 2015
ciata ed aver compiuto qualche oscillazione, mostri una delle sue due
facce. Il qubit è invece paragonabile ad una monetina che non cessa mai
di oscillare mostrando ora l'una ora l'altra faccia obbedendo alla bizzarra
legge di complementarietà quantistica. Al contrario dei computer classici che svolgono le loro operazioni servendosi di calcoli seriali e lineari,
il computer quantistico è in grado, grazie all'informazione veicolata nel
quantum bit, di svolgere più calcoli contemporaneamente, in parallelo,
caratteristica che lo accomuna ai processi cognitivi umani. Se per esempio utilizziamo un registro composto da 3 bit, vengono immagazzinati
gli otto stati possibili derivati dalla combinazione dei 3 bit, singolarmente, uno alla volta, mentre in un registro di 3 qubit gli 8 stati sono immagazzinati simultaneamente.
È evidente come questo aspetto produca enormi vantaggi in campo
informatico e una velocizzazione sorprendente per quanto riguarda alcune operazioni di calcolo, tanto che l'avvento della computazione
quantistica ha seriamente compromesso l'efficacia del sistema crittografico RSA. Tale sistema di sicurezza traeva la sua solidità dall'impossibilità computazionale di ricavare i fattori dei numeri primi. Attraverso
l'algoritmo quantistico che Sohr individuò nel 1994 questo ostacolo è
stato superato rendendo necessaria l'implementazione di nuovi sistemi
crittografici inattaccabili dagli algoritmi quantistici.
Al momento sono numerosi gli ostacoli che si incontrano per la realizzazione di calcolatori quantistici. Il più difficile da arginare è senz'altro quello che produce il cosiddetto fenomeno della decoerenza: a contatto con l'ambiente le caratteristiche quantistiche risultano compromesse. Tra le proposte avanzate per tentare di delimitare le interferenze
dell'ambiente la più promettente sembra quella che suggerisce l'utilizzazione di nanocircuiti superconduttivi per implementare i calcolatori di
futura generazione. Le proprietà superconduttive permetterebbero infatti
una maggior stabilità e resistenza ai fenomeni di decoerenza grazie alle
loro proprietà coesive e strutturali: “la moltitudine di gradi di libertà che
descrivono microscopicamente un'isola metallica è congelata in virtù
della condensazione superconduttiva” (Falci-Fazio-Palma 2001).
Si può notare come anche nell'ambito della tecnologia informatica si
stia tentando di far confluire fisica e biologia attraverso l'incontro tra il
computer molecolare a base di Dna e il calcolatore quantistico: il codice
della materia e quello della vita potrebbero fondersi rilevando le loro
similarità e le potenzialità della loro sinergia.
Al di là degli scenari che ci riserva il futuro che saranno accessibili
grazie al progresso tecnologico e informatico quello che occorre qui tenere fermo è il risvolto teorico che l'unità di misura informatica del qu-
Irene Conti
67
bit fornisce alla teoria dell'informazione. Possiamo considerare il qubit
come il veicolo d'informazione che oscilla tra due stati alterni, e che
rappresenta questi due stati alterni simultaneamente. Come si è visto negli studi di Gregory Bateson già esiste questa peculiare caratteristica del
concetto d'informazione, caratteristica che ci viene presentata come l'essenza stessa e fondativa di tale concetto.
L'informazione del mondo creaturale è infatti, come nel mondo del
QuBit, rappresentata più dalla complementarietà di stati contrapposti
che dalla logicità. Il processo del pensiero che viene a intessersi con
quello della vita stessa è per sua natura illogico, metaforico e presenta
un andamento oscillatorio, aspetto questo che richiama piuttosto precisamente la caratteristica dell'elemento subatomico e del quantum bit informatico.
4. L'ANTROPOLOGIA NELL'ERA DELLA COMPLESSITÀ
In Mente e Natura Gregory Bateson definisce l'abduzione come
“una descrizione doppia o multipla di qualche oggetto o evento sequenza”, in altre parole essa è una forma di estensione delle caratteristiche
attribuite ad un evento o ad una cosa, ad altri eventi o cose appartenenti
a domini differenti. Se ad esempio in una società incontriamo una determinata credenza cosmologica, o una specifica visione del funzionamento del mondo naturale, tale credenza si rifletterà nell'ordinamento
della società stessa. Pertanto, continua Bateson, ci si ritroverà a far parte
di un mondo dove tutti i fenomeni, o meglio, tutte le interpretazioni che
siamo soliti attribuire ai fenomeni, si rispecchieranno nei diversi settori
della vita e della conoscenza umana. Ne segue che, ogni paradigma culturale o scientifico per essere sostituito, avrà bisogno di molto tempo
perché con esso, ad effetto domino, entreranno in crisi anche tutti gli
altri fenomeni legati alla vita, al sapere, alla società: si verificherà quella
che definiamo una svolta epistemologica e il nostro stesso senso comune quotidiano ne sarà attraversato.
Se ci rivolgiamo al clima culturale dell'era industriale, osserviamo,
come si è visto, una particolare coerenza nell'attribuzione di significato
ai fenomeni, siano essi di natura storica, biologica, fisica. La società
stessa era il riflesso di questo paradigma scientifico, così come il paradigma scientifico era, a sua volta, il riflesso di un particolare assetto sociale e culturale. Il clima di quell'epoca era attraversato da immagini di
ordine e rigore meccanico, il preciso ingranaggio del mondo fisico era la
base per garantire al mondo biologico di proliferare nella sua battaglia
68
The Lab’s Quarterly, 1, 2015
per il predominio, in un costante progresso verso forme sempre più raffinate di perfezione. Lo stesso valeva per la visione di un sistema economico il cui ordine era garantito dalla corsa di ogni individuo verso
l'accumulo della propria ricchezza, al resto avrebbe pensato una mano
invisibile atta a selezionare naturalmente coloro che avevano accesso al
dominio capitalista, eliminando le economie deboli e fallimentari.
In quest'ottica di preciso e deterministico ordine piramidale inserito
in un universo fisico e cosmologico ridotto al rotolio delle palle da biliardo, s'inserisce, per abitudine ad abdurre, anche la risposta coerente
dell'antropologia evoluzionista e con essa l'immagine della scala di progresso culturale che va dal primitivo al civilizzato, come dal microbo al
mammifero, dal baratto al liberismo.
Con un salto nel tempo di appena un secolo, è facile rendersi conto
con quanta rapidità quel mondo sembra essersi capovolto, ma anche
come, d'altra parte, non sia cambiato quel processo di abduzione per cui
“..si può descrivere un certo evento o cosa...e poi ci si può guardare intorno e cercare nel mondo altri casi che obbediscano alle stesse regole
da noi escogitate per la nostra descrizione” (Bateson 1979, 190). Se ci
osserviamo intorno e proviamo ad applicare ai fenomeni sociali e antropologici le nuove scommesse della fisica e della biologia, viene in effetti da chiedersi se tali proposte siano state ispirate dal cambiamento sociale o se all'inverso sia la società a cambiare il proprio volto sulla scia
dei nuovi paradigmi scientifici. Come sempre la risposta sta in una ricorsività circolare che a questo primo livello connette società, visione
scientifica, senso comune e ad un secondo livello, tutto epistemologico,
connette la nostra stessa mente con il mondo di cui fa esperienza in una
danza ininterrotta in cui da un polo si torna all'altro.
Poste queste premesse ciò che in ogni caso resta indubbio, aldilà di
insanabili quesiti sulla natura puramente costruttivista della nostra esperienza, il modo in cui la società oggi si è evoluta sembra far affiorare
sulla superficie della dimensione umana, quei caratteri di complessità,
disequilibrio, marginalità, complementarietà che sono stati individuati a
livello biologico e fisico.
Il primo e sicuramente più evidente insieme di fenomeni in cui questo passaggio è ravvisabile è quello della dinamica tra locale e globale.
4.1. La frontiera glocal
Tra i vari concetti che sono passati sotto il vaglio critico dei nuovi
studi sulla complessità, possiamo far rientrare in una prospettiva antro-
Irene Conti
69
pologica anche quello di “cultura”. Tale termine acquisisce oggi un'accezione problematica e liquida rifuggendo ancora una volta alla logica
riduzionista che il paradigma determinista e meccanicista le aveva conferito. La trama del tessuto che connette il mondo è andata nell'ultimo
secolo infittendosi a dismisura, intrecciando i localismi con un flusso di
informazioni globalizzate sempre più rapido e penetrante.
È diventato così assai complesso poter parlare di “culture” come di
isole confinate dietro usi, costumi e sistemi di credenze determinati.
Anche all'interno della disciplina antropologica una delle più rilevanti svolte di paradigma degli ultimi decenni sta proprio nella problematizzazione di questa nozione nella sua forma sostantivata , la svolta è
importante perché proprio la cultura è stato l'oggetto privilegiato dello
studio etnografico sin dal suo primo sviluppo. Ma oggi questo “oggetto”
pare condividere la stessa sorte che vive il concetto di “specie” nella
biologia evolutiva, il concetto di “cellula” in quella molecolare e quello
di “atomo” nella fisica quantistica: anche qui il sostanzialismo lascia il
posto al primato delle relazioni.
Oggi più che mai possiamo osservare il fenomeno del proliferare di
nuove forme di culturalismo che rifuggono dai consueti confinamenti
territoriali. Tali culture diventano fenomeno translocali che grazie all'alta volatilità dei sistemi di comunicazione di massa riescono a preservare
la propria identità, nutrendosi di immagini, icone, simboli, veicolati dal
flusso mass mediale. Diana Crane (1972) ha parlato dei “college invisibili” che nel mondo scientifico, grazie alla proliferazione dei media elettronici, diventano comunità virtuali per la trasmissione e la generazione
del sapere istantaneamente e a distanza.
Appadurai (1990) fa invece riferimento alle “comunità di sentimento” che possono generare sodalizi di vario tipo sempre a livello translocale e transnazionale:
La fruizione collettiva dei mass media, soprattutto film e video, può creare
sodalizi di culto e carisma, come quelli che si sono formati a livello regionale attorno alla divinità femminile di Santoshi negli anni Settanta e Ottanta, e
a livello transnazionale attorno all'ayatollah Khomeini più o meno nello
stesso periodo. Sodalizi simili possono costituirsi attorno allo sport a livello
internazionale, come dimostrano chiaramente gli effetti transnazionali delle
Olimpiadi...(Appadurai 1990, 22-23).
La circolarità retroattiva dei sistemi complessi può ben applicarsi al fenomeno che il sociologo Zygmunt Bauman denominò “glocalizzazione”, si può osservare, infatti, come vi sia tra localismi e globalismi una
comunicazione dialettica interattiva che porta gli uni ad agire sugli altri:
70
The Lab’s Quarterly, 1, 2015
una volta che le informazioni vengono trasmesse dal primo al secondo
polo non sono assimilate passivamente, ma vengono adattate creativamente per convivere con il sottosistema locale e ritrasmesse in questa
forma al sistema globale. Questa sorta di feedback negativo glocale passa per quello che Appadurai definisce “processo di indigenizzazione”:
...appena le forze provenienti da diverse metropoli sono portate all'interno di
nuove società esse tendono, in un modo o nell'altro, a subire un processo di
indigenizzazione: questo è vero della musica come degli stili abitativi, dei
procedimenti scientifici come del terrorismo, degli spettacoli come delle
norma costituzionali. In poche parole le singole culture possono riprodursi o
ricostruire la propria specificità sottoponendo le forme culturali transnazionali ad un processo di indigenizzazione (Appadurai 1990, 24).
Si può affermare come sia questo processo di rielaborazione e indigenizzazione a far sì che le forme culturali specifiche possano sopravvivere, attraverso questa circolarità a ricorsività negativa, che le vede creativamente impegnate in un processo di continua trasformazione. Se infatti
l'input derivante dal sistema globale non venisse inglobato e declinato
da forme di integrazione locale, ma assorbito senza mediazione, con
l'accumulo di cambiamenti non integrati, il sottosistema locale si avvierebbe verso il collasso e molte specificità culturali sarebbero destinate a
scomparire. Questo è uno degli aspetti che conduce a sperare che il futuro, tenuto debitamente conto dei disequilibri economici e politici, non ci
riserverà un quadro di piatta omogeneizzazione culturale, ma apparirà
imprevedibilmente tratteggiato da nuovi flussi e nuove forme di ibridazione e creolizzazione. Tanto più se teniamo presenti gli studi sui sistemi viventi di Ilya Prigogine e dei suoi collaboratori tale aspetto può essere ulteriormente riconfermato: anche i sistemi sociali come i sistemi
biologici non evolvono all'interno di cornici dove a prevalere è l'ordine,
ma ai margini del caos, in condizioni spesso liminali dove si escogitano
soluzioni e strategie per adattarsi al meglio ai rapidi cambiamenti che
attraversano l'ecumene globale. In quest'ottica un po' tutti ci troviamo, e
non solo i popoli del sud del mondo, in uno stato di confine e marginalità, ma proprio questo stato ci permette, stimolandoci a ridisegnare continuamente i contorni della nostra identità sociale e culturale, di restare
flessibili e permeabili alle miriadi di trasformazioni e innovazioni che
caratterizzano la nostra epoca. Anche la storia umana come quella biologica non scorre in un flusso continuo e ordinato, qui, come l'evoluzionismo post-darwiniano ravvisa nel mondo naturale, si procede per improvvise accelerazioni, lunghi periodi di latenza, impreviste deviazioni.
Proprio le crisi , le fasi di disequilibrio ed instabilità sono quelle che
Irene Conti
71
fanno emergere il cambiamento e generano l'evolversi di una struttura
sociale:
Ogni evoluzione è frutto di una devianza riuscita, il cui sviluppo trasforma il
sistema nel quale essa è nata: la devianza disorganizza il sistema mentre lo
riorganizza. Le grandi trasformazioni sono morfogenesi, creatrici di nuove
forme, che possono costituire vere metamorfosi. In ogni modo non esiste
evoluzione che non sia disorganizzatrice/riorganizzatrice nel suo processo di
trasformazione o di metamorfosi (Morin 2001, 82).
Ovviamente il cambiamento ha da sempre contraddistinto la storia umana di ogni epoca e latitudine, quello che diviene peculiare della nostra
era complessa è, però, il grado di rapidità con cui questo cambiamento
si verifica, tanto che si ha una percezione di accelerazione del tempo e
di riduzione e dilatazione dello spazio:
Nel mondo che abitiamo, disseminato di schermi piccolissimi e giganti, tutto
sembra darsi e farsi in tempo reale, "qui e ora". Nella percezione di ciascuno
gli avvenimenti si moltiplicano producendo una sorta di accelerazione della
storia: lo spazio attorno a noi si dilata e paradossalmente si restringe poiché
ogni luogo è raggiungibile in poche ore di volo e qualsiasi messaggio può
pervenire in pochi istanti a un destinatario che fisicamente si trova lontano a
migliaia di chilometri. (Callari Galli 1999).
Questa istantaneità nella trasmissione e percezione dei cambiamenti che
ci coinvolgono su scala globale viene nell'analisi di Glissant collegata
all'immagine di un caos-mondo intricato ed in pieno fermento, richiamando ancora la disamina di Prigogine sui sistemi viventi autoorganizzantisi ai margini del caos:
Chiamo caos-mondo...lo choc, l'intreccio, le repulsioni, le attrazioni, le connivenze, i conflitti fra le culture dei popoli, nella totalità-mondo contemporanea...le relazioni, i contatti tra le culture si perpetuavano nel passato attraverso archi temporali immensi. Erano contatti che, per questi motivi, non
venivano riconosciuti...L'arco temporale era così lungo che le trasformazioni
non venivano percepite, si sostituivano ad esse altre trasformazioni...La novità presentata dai tempi contemporanei è che gli archi temporali non sono
più immensi: sono fulminei e così i loro effetti. Le influenze e le ripercussioni delle culture le une sulle altre sono immediatamente percepibili come
tali (Glissant 2011).
La riduzione del tempo all'istante e la scomparsa delle distanze spaziali,
resa possibile dai mezzi di trasporto e mezzi elettronici di comunicazione, produce dunque la trasmissione fulminea di informazioni da un capo
The Lab’s Quarterly, 1, 2015
72
all'altro del mondo. Nell'ecumene globale anche i sistemi sociali sono
tra loro entangled: un fenomeno che si genera in una parte del globo,
come ad esempio un focolaio di rivolta, può avere un'influenza decisiva
su un'altra area del pianeta situata a migliaia di chilometri di distanza.
La meccanica quantistica può fornirci anche un'altra lente attraverso
cui poter osservare e comprendere la realtà contemporanea: il principio
di complementarietà. Tale principio può rendere adeguatamente conto
di una realtà in cui molteplici ed eterogenei modelli culturali si ritrovano
a convivere in una sorta di “sovrapposizione di stati”. Al di là della logica binaria, è con il principio di complementarietà, declinato nel moderno Quantum Computing, che possiamo oggi accettare l'esistenza simultanea di 0 e 1, di onda e particella, di locale e globale, di identità e nomadismo.
4.2. Antropologia post-einsteiniana
Questa integrazione di due realtà contraddittorie resa possibile dalla
rivoluzione quantistica può essere effettuata nell'analisi dei fenomeni
sociali e culturali della contemporaneità e risultare, ad un tempo, un utile strumento di applicazione nel campo della metodologia etnografica.
Come afferma Elisabeth Vann nel suo articolo Quantum Ethnography: Anthropology in the Post-Einsteinian Era <soar.wichita.edu>, a
partire dalla crisi che attraversa l'antropologia negli anni Sessanta, sono
due le principali correnti che vengono a delinearsi e che contrappongono due modelli etnografici solo in apparenza inconciliabili: da una parte
incontriamo l'antropologia interpretativa, i cui principali esponenti sono
Clifford Geertz, Marcus e Fisher, dall'altra incontriamo la visione politico-economica sostenuta da Polier e Roseberry.4
Per i postmodernisti è necessario indirizzare il discorso etnografico
verso una cornice interpretativa che si focalizzi sulla metafora testuale:
l'antropologo non è uno scienziato, ma un interprete culturale, che si approccia alla realtà etnografica come se fosse un testo letterario. La sua
comprensione, inoltre, non sarà condizionata solo dal suo punto di vista,
ma anche da quello degli informatori, con il risultato che nella produzione etnografica si avrà a che fare con più livelli interpretativi, con una
“pluralità di voci”. È solo al nativo che spetta comunque il primo livello
interpretativo, l'antropologo avrà invece sempre accesso ad una rappresentazione di second'ordine dei testi culturali che potrà leggere soltanto
4
Tale distinzione viene ripresa da Robert Ulin (1991).
Irene Conti
73
“sopra le spalle di quelli a cui appartengono di diritto” (Geertz 1973,
447).
La cultura è un testo agito composto da descrizione dense: una strizzatina d'occhio può prestarsi a numerosi significati, è dal contesto in cui
avviene che possiamo attribuirgli quello giusto. È dunque impossibile
estrapolare gesti e azioni culturali dal proprio contesto dialogico e interrelazionale conferendoli uno status ontologico assoluto e oggettivo, abbiamo sempre a che fare con un discorso sociale immerso in una ragnatela di significati.
Estrarre cristalli simmetrici di significato, purificati dalla complessità materiale
in cui erano collocati, e poi attribuire la loro esistenza a principi di ordine autogeni, proprietà trasversali della mente umana, o vaste Weltanschauungen
aprioristiche, è simulare una scienza che non esiste e immaginare una realtà
che non si può trovare. L'analisi culturale consiste (o dovrebbe consistere)
nell'ipotizzare significati, valutare le ipotesi e trarre conclusioni esplicative dalle ipotesi migliori ma non scoprire il Continente del Significato e tracciarne il
paesaggio immateriale su una sorta di carta geografica (ivi. 30).
Vann, seguendo Ulin, continua la sua dissertazione introducendo la visione proposta da Marcus e Fisher (1986) che proseguono il discorso
avviato da Geertz, focalizzandosi sulla metafora testuale e proponendo
delle strategie di stile letterario, per pervenire ad una produzione etnografica, maggiormente in grado di riflettere la complessità della realtà
sociale. A questo proposito può, secondo i due autori, risultare utile una
scrittura dialogica che renda conto della molteplicità delle voci nel flusso di discorso sociale e la costruzione di “collage” etnografici che riflettano la frammentazione delle società moderne.
Le critiche a questi tipo di definizione di una realtà etnografica come
fiction e dell'antropologo come autore testuale non tardano ad arrivare: è
soprattutto con gli economisti politici, tra cui Polier e Roseberry, che il
postmodernismo viene messo a dura prova. Si contesta infatti il carattere
frammentario e disorganico che, seguendo l'impostazione interpretativa,
verrebbe attribuito alla realtà sociale. Essa, si presenta invece nella visione economico-politica, connessa a ben precise coordinate storiche
che ne determinano il profilo attuale.
In particolare, si rende necessario sostituire la metafora testuale con
quella di commodity, cioè di prodotto, che, con lo sviluppo di un'economia basata sullo scambio e non più sul consumo diretto, è venuto a
coincidere con il compenso salariale. Con l'espansione del capitalismo
questo aspetto è stato generalizzato, sino a coinvolgere l'intera realtà sociale (Ulin 1991, 76; cit. in Vann 73).
74
The Lab’s Quarterly, 1, 2015
Come sottolinea Vann, la metafora del commodity non appare però
come una soluzione alle problematiche sollevate dal postmodernismo,
ma come uno slittamento di prospettiva, da una questione, ad un'altra:
pare proprio che gli economisti politici e i postmodernisti parlino due
lingue diverse (ib.).
Ma il punto centrale su cui l'articolo di Vann si focalizza è il tentativo di riuscire, attraverso le nuove possibilità epistemologiche offerte
dalla fisica quantistica, a conciliare queste due proposte metodologiche
collimanti.
Il dibattito che ha scosso le fondamenta della fisica newtoniana a
partire dagli inizi del Novecento, ha prodotto nuove metafore, tra cui
sono centrali quelle di complementarietà e relativismo, che sono già state adottate in campo psicologico, economico e in quello della critica letteraria. Come suggerisce Vann, è giunto il momento che anche il dibattito antropologico tragga preziosi contributi teorici e metodologici dalle
metafore del mondo quantistico.
La fisica e l'antropologia presentano infatti numerosi punti di convergenza: entrambe si occupano di investigare le forme della realtà, l'antropologia al livello macroscopico della ricerca sociale, la fisica a livello
microscopico dell'esplorazione atomica e subatomica.
Entrambe le discipline si sono occupate, inoltre, del modo in cui
queste forme di realtà microscopica e macroscopica si relazionano con
le coordinate del tempo e dello spazio. In più, vi è un punto di convergenza assai significativo, che è quello del ruolo dell'osservatore e dagli
effetti da lui prodotti sulla realtà osservata. L'Interpretazione di Copenaghen mette in luce come siano proprio l'osservatore o lo strumento di
misurazione a influenzare e decidere la forma con cui la realtà subatomica si presenterà. Anche nella ricerca etnografica si fa riferimento al
modo in cui la presenza dell'antropologo susciti un'influenza sul campo
sociale di indagine e di come, a sua volta, la realtà etnografica, produca
un'influenza sull'osservatore.
Il principio di complementarietà e quello di indeterminazione, possono fornire un ulteriore spunto di comparazione tra le due discipline e
forse una soluzione al dibattito tra postmodernisti ed economisti politici.
Questi principi ci dicono che la realtà si presenta in forma duale, che
può essere compresa solo in termini di probabilità, che è interconnessa,
e che ontologia ed epistemologia non possono più essere disgiunte. Partendo da questi postulati si può osservare come sia la prospettiva postmodernista che quella ecomomico-politica, siano parzialmente esatte e
risultino incomplete se assunte singolarmente. Il postmodernista è in
errore nel ritenere che la realtà sociale sia frammentata e disorganica: la
Irene Conti
75
visione che la fisica quantistica ci offre del mondo subatomico è quella
infatti di una realtà profondamente “entangled”, mentre è in accordo con
i principi della nuova fisica nel momento in cui sostiene che la realtà sia
il prodotto relativo di osservatore e partecipanti. Ma questo, ammonisce
Vann, non deve condurre ad interpretare la realtà come pura fiction, né a
rigettare l'applicazione di modelli di ricerca sociale, deve invece renderci sempre consapevoli che qualsiasi modello da noi utilizzato e qualunque rappresentazione della realtà osservata, siano irriducibilmente solo
parziali alla stregua delle onde di probabilità quantistiche: quello che
conosciamo è determinato dal modo in cui conosciamo, dallo strumento
metodologico di riferimento. Questo significa che l'analisi del micro livello condotta dai postmodernisti, funzionerà solo in aderenza ad un livello micro, ma non potrà essere applicata al macro livello delle strutture politico economiche. Il micro e macro livello non possono darsi simultaneamente in un unico testo etnografico, pertanto anche la realtà
etnografica come quella fisica, apparirà indeterminata, potrà mostrare
solo una delle sue due facce per volta:
Proprio come un fisico non può misurare l'esatta posizione e il movimento
di una particella simultaneamente, nemmeno l'etnografo può completamente
e accuratamente rappresentare i livelli micro e macro della realtà attraverso
un singolo testo etnografico. Questo significa semplicemente che gli antropologi devono ammettere, sia a se stessi che ai loro lettori, che un testo etnografico non potrà mai presentare un immagine-specchio della realtà ( 78,
trad. mia).
Tuttavia, nella proposta di Vann, l'etnografia post-einsteiniana può rifarsi al modello di funzione d'onda postulato dalla fisica quantistica per
rendere conto ad un solo tempo del processo voluto dagli economisti
politici e della pluralità di voci voluta dai postmodernisti. Infatti le reti
di relazioni intersoggettive possono essere espresse nei termini di una
funzione d'onda: ogni componente di questa rete possiede infatti una
propria interpretazione e idealizzazione della realtà presente, che non è
certo assoluta ma si presenta come un'onda di possibilità. Attraverso il
resoconto della pluralità di voci senza un chiaro riferimento al contesto
sociale, culturale, economico, da cui tale voci provengono, i postmodernisti hanno causato inavvertitamente il collasso di questa funzione d'onda sociale. D'altra parte, anche gli economisti politici non hanno tenuto
conto delle onde di probabilità sociali, rappresentando una realtà ad un
livello esclusivamente materiale. Ne risulta dunque che entrambe le prospettive si rivelano fallaci proprio per il mancato riferimento alla funzione d'onda: da una parte si tiene conto delle voci, ignorando il tessuto
76
The Lab’s Quarterly, 1, 2015
sociale e culturale, sfociando in un completo relativismo, mentre dall'altra si genera un punto di vista riduzionista che subordina gli attori alla
struttura e al processo.
In conclusione, Vann argomenta che:
In sintesi, un modello di funzione d'onda delle relazioni sociali dovrebbe
rappresentare entrambe le realtà alternative che sono integrate attraverso il
network di relazioni sociali...Questa dissertazione ha lo scopo di dimostrare
come i modelli usati dai postmodernisti e dagli economisti politici non riflettano la realtà. Essi falliscono perché ciascuna delle due prospettive è semplicemente questo – una prospettiva... La teoria quantistica fornisce un modello
alternativo a quello proposto dai postmodernisti e dagli economisti politici...I suoi metodi e applicazioni permettono alle prospettive teoretiche attualmente in uso, come quelle postmoderniste e politico economiche, di essere riformulate e reinterpretate utilizzando nuove e più accurate ipotesi sulla realtà (ivi, 80, trad. mia).
Dunque la fisica quantistica può prestarsi alla formulazioni di utili metafore che possano dare impulso alla ricerca etnografica, portando luce in
quelle zone oscure ove il dibattito sul modello e sulle metodologie più
adeguate alla ricerca sociale aveva rischiato di arenarsi.
4.3. Ecologia della cultura
L'antropologo britannico Tim Ingold, a seguito delle prime ricerche
sul campo presso la comunità dei Saami Skolt nel Nord della Finlandia,
decide di orientare le proprie ricerche nell'ambito dell'antropologica
ecologica. L'interesse di Ingold si indirizza in particolare verso la ricorsività tra mente e natura teorizzata da Bateson, la teoria dei sistemi, la
biocibernetica, i sistemi autopoietici di Varela e Maturana e il darwinismo neurale di Edelman. Come si vede l'eterogeneità di questi studi
fanno di Ingold un pensatore che avverte la necessità di spostarsi oltre i
propri confini disciplinari, nell'esigenza di prefigurarsi quadri più organici, compiuti e interconnessi della realtà studiata.
A partire dagli anni Ottanta questi studi lo conducono a delineare
una visione chiara di quelli che sono i tre modelli di pensiero che in tre
diversi ambiti disciplinari si alimentano pericolosamente l'uno con l'altro, generando un impianto teorico estremamente solido e difficilmente
intaccabile che Ingold denomina. I tre ambiti disciplinari interessati sono la biologia, la psicologia e l'antropologia e i tre modelli teorici a cui
ciascuno di questi settori fa riferimento sono nell'ordine: il neodarwinismo, le scienze cognitive, la teoria della cultura. Si viene a fondare, co-
Irene Conti
77
sì, quella che Ingold denomina: ortodossia bio-psico-culturale; alla base
di tale prospettiva teoretica vi sono infatti postulati comuni: il riduzionismo, il determinismo, la linearità, il meccanicismo. Tale alleanza si manifesta quando, ad esempio, vogliamo produrre una teoria sulla locomozione delle persone in varie aree culturali. Se infatti la propensione a
camminare è universale essa viene declinata nelle varie società in modi
particolari. L'essere umano possiede, infatti, strutture anatomiche che
permettono la locomozione, una mente umana che grazie ai suoi “processori” è in grado di cogliere l'input dell'esterno per l'apprendimento
dei codici culturali e la capacità di assemblare tali codici di modo che
divengano coerenti con le rappresentazioni collettive della comunità di
appartenenza. In questi tre passaggi ci siamo serviti di tre supporti fondamentali: il corpo, la mente, la cultura. In questa “complementarietà”
di parti interagenti ma distinte risiede il pernicioso postulato di dualità
mente-corpo che richiama l'epistemologia di radice cartesiana ancora
dominante nella visione occidentale.
Nella biologia neodarwiniana, ad esempio, si presume l'esistenza di
un genotipo che coincide con l'idea di “forma”: contiene in sé già tutte
le caratteristiche potenziali che andranno poi ad essere attualizzate nel
fenotipo. Lo sviluppo evolutivo è quindi in qualche modo predeterminato e prevedibile, ridotto a delle componenti genetiche che forniscono
preventivamente tutte le informazioni circa il suo .
Nelle scienze cognitive incontriamo ancora, specularmente, questa
descrizione determinista insita nella biologia neodarwinista: i genotipi
nella psicologia cognitiva diventano le strutture innate atte ad accogliere
e assorbire le acquisizioni tramite l'apprendimento.
La cultura, a sua volta, è un corpus omogeneo di tecniche, abilità,
conoscenze, che viene trasmesso di generazione in generazione per divenire poi sostanziato nell'utilizzo sociale.
La logica che sottende questa separazione è la stessa di quella che separa l'equipaggiamento genotipico dall'espressione fenotipica nella biologia evolutiva. Proprio come il genotipo contiene un disegno indipendente dal contesto
per il modello dell'organismo, così l'informazione culturale trasmessa contiene delle specificazioni per il comportamento che sono indipendenti dal
contesto, e queste consistono di ciò che è stato variamente definito come
piani, programmi, schemi, rappresentazioni, regole e istruzioni. Come si dice che il genotipo si “realizza” nella forma specifica al contesto del fenotipo,
attraverso un processo di sviluppo in un ambiente, così si dice che la cultura
si “esprime” nella storia di vita dell'individuo attraverso il suo comportamento situato in un ambiente (Ingold 2001, 57).
78
The Lab’s Quarterly, 1, 2015
È necessario spostare l'attenzione da questi “enti” immaginari con cui
ordiniamo la realtà biologica e sociale, ai processi e alle relazioni che
sottendono il passaggio da genotipo a fenotipo, da apprendimento a conoscenza culturale, accorgendosi di come non si dia separazione alcuna
tra l'individuo e il suo ambiente: il compito dell'antropologia diventa
dunque quello di “ri-radicare il soggetto umano nel continuo della vita
organica” (106). Questa vita organica è caratterizzata, nell'ipotesi di Ingold, da un interscambio continuo di informazioni tra l'individuo e il suo
ambiente, dal coinvolgimento attivo dell'essere vivente in questo processo di sviluppo e dalla sua capacità di auto- organizzarsi. Anche i processi culturali, alla stregua di quelli biologici, dovranno essere letti in
questa prospettiva di tipo “organicista”:
Ora desidero sostenere... che l'accoppiamento cultura-comportamento non lascia spazio alcuno alle complesse relazioni psicologiche e ai processi che intervengono tra l'uno e l'altro, e che questo campo di relazioni corrisponde a ciò
che chiamiamo coscienza, e che è solo nei termini delle proprietà di autoorganizzazione della coscienza che possiamo raggiungere una comprensione
delle strutture e delle trasformazioni della vita sociale...Per riassumere il nucleo principale della mia tesi direi che: un'adeguata integrazione dell'antropologia nel più ampio campo della biologia richiede che lo studio delle persone
sia concepito come un aspetto dello studio degli organismi (ivi, 98, 106).
Alla perniciosa alleanza della triade costituita da neo-darwinismo,
scienze cognitive e antropologia della cultura, Ingold sostituisce tre modelli che segnano un radicale mutamento di paradigma: la biologia dello
sviluppo, che mette al centro il processo morfogenetico, la psicologia
della Gestalt, che si concentra sulle relazioni ed i mutui rimandi tra individuo e corpus sociale, e l'antropologia della pratica, che vede l'agente
sociale continuamente immerso nell'esplicarsi delle sue abilità. Facendo
riferimento a quest'ultimo modello disciplinare viene descritto un modus
operandi della pratica esperta all'interno delle comunità umane, assai
diverso da quello prospettato dalla nozione di “cultura”. In questa visone di matrice riduzionista e meccanicista, la tecnologica sarebbe la risultante filogenetica, di un progetto mentale ontogenetico: al design preventivamente strutturato farebbe dunque seguito la costruzione tecnica.
Ingold mette in luce come sia invece centrale nel processo dell'acquisizione dell'abilità pratica, il contatto e lo scambio continuo con la rete di
relazioni sociali in cui il “praticante” è immerso. L'apprendista non mette in pratica mere istruzioni formali in una realizzazione tecnica, ma si
muove per tentativi di imitazione che gradualmente lo portano a impadronirsi della tecnica dei nodi, dell'arte della tessitura e dell'intreccio. In
Irene Conti
79
altre parole le istruzioni non sono situate al di sopra dell'attività pratica
ma al suo interno:
Ma se...non ci può essere un programma esauriente per compiti come fare
nodi, tessere o intrecciare che non sia immanente all'attività stessa, allora interpretare il comportamento dell'uccello tessitore come il risultato di un programma genetico non ha più senso dell'interpretare il comportamento del
pescatore o del cestinaio come il risultato di un programma culturale. In entrambi i casi ci troviamo di fronte a un'abilità che non è né innata né acquisita, ma volutamente incarnata, nel modus operandi del corpo dell'uccello
come dell'uomo, attraverso la pratica e l'esperienza (ivi, 154).
Pertanto Ingold può concludere affermando che le attività dell'intreccio
e della tessitura sono profondamente imbricate nell'esperienza, non c'è
separazione alcuna tra l'idea e la sua realizzazione, poiché la mente non
si situa al di sopra dell'azione: la mente è nell'intreccio stesso.
Nella produzione di un cestino, ad esempio, è innegabile che l'esecutore debba possedere nella sua mente una qualche idea, seppur vaga, del
prodotto concluso, ma quello che è centrale per il cestinaio è la tecnica
che si produce nell'atto stesso dell'intreccio, che avviene attraverso movimenti regolari, seguendo un ritmo costante, in una performance che
coincide con l'oggetto performato. La creatività non sta dunque tutta
nello stampo che precede il prodotto finito, ma nella dinamica del processo produttivo.
Anche il linguaggio, come la tecnica, presenta un carattere performativo più che “ingegneristico”: la grammatica e la sintassi non si apprendono come prerequisiti per formulare parole o frasi, ma si apprende
a parlare attraverso una pratica abile di confronto con l'altro da sé, di
ripetizione continua, di tentativi, di correzione dei propri errori. Ecco
che, anche il linguaggio, dunque, scivola in forme di arte verbale improvvisate, imbevute di ritmo e danza, come in un'immagine emblematica dove la pratica linguistica e quella tecnica si “intrecciano” in una
sola cosa:
Penso alla donna africana che macina il miglio con pestello e mortaio con un
movimento costante, ritmico, di danza, e canta mentre lavora – questa per me è
l'immagine archetipo della situazione umana dell'utilizzo di utensili, non lo
scenario da problem-solving preferito dagli psicologi cognitivi (ivi, 159).
80
The Lab’s Quarterly, 1, 2015
CONCLUSIONI
Il percorso che è stato svolto in questo lavoro ha tentato di offrire un
quadro dei cambiamenti e delle evoluzioni che si sono verificati nel
campo delle scienze, a partire dal secolo scorso, e che vengono raggruppati entro la cornice di una comune denominazione: “l'epistemologia della complessità”.
A discapito di quanto una denominazione così “importante” possa
far intravedere, ci pare che questa corrente di studi, proceda nella direzione di una semplificazione più che di una ulteriore “complessificazione”. L'universo biologico, fisico, sociale, che esse ci presentano, è un
universo dove l'uomo può legittimamente trovare posto come cocreatore, e non più come semplice spettatore di un congegno meccanicistico e finalistico che lo relega alla pura passività.
Anche i tradizionali “oggetti di studio” vengono posti sotto una lente
critica, epistemologica, che ne problematizza la reificabilità, riconducendoli ad un'irriducibile unità con chi ne fa esperienza: l'osservatore.
Ci sembra che già questi due punti di partenza, conducano ad una
maggior semplificazione, intesa non già nella dispregiativa accezione di
ottica riduzionista, ma in quella che, richiamando il senso etimologico,
ci riconduce all'unità, alla ricomposizione delle dualità, ad una concezione più armonica ed integra della realtà e di chi ne fa esperienza.
Se di complessità si può parlare, essa non rimanda all'esaltazione di
ciò che comunemente si intende per complesso, ciò che è difficile e
complicato, ma alla composizione latina di cum plexum: ciò che è intrecciato insieme, connesso, integrato.
La realtà, dunque, non è complicata, è, piuttosto, intrecciata, interrelata, come nell'ottica sintetica e organica proposta nella Teoria dei Sistemi.
Proprio ricalcando questa impostazione, si è voluto dare precedenza,
nel testo, alle connessioni tra le parti, tentando di far emergere la “metastruttura” che le sovrasta, a discapito, forse, di un'analisi più particolareggiata delle componenti singole. Ma, ci è parso doveroso, tentare di
trasmettere quel senso primario, tutto contenuto nell'accezione corretta
di “complessità”, che vede ogni componente della realtà, imbricata in
questo processo, senza precedenti, di rivisitazione e riconnessione.
Quello di cui stiamo parlando non è soltanto un necessario ed auspicabile travalicamento delle tradizionali cornici disciplinari, ma è anche
un ricondurre tali cornici disciplinari a confrontarsi con ciò che fino ad
ora è stato rimosso: lo stesso processo del conoscere.
Irene Conti
81
Ecco dunque che ci si muove sui confini della triade Mente, Materia,
Vita, tentando di individuare, in tali confini, interfaccia che permettano
nuove connessioni e arrivando ad affrontare “la minaccia di quel caos
dove il pensiero diventa impossibile”.
BIBLIOGRAFIA
Aczel A.D. (2001), Entanglement: the Greatest Mistery in Physics, New
York, Four Room Eight Windows; trad. it. Entanglement: il più
grande mistero della fisica, Milano, Raffaello Cortina, 2004.
Amoretti M. C., Vassallo N. (2010), Piccolo trattato di epistemologia,
Torino, Codice Edizioni, Versione E-book, Amazon.
Appadurai A. (1996), Modernity at Large: Cultural Dimension of Globalization, Minneapolis, University of Minnesota Press; trad. it. Modernità in polvere, Roma, Meltemi, 2001.
Ashby R. (1956), An Introduction to Cybernetics, London, Chaoman &
Hall Ltd; trad. it. Introduzione alla cibernetica, Torino, Einaudi,
1971.
Barret J. (2006), A Quantum-Mechanical Argument for Mind-Body
Dualism, «Erkenntnis», n. 65.
Bateson G. (1936), Naven, Cambridge, Cambridge University Press;
trad. it. Naven, Torino, Einaudi, 1988.
Bateson G. (1972), Steps to an Ecology of Mind, San Francisco, Chandler; trad. it. Verso un'ecologia della mente, Milano, Adelphi, 1976.
Bateson G. (1979), Mind and Nature: a Necessary Unity, New York,
Dutton; trad. it. Mente e Natura: un'unità necessaria, Milano, Adelphi, 1984.
Bateson G. (1991), a cura di Donaldson R. E., A Sacred Unity. Further
Steps to an Ecology of Mind, New York, Harper Collins; trad. it. a
cura di Donaldson R. E., Una Sacra Unità. Altri passi verso un'ecologia della mente, Milano, Adelphi, 1997.
Bateson G., Bateson M.C. (1987), Angels Fear. Toward an Epistemology of the Sacred, New York, Macmillan; trad. it. Dove gli angeli esitano. Verso un'epistemologia del sacro, Milano, Adelphi, 1989.
Bateson M.C. (1984), With Daughter's Eyes, New York, Morrow; trad.
it. Con occhi di figlia, Milano, Feltrinelli, 1985.
Bellone E. (2004), Caos e Armonia, Torino, UTET.
Bellone E. (2008), Molte Nature. Saggio sull'evoluzione culturale, Milano, Raffaello Cortina.
82
The Lab’s Quarterly, 1, 2015
Bellone E. (2011), Qualcosa là fuori, Come il cervello crea la realtà,
Torino, Codice.
Bertalanffy v. L. (1968), General Systemos Theory, New York,
Braziller; trad. it. Teoria generale dei sistemi, Milano, ISEDI, 19762.
Bettolotti L. (2006), La proposta dell'epistemologia come scienza,
«Spaziomente Pagine di libera divulgazione scientifica».
www.spaziomente.com/ARTICOLI/La_proposta_dellepistemologia_co
me_scienza.pdf
Bettolotti L. (2006), Verso un nuovo metodo scientifico, «Spaziomente.
Pagine di libera divulgazione scientifica».
www.spaziomente.com/Articoli/Verso_un_nuovo_metodo_scientifico.p
df
Bertrando P., Bianciardi M. (2009), La natura sistemica dell'uomo: attualità del pensiero di Gregory Bateson, Milano, Cortina.
Bocchi G., Ceruti M. (1984), Modi di pensare post-darwiniani: saggio
sul pluralismo evolutivo, Bari, Dedalo.
Bocchi G., Ceruti M. (1985), a cura, La sfida alla complessità, Milano,
Mondadori. 20079.
Bohm D. (1952), Quantum Theory, New York, Dover; trad. it.
Bohm D. (1957), Causality and Chance in modern Physics, New York,
Harper Edition; trad. it. Causalità e Caso. La fisica moderna, Napoli, CUEN, 1997.
Bohm D. (1982), Wholeness and the implicate order, London,
Routledge and Kegan Paul.
Bohm D. (1996), Universo, mente, materia, Como, Red.
Boudon R. (1980), The crisis in sociology: problems in sociological
epistemology, London, Mcmillan.
Brogaard B. (2011), The epistemolgy of perception, Boston, WileyBlackwell.
Calcaterra R. M. (2010), Mente e Natura tra metafisica ed epistemologia, in «Natura, Storia, Società. Studi in onore di Mario Alcaro»,
Milano, Mimesis.
Callari Galli M. (1999), La fusione degli orizzonti. Non dobbiamo inseguire sogni di globalizzazione, ma avviare forme concrete di mediazione, «Pluriverso», n. 4.
Callari Galli M., Cambi F., Ceruti M. (20064), Formare alla complessità. Prospettive dell'educazione nelle società globali, Roma, Carocci.
Cantalupi T. (1998), Nel mondo dei quanti, Milano, Rizzoli.
2004, Psiche e Realtà: psicologia e fisica quantistica: la natura profonda della realtà umana e materiale, Torino, Tirrenia Stampatori.
Irene Conti
83
Cantalupi T., La teoria quantistica: una rivoluzione scientifica e filosofica passata sotto silenzio, s.d.
www.teoriaquantistica.xoom.it/Mqfull.html
Capobianco L. (1981), Fisica e Storia: due percorsi paralleli, Napoli,
Guida.
Capra F. (1975), The Tao of Physics, Berkeley, Shambhala Publication;
trad. it. Il Tao della Fisica, Milano, Adelphi, 1982.
Capra F. (1982), The Turning Point, London, Wildwood House; trad. it.
Il punto di svolta, Milano, Feltrinelli, 200912.
Capra F. (1988), Uncommon Wisdom. Conversation with Remarkable
People, New York, Simon and Shuster; trad. it. Verso una nuova
saggezza, Milano, Feltrinelli, 1988.
Capra F. (1996), The Web of Life, New York, Doubleday-Anchor Book;
trad. it. La rete della vita, Milano, Biblioteca Scientifica Sansoni,
1998.
Cavalli Sforza L. (1989), La danza che crea: evoluzione e cognizione
nell'epistemologia genetica, Milano, Feltrinelli.
Cavalli Sforza L. (2010), L'evoluzione della cultura, Torino, Codice
Edizioni.
Cavallini G., La conoscenza come combinazione di effettivo e ipotetico,
s.d.
www.teoriaquantistica.xoom.it/Cavallini.html
Ceruti M. (1986), Il vincolo e la possibilità, Milano, Feltrinelli.
Cini M. (2010), Materia inerte e materia vivente. Riflessioni di un
fisico irrequieto, «Rivista italiana di riflessioni sistemiche», n. 2.
www.aiems.eu/archivio/files/riflessioni_sistemiche_completo.pdf.
Crane D. (1972), Invisible colleges: diffusion of knowledge in scientific
communities, Chicago, University of Chicago Press.
Creath R., Maienschein J. (2000), a cura, Biology and Epistemology,
Cambridge, Cambridge University Press.
Dalla Chiara M., Toraldo di Francia G. (1981), Le teorie fisiche, Torino,
Boringhieri.
Damasio A. (1994), Descartes' Error. Emotion, Reason and the Human
Brain, London, Picador; trad. it. L'errore di Cartesio. Emozione, ragione e cervello umano, Milano, Adelphi, 1995.
Damasio A. (1999), The Feeling of What happens: body and emotion in
the making of concsiousness, London, Heinnemann; trad. it. Emozione e coscienza, Milano, Adelphi, 2000.
De Angelis V. (1996), La logica della complessità, Milano, Mondadori.
De Biasi R.(2007), Gregory Bateson. Antropologia, comunicazione,
ecologia, Milano, Raffaello Cortina Editore.
84
The Lab’s Quarterly, 1, 2015
Deriu M. (2000), a cura, Gregory Bateson, Milano, Bruno Mondadori.
Di Bernardo M. (2010), Complessità e significato nei sistemi biologici
http//www.mondodomani.org/dialeghestai/mdb06.htm.
Dunne B., La coscienza e l'approccio quantistico, s.d,
www.aist-pain.it/it/files/.../
Dunne B., Jahn, R. (2005), Coscienza, informazione e sistemi viventi,
«Spazio mente. Pagine di divulgazione scientifica».
www.spaziomente.com/Articoli/Coscienza_informazione_e_sistemi_vi
venti.pdf
Fabietti U. (20012), Storia dell'antropologia, Bologna, Zanichelli.
Falci G., Fazio R., Palma G.M. (2011), Superconduttori come computer
quantistici, «Il nuovo Saggiatore», n. 17.
Franzese P. P., Scopa A., Riccio A., Barone G. (2003), Studio di sistemi
complessi: la prospettiva ecodinamica in chimica-fisica ambientale,
«Ecodinamica».
www.onb.it/writable/editoriale/Franzese/ProspettivaEcodinamicainChi
mica_FisicaAmbientale.pdf
Foerster H. von (1984), Observing Systems, Seaside, Intersystems; trad.
it. Sistemi che osservano, Roma, Astrolabio, 1987.
Gambardella F. (2009), Ecologia e nuove biologie: una svolta verso la
cooperazione, «Scienza e Filosofia», n. 2.
www.scienzaefilosofia.it/res/site70201/res508205_09GAMBARDELLA.pdf
Gamow G. (1966), Thrty Years That Shook Physics, New York, Anchor
Books; trad. it. Trent'anni che sconvolsero la fisica, Bologna, Zanichelli, 1966.
Gandolfi A. (20082), Formicai, imperi, cervelli, Torino, Bollati Boringhieri.
Geertz C. (1973), Interpretation of Cultures, New York, Basic Books;
trad. it. Interpretazione di Culture, Bologna, Il Mulino, 1987.
Gell-Mann M. (1994), The Quark and the Jaguar: Adventures in the
Simple and the Complex, New York, St Martin Press; trad. it. Il
quark e il giaguaro. Avventure nel semplice e nel complesso, Torino,
Bollati Boringhieri.
Geymonat L. (1989), Immagini dell'uomo, vol.1, Milano, Garzanti.
Giannetto E., Giannini G., Toscano M. (2010), a cura, Relatività, quanti,
chaos e altre rivoluzioni della fisica: atti del 27. Congresso nazionale di storia della fisica e dell'astronomia, Bergamo 2007, Rimini,
Guaraldi.
Giglietto F. (2006), Alle radici del futuro. Dalla teoria dell'informazione
ai sistemi sociali, Milano, FrancoAngeli.
Irene Conti
85
Glasersfeld E. V., Distinguere l'osservatore: un tentativo di interpretare
Maturana, s.d.s.p.,
www.oikos.org/vonosserv.htm
Glissant E. (2001), Le poetiche del caos, «Studi Culturali», n. 3.
Gould S. T. (1980), The Panda's Thumb, New York, Norton & Company; trad. it. Il pollice del panda, Milano, il Saggiatore, 20092.
Gould S. T. (2002), The Structure of Evolutionary Theory, Cambridge,
Belknap Press; La struttura della teoria dell'evoluzione, Codice, Torino, 2005.
Gould S. T., Eldredge N. (1972), Punctuated equilibria: an alternative
to phyletic gradualism, in T.J.M. Schopf, Models in Paleobiology,
San Francisco, Cooper & Company.
Gould, S.T., Vrba E. (1982), Exaptation-A Missing Term in the Science
of Form, «Paleobiology», vol. 8, n. 1.
Grasseni C., Ronzon F. (2004), Pratiche e cognizione. Note di ecologia
della cultura, Roma, Meltemi
Heidegger M. (19669, Einführung in die Metaphysik, Tubingen, Max
Niemeyer Verlag; trad. it. Introduzione alla metafisica, Milano,
Mursia, 19946.
Heisenberg W. (1958), Physics and Philosophy, New York, Harper
Tourchbook; trad. it. Fisica e Filosofia, Milano, il Saggiatore, 1961.
Hoffman L. (1990), Constructing Realities: an Art of Lenses, «Family
Process», n. 29.
Inglod T. (20042), a cura di Grasseni C., Ronzon F., Ecologia della cultura, Roma, Meltemi.
Jacob F. (1977), Evolution and tinkering, «Science», n. 196; trad. it.
Evoluzione e bricolage, Torino, Einaudi, 1997.
Jaynes. J. (1976), The origin of Consciousness in the Breakdown of the
Bicameral Mind, Boston, Houghton Mifflin; trad. it. Il crollo della
mente bicamerale e l'origine della coscienza, Milano, Adelphi,
20073.
Jung C.G. (1961), a cura di A. Jaffè, Errinerungen, Traume, Gedanken
von Carl Gustav Jung, Zurigo, Rascher Verlag; trad. it. Ricordi, Sogni, Riflessioni, Milano, Rizzoli, 20069.
Kauffman S. (1995), In At Home in the Universe. The search for laws of
Complexity, Oxford, Oxford University Press; trad. it. A casa nell'universo. Le leggi del caos e della Complessità, Roma, Editori Riuniti, 2001.
Kauffman S. (2000), Investigations, Oxford, Oxford University Press;
trad. it. Esplorazioni evolutive, Torino, Einaudi, 2005.
86
The Lab’s Quarterly, 1, 2015
Kenny V., La nozione di sacro in Bateson. Cosa ci può insegnare per
vivere costruttivamente?, s. d s. p.,
www.oikos.org/vinsacro
Kuhn T. S. (1970), The Structure of Scientific Revolution, Chicago,
Chicago Univeristy Press; trad. it. La struttura delle rivoluzioni
scientifiche, Torino, Einaudi, 19785.
Laszlo E. (1987), Evolution, Boston, Shambhala; trad. it. Evoluzione,
Milano, Feltrinelli, 1986.
Laszlo E. (2005), Convergenza di scienza e spiritualità, «Syntropy»,
n.3.
Laszlo E. (2006), Quantum and Consciousness: in search of a new paradigm, «Zygon», vol. 41, n. 3.
Laszlo E. (2010), La scienza e il campo akashico, Milano, Feltrinelli
Lentini L. (1990), Il paradigma del sapere: conoscenza e teoria della
conoscenza, Milano, FrancoAngeli.
Lévi-Strauss C. (1955), Tristes Tropiques, Paris, Plon; trad. it. Tristi
Tropici, Milano, il Saggiatore, 1956.
Lévi-Strauss C. (1962), Le pensée sauvage, Paris, Plon; trad. it. Il pensiero selvaggio, Milano, Il Saggiatore, 1964a.
Lipset D.(1980), Gregory Bateson: the Legacy of a Scientist, Engelwood Cliffs NJ, Prentice-Hall.
Lovelock J. (1972), Gaia as Seen through the Atmosphere, «Atmospheric Environment», vol. 6.
Lovelock J. (1979), Gaia, Oxford, Oxford University Press; trad. it.
Gaia. Nuove idee sull'ecologia, Torino, Boringhieri, 1981.
Lovelock J. (1991), Healing Gaia, New York, Harmoy Books; trad. it.
Gaia: manuale di medicina planetaria, Bologna, Zanichelli, 1992.
Lovelock J., Margulis L. (1974), Biological Modulation of the Earth's
Atmosphere, «Icarus», vol. 21.
Luoni Gagliasso E. (2006), Quel che resta dell'ordine, in Tavola rotonda virtuale a partire dal libro, Una lunga pazienza cieca. Storia
dell'evoluzionismo, di G. Barsanti, in Laboratorio dell'ISPF.
www.ispf.cnr.it/ispf-lab
Manghi S. (1998), Attraverso Bateson. Ecologia della mente e relazioni
sociali, Milano, Raffaello Cortina.
Manghi S. (1990), Il gatto con le ali. Tre saggi per un'ecologia delle
pratiche sociali, Milano, Feltrinelli.
Manghi S. (2004), La conoscenza ecologica. Attualità di Gregory Bateson, Milano, Raffaello Cortina.
Irene Conti
87
Marcus G., Fisher M. (1986), Anthropology as a Cultural Critique, Chicago, University of Chicago Press; trad. it. Antropologia come critica culturale, Roma, Meltemi, 1998.
Maturana H., Varela F. (1974), Autopoiesisi: the Organization of the Living Systems, its Characterization and a Model, «BioSystems», n. 5.
Maturana H., Varela F. (1980), Autopoiesis and cognition, Dordrecht,
D. Reidel; trad. it. Autopoiesi e cognizione, Venezia, Marsilio.
Maturana H., Varela F. (1987), The Three of Knowledge, Boston,
Shambhala; trad. it. L'albero della conoscenza, Milano, Garzanti,
1987.
Magrassi P. (2008), Sfruttare il caos, «Nova Rewiew», n. 4.
Margulis L. (1989), “Gaia: the Living Earth” dialogue with Fritjof
Capra, «The Enwood Newsletter», vol.5, n. 2
Maryuama M. (1963), The Second Cybernetics, «America Scientist»,
vol. 51.
Mitchell S. (19889, a cura, Tao The Ching, New York, Harper & Row ;
trad. it. Tao Te Ching, Vicenza, Il Punto d'Incontro, 2011.
Morchio R. (1988), Nel labirinto dell'informazione: i sistemi complessi,
«Epistemologia: Rivista italiana di Filosofia della Scienza», n. 11
vol. 2.
Morin E. (1973), Le paradigme perdu: la nature humain, Paris, Edition
du Seuil; trad. it. Il paradigma perduto, Milano, Feltrinelli, 1974.
Morin E. (1982), Science avec conscience, Paris, Fayard; trad. it. Scienza con coscienza, Milano, FrancoAngeli, 1984.
Morin E. (20112), La sfida della complessità, Firenze, Le Lettere.
Nobili R. (2004), La biologia teorica come scienza della complessità.
http://www.steppa.net/html/scientifica/scientifica7.pdf
Ong W.J. (1982), Orality and Literacy. The Techologizing of the World,
London and New York, Methuen; trad. it. Oralità e scrittura. Le
tecnologie della parola, Bologna, Il Mulino, 1986.
Penrose R. (1989), The Emperor's New Mind. Oxford, Oxford University Press.
Penrose R. (1994), Shadows of the Mind, Oxford, Oxford University
Press.
Polier N., Roseberry W. (1989), Tristes Tropes: Postmodern Anthropologists Encounter the Other and Discover Themselves, «Economy
and Society», n.18, vol. 2.
Possamai T. (2009), Dove il pensiero esita: Gregory Bateson e il “doppio vincolo”, Verona, Ombre Corte.
Prigogine I,. Stengers I. (1979), La nouvelle alliance, Paris, Gallimard;
trad. it. La nuova alleanza, Torino, Einaudi, 1981
88
The Lab’s Quarterly, 1, 2015
Prigogine I,. Stengers I. (1993), Le leggi del caos, Roma-Bari, Gius. Laterza & Figli Spa.
Putti R. (2011), Tra il dire e il fare non c'è di mezzo il mare, s.e.
Quattrocchi P. (1984), Etica, scienza e complessità: etica della scienza e
filosofia della natura nell'epistemologia della complessità, Milano,
FrancoAngeli.
Racami E., Aspetti moderni della fisica greca, s.d.
http://arxiv.org/ftp/arxiv/papers/0709/0709.1277.pdf
Regge T. (1982), Il vuoto dei fisici, «L'Astronomia», n.18.
Riccio B., Brambilla C. (2010), Transnational Migration, Cosmopolitamism and dis-located Borders, Rimini, Guaraldi.
Rushdie S. (1994), East West, New York, Pantheon Books.
Sapienza G. (2005), Il modello del bricolage evolutivo dagli organismi
al linguaggio, «Annali», vol. 4.
http://ojs.unict.it/ojs/index.php/annali-sdf/article/view/36/23
Selleri F. (1987), La causalità impossibile, Milano, Jaca Book.
Sharpe M. D. (2005), Maghreby Migrants ad Writers: Liminality,
Transgression and the Tranferal of Identity, «Dialectical Anthropology», n. 29.
Sosa E., Jaegwon K.(2012), a cura, Epistemology: an anthology,
Malden, Blackwell.
Sparti D. (2002), Epistemologia delle scienze sociali, Bologna, il Mulino.
Stapp H. (2006), Quantum interactive dualism: an alternative to materialism, «Zygon», n. 3, vol. 41.
Tinti T. (1998), La sfida della complessità verso il Terzo Millennio,
«Novecento», n. 38.
Turner V. (1967), The Forest of Symbol, New York, Cornell University
Press: trad.it. La foresta dei simboli, Morcelliana, Brescia 1972.
Ulin R. (1991), Critical Anthropology Twenty Years Later: Modernism
and Postmodernism in Anthropology Critique of Anthropology,
London, Sage Press.
Van Gennep A. (1909), Le rites de passage, Paris, Nourry; trad.it. I riti
di passaggio, Torino, Bollati Boringhieri, 1991.
Vann E., Quantum Ethnography: Anthropology in the Post-Einstenian
Era, s.d.
http://soar.wichita.edu/dspace/bitstream/handle/...
Vannini A. (2007), Modelli Quantistici della Coscienza, «Syntropy»,
n.1.
Irene Conti
89
Varela, F., Thompson E., Rosch E. (1991), The Embodied Mind, Cambridge, MIT Press; trad. it. La via di mezzo della conoscenza, Milano, Feltrinelli, 1992.
Watzlawick P., Beavin J. H., Jackson D. D. (19679, Pragmatic of human communication, New York, Norton & Company; trad it. Pragmatica della comunicazione umana, Roma, Astrolabio, 1971.
Wiener N. (1948), Cybernetics, or control and communication in the
animal and the machine, Cambridge, MIT Press; trad. it. La Cibernetica, Milano, Bompiani, 1953.
Wiener N. (1950), The Human Use of Human Biengs, New York,
Houghton Mifflin; trad. it. Introduzione alla cibernetica: l'uso umano degli esseri umani, Torino, Einaudi, 1953.
Zanarini G., Entropia, informazione, complessità, s.d. s.p.
http://space.reggionet.it/rcs/ruffini/zanarini.htm
Zeleny M. (1980), Autopiesis, Dissipative Structure and Spontaneous
Social Orders, Washington, AAAS.
Zerzan J. (1994), Future Primitive, New York, Autonomedia; trad. it.
Primitivo attuale, Viterbo, Nuovi Equilibri, 2004.
Zito C. (1999), Gregory Bateson: circolarità epistemica e logica della
complessità, Bari, Cacucci.
Zoletto D. (2001), Pensiero e scrittura del doppio legame: A partire da
Bateson, Trieste, Università di Trieste.
RECENSIONI
GIUSEPPE GAGLIANO, I CHIERICI DELLA RIVOLUZIONE E DELLA
REAZIONE. SAGGIO SUL TOTALITARISMO, SULL’ANTILIBERALISMO E
SULL’ANTICAPITALISMO DEL NOVECENTO, ARACNE, 2013
di Luca Corchia
Poche passioni hanno infiammato gli animi
dei più intransigenti epigoni del pensiero
rivoluzionario e conservatore della comune
avversione al modello societario elaborato
dal liberalismo, intorno all’interdipendenza
tra l’economia capitalistica e la democrazia
politica attraverso la costituzionalizzazione
giuridica del potere. Sin dalle origini di
questo assetto sociale che identifica la
modernità occidentale, sono state ricorrenti
le ondate anti-liberali, con livelli d’allarme
verso la metà del XIX secolo, tra le due
guerre mondiali e negli ultimi due decenni.
Alexis de Tocqueville, Friedrich Von
Hayek e Ralf Dahrendorf furono testimoni e critici intransigenti dei
cedimenti intellettuali alle tentazioni del “totalitarismo”. Perché se
seguiamo le riflessioni dei classici del pensiero liberale, dagli assunti
alle deduzioni, dai teoremi alle costatazioni, tertium non datur. È vero
che l’enormità dei misfatti perpetrati in nome dell’umanità nuova fu tale
che pochi intellettuali salutarono con favore l’avvento dei regimi fascisti e
comunisti ed oggi solo un novero di irriducibili fanatici ne alimenta la
nostalgia. Così come vi sono state e vi sono tuttora dottrine e movimenti
politici di ispirazione liberale tanto a destra quanto a sinistra. Eppure
l’antinomia “liberale-totalitario” assume una stringenza logica se
consideriamo che uno dei principi cardine del pensiero liberale è il
rifiuto di un modello dirigista che convogli tutti i mezzi economici e
sociali per realizzare finalità e obiettivi predefiniti dai leader carismatici
e realizzati da appartati tecnocratici. Possono variare la direzione,
Luca Corchia
91
l’intensità e gli strumenti dell’impresa ma ciò che è comune alle
concezioni interventiste di destra o di sinistra è la pretesa di imporre
coercitivamente un sistema di rilevanze giustificato eticamente dalla
preminenza di qualche “interesse collettivo”. Nulla è più lontano dalla
matrice individualista che alimenta il pensiero liberale, secondo cui la
libertà personale è l’unica fonte di progresso materiale e spirituale e ogni
forma di pianificazione della vita umana degenera inevitabilmente nel
privilegio e nel dominio di gruppi organizzati sull’intera comunità sociale.
Il liberalismo è compatibile solo con progetti universali non totalizzanti in
cui la cooperazione tra gli individui poggi su scelte libere e responsabili.
Questa breve premessa può rendere conto solo in minima misura
dell’importanza della questione culturale al centro del volume I chierici
della rivoluzione e della reazione. Saggio sul totalitarismo, sull’antiliberalismo e sull’anticapitalismo del Novecento, pubblicato da Giuseppe
Gagliano per le Edizioni Aracne. La posta in gioco è difendere lo spirito
libertario dell’architettura democratica contro chi rivendica la speciale
delega a decidere, obtorto collo, nostro malgrado, quale sia la scala dei
valori legittimi e quali norme devono disciplinare le condotte di vita.
Una tentazione che ha attratto gli intellettuali, che più di altri si interessano a cose di rilevanza pubblica e vorrebbero instillare nei dirigenti
politici le loro idee, finendo sovente per vedere frustrate tali ambizioni.
Nell’imponente parterre de Rois dei “cattivi maestri” – l’ampiezza
della disamina merita già una nota di merito – vi sono senz’altro figure
intellettuali molto eterogenee, tra le fila stesse degli opposti schieramenti,
se tali possono essere considerati, da un lato, le correnti marxiste,
socialiste utopiche ed anarchiche della sinistra radicale e, dall’alto lato,
quelle controrivoluzionarie, nazionaliste e fasciste della destra estrema.
Tra i “chierici della rivoluzione” sono annoverati Lenin, Lukács e
Gramsci, i maggiorenti della Scuola di Francoforte (Adorno, Horkheimer,
Marcuse e Fromm), Ivan Illich, Simone Weil, la controcultura della nuova
sinistra americana e Theodore Roszak, l’Internazionale situazionista di
Guy Débord e Raul Vaneigem, i socialisti anticapitalisti e antistalinisti
della rivista “Politics” di Dwight Macdonald, sino Serge Latouche.
Li accomuna una critica al sistema capitalistico che, attraverso il tema
dell’illuminismo rovesciato, si allarga alla moderna civiltà occidentale,
rea di aver tradito le attese di emancipazione materiale e spirituale.
Gli Stati Uniti d’America sono il campo di osservazione privilegiato di
un agire sociale che ha smarrito il senso dei fini e perduto quella libertà
di cui le scelte di consumo sono solo un surrogato funzionale al sistema.
Comune è poi l’attacco al sapere scientifico piegato alle istanze tecniche,
a loro volta asservite a una gestione di impresa che sfrutta il lavoratore e
92
The Lab’s Quarterly, 1, 2015
inganna il consumatore e a un’ingegneria politico-amministrativa che
spoliticizza la sovranità popolare trasformando i cittadini in placidi utenti.
Queste riflessioni che alimentano sentimenti di repulsa e, non di rado,
vagheggiano romanticamente nuovi movimenti collettivi, sono state
tramandate a lungo nei circuiti della cultura della sinistra europea da veri e
propri prototipi di “intellettuale antagonista”, che Gagliano ben stigmatizza nella prima sezione ripercorrendo le analisi compiute da Raymond
Aron, Luciano Pellicani, Lucio Colletti, Giuseppe Bedeschi e Daniel Bell.
Tra i “chierici della reazione”, per contro, i fascisti spiritualisti della
rivista “Combat” di Jean de Fabrègrues e Thierry Maulnier, il nichilismo
di Céline, il pensiero neoconservatore di Ernst Jünger, intellettuali di
regime, come Heidegger, Schmitt e Gentile, il razzista Julius Evola, il
tradizionalismo esoterico e mistico alla René Guénon, Elémire Zolla e
Alain De Benoist, i fautori della Nuova Destra, il Groupement de
Recherche et d’Études pour la Civilisation Européenne, la Neu Rechte
di Henning Eichberg, il Circolo Thulé e il pensiero di Frans Van der
Hoff. Non mancano gli italiani Adriano Romualdi, il negazionismo di
Cesare Saletta, il Fronte Nazionale tilgheriano, Forza Nuova, il Partito
Comunitario Nazional-Europeo, il periodico “L’uomo libero”, la rivista
“Orion” e l’Editrice Barbarossa, le case editrici “All’insegna del Veltro”
fondata da Claudio Mutti, le Edizioni Settimo Sigillo di Enzo Cipriano,
Marco Tarchi direttore di “Diorama letterario”, sino agli scritti di Massimo Fini, Marcello Veneziani, Stenio Solinas e Gianfranco De Turris.
La selezione, inevitabilmente, rimane discrezionale. Si può discutere
sull’esclusione di altri parimenti significativi e di taluni compresi che solo
forzatamente rientrano in questo gioco di estremismi opposizionali.
Altrettanto scontate saranno, poi, le precisazioni e distinguo dei cultori di
ciascuno di essi, a cui compete la precisione filologica e storiografica e
che difficilmente si accontenteranno di brevi ma incisive illustrazioni. Ad
esempio, personalmente, trovo la ricostruzione della teoria critica poco
differenziata rispetto alla parabola intellettuale dei diversi protagonisti,
le cui cadute antimoderniste o escatologiche vanno pur sottolineate.
Il libro di Gagliano, però, può essere considerato un buon “antidoto”
verso l’anti-liberalismo che cova all’interno dei “templi” di una cultura
accademica e pubblicistica che, in verità, presenta segni di logoramento;
ed anche l’occasione per fare in conti con le nostre letture di formazione.