Dall'Universo Ologra.ico e dalla Fisica dell'Informazione all'Argomento della Simulazione ed alla Coscienza Quantistica Un percorso che si dipana tra Fisica e Meta1isica passando per la Cultura di Massa, la Cultura New Age, il Movimento Cyberpunk, il Transumanesimo Nel 1ilm The Matrix, c’è una scena che è rimasta impressa nell’immaginario collettivo ed è stata poi riproposta molte volte in altri 1ilm e videogiochi: una cascata di caratteri alfanumerici verdi scorrono sullo schermo [immagine di copertina] e si tras1igurano in una realtà virtuale fatta di colori e forme, totalmente indistinguibile dal nostro mondo reale. Versione 2 - marzo 2022 A cura di Marco Gentili Indice Premessa 1 Universo Ologra1ico 5 1970-80 - Teoria dell'Ordine Implicato di David Bohm 6 1970-90 - Ordine Implicato <-> Cultura di Massa 8 1970-2010 - Principio Ologra1ico di 't Hooft e Susskind Fisica dell'Informazione 13 20 1950 - Cibernetica di Wiener 21 1950 - Teoria dell'Informazione di Shannon 22 1960-80 - Informazione <-> Cultura di Massa 24 1980 - Slogan It from Bit di Wheeler 26 1990-2000 - Slogan It from Q-bit di Lloyd 27 Argomento della Simulazione 29 2000 - Teorema di Bostrom 30 2000-Oggi - Simulazione <-> Cultura di Massa 31 2010-Oggi - Simulazione <-> Fisica 34 Coscienza Quantistica 1980 - Oggi Modello ORCHestrated Objective Reduction Conclusioni 36 37 39 Abstract Una doverosa avvertenza, di seguito non si vuole speci9icatamente discutere della consistenza, dal punto di vista della 9isica e più in generale della scienza, dell’ipotesi dell'Universo Ologra.ico, della Fisica dell’Informazione, dell'Argomento della Simulazione, del Modello ORCHestrated Objective Reduction, argomenti che chi scrive ritiene più meta9isici che 9isici, ma solo ricostruire la genealogia delle idee alla base delle ipotesi citate, trattandole come idee connesse tra loro e soggette a mutua in9luenza reciproca, prescindendo dal loro valore epistemologico per la 9iloso9ia della scienza o, in senso più ampio, la conoscenza dei metodi dei principi secondo i quali la scienza costruisce sé stessa. A cura di Marco Gentili Premessa Di seguito s'intende evidenziare le reciproche contaminazioni tra le idee ascrivibili alla scienza ed alla 1iloso1ia e le concezioni pseudoscienti1iche espresse dalla cultura di massa inerenti: • la Teoria dell'Ordine Implicato, un nuovo approccio 1iloso1ico nato all'inizio degli anni '70 che, ribaltandolo, richiama il mito della caverna di Platone dove le ombre bidimensionali sono l'illusione e le persone tridimensionali che le creano la realtà; per cui un impercettibile Ordine Implicato, assimilabile ad una lastra ologra1ica bidimensionale, crea la realtà tridimensionale che l'Uomo esperisce, l'Ordine Esplicato; • il Principio Ologra1ico, un 1ilone di ricerca della 1isica nato all'inizio degli anni'70 nel contesto della meccanica quantistica, poi applicato su scala cosmologica all'interno della Teoria delle Stringhe, che suggerisce l'esistenza di un piano di realtà più fondamentale di quello che esperiamo, così da ottenere una teoria completa della gravità quantistica; • la Cibernetica, disciplina nata nel 1948, poi con1luita all'inizio degli anni '50 nell'informatica e nell'intelligenza arti1iciale, che si pone l'obiettivo di studiare in modo comparato i sistemi di comunicazione e controllo, arti1iciale e biologico, dei computer e del cervello umano; • la Teoria dell'Informazione, scienza nata nel 1940 divenuta il fondamento dell'informatica, che studiando il modo in cui l’informazione può essere trasmessa e immagazzinata, suggerisce una equivalenza tra il nuovo concetto di informazione (bit) ed il preesistente concetto di entropia della 1isica, introdotto dalla termodinamica e poi reinterpretato dalla meccanica statistica e dalla meccanica quantistica. L'interferenza di queste eterogenee idee, sia dentro la scienza che al di fuori nel molto più ampio e confuso contesto della cultura di massa, porta ad innescare un fenomeno di convergenza delle idee che promuove la popolarità di nuovi concetti che spesso nati all'interno della cultura di massa sono successivamente recepiti anche dalla scienza. Questi nuovi concetti sono: • l'Universo Ologra1ico, per cui l'universo che percepiamo è un grande e complesso ologramma, in modo che tutte le informazioni che costituiscono la realtà percepita a tre dimensioni più il tempo sono contenute entro i con1ini di una realtà non percepita con una dimensione in meno, una super1icie che contiene tutta l'informazione necessaria a creare l'ologramma dell'universo; il richiamo all'ologramma porta ad accostare la visione 1iloso1ica della Teoria dell'Ordine Implicato a quella 1isica del Principio Ologra1ico assunto a fondamento della Teoria delle Stringhe. A cura di Marco Gentili 1 • la Fisica dell'Informazione, che si basa sull’idea che tutti i processi 1isici possono essere descritti dalle informazioni; il concetto di informazione, nonostante abbia un ruolo fondamentale nella nostra esperienza quotidiana, è stato a lungo assente negli approcci che la 1isica teorica ha adottato per descrivere la realtà, solo negli ultimi decenni è emersa con più forza l’idea che i principi della Teoria dell'Informazione e della Cibernetica possano effettivamente essere un aspetto importante per la comprensione del mondo 1isico. Una volta affermatisi questi concetti di Universo Ologra1ico e Fisica dell'Informazione cominciano nuovamente ad interagire con la cultura di massa sintetizzandosi in nuove idee: • l’Argomento della Simulazione (in inglese Simulation Argument), per cui tutta la realtà percepita, l'Uomo e l'universo che abita, non è altro che una simulazione arti1iciale; • il Modello ORCHestrated Objective Reduction, ORCH-OR, secondo il quale la coscienza si origina piuttosto che dall'interazione dei neuroni costituenti il cervello da meccani quantistici basati sull'entanglement che avvengono all'interno dei neuroni (in strutture intracellulari chiamate microtubuli). Per quanto poco plausibile possa sembrare l'idea che la realtà che percepiamo possa essere un ologramma o addirittura una simulazione generata da un computer, motivo per cui la 1isica deve anche trattare l'informazione, è indubbio che negli ultimi anni queste idee hanno raggiunto una grande popolarità, sia nella cultura popolare, che in alcuni ambiti della 1isica teorica. L'idea di valicare il ben delimitato con1ine della storia della scienza (e della 1iloso1ia), per scon1inare nell'immenso ed autogestito spazio della cultura di massa, così arrivando ad occuparsi della storia delle idee, è ben espressa ed esempli1icata dal 1isico e storico della scienza americano David Kaiser (1971) nel libro intitolato: How the Hippies Saved Physics: Science, Counterculture, and the Quantum Revival (2011), t "Come gli Hippie hanno salvato la Fisica: Scienza, Controcultura e Rinascita Quantistica". Per una sintesi del pensiero di Kaiser è interessante la sua lezione del 2012, disponibile su YouTube con lo stesso titolo del suo libro a questo link How the Hippies Saved Physics. Secondo Kaiser le idee scienti1iche sono il prodotto di un continuo ciclo di "produzione-ricezione", dove la ricezione di un’idea al di fuori del suo ambito naturale di produzione è attuata attraverso gli strumenti della divulgazione scienti1ica e della comunicazione. Recependo l'intrigante idea di Kaiser di ricostruire la genealogia delle idee scienti1iche considerando non solo la loro "produzione" nell'ambito della scienza ma anche la loro "ricezione" nella cultura di massa, di seguito si tenta di evidenziare: • innanzitutto come le idee inerenti la Teoria dell'Ordine Implicato, il Principio Ologra1ico, la Teoria dell'Informazione e la Cibernetica, subiscono una A cura di Marco Gentili 2 continua metamorfosi durante il processo di "produzione-ricezione" che contraddistingue l'interferenza tra scienza e cultura di massa dagli anni '50 ad oggi; • poi come l'Universo Ologra1ico, la Fisica dell'Informazione e l'Argomento della Simulazione risultino essere il risultato di una penetrazione nell'immaginario collettivo proprio delle precedenti idee "prodotte" dalla scienza e "recepite" dalla cultura di massa. In particolare per quanto concerne le idee prese in considerazione la metamorfosi pseudoscienti1ica che le ha riguardate, tradizionalmente ignorata dagli storici della scienza, è stata principalmente indotta dalla Cultura New Age. La Cultura New Age nata negli USA alla 1ine degli anni '60, poi dilagata nel mondo occidentale nel corso degli anni '70 ed '80, è riuscita ad appropriarsi di diversi temi e idee della ricerca scienti1ica di frontiera, in particolare della 1isica teorica e soprattutto della meccanica quantistica e delle Teorie del Tutto, per piegarli ai proprio 1ini e preesistenti concetti o per reinterpretare tramite la 1isica antichi misticismi tipici della cultura orientale. L'elevato processo di alfabetizzazione avviato a partire dagli anni '60, unitamente all'esplosione della divulgazione scienti1ica, a partire dagli anni '90 favorita dai nuovi media che la supportano sostituendo lavagna e gesso con Internet ed il World Wide Web (WWW), che, come si vedrà, con la loro essenza tecnologica contribuiscono anch'essi a suggerire l'Universo Ologra1ico e l'Argomento della Simulazione, fanno si che all'alba del III millennio per comprendere lo sviluppo e l’evoluzione di un’idea scienti1ica sia necessario tenere conto: • sia dei processi intellettuali all’interno delle singole comunità scienti1iche; • come anche delle loro rappresentazioni nell’ambito della più ampia cultura di massa; così passando dalla storia della scienza alla storia delle idee, senza per questo confondere le idee con le teorie scienti1iche ed al tempo stesso sempre interrogandosi criticamente su quale sia il vantaggio di adottare una idea rispetto all'altra. A tal proposito si aggiunge una personale precisazione sulla divulgazione scienti1ica di cui parla Kaiser, la principale responsabile della ricezione delle idee della scienza da parte della cultura di massa. Si ritiene che detta divulgazione possa de1inirsi scienti1ica solo inizialmente. Poi, nella molteplice reiterazione del passaggio "docente -> discente" così schematizzabile: docente preparato -> discente discente preparato che si auto promuove docente -> discente discente super1iciale che diviene docente impreparato -> discente e così via ... A cura di Marco Gentili 3 Reiterazione del passaggio "docente -> discente" che in questo modo richiama il passa parola, a causa del quale il contenuto della divulgazione si degrada progressivamente, perdendo rigore, completezza, consistenza, sino a divenire pressapochista, di conseguenza non producendo un’acquisizione neutra di conoscenza, piuttosto comportandone un’inevitabile trasformazione di senso. In particolare per quanto concerne speci1icatamente gli argomenti della 1isica la Cultura New Age è stata fortemente in1luenzata dal Fundamental Fysiks Group, un gruppo informale di studenti, docenti e appassionati di 1isica dell’Università di Berkeley. Il Fundamental Fysiks Group è fondato nel 1975 per iniziativa della 1isica statunitense Elizabeth A. Rauscher (1937-2019). Poco dopo la sua costituzione ne diviene per molti anni il principale animatore il 1isico italo-americano Sarfatti (1939) che dopo un breve periodo in cui lavora nell'ambito accademico sceglie autonomamente di uscirne per dedicarsi autonomamente al tema della coscienza quantistica che anticipa le ricerche del medico statunitense Stuart Hameroff (1947) e del matematico e 1isico britannico Roger Penrose (1931) che producono il Modello ORCHestrated Objective Reduction della coscienza, traducibile in "riduzione oggettiva orchestrata", per cui la coscienza sarebbe una proprietà emergente dovuta agli effetti quantistici che si sviluppano all'interno dei neuroni del cervello. Il Fundamental Fysiks Group s'impegna nel promuovere alcune idee poi divenute correnti di ricerca nell'ambito della meccanica quantistica, come il Principio di non-località e il Teletrasporto Quantistico, nel far questo appare pervaso di Misticismo Quantico Il termine Misticismo Quantico è coniato agli inizi del '900 dai fondatori della meccanica quantistica quando si dibatte sulle interpretazioni e implicazioni della nascente teoria. Successivamente, dagli anni '70 si usa per riferirsi a un insieme di credenze meta1isiche che ricercano l'origine di coscienza, intelligenza e visioni mistiche del mondo, nelle idee della meccanica quantistica e delle Teorie del Tutto e nelle loro molteplici e diverse interpretazioni. Tra i principali membri del Fundamental Fysiks Group si collocano numerosi personaggi che s'incontreranno nella successiva narrazione. Una narrazione, è bene evidenziarlo, che è anch'essa frutto della divulgazione scienti1ica e di conseguenza inevitabilmente contraddistinta da tutti i limiti precedentemente esplicitati. A cura di Marco Gentili 4 Universo Ologra9ico Il termine Universo Ologra1ico non nasce direttamente nel contesto della 1isica, piuttosto ad essa è semplicisticamente attribuito da una divulgazione che, annacquata dal processo evidenziato da Kaiser di "produzione-ricezione" tra 1isica e cultura di massa, perde la connotazione di divulgazione scienti1ica per acquisire quella di narrazione pressapochista. I concetti originariamente appartenenti alla 1isica coinvolti in questo processo di "produzione-ricezione", che li porta ad interferire tra loro così da trasformarli nell'onnicomprensivo termine di Universo Ologra1ico, sono due: • la Teoria dell'Ordine Implicato, secondo la quale esistono due diversi piani della realtà l'impercettibile Ordine Implicato, che determina i fenomeni 1isici dell'Ordine Esplicato, coincidente con la realtà esperita dall'Uomo; teoria sviluppata negli anni '70 dal 1isico americano David Bohm (1917-1992) partendo da una interpretazione della meccanica quantistica diversa da quella di Copenaghen adottata dalla maggioranza dei 1isici per arrivare, utilizzando una metafora basata sull'ologramma, alla soluzione del Paradosso EPR ed ad una maggiore comprensione dell'entanglement; • il Principio Ologra1ico, per cui l'informazione massima, correlabile all'entropia, che può essere contenuta in un dato volume di spazio è proporzionale alla super1icie che racchiude lo spazio considerato e non al suo volume come ci si aspetterebbe, cosa che motiva il richiamo all'ologramma; principio formulato nel 1990 dal 1isico olandese Gerardus 't Hooft (1946), che riprende idee risalenti agli anni '70 inerenti la termodinamica dei buchi neri inizialmente sviluppate nel 1972 dal 1isico israeliano di origine messicana Jacob David Bekenstein (1947-2015), successivamente rielaborate nel 1981 dal 1isico britannico Stephen William Hawking (1942-2018); principio, successivamente sviluppato tra gli anni '90 ed il 2014 dal 1isico statunitense Leonard Susskind (1940), dal 1isico argentino Juan Martín Maldacena (1968) e dal 1isico austriaco Daniel Grumiller (1973), all'interno della Teoria delle Stringhe. Il Principio Ologra1ico mostra analogie, a cominciare dal comune richiamo all'ologramma, con la congettura dell'Ordine Implicato di carattere più 1iloso1ico che 1isico che proprio per questo ha maggiormente interferito con la Cultura New Age. Ciò nonostante i due concetti si sviluppano seppure temporalmente in parallelo negli anni '70 ed '80, in modo del tutto autonomo ed indipendente, con 1inalità completamente diverse, in settori della 1isica distinti: la meccanica quantistica e la Teoria delle Stringhe. A cura di Marco Gentili 5 1970-80 - Teoria dell'Ordine Implicato di David Bohm Bohm si concentra inizialmente sul cosiddetto Paradosso EPR, dal nome dei 1isici Einstein, Podolsky e Rosen che l’avevano proposto come esperimento mentale nel 1935: esso suppone che, accettando il principio d’indeterminazione di Heisenberg relativo alle proprietà delle particelle subatomiche, e l’interpretazione classica di Copenaghen della meccanica quantistica, introdotta nel 1955 dal 1isico tedesco Werner Karl Heisenberg (1901-1976), secondo cui è la misurazione della proprietà di una particella a far “collassare” il suo stato indeterminato in un parametro preciso e misurabile, si sarebbe veri1icata una violazione del limite di trasmissione d’informazione posto dalla velocità della luce previsto dalla teoria della relatività. Per capire meglio immaginiamo due sub-particelle, A e B, che condividono proprietà speculari, come per esempio lo spin (momento angolare), perché prodotte dal decadimento radioattivo di una particella-madre con spin pari a 0, allora per la legge di conservazione del momento angolare: • o la particella A ha spin pari a +1/2 mentre quello della particella B è -1/2; • o la particella A ha spin pari a -1/2 mentre quello della particella B è +1/2. La misurazione dello spin della particella A ha effetto istantaneo sullo spin speculare della particella B, a prescindere dalla distanza tra A e B che può essere grande quanto si vuole al momento della misura. Questo fenomeno, denominato entanglement da Erwin Schrödinger sempre nel 1935, fu de1inito da Einstein “azione fantasmatica a distanza” perché viola due principi della 1isica classica: • in primo luogo perché la proprietà della particella A è in uno stato indeterminato 1inché non viene effettuata la misurazione, per cui il valore che emergerà dalla misurazione è del tutto casuale, e nondimeno la particella B assumerà la proprietà opposta, mostrando l’esistenza di una correlazione casuale; • in secondo luogo perché, suggerendo l’esistenza di una correlazione che non tiene conto della distanza, vìola il principio di località (in base al quale oggetti distanti non possono avere in1luenza causale reciproca in modo istantaneo). Il paradosso EPR suggerisce a Bohm un errore nell’Interpretazione di Copenaghen della meccanica quantistica, egli immagina l’esistenza di “variabili nascoste”, da lui indicate come potenziale quantico, che possano spiegare l’entanglement senza richiedere una trasmissione superluminale di informazione tra le due particelle ed al contempo ripristinate il determinismo bandito dalla concezione probabilistica della meccanica quantistica come già tentato precedentemente da Louis De Broglie. Lo stesso Einstein, che pure ha proposto l’esperimento mentale EPR proprio per mostrare i limiti dell’Interpretazione di Copenaghen, ritiene la proposta di Bohm troppo debole. A cura di Marco Gentili 6 Nel 1964 il teorema proposto da John Stewart Bell stabilisce che la teoria delle variabili nascoste di Bohm è errata, dovendosi considerare il principio di località non valido nell’ambito della meccanica quantistica. La non-località sostenuta da Bell, veri1icata sperimentalmente solo nel 2015 (Azione Inquietante, Le Scienze, Aprile 2019), costringe Bohm a sviluppare nuove spiegazioni per il fenomeno dell'entanglement. In questa seconda fase della sua vita, dominata più dalla 1iloso1ia che dalla 1isica, anche in1luenzato dalle conversazioni che dal 1959 ha con il 1ilosofo indiano Jiddu Krishnamurti (1895-1986), Bohm si convince che il misticismo orientale nasconde alcune verità che la 1isica occidentale potrebbe riscoprire. E' in particolare attirato dall’idea dell’esistenza di una realtà “nascosta”, comune a diverse 1iloso1ie orientali, che possa spiegare il Paradosso EPR. Con una serie di articoli pubblicati nel corso degli anni '70, poi raccolti e sistematizzati nel saggio Wholeness and the Implicate Order (1980), Totalità e Odine Implicato, Bohm avanza la Teoria dell’Ordine Implicato, secondo cui la nonlocalità dei fenomeni quantistici (l'entanglement) sarebbe spiegabile attraverso la distinzione tra due diversi piani della realtà: • l'ordine esplicato, la realtà esperita dall'Uomo; • l'ordine implicato, che determina i fenomeni 1isici della realtà esperita. Ciò che nell'ordine esplicato appare come diviso e frammentato, nell'ordine implicato esiste come unità spazio-temporale, di cui le particelle e gli altri fenomeni che osserviamo sono espressione. Risulta evidente, dunque, come la Teoria dell’Ordine Implicato risolva il Paradosso EPR: ciò che nell'ordine esplicato appare come una connessione istantanea tra due particelle A e B, non è altro che la manifestazione di un’unità indivisa esistente a livello di ordine implicato, dove non esistono distanze spazio-temporali. Bohm paragona l’interazione tra questi due piani della realtà, ordine implicato e ordine esplicato, alle proprietà degli ologrammi. I principi dell’ologra1ia sono scoperti nel 1947 dal 1isico ungherese naturalizzato britannico Dennis Gabor (1900-1979) che per questo riceve il premio Nobel, ma solo lo sviluppo della tecnologia laser negli anni '60 permette di produrre le prime applicazioni pratiche. Bohm è colpito da due caratteristiche dell’ologra1ia: • la possibilità di riprodurre un’immagine tridimensionale attraverso l’interferenza tra due fasci laser su una lastra bidimensionale, cosicché l’informazione relativa all’oggetto tridimensionale riprodotto è in realtà codi1icata su una super1icie; • che ogni parte della lastra ologra1ica possiede l’informazione a partire dalla quale è possibile riprodurre l’ologramma, cosicché a differenza di una fotogra1ia (dove ogni pixel della foto è la rappresentazione di un punto dell’immagine fotografata) è possibile riprodurre l’intero ologramma anche se si frammenta la lastra ologra1ica (da qui anche il nome, che deriva un termine che in greco antico signi1ica “tutto, l’intero”). A cura di Marco Gentili 7 1970-90 - Ordine Implicato <-> Cultura di Massa L'idea di Bohm di ordine implicato, per lungo tempo ignorata dalla maggior parte della comunità scienti1ica, trova terreno fertile nella controcultura americana degli anni '70, in particolare nella Cultura New Age, caratterizzata dalla: • voglia di contrapporsi all’establishment politico, scienti1ico e culturale; • attenzione alla ricerca interiore ed alla sperimentazione di mezzi per facilitare il naturale contatto tra la coscienza e il mondo esterno, generalmente mediante l’uso di allucinogeni; • fascinazione nei confronti di “guru” spirituali o 1iloso1ici e la riscoperta di tradizioni culturali contrapposte a quella dominante occidentale, come le culture sciamaniche degli indiani d’America e le culture orientali induiste. Queste caratteristiche della Cultura New Age promuovono ciò che David Kaiser de1inisce Groovy Science, ovvero l’attenzione alla ricerca scienti1ica ai margini della ricerca istituzionale, in particolare alternativa a quelle 1inanziate dal complesso militare-industriale americano nel contesto della Guerra fredda. Gli interessi della Groovy Science si riferiscono a quella che oggi è de1inita Pseudoscienza, intendendo con questo termine qualsiasi dottrina che super1icialmente appare essere scienti1ica ma che contravviene ai requisiti di veri1icabilità richiesti dalla scienza o comunque devia sostanzialmente da altri fondamentali aspetti del metodo scienti1ico. Il matematico Martin Gardner la de1inisce: Una teoria interpretativa della natura che, partendo da osservazioni empiriche per lo più fortemente soggettive, tramite procedimenti solo apparentemente logici, giunge a un'arbitraria sintesi, in stridente contrasto con idee comunemente condivise. In particolare la Groovy Science mostra una grande attenzione alla sperimentazione volta a spiegare i presunti fenomeni paranormali di percezione extrasensoriale o ESP (Extra-Sensory Perception) sulla base della convinzione che i paradossi della meccanica quantistica possano fornirne una spiegazione razionale. In questo ambito dalla metà degli anni '70 è particolarmente attivo il già citato Fundamental Fysiks Group dell’Università di Berkeley. Il programma di ricerca redatto nel 1976 da uno dei suoi membri, Saul-Paul Sirag, evidenzia il percorso eterodosso che si vuole intraprendere, ripartendo proprio dallo studio del Paradosso EPR e del teorema di Bell che ha accantonato le "variabili nascoste" del potenziale quantico di Bohm, accettando quindi il principio di non località della meccanica quantistica, si vogliono studiare diversi fenomeni paranormali: • la psicocinesi, per cui un essere vivente sarebbe in grado di agire sull'ambiente che lo circonda, manipolando oggetti inanimati, attraverso mezzi 1isici invisibili e secondo modalità sconosciute alla scienza (con il pensiero); A cura di Marco Gentili 8 • il viaggio nel tempo, tra diversi momenti temporali, inteso in una maniera analoga al viaggio tra diversi punti dello spazio, sia verso il passato sia verso il futuro, senza che il soggetto debba far esperienza di tutto l'intervallo temporale presente tra l'epoca di partenza e quella di arrivo; • la telepatia, l'ipotetica capacità di comunicare con la mente, cioè senza l'utilizzo di altri sensi o strumenti; • le comunicazioni extraterrestri superluminali che il fenomeno dell’entanglement potrebbe consentire; • il ruolo dell’osservatore nella creazione della realtà. David Bohm viene coinvolto attivamente nel Fundamental Fysiks Group, negli anni in cui si trovava al Birkbeck College dell’Università di Londra, da uno dei fondatori del gruppo di Berkeley, il 1isico statunitense Fred Alan Wolf (1934) fortemente in1luenzato dalle teorie eterodosse di molti suoi studenti hippie, motivo per cui nel 1971, nel corso di un anno sabbatico, Wolf si reca in India e in Nepal, dove sperimenta presunte esperienze extracorporali in un tempio buddhista. È possibile supporre che per lo sviluppo della sua Teoria dell’Ordine Implicato Bohm sia in1luenzato, oltre che dai colloqui con Krishnamurti, anche dalle discussioni del Fundamental Fysiks Group. Di certo Bohm si lascia affascinare dall’ipotesi di poter spiegare i presunti fenomeni ESP con il principio della non-località, e porta avanti insieme a Wolf esperimenti sul noto illusionista israeliano Uri Geller (quello che avrebbe piegato cucchiai di metallo con la sola mente) per veri1icare le sue presunte abilità telecinetiche. I risultati di questi esperimenti sono pubblicati da Bohm e Wolf sulla rivista Nature insieme a Wolf, da cui si evince come, pur mostrando cautela sulle implicazioni teoriche, i due 1isici arrivano a confermare le capacità paranormali del sensitivo. Capacità poi sconfessate nel 1981 dal prestigiatore canadese James Randi che riesce a replicarle senza dover ricorrere alla psicocinesi. Se Bohm, nello sviluppo della sua Teoria dell'Ordine Implicato, è in1luenzato dalla Cultura New Age degli anni '70, di certo anche il Fundamental Fysiks Group è a sua volta in1luenzato da Bohm, E' proprio uno dei membri del gruppo, il 1isico austriaco Fritjof Capra (1939) che, in quello che diviene un popolarissimo bestseller, Il Tao della 1isica (1975), in cui si azzardavano connessioni tra i paradossi della meccanica quantistica e il misticismo orientale, rende nota al grande pubblico l'ipotesi di Bohm attraverso una citazione tratta dall'articolo "On the Intuitive Understanding of Nonlocality as Implied by Quantum Theory", "Sulla comprensione intuitiva della non località come implicata dalla teoria quantistica", pubblicato lo stesso anno da Bohm e dal suo collaboratore il 1isico britannico Basil Hiley (1935): Si è condotti a una nuova concezione di totalità ininterrotta che nega l’idea classica della possibilità di analizzare il mondo in parti esistenti in maniera separata e indipendente ... A cura di Marco Gentili 9 Abbiamo rovesciato la consueta concezione classica secondo la quale le “parti elementari” indipendenti del mondo sono la realtà fondamentale e i vari sistemi sono solo forme e disposizioni particolari e contingenti di tali parti. Anzi, diciamo che la realtà fondamentale è l’inseparabile interconnessione quantistica di tutto l’universo e che le parti che hanno un comportamento relativamente indipendente sono solo forme particolari e contingenti dentro a questo tutto (Il Tao della 1isica, Adelphi, Milano 1982, p. 157) : La fascinazione subita dalla Cultura New Age nei confronti della Teoria dell'Ordine Implicato di Bhom, secondo cui la realtà che percepiamo non sarebbe che la “proiezione” di una realtà “nascosta”, in cui quello che nell'ordine esplicato ci appare come separato e distinto è la manifestazione di un tutto indiviso presente nell'ordine implicato, si comprende meglio analizzando alcuni testi che possono considerarsi alla base della Cultura New Age esprimenti idee analoghe sebbene del tutto estranee alla 1isica, ma del resto anche Bohm appare essere uscito dalla 1isica con la sua teoria. Nel 1975, lo stesso anno di pubblicazione del Il Tao della 1isica, i fratelli Terence (1946-2000) e Denis McKenna (1950), forse de1inibili etnofarmacologi, termine che indica chi è interessato allo studio correlato dei gruppi etnici e del loro uso di composti vegetali a scopo medico, sicuramente più interessati alla ricerca di funghi allucinogeni nell’America centrale che a lavorare nei laboratori di ricerca, pubblicano The Invisible Landscape. Mind, Hallucinogens and the I Ching, Il paesaggio invisibile. Mente, allucinogeni e I Ching, libro che descrive le proprietà allucinogene di alcune piante e funghi sudamericani, elabora una fantasiosa teoria pseudo-matematica che collega il testo divinatorio cinese I Ching alla profezia Maya sulla 1ine del mondo prevista per il 2012 che, visto che nulla è accaduto è stata recentemente spostata al 2022 invocando una antico "errore di battitura". In questo libro che avrà grande in1luenza nella letteratura psichedelica i fratelli McKenna rendono nota al grande pubblico una proposta del neuro1isiologo statunitense Karl Pribram (1919-2015), la cosiddetta Teoria Olonomica del cervello, esposta per la prima volta nel 1971 nel testo Languages of the Brain. Secondo tale ipotesi, i fenomeni cognitivi del cervello si comporterebbero in modo analogo agli ologrammi: non esisterebbe cioè una corrispondenza biunivoca tra una parte della memoria o della percezione e una speci1ica sezione del cervello, ma ogni neurone e sinapsi del cervello conterrebbe simultaneamente l’informazione relativa all’insieme dei fenomeni cognitivi. Questo permette ai fratelli McKenna di scrivere: Possiamo immaginare tutto l'universo o qualsiasi sua parte e quindi possiamo dire che la mente “contiene” tutto il mondo 1isico, cioè che la mente è un ologramma della realtà esterna. A cura di Marco Gentili 10 Quello che colpisce i fratelli McKenna della teoria di Pribram è l’idea che il cervello agirebbe come una scheda di memoria hardware che immagazzina i bit, ovvero l’informazione, di cui è composta l’esperienza cosciente, che sembra essere un fenomeno di tipo emergente. In questo modo: • da un lato si esplicita per la prima volta l’in1luenza della Fisica dell’Informazione nello sviluppo di quello che sarà il Principio Ologra1ico; • dall'altro si avalla la versione "forte" dell’Interpretazione di Copenaghen della meccanica quantistica di Von Neumann e Wigner che evidenzia il ruolo della coscienza dell’osservatore nel collasso oggettivo della funzione d’onda e quindi nel passaggio dall’indeterminismo quantistico alla realtà deterministica sperimentata dall'Uomo, ri1iutando la versione “debole” Niels di Bohr e Heisenberg, secondo cui per osservatore si deve intendere un qualsiasi apparato di misurazione, o meglio un qualsiasi sistema macroscopico con cui il sistema quantistico entra in contatto. Il programma di ricerca del Fundamental Fysiks Group propende per la versione "forte" dell’Interpretazione di Copenaghen, motivo per cui nella seconda metà degli anni '70 alcuni membri del gruppo con1luiscono nel Consciousness Theory Group, che invita a collaborare ancora Bohm (la cui prima interpretazione della meccanica quantistica è decisamente opposta all'interpretazione di Von Neumann e Wigner perché ri1iuta il carattere indeterministico della teoria). Il testo dei fratelli McKenna in1luenza anche lo scrittore di fantascienza Philip K. Dick, che nel 1974 è colpito da una visione psichedelica, che lo convince che il mondo in cui vive non è reale, ma una proiezione creata per nascondere il vero piano della realtà per scopi sinistri, tesi che ricomparirà anche nei suoi romanzi di fantascienza. In una lettera del 1975 indirizzata all'amica Claudia Bush, Dick scrive: Cara Claudia, se dovessi dirti "L’universo che noi percepiamo è un ologramma", potresti pensare che ho detto qualcosa di originale, salvo poi renderti conto che ho semplicemente aggiornato la metafora di Platone delle immagini che appaiono sulle pareti della nostra caverna, immagini che prendiamo per reali. L’universo come ologramma tuttavia fa più colpo come visione perché l’ologramma è così straordinariamente simile alla realtà cui esso si riferisce – essendo in forma di falsa cubatura, tanto per dirne una – che potremmo prenderlo per qualcosa di più di una mera affermazione poetica. Molto probabilmente Dick non conosce Bohm e la sua Teoria dell'Ordine Implicato, apprende la Teoria Olonomica del cervello di Pribram dalla versione New Age narrata dai fratelli McKenna; ad essa aggiunge la convinzione che l’Universo Ologra1ico in cui l'Uomo vive sia una simulazione prodotta da una civiltà tecnologicamente superiore per dare all’umanità l’illusione di vivere in una realtà diversa da quella effettiva. Idea che pre1igura quella del 1ilm Matrix (1999) oltre che l'Argomento della Simulazione. A cura di Marco Gentili 11 Nel 1979, in un convegno a Cordoba, Pribram conosce Bohm, direttamente da lui apprende la sua Teoria dell’Ordine Implicato, rimanendone profondamente colpito ed al contempo intuendo un possibile collegamento con la sua Teoria Olonomica del cervello, che difetta di una concreta spiegazione del modo in cui il cervello riuscirebbe a produrre all’interno della mente un’immagine tridimensionale del mondo esteriore. Inizia così una corrispondenza tra i due che prosegue 1ino alla morte di Bohm, nel 1992 e che l’anno prima produce il libro Brain and Perception (1991), Cervello e Percezione, in cui Pribram estende la sua teoria tenendo conto di quella di Bohm. In questo modo Bohm contribuisce alla de1inizione della Teoria Olonomica del cervello di Pribran, insieme elaborano una teoria basata su una descrizione in termini matematici (coerente alla meccanica quantistica) dei processi e delle interazioni neuronali capaci di leggere le informazioni, che si presenterebbero sotto forma di onde, per poi convertirle in schemi di interferenza (trattati mediante applicazione dell'Analisi di Fourier) e trasformarle in immagini tridimensionali. Di conseguenza l'Uomo non vedrebbe la realtà per come è, ma solamente la sua informazione quantistica, il cervello opererebbe in modo simile a un ologramma. Una sintesi delle teorie di Bohm e Pribram, in una forma radicalmente distorta rispetto alle loro impostazione originale, si trova nel saggio The Holographic Universe (1991) dello "scrittore" (dif1icile de1inirlo un 1ilosofo ed assolutamente impossibile considerarlo un 1isico) statunitense Michael Talbot (1953-1992), in cui Talbot, citando frequentemente gli scritti di Bohm e Pribram arriva alla seguente conclusione: I nostri cervelli costruiscono matematicamente la realtà oggettiva, interpretando frequenze che sono in de1initiva proiezioni provenienti da un’altra dimensione, un ordine di esistenza più profondo al di là dello spazio e del tempo: il cervello è un ologramma celato in un Universo Ologra1ico. (Tutto è uno. L’ipotesi della scienza ologra1ica, Feltrinelli, Milano 2016, p. 61.) Partendo da questo assunto Talbot si spinge a spiegare attraverso l'Universo Ologra1ico e quello che in 1isica è de1inito il Principio Ologra1ico fenomeni paranormali come: le esperienze pre-morte, lo sciamanismo, la telepatia, la telecinesi, la precognizione, gli UFO. Le tesi contenute nel libro sono fortemente contestate dal mondo scienti1ico, rientrando a pieno titolo nel campo della Pseudoscienza. I concetti derivati dalla meccanica quantistica sono presentati in modo distorto ed utilizzati per giusti1icare fenomeni o concetti che non sono trattati dalla teoria stessa. L'idea di fondo di un Universo Ologra1ico prende spunto dalla Teoria dell'Ordine Implicito di Bohm, ma la reinterpreta per giusti1icare l'idea di un'unità olistica del reale propria della Cultura New Age. A cura di Marco Gentili 12 Molti concetti esposti, come le energie sottili o le dimensioni non 1isiche, sono completamente estranei ai corrispettivi concetti di energia e dimensione utilizzate nell'ambito della 1isica e più in generale della scienza. I fenomeni paranormali descritti nel libro non sono generalmente accettati dalla comunità scienti1ica, che li ritiene dovuti a scarsi controlli sulla reale natura del fenomeno, artefatti statistici, aneddoti non adeguatamente documentati, o falsi espliciti. 1970-2010 - Principio Ologra9ico di 't Hooft e Susskind Del tutto indipendentemente dalle speculazioni essenzialmente 1iloso1iche sull'Ordine Implicato di Bohm, nello stesso periodo temporale già precedentemente analizzato, gli anni '70, '80 '90, si sviluppa nell'ambito della 1isica un 1ilone di ricerche tra loro connesse che traggono origine dalla termodinamica dei buchi neri che porteranno alla formulazione nel 1990 del Principio Ologra1ico, per cui l'intera informazione contenuta in un certo volume di spazio può essere rappresentata da una teoria che si situa sul bordo dell'area esaminata. Principio Ologra1ico che nella risonanza indotta dal processo di "produzionericezione" che contraddistingue l'interferenza tra scienza e cultura di massa, in particolare tra 1isica e Cultura New Age, anche in virtù del richiamo all'ologra1ia, che richiama l'Ordine Implicato di Bohm, porterà al nascita del termine Universo Ologra1ico nella cui narrazione divulgativa si sovrappongono e confondono la rielaborazione delle idee di Bohm attuata dal Fundamental Fysiks Group con il separato ed autonomo sviluppo del Principio Ologra1ico nell'ambito della Teoria delle Stringhe: • ispirato dagli studi sull'entropia dei buchi neri effettuati dal 1isico israeliano, di origine messicana Jacob David Bekenstein (1947-2015) e dal 1isico britannico Stephen William Hawking (1942-2018); • operato dal 1isico olandese Gerardus 't Hooft (1946) e dal 1isico statunitense Leonard Susskind (1940); • successivamente validato dal 1isico argentino Juan Martín Maldacena (1968) e dal 1isico austriaco Daniel Grumiller (1973). La genesi del Principio Ologra1ico può essere fatta risalire all'inizio degli anni '70 quando il 1isico israeliano, di origine messicana Jacob David Bekenstein (1947-2015), allievo del 1isico statunitense John Archibald Wheeler (1911-2008) di cui si parlerà successivamente nell'ambito della 1isica dell'informazione (§ 1980 - Slogan It from Bit di Wheeler), inizia per primo ad interessarsi della termodinamica dei buchi neri e della connessione tra informazione e gravitazione che anticipa la 1isica dell'informazione la cui nascita negli anni '80 è ascrivibile al suo maestro Wheeler. A cura di Marco Gentili 13 Nel 1972 Bekenstein si chiede cosa accade a un oggetto con entropia (un gas caldo) quando varca l'orizzonte degli eventi di un buco nero. All’epoca si credeva che i buchi neri, “inghiottendo” fatalmente tutta la materia che cade nel loro pozzo gravitazionale senza uscita, possano ridurre l’entropia complessiva dell’universo, in evidente violazione della II legge della termodinamica per cui l'entropia di un sistema (isolato e lontano dall'equilibrio termico) tende ad aumentare nel tempo, 1inché l'equilibrio non è raggiunto. Per mantenere la validità della II legge della termodinamica Bekenstein considera i buchi neri come oggetti aleatori, dotati di un'enorme entropia, il cui incremento compensi l'entropia del gas risucchiato, in particolare dimostra che, all’aumentare della quantità di materia che cade in un buco nero, il suo orizzonte degli eventi, il con1ine che impedisce qualsiasi connessione causale tra interno ed esterno, aumenta di dimensioni, cosa che provoca l'aumento dell'entropia del buco nero e di quella (complessiva) dell’universo. I calcoli di Bekenstein rivelano una proprietà bizzarra dei buchi neri: la misura della loro entropia, calcolata come la quantità e la distribuzione dell’informazione relativa alla materia inghiottita che essi contengono, non è proporzionale al volume del buco nero, ma all’area della sua super1icie, ossia dell’orizzonte degli eventi. Si tratta di una scoperta problematica, poiché per la misura dell’entropia di un qualsiasi ambiente delimitato (come il tradizionale esempio di un gas in un contenitore) si deve sempre tenere conto del suo volume, non certo dell’area della super1icie del contenitore. Nel caso dei buchi neri, l’entropia non è funzione del volume (lo spazio tridimensionale), ma di uno spazio con una dimensione in meno (l’area bidimensionale), un paradosso informativo che ricorda il rapporto tra l'ologramma (tridimensionale) e la lastra ologra1ica (bidimensionale) che racchiude tutta l'informazione necessaria a riprodurlo. All'inizio degli anni '80 il 1isico britannico Stephen William Hawking (1942-2018) riprende le idee di Bekenstein, approccia i buchi neri come oggetti termodinamici calcolando gli effetti della 1luttuazione quantistica (creazione spontanea di coppie di particelle e antiparticelle nel vuoto quantistico) in corrispondenza all'orizzonte degli eventi. Nel 1981 Hawking evidenzia il paradosso dell'informazione del buco nero causato dall'evaporazione dei buchi neri conseguente all'emissione della radiazione di Hawking. In seguito a tale evaporazione quantistica, con conseguente dissolvimento del buco nero, l'informazione passata oltre il punto di non ritorno sparirebbe, violando il principio di conservazione dell'informazione e contestualmente il I principio della termodinamica, la legge di conservazione dell'energia. L'evaporazione di Hawking è casuale e non contiene alcun tipo di informazione. Ciò porta in ultima analisi alla violazione di una proprietà fondamentale della meccanica quantistica: l'unitarietà (la conservazione della somma unitaria delle probabilità nell'evoluzione di un sistema), un altro modo per esprimere il paradosso informativo già evidenziato da Bekenstein. A cura di Marco Gentili 14 All'inizio degli anni '90 il 1isico olandese Gerardus 't Hooft (1946), premio Nobel per la 1isica nel 1999 per aver spiegato la struttura quantistica dell'interazione elettrodebole, immagina che la violazione evidenziata da Hawking derivi dal suo approccio semi-classico e che il conseguente paradosso informativo può essere superato sviluppando una teoria unitaria della gravità quantistica. Per questo 't Hooft suppone che presso l'orizzonte degli eventi i campi quantistici possano essere descritti da una teoria con una dimensione di meno, cosa che lo porta ad ipotizzare il Principio Ologra1ico. Nel 1993 t’Hooft richiama il paragone con l’ologra1ia, parecchi anni dopo il saggio di Bohm sull'Ordine Implicato che risale al 1980 e con una diversa 1inalità volta a spiegare il comportamento dell’entropia dei buchi neri. Nell'articolo Dimensional Reduction in Quantum Gravity (1993) scrive: La situazione può essere confrontata con un ologramma di un'immagine tridimensionale su una super1icie bidimensionale. L'immagine è alquanto sfocata a causa dei limiti della tecnica dell'ologramma, ma la sfocatura è piccola rispetto alle incertezze prodotte dalle consuete 1luttuazioni della meccanica quantistica. I dettagli dell'ologramma sulla super1icie stessa sono intricati e contengono tutte le informazioni consentite dalla 1initezza della lunghezza d'onda della luce - leggi la lunghezza di Planck. (...) Apparentemente si deve concludere che una super1icie bidimensionale disegnata in uno spazio tridimensionale può contenere tutte le informazioni riguardanti l'intero spazio tridimensionale. In effetti, questo dovrebbe valere per qualsiasi super1icie a due che va all'in1inito. Ciò suggerisce che i gradi di libertà 1isici nello spazio tridimensionale non sono indipendenti ma, se considerati a scala di Plank, devono essere in1initamente correlati. La conclusione di t’Hooft suggerisce che questa proprietà ologra1ica non sia esclusiva dei buchi neri, ma condivisa anche da tutti quei volumi delimitati da una super1icie bidimensionale tendente all’in1inito. Sebbene suo articolo non lo espliciti t’Hooft sta già pensando di applicare il Principio Ologra1ico non solo ai buchi neri ma anche all’universo osservabile, delimitato da un con1ine bidimensionale, l’orizzonte cosmologico (o universo osservabile), che segna il limite di osservabilità dell'universo causato dagli effetti cosmologici da parte di un ipotetico osservatore terrestre. Il pieno sviluppo del Principio Ologra1ico è ascrivibile al 1isico statunitense Leonard Susskind (1940), uno dei padri della Teoria delle Stringhe, che aderisce alle idee espresse da Gerardus 't Hooft dopo averlo incontrato all’Università di Utrecht nel 1994. L'anno seguente, con l'articolo The world as a hologram (1995), Susskind propone una soluzione del paradosso di Hawking basata sul principio di complementarità (concetto mutuato dalla meccanica quantistica): il gas in A cura di Marco Gentili 15 caduta varcherebbe "o" non varcherebbe l'orizzonte, a seconda del punto di vista: • per un osservatore che seguisse il gas in caduta libera, l'attraversamento dell'orizzonte avverrebbe senza particolari fenomeni di soglia, in conformità al I postulato della relatività ristretta (per cui le leggi della meccanica e dell'elettromagnetismo sono le stesse in tutti i sistemi di riferimento inerziali) e al principio di equivalenza (la forza dovuta all'attrazione gravitazionale di un corpo massivo su un secondo corpo è uguale alla forza 1ittizia di cui lo stesso corpo risentirebbe se si trovasse in un sistema non inerziale con un'accelerazione pari a quella gravitazionale) formulati da Albert Einstein; • diversamente un osservatore esterno all'orizzonte degli eventi "vedrebbe" le stringhe, ovvero i componenti elementari del gas, allargare le spire 1ino ad abbracciare la super1icie dell'orizzonte degli eventi, sopra il quale si manterrebbe tutta l'informazione senza oltrepassarlo e senza alcuna perdita per l'esterno, nemmeno per successiva evaporazione del buco nero. Fenomeni indescrivibili avverrebbero all'interno della singolarità, ma complementari all'evaporazione, descrivibile esternamente all'orizzonte degli eventi, dove l'informazione si dispone sulla super1icie come su un ologramma. In sostanza l'informazione che si credeva perduta all'interno del buco nero è con1inata e codi1icata sulla super1icie dell'orizzonte degli eventi, quindi non è persa. Il Principio Ologra1ico risolve dunque il paradosso informativo nel contesto della Teoria delle Stringhe. Rimane da chiedersi: il gas di Hawking in caduta nel buco nero varca o non varca l'orizzonte degli eventi? Domanda che si confonde con la seguente: quanto è grande un atomo (le stringhe che lo compongono)? L'atomo ha dimensioni in1initesime (così come le stringhe che lo compongono), però cadendo in un buco nero si dilata avvolgendo l'orizzonte degli eventi come una guaina elastica stirata per milioni di chilometri. Al tempo stesso Susskind riprendendo l'idea non esplicitata nell'articolo di t’Hooft del 1993, suggerisce che il Principio Ologra1ico possa essere usato, non solo per i buchi neri in relazione alle condizioni estreme raggiunte all'orizzonte degli eventi, ma anche per formulare una teoria quantistica della gravità atta a descrivere la realtà 1isica comunemente percepita estendendone l'applicazione all’intero universo, in relazione all'orizzonte cosmologico, ovvero al con1ine sferico rispetto al punto di vista centrale, dove l'espansione del cosmo tende alla velocità della luce. Come per il buco nero, un osservatore situato sulla soglia dell'orizzonte cosmologico, ma ancora in contatto causale col centro, "vedrebbe" le stringhe, ovvero i componenti elementari della materia sensibile situata al centro dipanarsi e avvolgersi sulla super1icie dell'orizzonte. Per Susskind secondo il Principio Ologra1ico, eventi percepiti internamente all'orizzonte cosmologico come tridimensionali (bassa frequenza, bassa energia, infrarossi) sono componenti a bassa frequenza di eventi estremi (alta frequenza, A cura di Marco Gentili 16 alta energia, ultravioletti) che avvengono sulla super1icie sferica bidimensionale dell'orizzonte cosmologico. Questa dualità tra un volume tridimensionale e una super1icie bidimensionale che lo delimita è più facilmente interpretabile nell'ambito della 1isica dell'informazione di cui si tratterà nel prossimo capitolo. Quello che t’Hooft e Susskind scoprono è infatti che l’informazione richiesta per descrivere i fenomeni 1isici all’interno di una qualsiasi regione dello spazio può essere codi1icata in modo completo dai dati presenti su una super1icie che circonda la regione. La realtà tridimensionale percepita sarebbe paragonabile a una proiezione ologra1ica di distanti processi 1isici bidimensionali. Nel suo articolo del 1995, Susskind suggerisce di estendere il Principio Ologra1ico alla Teoria delle Stringhe, una delle due teorie di gravità quantistica che si propongono di uni1icare la relatività generale con la meccanica quantistica in fase di sviluppo in quegli anni (l'altra è la Gravità quantistica a Loop che più che al Principio Ologra1ico si lega alla Teoria dell'Informazione), alla cui formulazione Susskind partecipa. Il suo suggerimento è accolto dal 1isico argentino Juan Martín Maldacena (1968) che contribuisce signi1icativamente ai fondamenti della Teoria delle Stringhe rafforzando l'ipotesi del Principio Ologra1ico di Gerardus 't Hooft e Susskind. Nel 1997 Maldacena sviluppa la Corrispondenza AdS/CFT (AdS, Anti de Sitter; CFT, Conformal Field Theory, Teoria di Campo Conforme"), ipotizzando una relazione tra due tipologie di teorie 1isiche: • gli Spazi anti-de Sitter caratterizzati da una geometria iperbolica a curvatura negativa (come una sella in tre dimensioni, in opposizione alla geometria ellittica a curvatura positiva degli Spazi de Sitter, come un ellissoide in tre dimensioni), usati in teorie di gravità quantistica, formulate in termini della teoria delle stringhe o della teoria M che alle stringhe unidimensionali sostituisce le brane bidimensionali; • le Teorie di Campo Conformi che sono teorie quantistiche dei campi, analoghe alla teoria di Yang-Mills una teoria di gauge (teoria di campo basata sull'ipotesi che alcune simmetrie, nel senso di trasformazioni che lasciano invariata l'energia del sistema, siano possibili non solo globalmente, ma anche localmente) alla base dell'attuale Modello standard delle interazioni fondamentali che descrive le particelle elementari. Per i 1isici che aderiscono alla Teoria delle Stringhe (ancora oggi priva non solo di una qualsiasi veri1ica sperimentale, ma anche di predizioni che possano generare una tale veri1ica), la formulazione della Corrispondenza AdS/CFT consente alla teoria una maggiore capacità di descrivere l’universo, utilizzando una descrizione ologra1ica perfettamente in linea con le intuizioni di t’Hooft e Susskind sull'Universo Ologra1ico e coerente, meramente dal punto di vista della genealogia delle idee, con l'Ordine Implicato di Bohm. A cura di Marco Gentili 17 Alla 1ine degli anni '90 la Teoria delle Stringhe, già riformulata sei volte a partire dal 1968, vive una nuovo revival, il settimo (e molto probabilmente non sarà l'ultimo), dopo essersi arenata per l'ennesima volta in uno dei suoi molteplici vicoli ciechi. Il 1isico statunitense Edward Witten (1951) riesce a dimostrare che cinque diversi tipi di Teoria delle Stringhe (tutti i tipi ipotizzati che prevedono 9 dimensioni spaziali, I, IIA, II B, HO, HE, ad esclusione del tipo Bosonico che prevede 25 dimensioni spaziali e solo forze ed energia e non la materia), apparentemente diversi tra loro, possono essere considerati manifestazioni di un’unica “teoria madre”, che egli chiama Teoria-M, aggiungendo alle nove dimensioni spaziali in cui tradizionalmente è formulata la teoria delle stringhe una decima dimensione (cosa che signi1ica passare come entità elementari dalle stringhe alle membrane, da cui il nome Teoria M). Nel 1997, utilizzando gli strumenti messi a disposizione da Witten, in particolare il concetto di dualità che permette di considerare due diverse teorie come equivalenti da un punto di vista matematico, Maldacena scopre l'esistenza una dualità tra: • una Teoria delle Stringhe a basse energie, che corrisponde alla tradizionale teoria quantistica dei campi a tre dimensioni spaziali del Modello Standard delle particelle, veri1icato sperimentalmente, che non include la gravità limitandosi alle interazioni elettromagnetiche, deboli e forti; • una Teoria delle Stringhe a dieci dimensioni che include anche la gravità. In questo modo Maldacena dimostra che all’interno di uno spazio-tempo caratterizzato per le tre dimensioni spaziali non compatti1icate da una geometria iperbolica a curvatura negativa come una sella (Spazio Anti de Sitter), la teoria della gravitazione è equivalente a una teoria quantistica in uno spazio con una dimensione spaziale compatti1icata in più rispetto alle ordinarie 9 dimensioni spaziali della maggioranza dei tipi di Teoria delle Stringhe. L'esistenza di una dualità pur al variare delle dimensioni spaziali induce Maldacena a concludere che la teoria quantistica dei campi agisce sul bordo dell’universo e “proietta” al suo interno, in un volume a dimensioni spaziali superiori, di cui sono 3 quelle non compatti1icate, un universo dotato di gravità simile a quello che percepiamo e sperimentiamo. La Corrispondenza AdS/CFT, in tal modo, consente di rappresentare i due paradigmi della meccanica quantistica e della relatività generale come equivalenti incorporando la Teoria delle Stringhe e il Principio Ologra1ico. Così come, su una piastra ologra1ica, osserviamo solo solchi apparentemente senza senso, che riproducono l’ologramma tridimensionale solo quando la piastra è illuminata dai due fasci laser, poiché tra quei solchi e l’immagine ologra1ica esiste un’equivalenza in termini di informazione, così le due teorie duali appaiono diversissime ma si rivelano equivalenti se si guarda all’informazione che contengono. Ad esempio nel 1998 Witten, estendendo la congettura di Maldacena, A cura di Marco Gentili 18 scopre che un buco nero nello spazio a dieci dimensioni è equivalente a un plasma di quark e gluoni sul con1ine dell’universo: sono due fenomeni 1isicamente molto diversi, ma sul piano dell’informazione del tutto equivalenti. In questo modo Maldacena arriva a raggiungere quell'uni1icazione di tutte le interazioni fondamentali già auspicata da Einstein che ancora tutt'oggi è una chimera della 1isica alla base delle Teorie del Tutto. Peccato che la soluzione matematica del Principio Ologra1ico ricavata da Maldacena sia valida solo per uno spazio-tempo a curvatura negativa (Spazio Anti de Sitter), diversamente molteplici misure astronomiche dell'universo lo rappresentano nella maggior parte sostanzialmente piatto (con curvatura nulla) o localmente caratterizzato da una curvatura leggermente positiva (Spazio de Sitter). All'inizio degli anni 2010 il 1isico austriaco Daniel Grumiller (1973) riprende il lavoro di Maldacena per validare il Principio Ologra1ico in uno spazio tridimensionale sostanzialmente piatto, simile all'Universo che l'osservazione astronomica ci mostra. Nel 2014 misurando la quantità di informazioni quantistiche di entanglement in un sistema (due particelle quantistiche in entanglement non possono essere descritte individualmente ma formano un unico oggetto quantistico, anche se molto distanti), Grumiller dimostra che l'entropia di entanglement (la misura della quantità di entaglement di un sistema) assume lo stesso valore sia per una teoria quantomeccanica in uno spazio bidimensionale, che secondo una teoria della gravità quantistica in uno spazio tridimensionale piatto. Questa equivalenza conferma che il Principio Ologra1ico vale anche in uno spazio tridimensionale sostanzialmente piatto, come appare essere il nostro universo. In questo modo si evidenzia come l'ipotesi dell'Universo Ologra1ico, nelle sue prime formulazioni di Teoria dell'Ordine Implicato, rimasta per molto tempo ai margini del dibattito scienti1ico, mentre la Cultura New Age se ne appropria, solo recentemente torni in auge tra i 1isici teorici al punto da diventare un paradigma di successo, continuando al tempo stesso ad alimentare concezioni pseudoscienti1iche o materiale narrativo, come si vedrà successivamente. A cura di Marco Gentili 19 Fisica dell'Informazione Tra il 1939 ed il 1945, durante la II Guerra Mondiale sia quelli che saranno i vincitori che i vinti, iniziano ad usare i neonati calcolatori prima elettromeccanici (a relè) poi elettronici (a valvole), capaci di gestire simboli: i vincitori per decrittare i codici segreti dei vinti generati dalla macchina elettromeccanica Enigma, sviluppata nel 1918 e commercializzata dal 1923. In questo contesto di rapido sviluppo tecnologico nel 1948, quella che oggi chiamiamo Informatica guadagna la ribalta trovando una sua sistematizzazione teorica grazie a due distinti contributi pubblicati nello stesso anno da due matematici statunitensi: • quello di Norbert Wiener (1894-1964) dedicato alla Cibernetica; • quello di Claude Shannon (1916-2001) dedicato alla Teoria dell'Informazione. Successivamente a partire dagli anni '60, la veri1ica sperimentale del legame tra entropia ed informazione già evidenziato dalla Teoria dell'Informazione e l'ipotesi che l’identità biologica di un essere vivente possa essere ricondotta all'unità d’informazione nata nel contesto della Cibernetica portano al Panteismo Digitale del 1isico statunitense Edward Fredkin (1934), che costituisce di fatto una prima anticipazione dell'Argomento della Simulazione. Parallelamente sempre a partire dagli anni '60 la Cultura New Age, enfatizza la contrapposizione tra informazione e mezzo di comunicazione evidenziata dalla Teoria dell'Informazione. Contestualmente al progresso tecnologico informatico, alla diffusione dei personal computer ed alla nascita di Internet e del World Wide Web (WWW) all'inizio degli anni '80 la corrente letteraria fantascienti1ica Cyberpunk profetizza il CyberSpace, de1inendolo una dimensione immateriale in grado di mettere in comunicazione i computer di tutto il mondo in un'unica rete, uno spazio concettuale che permette agli utenti di interagire tra loro. Termine che oggi è comunemente utilizzato per riferirsi al mondo virtuale di Internet. La nascita della Fisica dell'Informazione può farsi risalire al 1989 quando il 1isico statunitense John Archibald Wheeler (1911-2008), considerando l'informazione una grandezza fondamentale della 1isica, sostiene la priorità ontologica dell'informazione rispetto alla energia e materia con lo slogan “It from Bit”, traducibile in "Tutto è Bit". Nel 2000 il pensiero di Wheeler è aggiornato dal 1isico statunitense Seth Lloyd (1960) che trasforma lo slogan“It from Bit” in “It from Q-bit”, dove "Q-bit" è la contrazione di "Quantum bit", l'unità d'informazione quantistica, arrivando alla conclusione che una simulazione dell’universo fatta da un computer quantistico non è distinguibile dall’universo stesso in cui vive l'Uomo, che di nuovo richiama l'Argomento della Simulazione. A cura di Marco Gentili 20 1950 - Cibernetica di Wiener Il libro Cybernetics, or control and communication in the animal and the machine (1948), La Cibernetica, controllo e comunicazione nell'animale e nella macchina, del matematico statunitense Norbert Wiener (1894-1964), de1inisce l'ambito di interesse e gli obiettivi della nuova interdisciplinare disciplina della Cibernetica (termine derivato dal greco col signi1icato di "pilota di navi") a cui è dato impulso dall'inizio degli anni '40 da un gruppo di ricercatori di eterogenea formazione (matematica, ingegneria, biologia, scienze umane), accomunati dall'interesse per uno studio comparato di organismo biologico e macchina arti1iciale declinabile nei seguenti 1iloni di ricerca: • il controllo automatico di macchinari, servomeccanismi, robot, attuato mediante il calcolatore ed altri strumenti elettronici; • lo studio del cervello e delle attività cerebrali, del sistema nervoso e dei ri1lessi spinali, dell'Uomo; l'esame del rapporto tra questi due sistemi di comunicazione e controllo, arti1iciale e biologico, ha poi l'obiettivo di trovare il punto d'incontro tra macchina elettronica e organismo biologico. In questo modo con il suo libro Wiener arriva ad ipotizzare che anche l’identità biologica di un essere vivente possa essere ricondotta all'unità d’informazione, il bit (una estensione dell’intuizione di Shannon di cui si parlerà successivamente). La successiva scoperta della molecola del DNA, avvenuta nel 1953, è di conseguenza interpretata alla luce della Teoria dell’Informazione e della Cibernetica, arrivando a de1inire il DNA il “codice della vita”, un’informazione codi1icata viene trasmessa alla prole per consentire all’organismo di funzionare e svilupparsi. All’inizio degli anni '50, pochi anni dopo la sua teorizzazione, operata da Wiener, la Cibernetica mostra limiti intrinseci, cosa che le farà passare la mano alle nuove discipline emergenti dell'informatica e dell'intelligenza arti1iciale. Proponendo concetti innovativi, ha creato un’utopia: considerare i sistemi sociali o biologici alla stessa stregua di modelli meccanici, descrivibili e comprensibili in termini matematici. Cosa per cui diventerebbe possibile attorcigliarsi la mente chiedendosi: • Che tipo di macchina è questo Uomo? • Che tipo di Uomo è questa macchina prodotta dall'Uomo? La Cibernetica, sottolineando il ruolo della comunicazione e del controllo nelle macchine, come negli organismi viventi, nella realizzazione dei simulacri arti1iciali dell'Uomo, si pone alla base della progettazione e costruzione dei corpi, piuttosto che delle menti. Negando la sua ambizione fondativa d'interessarsi sia al corpo che alla mente, la Cibernetica produce l'ennesimo trionfo del dualismo Cartesiano tra le discipline che le succederanno: A cura di Marco Gentili 21 • la simulazione della mente e delle attività cognitive superiori, che segna il passaggio dalla Cibernetica all'Intelligenza Arti1iciale; • il controllo del corpo, che vede la transizione dalla Cibernetica alla Robotica. 1950 - Teoria dell'Informazione di Shannon L'articolo A Mathematical Theory of Communication (1948), Teoria Matematica della Comunicazione, dell'ingegnere e matematico statunitense Claude Shannon (1916-2001), il cui oggetto è l'analisi e l'elaborazione su base matematica dei fenomeni relativi alla misurazione e trasmissione d'informazioni su un canale 1isico di comunicazione, riporta l'attenzione sulla Teoria dell'Informazione, sviluppatasi a partire dal 1924. Con questo saggio Shannon conia il termine "bit", in questo modo aprendo la strada per costruire un analogia tra informatica e 1isica considerando il bit, de1inito l’unità minima di informazione, l'equivalente informatico della particella elementare costituente ultima della materia. Come non è importante la forma che la materia assume nel mondo macroscopico, dal momento che su scala microscopica essa è composta di particelle elementari uguali tra loro, così per Shannon non è importante la forma che assume la comunicazione (attuata dall'hardware), dal momento che il suo contenuto, l'informazione trasmessa (rappresentata dal software), è sempre esprimibile in bit. Shannon si rende conto che la sua Teoria dell’Informazione presenta una forte analogia con la II Legge della termodinamica, che afferma che l'entropia di un sistema isolato lontano dall'equilibrio termico tende ad aumentare nel tempo, 1inché l'equilibrio non è raggiunto. Nell’interpretazione di Ludwig Boltzmann (1844-1906) della II Legge della termodinamica, basta sul concetto di Ensamble nell'ambito della meccanica statistica, l’entropia è una funzione statistica che descrive la probabilità di distribuzione dei microstati corrispondenti macrostato osservabile. Questi microstati occupano un numero 1inito di con1igurazioni all’interno dello spazio delle fasi corrispondente al macrostato (uno spazio astratto di dimensioni pari uguali al doppio dei gradi di libertà del sistema, per N particelle pari a 6N). Questo è analogo a quello che accade alle molecole di un gas all’interno di un contenitore per cui all'equilibrio statisticamente è molto più probabile che si disporranno in modo da occupare l’intero volume del contenitore, anziché con1inarsi un suo angolo speci1ico. Motivo per cui l’entropia del sistema (approssimativamente interpretabile come livello di “disordine”) è maggiore, coerentemente con la previsione della II legge della termodinamica che ne prevede la crescita costante sino all'equilibrio. Nello studiare il modo in cui l’informazione può essere trasmessa e immagazzinata, Shannon scopre che le con1igurazioni che i bit possono assumere all’interno di uno spazio delimitato (come una scheda di memoria) A cura di Marco Gentili 22 sono ugualmente 1inite, e che la misura dell’informazione posseduta da un sistema si esprime con una formula equivalente a quella che calcola l'entropia. Nel 1961 emerge un ulteriore legame, oltre quello già evidenziato da Shannon nel 1948, tra informazione e entropia, il 1isico tedesco Rolf Landauer (1927-1999) che lavora per IBM pubblica sulla rivista IBM Journal of Research and Development l'articolo intitolato Irreversibility and heat generation in the computing process in cui dichiara che, quando un’informazione è eliminata dall’interno di un computer, il processore la restituisce nell’ambiente esterno sotto forma di quantità di calore, dal momento che il processore raggiunge una temperatura ed emissione di energia termica, tanto maggiori, quanto maggiori sono le attività di calcolo che svolge. L’aumento della temperatura nell’ambiente corrisponde, ovviamente, a un aumento dell’entropia dell'ambiente circostante. Queste equivalenze tra informazione ed entropia favoriscono l’emergere delle prime teorie che suggeriscono una similitudine tra la realtà in cui viviamo e la simulazione virtuale del reale realizzata dal computer. Negli anni '80 il 1isico statunitense Edward Fredkin (1934) propone per primo una teoria 1iloso1ica che può considerarsi antesignana dell'Argomento della Simulazione, per cui l’universo può considerarsi il prodotto di automi cellulari, particolari programmi informatici fondati su algoritmi molto semplici che descrivono l’evoluzione dalla semplicità alla complessità sulla base di poche, semplici regole, così de1initi all'inizio degli anni '50 dal matematico, 1isico e pioniere dell’informatica ungherese John von Neumann (1903-1957). Nel libro Techgnosis (1994), lo scrittore statunitense Erik Davis spiega così la tesi di Fredkin: Aderendo ad una sorta di panteismo digitale, Fredkin immagina l’universo come un grande automa cellulare – uno di quei programmi per computer che consta di semplici elementi e funzioni basilari, ma che col tempo produce complesse ecologie cibernetiche. Ed una volta considerato l’universo come un’immensa matrice logica di algoritmi, l’attività dei computer terreni di oggi potrebbe ben assumere un meta1isico, quasi demiurgico, potere. La macchina universale diviene così una macchina che costruisce universi. (Techngnosis, Ipermedium Libri, Napoli 2001, p. 141) Il più celebre esempio è costituito dal Gioco della vita, sviluppato alla 1ine degli anni '60 dal matematico inglese John Conway (1937-2020) e diffuso al grande pubblico nel 1970 da Martin Gardner nella rubrica Giochi Matematici di Scienti1ic American. Il Gioco della vita evidenzia come comportamenti analoghi alla vita possano emergere da regole semplici e interazioni a molti corpi, principio alla base della Teoria della Complessità, per farlo immagina un mondo in1inito costituito da una griglia di celle quadrate, per cui ognuna ha 8 celle contigue, che possono trovarsi in due stati viva o morta (accesa o spenta, 0 o 1). Lo stato della griglia evolve in intervalli di tempo discreti. Gli stati di tutte le celle in un dato istante sono usati per calcolare lo stato delle celle all'istante successivo: A cura di Marco Gentili 23 • qualsiasi cella viva con meno di due celle vive adiacenti muore, come per effetto d'isolamento; • qualsiasi cella viva con due o tre celle vive adiacenti sopravvive alla generazione successiva; • qualsiasi cella viva con più di tre celle vive adiacenti muore, come per effetto di sovrappopolazione; • qualsiasi cella morta con esattamente tre celle vive adiacenti diventa una cella viva, come per effetto di riproduzione. 1960-80 - Informazione <-> Cultura di Massa La rapida traslazione del concetto di informazione dalla totale astrazione matematica della Teoria dell'Informazione di Shannon alla realtà tangibile del codice genetico, resa possibile dal bit, desta una grande risonanza nell’immaginario popolare. In particolare come ben evidenziato dal già citato libro Techgnosis (1994) di Erik Davis, la Cultura New Age, rintraccia nella distinzione tra informazione e mezzo di comunicazione, tra software e hardware, una analogia con la contrapposizione tra anima e corpo, o tra mente e cervello, negli anni '70 assai popolare. Ben lo dimostra il fatto che: • lo scrittore di fantascienza Philip K. Dick, che utilizza il testo divinatorio cinese I Ching per de1inire le trame dei suoi racconti e romanzi immagina che le diverse possibilità espresse dagli esagrammi, i simboli gra1ici composti di 6 linee intere o spezzate di cui è composto l’I Ching, riconducibili in ultima analisi all’informazione binaria 0 e 1 dei bit, possano esprimere linee di realtà diverse, come quella in cui vincitori e vinti della II Guerra mondiale si invertono raccontata nel suo libro La svastica sul sole (1962); le narrazioni di Dick per la messa in evidenza di processi manipolativi del tessuto sociale da parte delle strutture di potere, tramite la simulazione e dissimulazione della realtà, sono per molti aspetti antesignane di quelle tipiche della fantascienza Cyberpunk affermatasi negli anni '80; • i fratelli Terence e Denis McKenna analizzano la struttura dell’I Ching alla ricerca di un “codice nascosto”, riconducono gli esagrammi a unità d’informazione secondo loro in grado di replicare l’informazione codi1icata nel DNA, sottoposta a mutamenti energetici periodici. Quando nella seconda metà degli anni '70 inizia l'invasione dei personal computer negli uf1ici e nelle case si compie il primo passo per arrivare a realizzare una rete globale in grado di connettere tra loro tutti i dispositivi virtuali. Internet, che emerge dal progetto Arpanet dell'Advanced Research Projects Agency (ARPA) avviato nel 1967, muove i primi passi nel 1974 anche se, informatici a parte, il grande pubblico diviene cosciente della sua esistenza solo molto più tardi, dopo che nascono: A cura di Marco Gentili 24 • nel 1991, il World Wide Web (WWW), letteralmente la "rete del ragno globale", tecnologia ipertestuale per cui ogni documento avrebbe potuto contenere link e riferimenti ad altri testi; • nel 1993, un programma software chiamato Mosaic, che non si sapeva ancora a quale categoria riferire, che avrebbe permesso di navigare le potenti onde della nascente rete globale; da Mosaic discendono tutti quelli che oggi chiamiamo browser, letteralmente navigatori, costruiti attorno al concetto di ipertesto, che nel tempo, si è fatto sempre più multimediale ed interattivo, permettendo di gestire non solo documenti testuali, ma anche audio, immagini, video, applicazioni. La sensazione di poter entrare tangibilmente in contatto con un mondo virtuale fatto esclusivamente di bit si accresce rapidamente senza dover aspettare le evoluzioni tecnologiche legate alla nascita di Internet e del World Wide Web al punto che all'inizio degli anni '80 scrittori di fantascienza come gli statunitensi William Gibson (1948) e Bruce Sterling (1954) originano una nuove corrente letteraria. Gardner Dozois, direttore della rivista Isaac Asimov's SF Magazine, nel 1984 de1inisce questa nuova corrente letteraria Cyberpunk fondendo termini che puntano a due distinte e preesistenti culture: termine che unisce due termini che contrassegnano le caratteristiche di questa nuova fantascienza: • il termine Punk, che letteralmente signi1ica legno marcio, riporta alle posizioni violentemente polemiche, sintetizzabili con le parole trasgressione, ribellione, protesta, ri1iuto, operate nei confronti della società consumistica del movimento giovanile di protesta, sorto verso la metà degli anni '70 in Inghilterra e negli Stati Uniti, caratterizzato dall'ostentata esibizione di forme di abbigliamento e da acconciature di capelli vistosamente eccentriche; • il termine Cyber , deriva da quello Cybernetics introdotto da Wiener, punta alle intuizioni emergenti all’interno di informatica e cibernetica. La fantascienza Cyberpunk è infatti impregnata di tecnologia avanzata come nella migliore tradizione dello zoccolo duro della fantascienza, ma si differenzia da essa per la presenza di un carattere visionario e trasgressivo nel quale con1luiscono liberamente mode, simboli, atteggiamenti culturali underground contemporanei. Gli autori Cyberpunk si trasformano in profeti di un immaginario fantascienti1ico basato su virtuosismi estrapolativi e visioni globali di futuri labirinti tecnologici e cibernetici. Essi elaborano visioni fantascienti1iche di mondi dove Reale e Virtuale, Organico e Tecnologico s’intersecano avviluppandosi in un tutt’uno, grazie all'utilizzo delle tecnologie, soprattutto quelle informatiche legate ai computer, a generare: • il Cyborg, un essere umano sostituito progressivamente da protesi meccaniche mediante interventi chirurgici, che rischia di trasformarsi in una quasi-macchina dove di umano rimane solo il cervello; A cura di Marco Gentili 25 • il CyberSpace (anche denominato TecnoSfera o Matrice), una dimensione immateriale che nasce dalla connessione in un'unica rete dei computer di tutto il mondo; quindi un universo sintetico, inesteso, puramente mentale, in cui un soggetto può proiettarsi, oggi diremmo rappresentarsi virtualmente, attraverso l’intermediazione del computer, trasformando l’informazione dei suoi atomi in bit, per poi agire come si agisce abitualmente nel mondo reale, interagendo e comunicando con altri soggetti proiettati in questo stesso universo; in de1initiva uno “spazio concettuale", che per questo chi scrive preferisce chiamare Il Virtuale, dove le persone interagiscono usando tecnologie per la comunicazione mediate dal computer. Il testo fondativo della fantascienza Cyberpunk è il romanzo Neuromancer (1984), in italiano Neuromante, di William Gibson in cui il CyberSpace è così de1inito: Un’allucinazione vissuta consensualmente ogni giorno da miliardi di operatori legali, in ogni nazione, da bambini a cui vengono insegnati i concetti della matemaica ... Una rappresentazione gra1ica di dati ricavati dalle memorie di ogni computer del sistema umano. Impensabile complessità. Linee di luce disposte nel non-spazio della mente, ammassi e costellazioni di dati. (Neuromante, Mondadori, Milano 2003, p. 54) 1980 - Slogan It from Bit di Wheeler Il 1isico statunitense John Archibald Wheeler (1911-2008) è noto per aver coniato il termine "buco nero" e sostenuto che lo spazio-tempo al livello più elementare, sia discreto e non continuo, costituito da una “schiuma spaziotemporale”, ed è considerato uno dei pionieri della gravità quantistica, il campo della 1isica teorica che cerca di conciliare la relatività generale descrittiva della gravita e la meccanica quantistica descrittiva delle altre interazioni elettrodebole (elettromagnetica e debole) e forte. Pur dimostrandosi un 1isico teorico rigoroso, come dimostra la sua presa di distanza dalle visioni New Age del Fundamental Fysiks Group, cosa che non gli impedisce di essere uno dei 1isici più apprezzati e citati dal gruppo, e di intrattenere scambi epistolari con alcuni membri del gruppo, negli ultimi anni di vita si dedica prevalentemente agli aspetti epistemologici e 1iloso1ici della 1isica recependo le suggestioni della Teoria dell'Informazione e della Cibernetica. così aprendo la via alla Fisica dell'informazione. Nel 1989 Wheeler giunge alla conclusione che l'informazione è una grandezza fondamentale della 1isica, importante come l'energia e la materia, sostenendo la priorità ontologica dell'informazione rispetto alla energia e materia con la sintetica espressione “It from Bit”, traducibile in "Tutto è Bit", a signi1icare che qualunque cosa è fatta solo di bit, cioè di informazione, ovvero che non esiste A cura di Marco Gentili 26 realtà 1isica senza prima una struttura informativa, cosa che porta a parlare di 1isica dell'informazione. Nell’articolo Information, Physics, Quantum: the Search for Links (1989), con il quale propone questo slogan tesi, scrive: It from bit simboleggia l'idea che ogni elemento del mondo 1isico ha in fondo – in un fondo molto profondo, nella maggior parte dei casi – una fonte e una spiegazione immateriali; che ciò che chiamiamo realtà nasce in ultima analisi dal porre domande sì-no e dalla registrazione delle risposte evocate dall'attrezzatura; in breve, che tutte le cose 1isiche sono di origine teoretica dell'informazione e questo è un universo partecipativo. Nell'esprimere questa visione Wheeler recupera una sua precedente idea, il Principio Antropico Partecipativo (PAP), che costituisce una variante forte del Principio antropico, termine coniato nel 1973 dal 1isico australiano BrandonCarter (1942) per affermare che le osservazioni scienti1iche sono soggette ai vincoli dovuti alla nostra esistenza di osservatori. Con il Principio Antropico Partecipativo Wheeler sostiene che gli osservatori sono necessari all'esistenza dell'universo, in quanto necessari alla sua conoscenza; da cui consegue che gli osservatori di un universo partecipano attivamente alla sua stessa esistenza. Dal Principio Antropico Partecipativo discende un universo anch'esso partecipativo, in cui il ruolo dell’osservatore, già previsto dall’interpretazione di Von Neumann e Wigner della meccanica quantistica, viene enfatizzato 1ino al punto da immaginare che l’osservatore cosciente sia una condizione pregiudiziale per l’esistenza stessa dell’universo. Con lo slogan “It from Bit”, alla luce della Teoria dell’Informazione e della Cibernetica, Wheeler aggiorna la sua precedente idea dell’universo partecipativo: rigetta l'ipotesi di un’analogia tra universo e computer, ritenendo che ciò implichi l’esistenza di un “programmatore cosmico" che faccia funzionare il computer; sostiene piuttosto l’idea di un universo che si “auto-sintetizza”. Al tempo stesso l’idea di una realtà composta di bit non è che la versione informatica della sua concezione di spazio-tempo discreto, costituito da unità indivisibili, idea poi posta alla 1ine degli anni '80 alla base della Gravità quantistica a Loop (LGP, Loop Quantum Gravity) sviluppata dal 1isico indiano Abhay Ashteka (1949), dal 1isico italiano Carlo Rovelli (1956) ed dal 1isico statunitense lee Smolin (1955). Lo slogan “It from Bit” non è riferibile una teoria formalmente elaborata da Wheeler, ma indica piuttosto il programma di ricerca da lui incentivato con l'obiettivo di ricondurre la meccanica quantistica, la relatività generale e le teorie più avanzate di gravità quantistica, alla Teoria dell’Informazione, riscrivendole nel linguaggio dei bit come 1isica dell'informazione. 1990-2000 - Slogan It from Q-bit di Lloyd Numerosi 1isici e matematici hanno raccolto, dal 1989 ad oggi l’eredità di Wheeler, ben lo testimoniano gli sviluppi: A cura di Marco Gentili 27 • del teletrasporto quantistico con i fotoni, portati avanti in particolare dal 1isico austriaco Anton Zeilinger (1945), pioniere nel nuovo campo dell'informatica quantistica; • della crittogra1ia quantistica, che utilizza le proprietà della meccanica quantistica derivanti dal principio di Heisenberg nella fase dello scambio della chiave per evitare che questa possa essere intercettata da un attaccante senza che le due parti in gioco se ne accorgano; fondati su una rilettura della meccanica quantistica nel linguaggio dei bit. All'eredita di Wheeler si aggiunge l'aggiornamento della sua intuizione Wheeler operata dal 1isico statunitense Seth Lloyd (1960) sintetizzabile nel passaggio dallo slogan“It from Bit” a quello “It from Q-bit”, dove "Q-bit" è la contrazione di "Quantum bit", l'unità d'informazione quantistica. Il concetto di Q-bit è oggi recepito da tutti gli studiosi impegnati nel campo della computazione quantistica, branca a cavallo tra 1isica e ingegneria informatica che tenta di creare un computer quantistico, la cui caratteristica è la possibilità di sfruttare il principio quantistico della sovrapposizione degli stati per aumentare enormemente le capacità di calcolo di un processore: infatti, anziché i bit, il computer quantistico sfrutta i Q-bit, caratterizzati dalla possibilità di assumere contemporaneamente entrambi gli stati logici 0 e 1 mentre i bit possono assumere solo uno di questi stati 0 o1. Nel suo saggio Il programma dell’universo (2000), Lloyd sostiene che mentre un computer digitale tradizionale, dati i limiti della sua capacità di elaborazione dell’informazione, non è in grado di ottenere una perfetta simulazione dell’universo, un computer quantistico sarebbe invece in grado di replicare ogni possibile comportamento di un sistema 1isico. Per Lloyd: ... In linea di principio, l’insieme dei componenti dell’universo si può mettere in corrispondenza biunivoca con un numero 1inito di qubit. Allo stesso modo, la dinamica dell’universo, cioè l’insieme delle interazioni tra i suoi componenti, si può far corrispondere a un insieme di operazioni logiche sugli stessi qubit. (Il programma dell’universo, Einaudi, Torino 2006, pp. 137-138) La conseguenza è che una simulazione dell’universo fatta da un computer quantistico non è distinguibile dall’universo stesso in cui vive l'Uomo. A cura di Marco Gentili 28 Argomento della Simulazione In campo 1iloso1ico l'idea che la realtà nella quale viviamo sia una sorta d'illusione o allucinazione collettiva, che in qualche modo anticipa l'Argomento della Simulazione, è molto antica e, con diverse sfumature, rintracciabile tanto in Occidente quanto in Oriente: • In Occidente questa tesi trova un suo primo esponente in Platone (428 a.C. 348 a.C.) e nel suo mito della caverna che in qualche modo inverte il ruolo di reale (i corpi in movimento fuori della caverna) e simulato (le ombre sulla parete della caverna); si può ipotizzare che questa tesi abbia avuto un certo ruolo nella visione dualistica mente-corpo, anima-natura, spirito-materia di Cartesio (1596-1650). • In Oriente, in particolare nella 1iloso1ia indiana, l'ipotesi che la realtà sia una proiezione della mente è presente nella sua più estrema rappresentazione nella 1iloso1ia dell'Advaita Vedānta, la più conosciuta delle scuole della religione Induista, e trae origine dalla speculazione psicologica, cosmogonica e teologica sulle Upanishad, un'insieme di testi religiosi e 1iloso1ici indianiscritti a partire dal IX-VIII secolo a.C., 1ino al IV secolo a.C.. Nel periodo temporale che si sta esaminando, dagli anni '50 ad oggi, l'Argomento della Simulazione, ovvero di una realtà progettata, emerge inizialmente negli anni '50 e '60 nell'ambito della fantascienza, come dimostrano romanzi quali: • Il tunnel sotto il mondo (1955), di Fredrik Pohl che per primo introduce l’idea di una realtà costruita a tavolino mediante un plastico in scala ridotta ricostruito in un laboratorio; • Tempo fuor di sesto (1959), di Philip K. Dick, in cui una città è ricreata in scala 1:1 e popolata di attori per far credere al protagonista di vivere ancora negli anni '50 invece che nel XXI secolo; idea alla base del 1ilm The Truman Show (1997); • Simulacron-3 (1964), di Daniel Galouye, che introduce per primo la simulazione informatica; romanzo successivamente trasposto nel 1ilm Il tredicesimo piano (1999) ed idea ripresa dal 1ilm Matrix (1999) ed i suoi sequel. Solo negli anni '80 il 1isico statunitense Edward Fredkin (1934) propone per primo una teoria 1iloso1ica dell’Argomento della Simulazione, che trae dalle concezioni attinenti alla Fisica dell'Informazione, ma bisogna aspettare il 2003 per arrivare ad una elaborazione più sistematica di questa idea 1iloso1ica opera del 1ilosofo svedese Nick Bostrom (1973) che in merito arriva a de1inire un omonimo teorema. In questo modo partire dal 2000 ad Oggi l’Argomento della Simulazione acquisisce una sempre maggiore popolarità, sia nell'ambito della cultura di massa, in particolare la Cultura New Age ed il movimento culturale del Transumanesimo, come anche nell'abito della 1isica e 1iloso1ia. A cura di Marco Gentili 29 2000 - Teorema di Bostrom Nel 2003 il 1ilosofo svedese Nick Bostrom (1973) pubblica il saggio Are you living in a computer simulation?, "Vivi in una simulazione al computer?" intrecciando le concezioni: • dell'Universo Ologra1ico, che afferma l'esistenza di due diversi "piani della realtà", quelli che Bohm nella sua Teoria dell'Ordine Implicato ha chiamato ordine implicato ed ordine esplicato; • della Fisica dell’Informazione, che nell'adottare lo slogan “It from Q-bit” di Seth Lloyd (1960) fornisce all'Universo Ologra1ico una più consistente base teorica, per cui l’universo sarebbe una simulazione virtuale generata da un computer quantistico. Nel citato saggio Bostrom scrive: Se viviamo in una simulazione, il cosmo che stiamo osservando è solo un minuscolo pezzo della totalità dell'esistenza 1isica. La 1isica dell'universo in cui si trova il computer che esegue la simulazione può assomigliare o meno alla 1isica del mondo che osserviamo. Mentre il mondo che percepiamo in un certo senso “reale”, non si trova al livello fondamentale della realtà. Bostrom suggerisce che, se è possibile simulare virtualmente interi pianeti popolati o addirittura interi universi per mezzo di un computer, ipotizzando esseri intelligenti e dotati di coscienza che popolino questi mondi virtuali, allora il numero di tali simulazioni, verosimilmente create da una qualsiasi civiltà che sia suf1icientemente avanzata, rende statisticamente probabile il fatto che l'Uomo stia effettivamente vivendo all'interno di una realtà simulata. Bostrom afferma che almeno una delle seguenti affermazioni è probabilmente vera: 1. Nessuna civiltà raggiungerà mai un livello di maturità tecnologica in grado di creare realtà simulate. 2. Nessuna civiltà che abbia raggiunto uno status tecnologico suf1icientemente avanzato produrrà una realtà simulata pur potendolo fare, per una qualsiasi ragione, come l'uso della potenza di calcolo per compiti diversi dalla simulazione virtuale, oppure per considerazioni di ordine etico. 3. Tutti i soggetti con il nostro genere di esperienze stanno vivendo all'interno di una simulazione in atto. Determinando così il seguente Teorema di Bostrom: se si pensa che gli argomenti (1) e (2) siano entrambi probabilisticamente falsi, si dovrebbe allora accettare come assai probabile l'argomento (3). A cura di Marco Gentili 30 2000-Oggi - Simulazione <-> Cultura di Massa Al di fuori della 1iloso1ia e della scienza anche la tesi di Bostrom è stata accolta con grande interesse nella cultura di massa, dimostrazione che il processo di "produzione-ricezione" tra scienza e cultura di massa teorizzato da Kaiser è tutt'ora attivo, come ben evidenziano le interazioni tra le idee di Bostrom, o più in generale l'Argomento della Simulazione, e: • gli ambienti della Silicon Valley, pervasi dal movimento culturale del Transumanesimo; • gli studi del 1ilosofo della scienza ungherese di Ervin László (1932) che, come tipico della Cultura New Age, si rifànno a concetti tipici dell'induismo; • l'evento Isaac Asimov Memorial Debate, ospitato dall’American Museum of Natural History di New York nell'aprile del 2016, che dimostra sempre maggiore popolarità dell'Argomento della Simulazione; • la critica all'statuto ontologico del concetto d’informazione, espresso dallo slogan “It from Bit” espressa dal 1ilosofo italiano Riccardo Manzotti (1969). Nella Silicon Valley, termine introdotto all'inizio degli anni '70 per indicare il centro globale per l'alta tecnologia, l'innovazione, i social media ed il capitale di rischio, geogra1icamente collocato nella California settentrionale, negli USA. l’ideologia dominante sul futuro dell’Uomo è quella del Transumanesimo, l’ipotesi secondo cui molto presto sarà possibile fondere l’intelligenza umana con quella arti1iciale dei computer per raggiungere un nuovo stadio dell’evoluzione, de1inito “singolarità tecnologica”. Detta "singolarità tecnologica" è riferibile all'avvento di un'intelligenza (anche arti1iciale) superiore a quella oggi ascrivibile all'Uomo, e ai progressi tecnologici che presumibilmente conseguirebbero da un tale evento; progressi ben oltre la capacità di comprendere e prevedere dell'Uomo, salvo che non intervenga un importante aumento delle facoltà intellettive di ogni Uomo favorito dalla scienza. Se mai si raggiungerà la "singolarità tecnologica" è materia di discussione. Di poter raggiungere la "singolarità tecnologica" sono certi: • l'informatico ed inventore statunitense Ray Kurzweil (1948) dal 2012 dirigente di Google, uno dei teorici del Transumanesimo che per questo ritiene possibile simulare su un computer l’intelligenza umana, cosi recuperando il mito degli anni '50 della Cibernetica; motivo per cui secondo lui sarà anche possibile simulare un universo dotato di vita consapevole, cosa che avalla l'Argomento della Simulazione. • l'imprenditore sudafricano, poi naturalizzato statunitense, Elon Musk (1971), impegnato in numerose aziende hi-tech ( tra cui PayPal, SpaceX, Tesla, SolarCity, Hyperloop, openAI, Neuralink), che nel 2016 dichiara di credere che la possibilità che il nostro universo sia reale e non una simulazione sia di appena una su miliardi. A cura di Marco Gentili 31 Il 1ilosofo della scienza ungherese di Ervin László (1932) nel suo libro Science and the Akashic Field: An Integral Theory of Everything (2004), "La scienza e il Campo Akashico: una Teoria Integrale del Tutto", utilizza l'Universo Ologra1ico nella versione più vicina alla Teoria dell'Ordine Implicato di Bohm per sostenere l’esistenza di un campo d’informazione di cui l’universo che esperiamo sarebbe la proiezione. Questo campo d'informazione è identi1icato da László col concetto induista di Akasha, antico termine sanscrito utilizzato nell'Induismo per indicare l'essenza base di tutte le cose del mondo materiale, l'elemento più piccolo creato dal mondo astrale. László spiega così la sua eterodossa riutilizzando il termine "in-formazione" è coniato da David Bohm per indicare una forma attiva di informazione che modella l'agente informatore: Cosa sono le in-formazioni? Sono una connessione sottile, quasi istantanea, non evanescente e non energetica tra cose in punti diversi del tempo e dello spazio. Tali connessioni vengono de1inite “non-locali” nell’ambito delle scienze naturali e “transpersonali” nella ricerca di coscienza. Le in-formazioni collegano le cose (particelle, atomi, molecole, organismi, sistemi ecologici, sistemi solari, intere galassie, oltre alla mente e alla coscienza associati a una o più di queste cose) indipendentemente dalla distanza che c’è tra loro e al tempo trascorso da quando tra loro vennero create le connessioni (La scienza e il campo akashico, Urra, Milano 2009, p. 57) Citazione che ben dimostra la persistenza, al di fuori dell’ambiente scienti1ico, della proposta di Bohm come spiegazione per la non-località tipica della meccanica quantistica, e il suo aggiornamento alla luce della Fisica dell’Informazione. Nel 2016, in occasione dell'evento Isaac Asimov Memorial Debate, l’astro1isico e divulgatore scienti1ico statunitense Neil deGrasse Tyson (1958) ha organizzato un incontro per discutere in merito alla domanda: Il nostro universo è una simulazione? All'incontro Tyson ha invitato: • il 1ilosofo australiano David Chalmers (1966), il cui lavoro è incentrato soprattutto sul problema della coscienza; • la giovane 1isica teorica iraniana Zohreh Davoudi (nata intorno al 1980), esperta di teorie di campo ef1icaci, cromodinamica quantistica reticolare, simulazione quantistica e quantistica informatica; • il 1isico teorico statunitense James Gates (1950), noto per i suoi studi su supersimmetria, supergravità e teoria delle superstringhe; A cura di Marco Gentili 32 • la 1isica teorica statunitense Lisa Randall (1962), specializzata in 1isica delle particelle e cosmologia; • il cosmologo svedese Max Tegmark (1967), che ha sviluppato un'argomentazione matematica a sostegno dell'ipotesi speculativa del Multiverso e criticato il Modello ORCHestrated Objective Reduction della coscienza elaborato da Roger Penrose e Stuart Hameroff per cui la coscienza sarebbe una proprietà emergente dovuta agli effetti quantistici che si sviluppano all'interno dei microtuboli dei neuroni. Le risposte dei partecipanti all'incontro alla domanda posta sono state assai divergenti, la probabilità che l’universo sia una simulazione è stata valutata essere: • il 50%, per l'astro1isico Tyson; • il 42%, per il 1ilosofo Chalmers; • il 17%, per il cosmologo Tegmark, • l’1%, per il 1isico teorico Gates; • lo 0%, per la 1isica teorica Randall; • la 1isica teorica Davoudi si è ri1iutata di fornire una risposta secca in termini percentuali, lo stesso atteggiamento che avrebbe assunto chi scrive. Nel 2017 il 1ilosofo italiano Riccardo Manzotti (1969), ben esprime le critiche dei 1iloso1i della scienza che mettono in dubbio lo statuto ontologico del concetto d’informazione, espresso dallo slogan “It from Bit”. Manzotti sostiene che l'Argomento della Simulazione si fonda sull’erronea convinzione che l’informazione possieda una qualche tangibilità 1isica, al punto da permettere, attraverso opportuni strumenti, di passare dal bit all’it, dall’informazione all’oggetto 1isico. Scrive Manzotti: Nel 1ilm The Matrix, c’è una scena che è rimasta impressa nell’immaginario collettivo ed è stata poi riproposta molte volte in altri 1ilm e videogiochi: una cascata di caratteri alfanumerici verdi scorrono sullo schermo [immagine di copertina] e si tras1igurano in una realtà virtuale fatta di colori e forme, totalmente indistinguibile dal nostro mondo reale. Dai caratteri verdi emerge un’avvenente donna bionda in un vestito rosso saturo. Il messaggio è chiaro – l’informazione si può trasformare in un mondo virtuale – ma è un messaggio completamente sbagliato. Questa trasformazione, che viene comunemente ritenuta plausibile, da un punto di vista scienti1ico non è più accettabile della comparsa del genio della lampada, o della pietra 1ilosofale o di un’anima immateriale. L’equivoco nasce dal fatto che, quotidianamente, l’informazione viene utilizzata per produrre immagini su schermi o su carta. A cura di Marco Gentili 33 Ma tale passaggio non è miracoloso. Per ottenere una foto di mio 1iglio, la stampante ha bisogno di pigmenti e inchiostri 1isici, lo schermo del mio tablet deve emettere luci colorate. L’informazione non si trasforma in colori e forme, l’informazione si usa per manipolare il mondo 1isico. (Quindi l’Universo esiste davvero?, Il Tascabile, 28 giugno 2017) Il riferimento di Manzotti a un 1ilm tanto in1luente come è Matrix, che ha ampli1icato la popolarità dell’Argomento della Simulazione, mostra ancora una volta come, nello studiare la continua metamorfosi di queste idee, sia fondamentale tenere conto della loro ricezione all’interno della cultura di massa. 2010-Oggi - Simulazione <-> Fisica Al di là delle speculative suggestioni del Transumanesimo e della Cultura New Age, anche diversi 1isici teorici si sono occupati negli ultimi anni dell'Argomento della Simulazione, tra questi di seguito si esamina succintamente il pensiero: • del matematico e cosmologo britannico John Barrow (1952-2020), vicino alle tesi di Roger Penrose; • il già citato 1isico teorico statunitense James Gates (1950), che partecipa2016 all'evento Isaac Asimov Memorial Debate (2016); • la già citata 1isica teorica iraniana Zohreh Davoudi (nata intorno al 1980), che anch'essa partecipa all'evento Isaac Asimov Memorial Debate (2016). Nel 2011 John Barrow (1952-2020) con il saggio Il libro degli universi (2011), suggerisce di cercare delle "patch", letteralmente "toppa", come si de1iniscono nell'informatica le porzione di software progettate per correggere errori che emergono successivamente al lancio di un software. Nel suo libro Barrow scrive: Se i simulatori usassero i codici informatici di correzione degli errori per premunirsi dalla fallibilità generale delle loro simulazioni (e li simulassero su scala inferiore al nostro codice genetico), ogni tanto verrebbe apportata una correzione allo stato della simulazione o alle leggi che la governano. Avverrebbero allora improvvisi cambiamenti in apparente contraddizione con le stesse leggi di natura che gli scienziati simulati erano abituati a osservare e predire. (Il libro degli universi, Mondadori, Milano 2012, p. 263) Nel caso della simulazione dell'universo, si tratterebbe di modi1iche alle costanti di natura e alle leggi fondamentali introdotte di tanto in tanto dai simulatori per correggere errori che si accumulano nel tempo. A cura di Marco Gentili 34 Il 1isico statunitense James Gates (1950) sostiene che una "patch" come quella auspicata da Barrow, possa trovarsi all’interno di uno dei formalismi utilizzati per descrivere la supersimmetria, un’estensione del modello standard della 1isica delle particelle che sostiene l’esistenza di una simmetria tra le due famiglie di particelle note, i fermioni e i bosoni per cui al gravitone corrisponde il gavitino, al fotone il fotino, al gluone il gluino. In particolare il formalismo adottato da Gates per descrivere geometricamente il modo in cui queste due famiglie di particelle si correlano utilizza delle 1igure molto complesse, una sorta di ideogrammi chiamati “adinkra”. Questi simboli, originari della cultura Ashanti, geogra1icamente collocata nel Ghana, in Africa, per questa cultura permetterebbero di visualizzare meccanismi che supposti reali nel mondo della natura. Il loro funzionamento, tuttavia, sembra possibile soltanto accettando l’idea che gli "adinkra" celino al loro interno una sorta di codice binario, noto agli informatici come codice di Hamming, sviluppato 1in dagli anni '50 per la correzione degli errori di trasmissione. Solo se si inseriscono codici binari simili a questi gli "adinkra" possono funzionare consentendo di mantenere, in ogni trasformazione, le proprietà supersimmetriche previste dalla teoria. Nel 2014 la giovane 1isica teorica iraniana Zohreh Davoudi (nata intorno al 1980), fornisce un possibile metodo di veri1ica dell'Argomento della Simulazione, partendo dal presupposto che l’ipotetica simulazione dello spazio-tempo dovrebbe fondarsi cromodinamica quantistica (QCD) su reticolo, la teoria 1isica che descrive l'interazione forte la cui particella di scambio è il gluone (analogo al fotone per l'elettromagnetismo ed al gravitone per la gravità), utilizzando un reticolo spazio-temporale discreto. Per la Davoudi se i “simulatori” del nostro universo utilizzassero le tecniche di simulazione informatica impiegate dalla QCD su reticolo, basterebbe studiare le particelle emesse dai raggi cosmici ad altissima energia per veri1icare se la loro energia limite vari al mutare della direzione di provenienza, come avverrebbe se lo spazio-tempo fosse un reticolo discreto. A cura di Marco Gentili 35 Coscienza Quantistica Il 1ilosofo australiano David Chalmers (1966), già citato perché tra i partecipanti all'evento Isaac Asimov Memorial Debate del 2016 in cui si dibatte l'Argomento della Simulazione, il cui lavoro è incentrato soprattutto sul problema della coscienza, nella convinzione che la consapevolezza è ciò che permette: cognizione e coscienza, ovvero percezione e sentire, de1inisce due diversi problemi ad essa legati: • Problema facile della Coscienza, inerente all'individuazione di modelli neurobiologici della coscienza, che non spiega il carattere soggettivo ed irriducibile che essa ha per il soggetto cosciente; facile perché, considerati i notevoli progressi nel campo delle neuroscienze, non dovrebbe essere troppo dif1icile trovare detti modelli; • Problema dif1icile della Coscienza, relativo alla spiegazione degli aspetti qualitativi e soggettivi dell'esperienza cosciente, che sfuggono ad un'analisi materialista; dif1icile sia per distinguere dal precedente problema come anche perché ad oggi è riuscito ad impostarne una via di soluzione. Per capire meglio la distinzione tra questi due problemi s'immagini una rosa, romanticamente ritenuta evocativa in termini di sentimenti, conoscere attraverso i sentimenti signi1ica: • avere cognizione, ciò di cui tratta il Problema facile della Coscienza, signi1ica percepire il profumo della rosa; di questa percezione si conosce la spiegazione biochimica, si sa che alcune molecole, a contatto con i recettori sensoriali dell’epitelio nasale (un sottile strato di cellule collocato in un'area ristretta della cavità nasale, sorta di organelli microscopici costituiti da terminazioni nervose che rispondono a stimoli chimici), producono certi segnali elettrici; questi segnali sono un’informazione oggettiva del profumo della rosa recepito dai sensori olfattivi, che può essere usata per riconoscere gli odori, da un Uomo come anche da una macchina; • avere coscienza, ciò di cui tratta il Problema dif1icile della Coscienza, signi1ica tradurre i segnali elettrici simbolo del profumo di rosa, in seno alla propria consapevolezza individuale, nella cognizione di un sentimento soggettivo, quello che i 1iloso1i della mente chiamano qualia. I qualia rappresentano gli aspetti qualitativi delle esperienze coscienti, il sentire, ognuna qualitativamente diversa dall’altra, come ad esempio l’esperienza senziente del sentire l’odore della rosa. Il qualia associato all’odore di rosa è molto di più del segnale elettrico prodotto dai recettori sensoriali, è una categoria incommensurabile con quella dei segnali elettrici. Capire il problema del sentire il profumo di una rosa, signi1ica comprendere la differenza tra: • simbolo, il segnale elettrico relato al suono del campanello o all’odore di rosa; • sentimento, il qualia relato al suono del campanello o all’odore di rosa. A cura di Marco Gentili 36 Per Chalmers la coscienza sarebbe un fenomeno emergente (come è la temperatura di un gas in 1isica legata al moto dei suoi costituenti elementari) ed ha una necessaria relazione con il concetto d'informazione. Questa idea è autonomamente ripresa dal medico statunitense Stuart Hameroff (1947) e dal 1isico e matematico inglese Roger Penrose (1931) per costruire negli anni '90 una teoria della coscienza quantistica, il Modello ORCHestrated Objective Reduction, ORCH-OR. Nonostante l'analogia mostrata dalle conclusioni a cui arrivano Hameroff e Penrose negli anni '90, con quelle risalenti a Bohm e Pribran, sviluppate dal 1979 in poi, non si è trovata evidenza di un qualche legame diretto tra queste teorie o tra i loro autori. 1980 - Oggi Modello ORCHestrated Objective Reduction Nel 1987 il medico statunitense Stuart Hameroff (1947), sulla base del suo lavoro di ricerca sui tumori, nel saggio Ultimate computing (1987), ipotizza che delle strutture intracellulari chiamate microtubuli siano capaci di una qualche forma di calcolo e quindi di coscienza nella propria attività. Hameroff suppone che i microtubuli potrebbero essere le unità base del processo di emersione della coscienza anziché i neuroni stessi. da ciò consegue che almeno una parte della soluzione al Problema dif1icile della Coscienza posto da Chalmers possa essere riconducibile alla comprensione delle funzioni dei microtubuli nei neuroni, giungendo così alla conclusione che operazioni cellulari potrebbero veri1icarsi tramite uno schema di calcolo suf1iciente per poter parlare di coscienza. Nel 1989 il 1isico e matematico inglese Roger Penrose (1931) pubblica La mente nuova dell'imperatore (1989) una ricerca scienti1ica sulla coscienza umana e l'intelligenza arti1iciale in cui, sulla base dei teoremi di incompletezza di Gödel, sostiene che il cervello può svolgere funzioni non assimilabili alla logica formale e quindi impossibili per qualsiasi computer o sistema di algoritmi, ribaltando le convinzioni in materia allora prevalenti. Penrose individua nei principi della meccanica quantistica un processo alternativo all'emergere della coscienza, elaborando il modello Objective Reduction, OR, della "riduzione oggettiva", dove per "riduzione" s'intende il collasso della funzione d'onda previsto dalla meccanica quantistica. Hameroff rimane subito favorevolmente impressionato dalle idee di Penrose, per questo gli propone i suoi microtubuli neurali come i candidati idonei a supportare l'elaborazione quantistica nel cervello. Dal 1992 al 1994 Penrose e Hameroff collaborano alla formulazione del modello Modello ORCHestrated Objective Reduction, ORCH-OR, "Modello della Riduzione Oggettiva Orchestrata"; orchestrazione che si riferisce al processo mediante il quale i microtubuli in1luenzano la loro trasformazione quantistica. A cura di Marco Gentili 37 Secondo il Modello ORCH-OR la coscienza emerge, piuttosto che dall'interazione dei neuroni costituenti il cervello, da meccani quantistici che avvengono all'interno dei neuroni, nei microtubuli che utilizzano il fenomeno dell'entanglement. I risultati di questa collaborazione, che mostrano analogie con le idee di Jack Sarfatti (1939) il principale animatore del Fundamental Fysiks Group, sono esposti da Penrose nel suo saggio Ombre della mente (1994). Nel 2014 Penrose e Hameroff annunciano la scoperta, ad opera del 1isico sperimentale indiano Anirban Bandyopadhyay (1975) di reazioni quantistiche nei microtubuli. In ogni caso il Modello ORCH-OR è ancora privo di una qualunque veri1ica sperimentale. Il legame tra coscienza ed informazione, il considerarla un fenomeno emergente e la sua sopravvivenza alla morte del cervello che farebbe con1luire questa informazione ad aggiungersi a quella che riempie l'universo, sono i tenui legami che: • da un lato assimilano le idee di Penrose e Hameroff a quelle precedentemente sviluppate, a partire dal 1979, da Bohm e Penrose, senza che emerga un qualche legame diretto tra le due teorizzazioni; • dall'altro correlano il Modello ORCH-OR all'Argomento della Simulazione. Penrose è ateo, ciò non gli impedisce di ipotizzare, con Hameroff, che la coscienza quantica di ogni essere vivente sia indipendente dal corpo stesso, così che potrebbe sopravvivere alla morte 1isica del cervello, per continuare ad esistere sotto varie forme perché l'informazione quantistica non può essere distrutta in quanto soggiacente alla legge di conservazione dell'energia. Dove esisterebbe questa coscienza che molti amano confondere con il concetto di anima? Per Penrose non certo in un aldilà come quello ipotizzato da molte religioni, ma in un universo ciclico in1inito nel tempo ma non nello spazio, come quello del modello cosmologico denominato Conformal Cyclic Cosmology (CCC), "Cosmologia Ciclica Conforme", da lui proposto nel 2001 (in alternativa alle teorie del Big Bang, dell'In1lazione, del Multiverso e da non confondere con altri cosmologici alternativi che prevedono un universo che si replica periodicamente come il Big Bounce o l'Universo). Il modello CCC postula che la 1ine dell'universo sia l'inizio di uno nuovo, in una successione in1inita di cicli temporali chiamati eoni, dato che la bassa entropia successiva alla morte termica dell'universo, il momento in cui l'entropia è massima, sarebbe la stessa che c'era prima del Big Bang, a causa dell'evaporazione dei buchi neri. Con il Modello ORCH-OR Penrose e Hameroff si propongono di spiegare anche le cosiddette esperienze di premorte in cui l'informazione quantistica , temporaneamente sospesa in uno stato non “orchestrato” ritornerebbe poi nei microtubuli al momento in cui il soggetto riprende coscienza, senza essere stata in alcun modo alterata poiché in grado di sopravvivere a tempo indeterminato al di fuori del corpo. A cura di Marco Gentili 38 Conclusioni Nel contesto della genealogia delle idee di Universo Ologra1ico, Fisica dell'Informazione, Argomento della Simulazione e Modello ORCHestrated Objective Reduction tracciata, diventa sempre più dif1icile, negli anni più recenti dal 2000 ad Oggi, tracciare quella imprescindibile linea di demarcazione tra idee scienti1iche e idee non-scienti1iche dalla quale anche una visione olistica che integri 1isica, 1iloso1ia, neuroscienze e si alimenti delle idee provenienti dalla cultura di massa non può prescindere. Demarcazione che chi scrive ha appreso approfondendo, non a caso parallelamente agli studi di 1isica, il pensiero del 1ilosofo ed epistemologo austriaco, poi naturalizzato britannico, Karl Popper (1902-1994), ben sintetizzato nei due saggi Logica della scoperta scienti1ica (1934) e Congetture e confutazioni (1969). Le proprietà che Popper, come anche chi scrive, ritiene indispensabili per de1inire una teoria scienti1ica sono: • la falsi1icabilità, per cui una teoria è scienti1ica se, e solo se, è falsi1icabile; • la controllabilità, per cui af1inché una teoria scienti1ica sia falsi1icabile deve essere espressa in forma logica e deduttiva, tale da partire da un asserto universale per ricavarne, in maniera rigidamente concatenata, una particolare predizione; • la confutabilità, per cui una teoria scienti1ica è confutabile se, e solo se, è le predizioni che è in grado di fare possono essere sperimentalmente veri1icate come previsto del metodo scienti1ico. In aggiunte per Popper, a parità di evidenze sperimentali, le teorie che permettono di fare un maggior numero di previsioni sulla realtà devono essere preferite; più una teoria è applicabile, maggiore è il suo valore. Le idee espresse dalla 1isica teorica contemporanea stanno gradualmente perdendo queste proprietà di falsi1icabilità, controllabilità e confutabilità auspicate da Popper. Tanto che chi scrive s'interroga se le Teorie del Tutto (o quasi) ,come la Teoria delle Stringhe o la Gravità Quantistica a Loop. possano ancora de1inirsi teorie 1isiche o non siano invece solo teorie meta1isiche (1iloso1iche) prive di quella produttività che alla scienza è indispensabile. Da questa "deriva" del pensiero scienti1ico consegue il rischio di alimentare la capacità di richiamo, attrazione, fascinazione delle teorie pseudoscienti1iche, sopratutto all'interno della cultura di massa ma non solo. L'approccio adottato da David Kaiser per passare dalla "storia della scienza" alla "storia delle idee" avanza la proposta di rinunciare alla ossessiva demarcazione tra scienza e cultura di massa (quindi al falsi1icazionismo di Popper), per studiare in modo più oggettivo e senza presunzione di valutazione della validità delle idee scienti1iche il loro ciclo di "produzione-ricezione" attraverso il 1iltro della cultura di massa. A cura di Marco Gentili 39 Un approccio che si ritiene interessante: • che può favorire scoperte importanti relativamente al modo in cui alcune idee inizialmente ai margini della ricerca scienti1ica, o travisate dalla cultura di massa, vengono successivamente recuperate, rivelandosi in un secondo momento strumenti fecondi per lo sviluppo del pensiero scienti1ico; • che comunque non può esimere, una volta ricostruita la genealogia delle idee, dal chiedersi se siano veramente idee scienti1iche o invece 1iloso1iche o peggio mera disinformazione o pseudoscienza. Cosa che inevitabilmente deve portare a chiedersi se l'assunzione di validità di un'idea possa produrre realmente vantaggi per una migliore comprensione del mondo e predizioni che possano successivamente essere oggettivate dalla sperimentazione. A cura di Marco Gentili 40