caricato da Utente15374

Dall'Universo Olografico alla Coscienza Quantistica v2

annuncio pubblicitario
Dall'Universo Ologra.ico
e dalla Fisica dell'Informazione
all'Argomento della Simulazione
ed alla Coscienza Quantistica
Un percorso che si dipana tra Fisica e Meta1isica passando per
la Cultura di Massa, la Cultura New Age,
il Movimento Cyberpunk, il Transumanesimo
Nel 1ilm The Matrix, c’è una scena che è rimasta impressa nell’immaginario collettivo ed è stata
poi riproposta molte volte in altri 1ilm e videogiochi: una cascata di caratteri alfanumerici verdi
scorrono sullo schermo [immagine di copertina] e si tras1igurano in una realtà virtuale fatta di
colori e forme, totalmente indistinguibile dal nostro mondo reale.
Versione 2 - marzo 2022
A cura di Marco Gentili
Indice
Premessa
1
Universo Ologra1ico
5
1970-80 - Teoria dell'Ordine Implicato di David Bohm
6
1970-90 - Ordine Implicato <-> Cultura di Massa
8
1970-2010 - Principio Ologra1ico di 't Hooft e Susskind
Fisica dell'Informazione
13
20
1950 - Cibernetica di Wiener
21
1950 - Teoria dell'Informazione di Shannon
22
1960-80 - Informazione <-> Cultura di Massa
24
1980 - Slogan It from Bit di Wheeler
26
1990-2000 - Slogan It from Q-bit di Lloyd
27
Argomento della Simulazione
29
2000 - Teorema di Bostrom
30
2000-Oggi - Simulazione <-> Cultura di Massa
31
2010-Oggi - Simulazione <-> Fisica
34
Coscienza Quantistica
1980 - Oggi Modello ORCHestrated Objective Reduction
Conclusioni
36
37
39
Abstract
Una doverosa avvertenza, di seguito non si vuole speci9icatamente
discutere della consistenza, dal punto di vista della 9isica e più in generale
della scienza, dell’ipotesi dell'Universo Ologra.ico, della Fisica
dell’Informazione, dell'Argomento della Simulazione, del Modello
ORCHestrated Objective Reduction, argomenti che chi scrive ritiene più
meta9isici che 9isici, ma solo ricostruire la genealogia delle idee alla base
delle ipotesi citate, trattandole come idee connesse tra loro e soggette a
mutua in9luenza reciproca, prescindendo dal loro valore epistemologico
per la 9iloso9ia della scienza o, in senso più ampio, la conoscenza dei
metodi dei principi secondo i quali la scienza costruisce sé stessa.
A cura di Marco Gentili
Premessa
Di seguito s'intende evidenziare le reciproche contaminazioni tra le idee
ascrivibili alla scienza ed alla 1iloso1ia e le concezioni pseudoscienti1iche
espresse dalla cultura di massa inerenti:
• la Teoria dell'Ordine Implicato, un nuovo approccio 1iloso1ico nato all'inizio
degli anni '70 che, ribaltandolo, richiama il mito della caverna di Platone dove
le ombre bidimensionali sono l'illusione e le persone tridimensionali che le
creano la realtà; per cui un impercettibile Ordine Implicato, assimilabile ad
una lastra ologra1ica bidimensionale, crea la realtà tridimensionale che
l'Uomo esperisce, l'Ordine Esplicato;
• il Principio Ologra1ico, un 1ilone di ricerca della 1isica nato all'inizio degli
anni'70 nel contesto della meccanica quantistica, poi applicato su scala
cosmologica all'interno della Teoria delle Stringhe, che suggerisce l'esistenza
di un piano di realtà più fondamentale di quello che esperiamo, così da
ottenere una teoria completa della gravità quantistica;
• la Cibernetica, disciplina nata nel 1948, poi con1luita all'inizio degli anni '50
nell'informatica e nell'intelligenza arti1iciale, che si pone l'obiettivo di
studiare in modo comparato i sistemi di comunicazione e controllo, arti1iciale
e biologico, dei computer e del cervello umano;
• la Teoria dell'Informazione, scienza nata nel 1940 divenuta il fondamento
dell'informatica, che studiando il modo in cui l’informazione può essere
trasmessa e immagazzinata, suggerisce una equivalenza tra il nuovo concetto
di informazione (bit) ed il preesistente concetto di entropia della 1isica,
introdotto dalla termodinamica e poi reinterpretato dalla meccanica
statistica e dalla meccanica quantistica.
L'interferenza di queste eterogenee idee, sia dentro la scienza che al di fuori nel
molto più ampio e confuso contesto della cultura di massa, porta ad innescare un
fenomeno di convergenza delle idee che promuove la popolarità di nuovi
concetti che spesso nati all'interno della cultura di massa sono successivamente
recepiti anche dalla scienza.
Questi nuovi concetti sono:
• l'Universo Ologra1ico, per cui l'universo che percepiamo è un grande e
complesso ologramma, in modo che tutte le informazioni che costituiscono la
realtà percepita a tre dimensioni più il tempo sono contenute entro i con1ini
di una realtà non percepita con una dimensione in meno, una super1icie che
contiene tutta l'informazione necessaria a creare l'ologramma dell'universo;
il richiamo all'ologramma porta ad accostare la visione 1iloso1ica della Teoria
dell'Ordine Implicato a quella 1isica del Principio Ologra1ico assunto a
fondamento della Teoria delle Stringhe.
A cura di Marco Gentili
1
• la Fisica dell'Informazione, che si basa sull’idea che tutti i processi 1isici
possono essere descritti dalle informazioni; il concetto di informazione,
nonostante abbia un ruolo fondamentale nella nostra esperienza quotidiana,
è stato a lungo assente negli approcci che la 1isica teorica ha adottato per
descrivere la realtà, solo negli ultimi decenni è emersa con più forza l’idea
che i principi della Teoria dell'Informazione e della Cibernetica possano
effettivamente essere un aspetto importante per la comprensione del mondo
1isico.
Una volta affermatisi questi concetti di Universo Ologra1ico e Fisica
dell'Informazione cominciano nuovamente ad interagire con la cultura di massa
sintetizzandosi in nuove idee:
• l’Argomento della Simulazione (in inglese Simulation Argument), per cui tutta
la realtà percepita, l'Uomo e l'universo che abita, non è altro che una
simulazione arti1iciale;
• il Modello ORCHestrated Objective Reduction, ORCH-OR, secondo il quale la
coscienza si origina piuttosto che dall'interazione dei neuroni costituenti il
cervello da meccani quantistici basati sull'entanglement che avvengono
all'interno dei neuroni (in strutture intracellulari chiamate microtubuli).
Per quanto poco plausibile possa sembrare l'idea che la realtà che percepiamo
possa essere un ologramma o addirittura una simulazione generata da un
computer, motivo per cui la 1isica deve anche trattare l'informazione, è indubbio
che negli ultimi anni queste idee hanno raggiunto una grande popolarità, sia
nella cultura popolare, che in alcuni ambiti della 1isica teorica.
L'idea di valicare il ben delimitato con1ine della storia della scienza (e della
1iloso1ia), per scon1inare nell'immenso ed autogestito spazio della cultura di
massa, così arrivando ad occuparsi della storia delle idee, è ben espressa ed
esempli1icata dal 1isico e storico della scienza americano David Kaiser (1971) nel
libro intitolato: How the Hippies Saved Physics: Science, Counterculture, and the
Quantum Revival (2011), t "Come gli Hippie hanno salvato la Fisica: Scienza,
Controcultura e Rinascita Quantistica". Per una sintesi del pensiero di Kaiser è
interessante la sua lezione del 2012, disponibile su YouTube con lo stesso titolo
del suo libro a questo link How the Hippies Saved Physics. Secondo Kaiser le idee
scienti1iche sono il prodotto di un continuo ciclo di "produzione-ricezione", dove
la ricezione di un’idea al di fuori del suo ambito naturale di produzione è attuata
attraverso gli strumenti della divulgazione scienti1ica e della comunicazione.
Recependo l'intrigante idea di Kaiser di ricostruire la genealogia delle idee
scienti1iche considerando non solo la loro "produzione" nell'ambito della scienza
ma anche la loro "ricezione" nella cultura di massa, di seguito si tenta di
evidenziare:
• innanzitutto come le idee inerenti la Teoria dell'Ordine Implicato, il Principio
Ologra1ico, la Teoria dell'Informazione e la Cibernetica, subiscono una
A cura di Marco Gentili
2
continua metamorfosi durante il processo di "produzione-ricezione" che
contraddistingue l'interferenza tra scienza e cultura di massa dagli anni '50
ad oggi;
• poi come l'Universo Ologra1ico, la Fisica dell'Informazione e l'Argomento della
Simulazione risultino essere il risultato di una penetrazione nell'immaginario
collettivo proprio delle precedenti idee "prodotte" dalla scienza e "recepite"
dalla cultura di massa.
In particolare per quanto concerne le idee prese in considerazione la
metamorfosi pseudoscienti1ica che le ha riguardate, tradizionalmente ignorata
dagli storici della scienza, è stata principalmente indotta dalla Cultura New Age.
La Cultura New Age nata negli USA alla 1ine degli anni '60, poi dilagata nel mondo
occidentale nel corso degli anni '70 ed '80, è riuscita ad appropriarsi di diversi
temi e idee della ricerca scienti1ica di frontiera, in particolare della 1isica teorica
e soprattutto della meccanica quantistica e delle Teorie del Tutto, per piegarli ai
proprio 1ini e preesistenti concetti o per reinterpretare tramite la 1isica antichi
misticismi tipici della cultura orientale.
L'elevato processo di alfabetizzazione avviato a partire dagli anni '60,
unitamente all'esplosione della divulgazione scienti1ica, a partire dagli anni '90
favorita dai nuovi media che la supportano sostituendo lavagna e gesso con
Internet ed il World Wide Web (WWW), che, come si vedrà, con la loro essenza
tecnologica contribuiscono anch'essi a suggerire l'Universo Ologra1ico e
l'Argomento della Simulazione, fanno si che all'alba del III millennio per
comprendere lo sviluppo e l’evoluzione di un’idea scienti1ica sia necessario
tenere conto:
• sia dei processi intellettuali all’interno delle singole comunità scienti1iche;
• come anche delle loro rappresentazioni nell’ambito della più ampia cultura di
massa;
così passando dalla storia della scienza alla storia delle idee, senza per questo
confondere le idee con le teorie scienti1iche ed al tempo stesso sempre
interrogandosi criticamente su quale sia il vantaggio di adottare una idea
rispetto all'altra.
A tal proposito si aggiunge una personale precisazione sulla divulgazione
scienti1ica di cui parla Kaiser, la principale responsabile della ricezione delle idee
della scienza da parte della cultura di massa. Si ritiene che detta divulgazione
possa de1inirsi scienti1ica solo inizialmente. Poi, nella molteplice reiterazione del
passaggio "docente -> discente" così schematizzabile:
docente preparato -> discente
discente preparato che si auto promuove docente -> discente
discente super1iciale che diviene docente impreparato -> discente
e così via ...
A cura di Marco Gentili
3
Reiterazione del passaggio "docente -> discente" che in questo modo richiama il
passa parola, a causa del quale il contenuto della divulgazione si degrada
progressivamente, perdendo rigore, completezza, consistenza, sino a divenire
pressapochista, di conseguenza non producendo un’acquisizione neutra di
conoscenza, piuttosto comportandone un’inevitabile trasformazione di senso.
In particolare per quanto concerne speci1icatamente gli argomenti della 1isica la
Cultura New Age è stata fortemente in1luenzata dal Fundamental Fysiks Group, un
gruppo informale di studenti, docenti e appassionati di 1isica dell’Università di
Berkeley. Il Fundamental Fysiks Group è fondato nel 1975 per iniziativa della
1isica statunitense Elizabeth A. Rauscher (1937-2019).
Poco dopo la sua costituzione ne diviene per molti anni il principale animatore il
1isico italo-americano Sarfatti (1939) che dopo un breve periodo in cui lavora
nell'ambito accademico sceglie autonomamente di uscirne per dedicarsi
autonomamente al tema della coscienza quantistica che anticipa le ricerche del
medico statunitense Stuart Hameroff (1947) e del matematico e 1isico britannico
Roger Penrose (1931) che producono il Modello ORCHestrated Objective
Reduction della coscienza, traducibile in "riduzione oggettiva orchestrata", per
cui la coscienza sarebbe una proprietà emergente dovuta agli effetti quantistici
che si sviluppano all'interno dei neuroni del cervello. Il Fundamental Fysiks
Group s'impegna nel promuovere alcune idee poi divenute correnti di ricerca
nell'ambito della meccanica quantistica, come il Principio di non-località e il
Teletrasporto Quantistico, nel far questo appare pervaso di Misticismo Quantico
Il termine Misticismo Quantico è coniato agli inizi del '900 dai fondatori della
meccanica quantistica quando si dibatte sulle interpretazioni e implicazioni della
nascente teoria. Successivamente, dagli anni '70 si usa per riferirsi a un insieme
di credenze meta1isiche che ricercano l'origine di coscienza, intelligenza e visioni
mistiche del mondo, nelle idee della meccanica quantistica e delle Teorie del
Tutto e nelle loro molteplici e diverse interpretazioni.
Tra i principali membri del Fundamental Fysiks Group si collocano numerosi
personaggi che s'incontreranno nella successiva narrazione.
Una narrazione, è bene evidenziarlo, che è anch'essa frutto della divulgazione
scienti1ica e di conseguenza inevitabilmente contraddistinta da tutti i limiti
precedentemente esplicitati.
A cura di Marco Gentili
4
Universo Ologra9ico
Il termine Universo Ologra1ico non nasce direttamente nel contesto della 1isica,
piuttosto ad essa è semplicisticamente attribuito da una divulgazione che,
annacquata dal processo evidenziato da Kaiser di "produzione-ricezione" tra
1isica e cultura di massa, perde la connotazione di divulgazione scienti1ica per
acquisire quella di narrazione pressapochista.
I concetti originariamente appartenenti alla 1isica coinvolti in questo processo di
"produzione-ricezione", che li porta ad interferire tra loro così da trasformarli
nell'onnicomprensivo termine di Universo Ologra1ico, sono due:
• la Teoria dell'Ordine Implicato, secondo la quale esistono due diversi piani
della realtà l'impercettibile Ordine Implicato, che determina i fenomeni 1isici
dell'Ordine Esplicato, coincidente con la realtà esperita dall'Uomo; teoria
sviluppata negli anni '70 dal 1isico americano David Bohm (1917-1992)
partendo da una interpretazione della meccanica quantistica diversa da
quella di Copenaghen adottata dalla maggioranza dei 1isici per arrivare,
utilizzando una metafora basata sull'ologramma, alla soluzione del Paradosso
EPR ed ad una maggiore comprensione dell'entanglement;
• il Principio Ologra1ico, per cui l'informazione massima, correlabile
all'entropia, che può essere contenuta in un dato volume di spazio è
proporzionale alla super1icie che racchiude lo spazio considerato e non al suo
volume come ci si aspetterebbe, cosa che motiva il richiamo all'ologramma;
principio formulato nel 1990 dal 1isico olandese Gerardus 't Hooft (1946),
che riprende idee risalenti agli anni '70 inerenti la termodinamica dei buchi
neri inizialmente sviluppate nel 1972 dal 1isico israeliano di origine
messicana Jacob David Bekenstein (1947-2015), successivamente rielaborate
nel 1981 dal 1isico britannico Stephen William Hawking (1942-2018);
principio, successivamente sviluppato tra gli anni '90 ed il 2014 dal 1isico
statunitense Leonard Susskind (1940), dal 1isico argentino Juan Martín
Maldacena (1968) e dal 1isico austriaco Daniel Grumiller (1973), all'interno
della Teoria delle Stringhe.
Il Principio Ologra1ico mostra analogie, a cominciare dal comune richiamo
all'ologramma, con la congettura dell'Ordine Implicato di carattere più 1iloso1ico
che 1isico che proprio per questo ha maggiormente interferito con la Cultura New
Age.
Ciò nonostante i due concetti si sviluppano seppure temporalmente in parallelo
negli anni '70 ed '80, in modo del tutto autonomo ed indipendente, con 1inalità
completamente diverse, in settori della 1isica distinti: la meccanica quantistica e
la Teoria delle Stringhe.
A cura di Marco Gentili
5
1970-80 - Teoria dell'Ordine Implicato di David Bohm
Bohm si concentra inizialmente sul cosiddetto Paradosso EPR, dal nome dei 1isici
Einstein, Podolsky e Rosen che l’avevano proposto come esperimento mentale
nel 1935: esso suppone che, accettando il principio d’indeterminazione di
Heisenberg relativo alle proprietà delle particelle subatomiche, e
l’interpretazione classica di Copenaghen della meccanica quantistica, introdotta
nel 1955 dal 1isico tedesco Werner Karl Heisenberg (1901-1976), secondo cui è
la misurazione della proprietà di una particella a far “collassare” il suo stato
indeterminato in un parametro preciso e misurabile, si sarebbe veri1icata una
violazione del limite di trasmissione d’informazione posto dalla velocità della
luce previsto dalla teoria della relatività.
Per capire meglio immaginiamo due sub-particelle, A e B, che condividono
proprietà speculari, come per esempio lo spin (momento angolare), perché
prodotte dal decadimento radioattivo di una particella-madre con spin pari a 0,
allora per la legge di conservazione del momento angolare:
• o la particella A ha spin pari a +1/2 mentre quello della particella B è -1/2;
• o la particella A ha spin pari a -1/2 mentre quello della particella B è +1/2.
La misurazione dello spin della particella A ha effetto istantaneo sullo spin
speculare della particella B, a prescindere dalla distanza tra A e B che può essere
grande quanto si vuole al momento della misura.
Questo fenomeno, denominato entanglement da Erwin Schrödinger sempre nel
1935, fu de1inito da Einstein “azione fantasmatica a distanza” perché viola due
principi della 1isica classica:
• in primo luogo perché la proprietà della particella A è in uno stato
indeterminato 1inché non viene effettuata la misurazione, per cui il valore che
emergerà dalla misurazione è del tutto casuale, e nondimeno la particella B
assumerà la proprietà opposta, mostrando l’esistenza di una correlazione
casuale;
• in secondo luogo perché, suggerendo l’esistenza di una correlazione che non
tiene conto della distanza, vìola il principio di località (in base al quale
oggetti distanti non possono avere in1luenza causale reciproca in modo
istantaneo).
Il paradosso EPR suggerisce a Bohm un errore nell’Interpretazione di
Copenaghen della meccanica quantistica, egli immagina l’esistenza di “variabili
nascoste”, da lui indicate come potenziale quantico, che possano spiegare
l’entanglement senza richiedere una trasmissione superluminale di
informazione tra le due particelle ed al contempo ripristinate il determinismo
bandito dalla concezione probabilistica della meccanica quantistica come già
tentato precedentemente da Louis De Broglie. Lo stesso Einstein, che pure ha
proposto l’esperimento mentale EPR proprio per mostrare i limiti
dell’Interpretazione di Copenaghen, ritiene la proposta di Bohm troppo debole.
A cura di Marco Gentili
6
Nel 1964 il teorema proposto da John Stewart Bell stabilisce che la teoria delle
variabili nascoste di Bohm è errata, dovendosi considerare il principio di località
non valido nell’ambito della meccanica quantistica. La non-località sostenuta da
Bell, veri1icata sperimentalmente solo nel 2015 (Azione Inquietante, Le Scienze,
Aprile 2019), costringe Bohm a sviluppare nuove spiegazioni per il fenomeno
dell'entanglement.
In questa seconda fase della sua vita, dominata più dalla 1iloso1ia che dalla 1isica,
anche in1luenzato dalle conversazioni che dal 1959 ha con il 1ilosofo indiano
Jiddu Krishnamurti (1895-1986), Bohm si convince che il misticismo orientale
nasconde alcune verità che la 1isica occidentale potrebbe riscoprire. E' in
particolare attirato dall’idea dell’esistenza di una realtà “nascosta”, comune a
diverse 1iloso1ie orientali, che possa spiegare il Paradosso EPR.
Con una serie di articoli pubblicati nel corso degli anni '70, poi raccolti e
sistematizzati nel saggio Wholeness and the Implicate Order (1980), Totalità e
Odine Implicato, Bohm avanza la Teoria dell’Ordine Implicato, secondo cui la nonlocalità dei fenomeni quantistici (l'entanglement) sarebbe spiegabile attraverso
la distinzione tra due diversi piani della realtà:
• l'ordine esplicato, la realtà esperita dall'Uomo;
• l'ordine implicato, che determina i fenomeni 1isici della realtà esperita.
Ciò che nell'ordine esplicato appare come diviso e frammentato, nell'ordine
implicato esiste come unità spazio-temporale, di cui le particelle e gli altri
fenomeni che osserviamo sono espressione. Risulta evidente, dunque, come la
Teoria dell’Ordine Implicato risolva il Paradosso EPR: ciò che nell'ordine esplicato
appare come una connessione istantanea tra due particelle A e B, non è altro che
la manifestazione di un’unità indivisa esistente a livello di ordine implicato, dove
non esistono distanze spazio-temporali.
Bohm paragona l’interazione tra questi due piani della realtà, ordine implicato e
ordine esplicato, alle proprietà degli ologrammi. I principi dell’ologra1ia sono
scoperti nel 1947 dal 1isico ungherese naturalizzato britannico Dennis Gabor
(1900-1979) che per questo riceve il premio Nobel, ma solo lo sviluppo della
tecnologia laser negli anni '60 permette di produrre le prime applicazioni
pratiche. Bohm è colpito da due caratteristiche dell’ologra1ia:
• la possibilità di riprodurre un’immagine tridimensionale attraverso
l’interferenza tra due fasci laser su una lastra bidimensionale, cosicché
l’informazione relativa all’oggetto tridimensionale riprodotto è in realtà
codi1icata su una super1icie;
• che ogni parte della lastra ologra1ica possiede l’informazione a partire dalla
quale è possibile riprodurre l’ologramma, cosicché a differenza di una
fotogra1ia (dove ogni pixel della foto è la rappresentazione di un punto
dell’immagine fotografata) è possibile riprodurre l’intero ologramma anche
se si frammenta la lastra ologra1ica (da qui anche il nome, che deriva un
termine che in greco antico signi1ica “tutto, l’intero”).
A cura di Marco Gentili
7
1970-90 - Ordine Implicato <-> Cultura di Massa
L'idea di Bohm di ordine implicato, per lungo tempo ignorata dalla maggior parte
della comunità scienti1ica, trova terreno fertile nella controcultura americana
degli anni '70, in particolare nella Cultura New Age, caratterizzata dalla:
• voglia di contrapporsi all’establishment politico, scienti1ico e culturale;
• attenzione alla ricerca interiore ed alla sperimentazione di mezzi per
facilitare il naturale contatto tra la coscienza e il mondo esterno,
generalmente mediante l’uso di allucinogeni;
• fascinazione nei confronti di “guru” spirituali o 1iloso1ici e la riscoperta di
tradizioni culturali contrapposte a quella dominante occidentale, come le
culture sciamaniche degli indiani d’America e le culture orientali induiste.
Queste caratteristiche della Cultura New Age promuovono ciò che David Kaiser
de1inisce Groovy Science, ovvero l’attenzione alla ricerca scienti1ica ai margini
della ricerca istituzionale, in particolare alternativa a quelle 1inanziate dal
complesso militare-industriale americano nel contesto della Guerra fredda. Gli
interessi della Groovy Science si riferiscono a quella che oggi è de1inita
Pseudoscienza, intendendo con questo termine qualsiasi dottrina che
super1icialmente appare essere scienti1ica ma che contravviene ai requisiti di
veri1icabilità richiesti dalla scienza o comunque devia sostanzialmente da altri
fondamentali aspetti del metodo scienti1ico. Il matematico Martin Gardner la
de1inisce:
Una teoria interpretativa della natura che, partendo da osservazioni
empiriche per lo più fortemente soggettive, tramite procedimenti solo
apparentemente logici, giunge a un'arbitraria sintesi, in stridente contrasto
con idee comunemente condivise.
In particolare la Groovy Science mostra una grande attenzione alla
sperimentazione volta a spiegare i presunti fenomeni paranormali di percezione
extrasensoriale o ESP (Extra-Sensory Perception) sulla base della convinzione
che i paradossi della meccanica quantistica possano fornirne una spiegazione
razionale.
In questo ambito dalla metà degli anni '70 è particolarmente attivo il già citato
Fundamental Fysiks Group dell’Università di Berkeley. Il programma di ricerca
redatto nel 1976 da uno dei suoi membri, Saul-Paul Sirag, evidenzia il percorso
eterodosso che si vuole intraprendere, ripartendo proprio dallo studio del
Paradosso EPR e del teorema di Bell che ha accantonato le "variabili nascoste"
del potenziale quantico di Bohm, accettando quindi il principio di non località
della meccanica quantistica, si vogliono studiare diversi fenomeni paranormali:
• la psicocinesi, per cui un essere vivente sarebbe in grado di agire
sull'ambiente che lo circonda, manipolando oggetti inanimati, attraverso
mezzi 1isici invisibili e secondo modalità sconosciute alla scienza (con il
pensiero);
A cura di Marco Gentili
8
• il viaggio nel tempo, tra diversi momenti temporali, inteso in una maniera
analoga al viaggio tra diversi punti dello spazio, sia verso il passato sia verso
il futuro, senza che il soggetto debba far esperienza di tutto l'intervallo
temporale presente tra l'epoca di partenza e quella di arrivo;
• la telepatia, l'ipotetica capacità di comunicare con la mente, cioè senza
l'utilizzo di altri sensi o strumenti;
• le comunicazioni extraterrestri superluminali che il fenomeno
dell’entanglement potrebbe consentire;
• il ruolo dell’osservatore nella creazione della realtà.
David Bohm viene coinvolto attivamente nel Fundamental Fysiks Group, negli
anni in cui si trovava al Birkbeck College dell’Università di Londra, da uno dei
fondatori del gruppo di Berkeley, il 1isico statunitense Fred Alan Wolf (1934)
fortemente in1luenzato dalle teorie eterodosse di molti suoi studenti hippie,
motivo per cui nel 1971, nel corso di un anno sabbatico, Wolf si reca in India e in
Nepal, dove sperimenta presunte esperienze extracorporali in un tempio
buddhista. È possibile supporre che per lo sviluppo della sua Teoria dell’Ordine
Implicato Bohm sia in1luenzato, oltre che dai colloqui con Krishnamurti, anche
dalle discussioni del Fundamental Fysiks Group. Di certo Bohm si lascia
affascinare dall’ipotesi di poter spiegare i presunti fenomeni ESP con il principio
della non-località, e porta avanti insieme a Wolf esperimenti sul noto illusionista
israeliano Uri Geller (quello che avrebbe piegato cucchiai di metallo con la sola
mente) per veri1icare le sue presunte abilità telecinetiche. I risultati di questi
esperimenti sono pubblicati da Bohm e Wolf sulla rivista Nature insieme a Wolf,
da cui si evince come, pur mostrando cautela sulle implicazioni teoriche, i due
1isici arrivano a confermare le capacità paranormali del sensitivo. Capacità poi
sconfessate nel 1981 dal prestigiatore canadese James Randi che riesce a
replicarle senza dover ricorrere alla psicocinesi.
Se Bohm, nello sviluppo della sua Teoria dell'Ordine Implicato, è in1luenzato dalla
Cultura New Age degli anni '70, di certo anche il Fundamental Fysiks Group è a
sua volta in1luenzato da Bohm, E' proprio uno dei membri del gruppo, il 1isico
austriaco Fritjof Capra (1939) che, in quello che diviene un popolarissimo bestseller, Il Tao della 1isica (1975), in cui si azzardavano connessioni tra i paradossi
della meccanica quantistica e il misticismo orientale, rende nota al grande
pubblico l'ipotesi di Bohm attraverso una citazione tratta dall'articolo "On the
Intuitive Understanding of Nonlocality as Implied by Quantum Theory", "Sulla
comprensione intuitiva della non località come implicata dalla teoria
quantistica", pubblicato lo stesso anno da Bohm e dal suo collaboratore il 1isico
britannico Basil Hiley (1935):
Si è condotti a una nuova concezione di totalità ininterrotta che nega l’idea
classica della possibilità di analizzare il mondo in parti esistenti in maniera
separata e indipendente ...
A cura di Marco Gentili
9
Abbiamo rovesciato la consueta concezione classica secondo la quale le
“parti elementari” indipendenti del mondo sono la realtà fondamentale e i
vari sistemi sono solo forme e disposizioni particolari e contingenti di tali
parti.
Anzi, diciamo che la realtà fondamentale è l’inseparabile interconnessione
quantistica di tutto l’universo e che le parti che hanno un comportamento
relativamente indipendente sono solo forme particolari e contingenti dentro
a questo tutto
(Il Tao della 1isica, Adelphi, Milano 1982, p. 157) :
La fascinazione subita dalla Cultura New Age nei confronti della Teoria
dell'Ordine Implicato di Bhom, secondo cui la realtà che percepiamo non sarebbe
che la “proiezione” di una realtà “nascosta”, in cui quello che nell'ordine esplicato
ci appare come separato e distinto è la manifestazione di un tutto indiviso
presente nell'ordine implicato, si comprende meglio analizzando alcuni testi che
possono considerarsi alla base della Cultura New Age esprimenti idee analoghe
sebbene del tutto estranee alla 1isica, ma del resto anche Bohm appare essere
uscito dalla 1isica con la sua teoria.
Nel 1975, lo stesso anno di pubblicazione del Il Tao della 1isica, i fratelli Terence
(1946-2000) e Denis McKenna (1950), forse de1inibili etnofarmacologi, termine
che indica chi è interessato allo studio correlato dei gruppi etnici e del loro uso
di composti vegetali a scopo medico, sicuramente più interessati alla ricerca di
funghi allucinogeni nell’America centrale che a lavorare nei laboratori di ricerca,
pubblicano The Invisible Landscape. Mind, Hallucinogens and the I Ching, Il
paesaggio invisibile. Mente, allucinogeni e I Ching, libro che descrive le proprietà
allucinogene di alcune piante e funghi sudamericani, elabora una fantasiosa
teoria pseudo-matematica che collega il testo divinatorio cinese I Ching alla
profezia Maya sulla 1ine del mondo prevista per il 2012 che, visto che nulla è
accaduto è stata recentemente spostata al 2022 invocando una antico "errore di
battitura".
In questo libro che avrà grande in1luenza nella letteratura psichedelica i fratelli
McKenna rendono nota al grande pubblico una proposta del neuro1isiologo
statunitense Karl Pribram (1919-2015), la cosiddetta Teoria Olonomica del
cervello, esposta per la prima volta nel 1971 nel testo Languages of the Brain.
Secondo tale ipotesi, i fenomeni cognitivi del cervello si comporterebbero in
modo analogo agli ologrammi: non esisterebbe cioè una corrispondenza
biunivoca tra una parte della memoria o della percezione e una speci1ica sezione
del cervello, ma ogni neurone e sinapsi del cervello conterrebbe
simultaneamente l’informazione relativa all’insieme dei fenomeni cognitivi.
Questo permette ai fratelli McKenna di scrivere:
Possiamo immaginare tutto l'universo o qualsiasi sua parte e quindi
possiamo dire che la mente “contiene” tutto il mondo 1isico, cioè che la mente
è un ologramma della realtà esterna.
A cura di Marco Gentili
10
Quello che colpisce i fratelli McKenna della teoria di Pribram è l’idea che il
cervello agirebbe come una scheda di memoria hardware che immagazzina i bit,
ovvero l’informazione, di cui è composta l’esperienza cosciente, che sembra
essere un fenomeno di tipo emergente. In questo modo:
• da un lato si esplicita per la prima volta l’in1luenza della Fisica
dell’Informazione nello sviluppo di quello che sarà il Principio Ologra1ico;
• dall'altro si avalla la versione "forte" dell’Interpretazione di Copenaghen della
meccanica quantistica di Von Neumann e Wigner che evidenzia il ruolo della
coscienza dell’osservatore nel collasso oggettivo della funzione d’onda e
quindi nel passaggio dall’indeterminismo quantistico alla realtà
deterministica sperimentata dall'Uomo, ri1iutando la versione “debole” Niels
di Bohr e Heisenberg, secondo cui per osservatore si deve intendere un
qualsiasi apparato di misurazione, o meglio un qualsiasi sistema
macroscopico con cui il sistema quantistico entra in contatto.
Il programma di ricerca del Fundamental Fysiks Group propende per la versione
"forte" dell’Interpretazione di Copenaghen, motivo per cui nella seconda metà
degli anni '70 alcuni membri del gruppo con1luiscono nel Consciousness Theory
Group, che invita a collaborare ancora Bohm (la cui prima interpretazione della
meccanica quantistica è decisamente opposta all'interpretazione di Von
Neumann e Wigner perché ri1iuta il carattere indeterministico della teoria).
Il testo dei fratelli McKenna in1luenza anche lo scrittore di fantascienza Philip K.
Dick, che nel 1974 è colpito da una visione psichedelica, che lo convince che il
mondo in cui vive non è reale, ma una proiezione creata per nascondere il vero
piano della realtà per scopi sinistri, tesi che ricomparirà anche nei suoi romanzi
di fantascienza. In una lettera del 1975 indirizzata all'amica Claudia Bush, Dick
scrive:
Cara Claudia, se dovessi dirti "L’universo che noi percepiamo è un
ologramma", potresti pensare che ho detto qualcosa di originale, salvo poi
renderti conto che ho semplicemente aggiornato la metafora di Platone delle
immagini che appaiono sulle pareti della nostra caverna, immagini che
prendiamo per reali.
L’universo come ologramma tuttavia fa più colpo come visione perché
l’ologramma è così straordinariamente simile alla realtà cui esso si riferisce
– essendo in forma di falsa cubatura, tanto per dirne una – che potremmo
prenderlo per qualcosa di più di una mera affermazione poetica.
Molto probabilmente Dick non conosce Bohm e la sua Teoria dell'Ordine
Implicato, apprende la Teoria Olonomica del cervello di Pribram dalla versione
New Age narrata dai fratelli McKenna; ad essa aggiunge la convinzione che
l’Universo Ologra1ico in cui l'Uomo vive sia una simulazione prodotta da una
civiltà tecnologicamente superiore per dare all’umanità l’illusione di vivere in
una realtà diversa da quella effettiva. Idea che pre1igura quella del 1ilm Matrix
(1999) oltre che l'Argomento della Simulazione.
A cura di Marco Gentili
11
Nel 1979, in un convegno a Cordoba, Pribram conosce Bohm, direttamente da lui
apprende la sua Teoria dell’Ordine Implicato, rimanendone profondamente
colpito ed al contempo intuendo un possibile collegamento con la sua Teoria
Olonomica del cervello, che difetta di una concreta spiegazione del modo in cui il
cervello riuscirebbe a produrre all’interno della mente un’immagine
tridimensionale del mondo esteriore. Inizia così una corrispondenza tra i due
che prosegue 1ino alla morte di Bohm, nel 1992 e che l’anno prima produce il
libro Brain and Perception (1991), Cervello e Percezione, in cui Pribram estende
la sua teoria tenendo conto di quella di Bohm.
In questo modo Bohm contribuisce alla de1inizione della Teoria Olonomica del
cervello di Pribran, insieme elaborano una teoria basata su una descrizione in
termini matematici (coerente alla meccanica quantistica) dei processi e delle
interazioni neuronali capaci di leggere le informazioni, che si presenterebbero
sotto forma di onde, per poi convertirle in schemi di interferenza (trattati
mediante applicazione dell'Analisi di Fourier) e trasformarle in immagini
tridimensionali. Di conseguenza l'Uomo non vedrebbe la realtà per come è, ma
solamente la sua informazione quantistica, il cervello opererebbe in modo simile
a un ologramma.
Una sintesi delle teorie di Bohm e Pribram, in una forma radicalmente distorta
rispetto alle loro impostazione originale, si trova nel saggio The Holographic
Universe (1991) dello "scrittore" (dif1icile de1inirlo un 1ilosofo ed assolutamente
impossibile considerarlo un 1isico) statunitense Michael Talbot (1953-1992), in
cui Talbot, citando frequentemente gli scritti di Bohm e Pribram arriva alla
seguente conclusione:
I nostri cervelli costruiscono matematicamente la realtà oggettiva,
interpretando frequenze che sono in de1initiva proiezioni provenienti da
un’altra dimensione, un ordine di esistenza più profondo al di là dello spazio
e del tempo: il cervello è un ologramma celato in un Universo Ologra1ico.
(Tutto è uno. L’ipotesi della scienza ologra1ica, Feltrinelli, Milano 2016, p.
61.)
Partendo da questo assunto Talbot si spinge a spiegare attraverso l'Universo
Ologra1ico e quello che in 1isica è de1inito il Principio Ologra1ico fenomeni
paranormali come: le esperienze pre-morte, lo sciamanismo, la telepatia, la
telecinesi, la precognizione, gli UFO.
Le tesi contenute nel libro sono fortemente contestate dal mondo scienti1ico,
rientrando a pieno titolo nel campo della Pseudoscienza. I concetti derivati dalla
meccanica quantistica sono presentati in modo distorto ed utilizzati per
giusti1icare fenomeni o concetti che non sono trattati dalla teoria stessa. L'idea di
fondo di un Universo Ologra1ico prende spunto dalla Teoria dell'Ordine Implicito
di Bohm, ma la reinterpreta per giusti1icare l'idea di un'unità olistica del reale
propria della Cultura New Age.
A cura di Marco Gentili
12
Molti concetti esposti, come le energie sottili o le dimensioni non 1isiche, sono
completamente estranei ai corrispettivi concetti di energia e dimensione
utilizzate nell'ambito della 1isica e più in generale della scienza. I fenomeni
paranormali descritti nel libro non sono generalmente accettati dalla comunità
scienti1ica, che li ritiene dovuti a scarsi controlli sulla reale natura del fenomeno,
artefatti statistici, aneddoti non adeguatamente documentati, o falsi espliciti.
1970-2010 - Principio Ologra9ico di 't Hooft e Susskind
Del tutto indipendentemente dalle speculazioni essenzialmente 1iloso1iche
sull'Ordine Implicato di Bohm, nello stesso periodo temporale già
precedentemente analizzato, gli anni '70, '80 '90, si sviluppa nell'ambito della
1isica un 1ilone di ricerche tra loro connesse che traggono origine dalla
termodinamica dei buchi neri che porteranno alla formulazione nel 1990 del
Principio Ologra1ico, per cui l'intera informazione contenuta in un certo volume
di spazio può essere rappresentata da una teoria che si situa sul bordo dell'area
esaminata.
Principio Ologra1ico che nella risonanza indotta dal processo di "produzionericezione" che contraddistingue l'interferenza tra scienza e cultura di massa, in
particolare tra 1isica e Cultura New Age, anche in virtù del richiamo all'ologra1ia,
che richiama l'Ordine Implicato di Bohm, porterà al nascita del termine Universo
Ologra1ico nella cui narrazione divulgativa si sovrappongono e confondono la
rielaborazione delle idee di Bohm attuata dal Fundamental Fysiks Group con il
separato ed autonomo sviluppo del Principio Ologra1ico nell'ambito della Teoria
delle Stringhe:
• ispirato dagli studi sull'entropia dei buchi neri effettuati dal 1isico israeliano,
di origine messicana Jacob David Bekenstein (1947-2015) e dal 1isico
britannico Stephen William Hawking (1942-2018);
• operato dal 1isico olandese Gerardus 't Hooft (1946) e dal 1isico statunitense
Leonard Susskind (1940);
• successivamente validato dal 1isico argentino Juan Martín Maldacena (1968)
e dal 1isico austriaco Daniel Grumiller (1973).
La genesi del Principio Ologra1ico può essere fatta risalire all'inizio degli anni '70
quando il 1isico israeliano, di origine messicana Jacob David Bekenstein
(1947-2015), allievo del 1isico statunitense John Archibald Wheeler (1911-2008)
di cui si parlerà successivamente nell'ambito della 1isica dell'informazione (§
1980 - Slogan It from Bit di Wheeler), inizia per primo ad interessarsi della
termodinamica dei buchi neri e della connessione tra informazione e
gravitazione che anticipa la 1isica dell'informazione la cui nascita negli anni '80 è
ascrivibile al suo maestro Wheeler.
A cura di Marco Gentili
13
Nel 1972 Bekenstein si chiede cosa accade a un oggetto con entropia (un gas
caldo) quando varca l'orizzonte degli eventi di un buco nero. All’epoca si credeva
che i buchi neri, “inghiottendo” fatalmente tutta la materia che cade nel loro
pozzo gravitazionale senza uscita, possano ridurre l’entropia complessiva
dell’universo, in evidente violazione della II legge della termodinamica per cui
l'entropia di un sistema (isolato e lontano dall'equilibrio termico) tende ad
aumentare nel tempo, 1inché l'equilibrio non è raggiunto.
Per mantenere la validità della II legge della termodinamica Bekenstein
considera i buchi neri come oggetti aleatori, dotati di un'enorme entropia, il cui
incremento compensi l'entropia del gas risucchiato, in particolare dimostra che,
all’aumentare della quantità di materia che cade in un buco nero, il suo orizzonte
degli eventi, il con1ine che impedisce qualsiasi connessione causale tra interno
ed esterno, aumenta di dimensioni, cosa che provoca l'aumento dell'entropia del
buco nero e di quella (complessiva) dell’universo. I calcoli di Bekenstein rivelano
una proprietà bizzarra dei buchi neri: la misura della loro entropia, calcolata
come la quantità e la distribuzione dell’informazione relativa alla materia
inghiottita che essi contengono, non è proporzionale al volume del buco nero,
ma all’area della sua super1icie, ossia dell’orizzonte degli eventi. Si tratta di una
scoperta problematica, poiché per la misura dell’entropia di un qualsiasi
ambiente delimitato (come il tradizionale esempio di un gas in un contenitore) si
deve sempre tenere conto del suo volume, non certo dell’area della super1icie del
contenitore. Nel caso dei buchi neri, l’entropia non è funzione del volume (lo
spazio tridimensionale), ma di uno spazio con una dimensione in meno (l’area
bidimensionale), un paradosso informativo che ricorda il rapporto tra
l'ologramma (tridimensionale) e la lastra ologra1ica (bidimensionale) che
racchiude tutta l'informazione necessaria a riprodurlo.
All'inizio degli anni '80 il 1isico britannico Stephen William Hawking
(1942-2018) riprende le idee di Bekenstein, approccia i buchi neri come oggetti
termodinamici calcolando gli effetti della 1luttuazione quantistica (creazione
spontanea di coppie di particelle e antiparticelle nel vuoto quantistico) in
corrispondenza all'orizzonte degli eventi. Nel 1981 Hawking evidenzia il
paradosso dell'informazione del buco nero causato dall'evaporazione dei buchi
neri conseguente all'emissione della radiazione di Hawking. In seguito a tale
evaporazione quantistica, con conseguente dissolvimento del buco nero,
l'informazione passata oltre il punto di non ritorno sparirebbe, violando il
principio di conservazione dell'informazione e contestualmente il I principio
della termodinamica, la legge di conservazione dell'energia. L'evaporazione di
Hawking è casuale e non contiene alcun tipo di informazione. Ciò porta in ultima
analisi alla violazione di una proprietà fondamentale della meccanica
quantistica: l'unitarietà (la conservazione della somma unitaria delle probabilità
nell'evoluzione di un sistema), un altro modo per esprimere il paradosso
informativo già evidenziato da Bekenstein.
A cura di Marco Gentili
14
All'inizio degli anni '90 il 1isico olandese Gerardus 't Hooft (1946), premio Nobel
per la 1isica nel 1999 per aver spiegato la struttura quantistica dell'interazione
elettrodebole, immagina che la violazione evidenziata da Hawking derivi dal suo
approccio semi-classico e che il conseguente paradosso informativo può essere
superato sviluppando una teoria unitaria della gravità quantistica.
Per questo 't Hooft suppone che presso l'orizzonte degli eventi i campi
quantistici possano essere descritti da una teoria con una dimensione di meno,
cosa che lo porta ad ipotizzare il Principio Ologra1ico. Nel 1993 t’Hooft richiama
il paragone con l’ologra1ia, parecchi anni dopo il saggio di Bohm sull'Ordine
Implicato che risale al 1980 e con una diversa 1inalità volta a spiegare il
comportamento dell’entropia dei buchi neri. Nell'articolo Dimensional Reduction
in Quantum Gravity (1993) scrive:
La situazione può essere confrontata con un ologramma di un'immagine
tridimensionale su una super1icie bidimensionale. L'immagine è alquanto
sfocata a causa dei limiti della tecnica dell'ologramma, ma la sfocatura è
piccola rispetto alle incertezze prodotte dalle consuete 1luttuazioni della
meccanica quantistica.
I dettagli dell'ologramma sulla super1icie stessa sono intricati e contengono
tutte le informazioni consentite dalla 1initezza della lunghezza d'onda della
luce - leggi la lunghezza di Planck. (...)
Apparentemente si deve concludere che una super1icie bidimensionale
disegnata in uno spazio tridimensionale può contenere tutte le informazioni
riguardanti l'intero spazio tridimensionale.
In effetti, questo dovrebbe valere per qualsiasi super1icie a due che va
all'in1inito. Ciò suggerisce che i gradi di libertà 1isici nello spazio
tridimensionale non sono indipendenti ma, se considerati a scala di Plank,
devono essere in1initamente correlati.
La conclusione di t’Hooft suggerisce che questa proprietà ologra1ica non sia
esclusiva dei buchi neri, ma condivisa anche da tutti quei volumi delimitati da
una super1icie bidimensionale tendente all’in1inito. Sebbene suo articolo non lo
espliciti t’Hooft sta già pensando di applicare il Principio Ologra1ico non solo ai
buchi neri ma anche all’universo osservabile, delimitato da un con1ine
bidimensionale, l’orizzonte cosmologico (o universo osservabile), che segna il
limite di osservabilità dell'universo causato dagli effetti cosmologici da parte di
un ipotetico osservatore terrestre.
Il pieno sviluppo del Principio Ologra1ico è ascrivibile al 1isico statunitense
Leonard Susskind (1940), uno dei padri della Teoria delle Stringhe, che aderisce
alle idee espresse da Gerardus 't Hooft dopo averlo incontrato all’Università di
Utrecht nel 1994. L'anno seguente, con l'articolo The world as a hologram (1995),
Susskind propone una soluzione del paradosso di Hawking basata sul principio
di complementarità (concetto mutuato dalla meccanica quantistica): il gas in
A cura di Marco Gentili
15
caduta varcherebbe "o" non varcherebbe l'orizzonte, a seconda del punto di
vista:
• per un osservatore che seguisse il gas in caduta libera, l'attraversamento
dell'orizzonte avverrebbe senza particolari fenomeni di soglia, in conformità
al I postulato della relatività ristretta (per cui le leggi della meccanica e
dell'elettromagnetismo sono le stesse in tutti i sistemi di riferimento
inerziali) e al principio di equivalenza (la forza dovuta all'attrazione
gravitazionale di un corpo massivo su un secondo corpo è uguale alla forza
1ittizia di cui lo stesso corpo risentirebbe se si trovasse in un sistema non
inerziale con un'accelerazione pari a quella gravitazionale) formulati da
Albert Einstein;
• diversamente un osservatore esterno all'orizzonte degli eventi "vedrebbe" le
stringhe, ovvero i componenti elementari del gas, allargare le spire 1ino ad
abbracciare la super1icie dell'orizzonte degli eventi, sopra il quale si
manterrebbe tutta l'informazione senza oltrepassarlo e senza alcuna perdita
per l'esterno, nemmeno per successiva evaporazione del buco nero.
Fenomeni indescrivibili avverrebbero all'interno della singolarità, ma
complementari all'evaporazione, descrivibile esternamente all'orizzonte degli
eventi, dove l'informazione si dispone sulla super1icie come su un ologramma. In
sostanza l'informazione che si credeva perduta all'interno del buco nero è
con1inata e codi1icata sulla super1icie dell'orizzonte degli eventi, quindi non è
persa. Il Principio Ologra1ico risolve dunque il paradosso informativo nel
contesto della Teoria delle Stringhe.
Rimane da chiedersi: il gas di Hawking in caduta nel buco nero varca o non varca
l'orizzonte degli eventi? Domanda che si confonde con la seguente: quanto è
grande un atomo (le stringhe che lo compongono)? L'atomo ha dimensioni
in1initesime (così come le stringhe che lo compongono), però cadendo in un
buco nero si dilata avvolgendo l'orizzonte degli eventi come una guaina elastica
stirata per milioni di chilometri.
Al tempo stesso Susskind riprendendo l'idea non esplicitata nell'articolo di
t’Hooft del 1993, suggerisce che il Principio Ologra1ico possa essere usato, non
solo per i buchi neri in relazione alle condizioni estreme raggiunte all'orizzonte
degli eventi, ma anche per formulare una teoria quantistica della gravità atta a
descrivere la realtà 1isica comunemente percepita estendendone l'applicazione
all’intero universo, in relazione all'orizzonte cosmologico, ovvero al con1ine
sferico rispetto al punto di vista centrale, dove l'espansione del cosmo tende alla
velocità della luce. Come per il buco nero, un osservatore situato sulla soglia
dell'orizzonte cosmologico, ma ancora in contatto causale col centro, "vedrebbe"
le stringhe, ovvero i componenti elementari della materia sensibile situata al
centro dipanarsi e avvolgersi sulla super1icie dell'orizzonte.
Per Susskind secondo il Principio Ologra1ico, eventi percepiti internamente
all'orizzonte cosmologico come tridimensionali (bassa frequenza, bassa energia,
infrarossi) sono componenti a bassa frequenza di eventi estremi (alta frequenza,
A cura di Marco Gentili
16
alta energia, ultravioletti) che avvengono sulla super1icie sferica bidimensionale
dell'orizzonte cosmologico. Questa dualità tra un volume tridimensionale e una
super1icie bidimensionale che lo delimita è più facilmente interpretabile
nell'ambito della 1isica dell'informazione di cui si tratterà nel prossimo capitolo.
Quello che t’Hooft e Susskind scoprono è infatti che l’informazione richiesta per
descrivere i fenomeni 1isici all’interno di una qualsiasi regione dello spazio può
essere codi1icata in modo completo dai dati presenti su una super1icie che
circonda la regione. La realtà tridimensionale percepita sarebbe paragonabile a
una proiezione ologra1ica di distanti processi 1isici bidimensionali.
Nel suo articolo del 1995, Susskind suggerisce di estendere il Principio
Ologra1ico alla Teoria delle Stringhe, una delle due teorie di gravità quantistica
che si propongono di uni1icare la relatività generale con la meccanica quantistica
in fase di sviluppo in quegli anni (l'altra è la Gravità quantistica a Loop che più
che al Principio Ologra1ico si lega alla Teoria dell'Informazione), alla cui
formulazione Susskind partecipa. Il suo suggerimento è accolto dal 1isico
argentino Juan Martín Maldacena (1968) che contribuisce signi1icativamente ai
fondamenti della Teoria delle Stringhe rafforzando l'ipotesi del Principio
Ologra1ico di Gerardus 't Hooft e Susskind.
Nel 1997 Maldacena sviluppa la Corrispondenza AdS/CFT (AdS, Anti de Sitter;
CFT, Conformal Field Theory, Teoria di Campo Conforme"), ipotizzando una
relazione tra due tipologie di teorie 1isiche:
• gli Spazi anti-de Sitter caratterizzati da una geometria iperbolica a curvatura
negativa (come una sella in tre dimensioni, in opposizione alla geometria
ellittica a curvatura positiva degli Spazi de Sitter, come un ellissoide in tre
dimensioni), usati in teorie di gravità quantistica, formulate in termini della
teoria delle stringhe o della teoria M che alle stringhe unidimensionali
sostituisce le brane bidimensionali;
• le Teorie di Campo Conformi che sono teorie quantistiche dei campi,
analoghe alla teoria di Yang-Mills una teoria di gauge (teoria di campo basata
sull'ipotesi che alcune simmetrie, nel senso di trasformazioni che lasciano
invariata l'energia del sistema, siano possibili non solo globalmente, ma
anche localmente) alla base dell'attuale Modello standard delle interazioni
fondamentali che descrive le particelle elementari.
Per i 1isici che aderiscono alla Teoria delle Stringhe (ancora oggi priva non solo
di una qualsiasi veri1ica sperimentale, ma anche di predizioni che possano
generare una tale veri1ica), la formulazione della Corrispondenza AdS/CFT
consente alla teoria una maggiore capacità di descrivere l’universo, utilizzando
una descrizione ologra1ica perfettamente in linea con le intuizioni di t’Hooft e
Susskind sull'Universo Ologra1ico e coerente, meramente dal punto di vista della
genealogia delle idee, con l'Ordine Implicato di Bohm.
A cura di Marco Gentili
17
Alla 1ine degli anni '90 la Teoria delle Stringhe, già riformulata sei volte a partire
dal 1968, vive una nuovo revival, il settimo (e molto probabilmente non sarà
l'ultimo), dopo essersi arenata per l'ennesima volta in uno dei suoi molteplici
vicoli ciechi.
Il 1isico statunitense Edward Witten (1951) riesce a dimostrare che cinque
diversi tipi di Teoria delle Stringhe (tutti i tipi ipotizzati che prevedono 9
dimensioni spaziali, I, IIA, II B, HO, HE, ad esclusione del tipo Bosonico che
prevede 25 dimensioni spaziali e solo forze ed energia e non la materia),
apparentemente diversi tra loro, possono essere considerati manifestazioni di
un’unica “teoria madre”, che egli chiama Teoria-M, aggiungendo alle nove
dimensioni spaziali in cui tradizionalmente è formulata la teoria delle stringhe
una decima dimensione (cosa che signi1ica passare come entità elementari dalle
stringhe alle membrane, da cui il nome Teoria M).
Nel 1997, utilizzando gli strumenti messi a disposizione da Witten, in particolare
il concetto di dualità che permette di considerare due diverse teorie come
equivalenti da un punto di vista matematico, Maldacena scopre l'esistenza una
dualità tra:
• una Teoria delle Stringhe a basse energie, che corrisponde alla tradizionale
teoria quantistica dei campi a tre dimensioni spaziali del Modello Standard
delle particelle, veri1icato sperimentalmente, che non include la gravità
limitandosi alle interazioni elettromagnetiche, deboli e forti;
• una Teoria delle Stringhe a dieci dimensioni che include anche la gravità.
In questo modo Maldacena dimostra che all’interno di uno spazio-tempo
caratterizzato per le tre dimensioni spaziali non compatti1icate da una geometria
iperbolica a curvatura negativa come una sella (Spazio Anti de Sitter), la teoria
della gravitazione è equivalente a una teoria quantistica in uno spazio con una
dimensione spaziale compatti1icata in più rispetto alle ordinarie 9 dimensioni
spaziali della maggioranza dei tipi di Teoria delle Stringhe.
L'esistenza di una dualità pur al variare delle dimensioni spaziali induce
Maldacena a concludere che la teoria quantistica dei campi agisce sul bordo
dell’universo e “proietta” al suo interno, in un volume a dimensioni spaziali
superiori, di cui sono 3 quelle non compatti1icate, un universo dotato di gravità
simile a quello che percepiamo e sperimentiamo.
La Corrispondenza AdS/CFT, in tal modo, consente di rappresentare i due
paradigmi della meccanica quantistica e della relatività generale come
equivalenti incorporando la Teoria delle Stringhe e il Principio Ologra1ico. Così
come, su una piastra ologra1ica, osserviamo solo solchi apparentemente senza
senso, che riproducono l’ologramma tridimensionale solo quando la piastra è
illuminata dai due fasci laser, poiché tra quei solchi e l’immagine ologra1ica esiste
un’equivalenza in termini di informazione, così le due teorie duali appaiono
diversissime ma si rivelano equivalenti se si guarda all’informazione che contengono. Ad esempio nel 1998 Witten, estendendo la congettura di Maldacena,
A cura di Marco Gentili
18
scopre che un buco nero nello spazio a dieci dimensioni è equivalente a un
plasma di quark e gluoni sul con1ine dell’universo: sono due fenomeni
1isicamente molto diversi, ma sul piano dell’informazione del tutto equivalenti.
In questo modo Maldacena arriva a raggiungere quell'uni1icazione di tutte le
interazioni fondamentali già auspicata da Einstein che ancora tutt'oggi è una
chimera della 1isica alla base delle Teorie del Tutto.
Peccato che la soluzione matematica del Principio Ologra1ico ricavata da
Maldacena sia valida solo per uno spazio-tempo a curvatura negativa (Spazio
Anti de Sitter), diversamente molteplici misure astronomiche dell'universo lo
rappresentano nella maggior parte sostanzialmente piatto (con curvatura nulla)
o localmente caratterizzato da una curvatura leggermente positiva (Spazio de
Sitter).
All'inizio degli anni 2010 il 1isico austriaco Daniel Grumiller (1973) riprende il
lavoro di Maldacena per validare il Principio Ologra1ico in uno spazio
tridimensionale sostanzialmente piatto, simile all'Universo che l'osservazione
astronomica ci mostra.
Nel 2014 misurando la quantità di informazioni quantistiche di entanglement in
un sistema (due particelle quantistiche in entanglement non possono essere
descritte individualmente ma formano un unico oggetto quantistico, anche se
molto distanti), Grumiller dimostra che l'entropia di entanglement (la misura
della quantità di entaglement di un sistema) assume lo stesso valore sia per una
teoria quantomeccanica in uno spazio bidimensionale, che secondo una teoria
della gravità quantistica in uno spazio tridimensionale piatto. Questa
equivalenza conferma che il Principio Ologra1ico vale anche in uno spazio
tridimensionale sostanzialmente piatto, come appare essere il nostro universo.
In questo modo si evidenzia come l'ipotesi dell'Universo Ologra1ico, nelle sue
prime formulazioni di Teoria dell'Ordine Implicato, rimasta per molto tempo ai
margini del dibattito scienti1ico, mentre la Cultura New Age se ne appropria, solo
recentemente torni in auge tra i 1isici teorici al punto da diventare un paradigma
di successo, continuando al tempo stesso ad alimentare concezioni
pseudoscienti1iche o materiale narrativo, come si vedrà successivamente.
A cura di Marco Gentili
19
Fisica dell'Informazione
Tra il 1939 ed il 1945, durante la II Guerra Mondiale sia quelli che saranno i
vincitori che i vinti, iniziano ad usare i neonati calcolatori prima
elettromeccanici (a relè) poi elettronici (a valvole), capaci di gestire simboli: i
vincitori per decrittare i codici segreti dei vinti generati dalla macchina
elettromeccanica Enigma, sviluppata nel 1918 e commercializzata dal 1923.
In questo contesto di rapido sviluppo tecnologico nel 1948, quella che oggi
chiamiamo Informatica guadagna la ribalta trovando una sua sistematizzazione
teorica grazie a due distinti contributi pubblicati nello stesso anno da due
matematici statunitensi:
• quello di Norbert Wiener (1894-1964) dedicato alla Cibernetica;
• quello di Claude Shannon (1916-2001) dedicato alla Teoria dell'Informazione.
Successivamente a partire dagli anni '60, la veri1ica sperimentale del legame tra
entropia ed informazione già evidenziato dalla Teoria dell'Informazione e
l'ipotesi che l’identità biologica di un essere vivente possa essere ricondotta
all'unità d’informazione nata nel contesto della Cibernetica portano al Panteismo
Digitale del 1isico statunitense Edward Fredkin (1934), che costituisce di fatto
una prima anticipazione dell'Argomento della Simulazione.
Parallelamente sempre a partire dagli anni '60 la Cultura New Age, enfatizza la
contrapposizione tra informazione e mezzo di comunicazione evidenziata dalla
Teoria dell'Informazione.
Contestualmente al progresso tecnologico informatico, alla diffusione dei
personal computer ed alla nascita di Internet e del World Wide Web (WWW)
all'inizio degli anni '80 la corrente letteraria fantascienti1ica Cyberpunk
profetizza il CyberSpace, de1inendolo una dimensione immateriale in grado di
mettere in comunicazione i computer di tutto il mondo in un'unica rete, uno
spazio concettuale che permette agli utenti di interagire tra loro. Termine che
oggi è comunemente utilizzato per riferirsi al mondo virtuale di Internet.
La nascita della Fisica dell'Informazione può farsi risalire al 1989 quando il 1isico
statunitense John Archibald Wheeler (1911-2008), considerando l'informazione
una grandezza fondamentale della 1isica, sostiene la priorità ontologica
dell'informazione rispetto alla energia e materia con lo slogan “It from Bit”,
traducibile in "Tutto è Bit".
Nel 2000 il pensiero di Wheeler è aggiornato dal 1isico statunitense Seth Lloyd
(1960) che trasforma lo slogan“It from Bit” in “It from Q-bit”, dove "Q-bit" è la
contrazione di "Quantum bit", l'unità d'informazione quantistica, arrivando alla
conclusione che una simulazione dell’universo fatta da un computer quantistico
non è distinguibile dall’universo stesso in cui vive l'Uomo, che di nuovo richiama
l'Argomento della Simulazione.
A cura di Marco Gentili
20
1950 - Cibernetica di Wiener
Il libro Cybernetics, or control and communication in the animal and the machine
(1948), La Cibernetica, controllo e comunicazione nell'animale e nella macchina,
del matematico statunitense Norbert Wiener (1894-1964), de1inisce l'ambito di
interesse e gli obiettivi della nuova interdisciplinare disciplina della Cibernetica
(termine derivato dal greco col signi1icato di "pilota di navi") a cui è dato impulso
dall'inizio degli anni '40 da un gruppo di ricercatori di eterogenea formazione
(matematica, ingegneria, biologia, scienze umane), accomunati dall'interesse per
uno studio comparato di organismo biologico e macchina arti1iciale declinabile
nei seguenti 1iloni di ricerca:
• il controllo automatico di macchinari, servomeccanismi, robot, attuato
mediante il calcolatore ed altri strumenti elettronici;
• lo studio del cervello e delle attività cerebrali, del sistema nervoso e dei
ri1lessi spinali, dell'Uomo;
l'esame del rapporto tra questi due sistemi di comunicazione e controllo,
arti1iciale e biologico, ha poi l'obiettivo di trovare il punto d'incontro tra
macchina elettronica e organismo biologico.
In questo modo con il suo libro Wiener arriva ad ipotizzare che anche l’identità
biologica di un essere vivente possa essere ricondotta all'unità d’informazione, il
bit (una estensione dell’intuizione di Shannon di cui si parlerà successivamente).
La successiva scoperta della molecola del DNA, avvenuta nel 1953, è di
conseguenza interpretata alla luce della Teoria dell’Informazione e della
Cibernetica, arrivando a de1inire il DNA il “codice della vita”, un’informazione
codi1icata viene trasmessa alla prole per consentire all’organismo di funzionare
e svilupparsi.
All’inizio degli anni '50, pochi anni dopo la sua teorizzazione, operata da Wiener,
la Cibernetica mostra limiti intrinseci, cosa che le farà passare la mano alle nuove
discipline emergenti dell'informatica e dell'intelligenza arti1iciale. Proponendo
concetti innovativi, ha creato un’utopia: considerare i sistemi sociali o biologici
alla stessa stregua di modelli meccanici, descrivibili e comprensibili in termini
matematici. Cosa per cui diventerebbe possibile attorcigliarsi la mente
chiedendosi:
• Che tipo di macchina è questo Uomo?
• Che tipo di Uomo è questa macchina prodotta dall'Uomo?
La Cibernetica, sottolineando il ruolo della comunicazione e del controllo nelle
macchine, come negli organismi viventi, nella realizzazione dei simulacri
arti1iciali dell'Uomo, si pone alla base della progettazione e costruzione dei
corpi, piuttosto che delle menti. Negando la sua ambizione fondativa
d'interessarsi sia al corpo che alla mente, la Cibernetica produce l'ennesimo
trionfo del dualismo Cartesiano tra le discipline che le succederanno:
A cura di Marco Gentili
21
• la simulazione della mente e delle attività cognitive superiori, che segna il
passaggio dalla Cibernetica all'Intelligenza Arti1iciale;
• il controllo del corpo, che vede la transizione dalla Cibernetica alla Robotica.
1950 - Teoria dell'Informazione di Shannon
L'articolo A Mathematical Theory of Communication (1948), Teoria Matematica
della Comunicazione, dell'ingegnere e matematico statunitense Claude Shannon
(1916-2001), il cui oggetto è l'analisi e l'elaborazione su base matematica dei
fenomeni relativi alla misurazione e trasmissione d'informazioni su un canale
1isico di comunicazione, riporta l'attenzione sulla Teoria dell'Informazione,
sviluppatasi a partire dal 1924.
Con questo saggio Shannon conia il termine "bit", in questo modo aprendo la
strada per costruire un analogia tra informatica e 1isica considerando il bit,
de1inito l’unità minima di informazione, l'equivalente informatico della particella
elementare costituente ultima della materia. Come non è importante la forma
che la materia assume nel mondo macroscopico, dal momento che su scala
microscopica essa è composta di particelle elementari uguali tra loro, così per
Shannon non è importante la forma che assume la comunicazione (attuata
dall'hardware), dal momento che il suo contenuto, l'informazione trasmessa
(rappresentata dal software), è sempre esprimibile in bit.
Shannon si rende conto che la sua Teoria dell’Informazione presenta una forte
analogia con la II Legge della termodinamica, che afferma che l'entropia di un
sistema isolato lontano dall'equilibrio termico tende ad aumentare nel tempo,
1inché l'equilibrio non è raggiunto.
Nell’interpretazione di Ludwig Boltzmann (1844-1906) della II Legge della
termodinamica, basta sul concetto di Ensamble nell'ambito della meccanica
statistica, l’entropia è una funzione statistica che descrive la probabilità di
distribuzione dei microstati corrispondenti macrostato osservabile. Questi
microstati occupano un numero 1inito di con1igurazioni all’interno dello spazio
delle fasi corrispondente al macrostato (uno spazio astratto di dimensioni pari
uguali al doppio dei gradi di libertà del sistema, per N particelle pari a 6N).
Questo è analogo a quello che accade alle molecole di un gas all’interno di un
contenitore per cui all'equilibrio statisticamente è molto più probabile che si
disporranno in modo da occupare l’intero volume del contenitore, anziché
con1inarsi un suo angolo speci1ico. Motivo per cui l’entropia del sistema
(approssimativamente interpretabile come livello di “disordine”) è maggiore,
coerentemente con la previsione della II legge della termodinamica che ne
prevede la crescita costante sino all'equilibrio.
Nello studiare il modo in cui l’informazione può essere trasmessa e
immagazzinata, Shannon scopre che le con1igurazioni che i bit possono
assumere all’interno di uno spazio delimitato (come una scheda di memoria)
A cura di Marco Gentili
22
sono ugualmente 1inite, e che la misura dell’informazione posseduta da un
sistema si esprime con una formula equivalente a quella che calcola l'entropia.
Nel 1961 emerge un ulteriore legame, oltre quello già evidenziato da Shannon
nel 1948, tra informazione e entropia, il 1isico tedesco Rolf Landauer
(1927-1999) che lavora per IBM pubblica sulla rivista IBM Journal of Research
and Development l'articolo intitolato Irreversibility and heat generation in the
computing process in cui dichiara che, quando un’informazione è eliminata
dall’interno di un computer, il processore la restituisce nell’ambiente esterno
sotto forma di quantità di calore, dal momento che il processore raggiunge una
temperatura ed emissione di energia termica, tanto maggiori, quanto maggiori
sono le attività di calcolo che svolge. L’aumento della temperatura nell’ambiente
corrisponde, ovviamente, a un aumento dell’entropia dell'ambiente circostante.
Queste equivalenze tra informazione ed entropia favoriscono l’emergere delle
prime teorie che suggeriscono una similitudine tra la realtà in cui viviamo e la
simulazione virtuale del reale realizzata dal computer.
Negli anni '80 il 1isico statunitense Edward Fredkin (1934) propone per primo
una teoria 1iloso1ica che può considerarsi antesignana dell'Argomento della
Simulazione, per cui l’universo può considerarsi il prodotto di automi cellulari,
particolari programmi informatici fondati su algoritmi molto semplici che
descrivono l’evoluzione dalla semplicità alla complessità sulla base di poche,
semplici regole, così de1initi all'inizio degli anni '50 dal matematico, 1isico e
pioniere dell’informatica ungherese John von Neumann (1903-1957).
Nel libro Techgnosis (1994), lo scrittore statunitense Erik Davis spiega così la tesi
di Fredkin:
Aderendo ad una sorta di panteismo digitale, Fredkin immagina l’universo
come un grande automa cellulare – uno di quei programmi per computer
che consta di semplici elementi e funzioni basilari, ma che col tempo produce
complesse ecologie cibernetiche. Ed una volta considerato l’universo come
un’immensa matrice logica di algoritmi, l’attività dei computer terreni di
oggi potrebbe ben assumere un meta1isico, quasi demiurgico, potere. La
macchina universale diviene così una macchina che costruisce universi.
(Techngnosis, Ipermedium Libri, Napoli 2001, p. 141)
Il più celebre esempio è costituito dal Gioco della vita, sviluppato alla 1ine degli
anni '60 dal matematico inglese John Conway (1937-2020) e diffuso al grande
pubblico nel 1970 da Martin Gardner nella rubrica Giochi Matematici di Scienti1ic
American. Il Gioco della vita evidenzia come comportamenti analoghi alla vita
possano emergere da regole semplici e interazioni a molti corpi, principio alla
base della Teoria della Complessità, per farlo immagina un mondo in1inito
costituito da una griglia di celle quadrate, per cui ognuna ha 8 celle contigue, che
possono trovarsi in due stati viva o morta (accesa o spenta, 0 o 1). Lo stato della
griglia evolve in intervalli di tempo discreti. Gli stati di tutte le celle in un dato
istante sono usati per calcolare lo stato delle celle all'istante successivo:
A cura di Marco Gentili
23
• qualsiasi cella viva con meno di due celle vive adiacenti muore, come per
effetto d'isolamento;
• qualsiasi cella viva con due o tre celle vive adiacenti sopravvive alla
generazione successiva;
• qualsiasi cella viva con più di tre celle vive adiacenti muore, come per effetto
di sovrappopolazione;
• qualsiasi cella morta con esattamente tre celle vive adiacenti diventa una
cella viva, come per effetto di riproduzione.
1960-80 - Informazione <-> Cultura di Massa
La rapida traslazione del concetto di informazione dalla totale astrazione
matematica della Teoria dell'Informazione di Shannon alla realtà tangibile del
codice genetico, resa possibile dal bit, desta una grande risonanza
nell’immaginario popolare.
In particolare come ben evidenziato dal già citato libro Techgnosis (1994) di Erik
Davis, la Cultura New Age, rintraccia nella distinzione tra informazione e mezzo
di comunicazione, tra software e hardware, una analogia con la contrapposizione
tra anima e corpo, o tra mente e cervello, negli anni '70 assai popolare. Ben lo
dimostra il fatto che:
• lo scrittore di fantascienza Philip K. Dick, che utilizza il testo divinatorio
cinese I Ching per de1inire le trame dei suoi racconti e romanzi immagina che
le diverse possibilità espresse dagli esagrammi, i simboli gra1ici composti di 6
linee intere o spezzate di cui è composto l’I Ching, riconducibili in ultima
analisi all’informazione binaria 0 e 1 dei bit, possano esprimere linee di
realtà diverse, come quella in cui vincitori e vinti della II Guerra mondiale si
invertono raccontata nel suo libro La svastica sul sole (1962); le narrazioni di
Dick per la messa in evidenza di processi manipolativi del tessuto sociale da
parte delle strutture di potere, tramite la simulazione e dissimulazione della
realtà, sono per molti aspetti antesignane di quelle tipiche della fantascienza
Cyberpunk affermatasi negli anni '80;
• i fratelli Terence e Denis McKenna analizzano la struttura dell’I Ching alla
ricerca di un “codice nascosto”, riconducono gli esagrammi a unità
d’informazione secondo loro in grado di replicare l’informazione codi1icata
nel DNA, sottoposta a mutamenti energetici periodici.
Quando nella seconda metà degli anni '70 inizia l'invasione dei personal
computer negli uf1ici e nelle case si compie il primo passo per arrivare a
realizzare una rete globale in grado di connettere tra loro tutti i dispositivi
virtuali. Internet, che emerge dal progetto Arpanet dell'Advanced Research
Projects Agency (ARPA) avviato nel 1967, muove i primi passi nel 1974 anche se,
informatici a parte, il grande pubblico diviene cosciente della sua esistenza solo
molto più tardi, dopo che nascono:
A cura di Marco Gentili
24
• nel 1991, il World Wide Web (WWW), letteralmente la "rete del ragno
globale", tecnologia ipertestuale per cui ogni documento avrebbe potuto
contenere link e riferimenti ad altri testi;
• nel 1993, un programma software chiamato Mosaic, che non si sapeva ancora
a quale categoria riferire, che avrebbe permesso di navigare le potenti onde
della nascente rete globale; da Mosaic discendono tutti quelli che oggi
chiamiamo browser, letteralmente navigatori, costruiti attorno al concetto di
ipertesto, che nel tempo, si è fatto sempre più multimediale ed interattivo,
permettendo di gestire non solo documenti testuali, ma anche audio,
immagini, video, applicazioni.
La sensazione di poter entrare tangibilmente in contatto con un mondo virtuale
fatto esclusivamente di bit si accresce rapidamente senza dover aspettare le
evoluzioni tecnologiche legate alla nascita di Internet e del World Wide Web al
punto che all'inizio degli anni '80 scrittori di fantascienza come gli statunitensi
William Gibson (1948) e Bruce Sterling (1954) originano una nuove corrente
letteraria.
Gardner Dozois, direttore della rivista Isaac Asimov's SF Magazine, nel 1984
de1inisce questa nuova corrente letteraria Cyberpunk fondendo termini che
puntano a due distinte e preesistenti culture: termine che unisce due termini che
contrassegnano le caratteristiche di questa nuova fantascienza:
• il termine Punk, che letteralmente signi1ica legno marcio, riporta alle
posizioni violentemente polemiche, sintetizzabili con le parole trasgressione,
ribellione, protesta, ri1iuto, operate nei confronti della società consumistica
del movimento giovanile di protesta, sorto verso la metà degli anni '70 in
Inghilterra e negli Stati Uniti, caratterizzato dall'ostentata esibizione di forme
di abbigliamento e da acconciature di capelli vistosamente eccentriche;
• il termine Cyber , deriva da quello Cybernetics introdotto da Wiener, punta
alle intuizioni emergenti all’interno di informatica e cibernetica.
La fantascienza Cyberpunk è infatti impregnata di tecnologia avanzata come nella
migliore tradizione dello zoccolo duro della fantascienza, ma si differenzia da
essa per la presenza di un carattere visionario e trasgressivo nel quale
con1luiscono liberamente mode, simboli, atteggiamenti culturali underground
contemporanei. Gli autori Cyberpunk si trasformano in profeti di un immaginario
fantascienti1ico basato su virtuosismi estrapolativi e visioni globali di futuri
labirinti tecnologici e cibernetici. Essi elaborano visioni fantascienti1iche di
mondi dove Reale e Virtuale, Organico e Tecnologico s’intersecano
avviluppandosi in un tutt’uno, grazie all'utilizzo delle tecnologie, soprattutto
quelle informatiche legate ai computer, a generare:
• il Cyborg, un essere umano sostituito progressivamente da protesi
meccaniche mediante interventi chirurgici, che rischia di trasformarsi in una
quasi-macchina dove di umano rimane solo il cervello;
A cura di Marco Gentili
25
• il CyberSpace (anche denominato TecnoSfera o Matrice), una dimensione
immateriale che nasce dalla connessione in un'unica rete dei computer di
tutto il mondo; quindi un universo sintetico, inesteso, puramente mentale, in
cui un soggetto può proiettarsi, oggi diremmo rappresentarsi virtualmente,
attraverso l’intermediazione del computer, trasformando l’informazione dei
suoi atomi in bit, per poi agire come si agisce abitualmente nel mondo reale,
interagendo e comunicando con altri soggetti proiettati in questo stesso
universo; in de1initiva uno “spazio concettuale", che per questo chi scrive
preferisce chiamare Il Virtuale, dove le persone interagiscono usando
tecnologie per la comunicazione mediate dal computer.
Il testo fondativo della fantascienza Cyberpunk è il romanzo Neuromancer
(1984), in italiano Neuromante, di William Gibson in cui il CyberSpace è così
de1inito:
Un’allucinazione vissuta consensualmente ogni giorno da miliardi di
operatori legali, in ogni nazione, da bambini a cui vengono insegnati i
concetti della matemaica ...
Una rappresentazione gra1ica di dati ricavati dalle memorie di ogni
computer del sistema umano. Impensabile complessità. Linee di luce disposte
nel non-spazio della mente, ammassi e costellazioni di dati.
(Neuromante, Mondadori, Milano 2003, p. 54)
1980 - Slogan It from Bit di Wheeler
Il 1isico statunitense John Archibald Wheeler (1911-2008) è noto per aver
coniato il termine "buco nero" e sostenuto che lo spazio-tempo al livello più
elementare, sia discreto e non continuo, costituito da una “schiuma spaziotemporale”, ed è considerato uno dei pionieri della gravità quantistica, il campo
della 1isica teorica che cerca di conciliare la relatività generale descrittiva della
gravita e la meccanica quantistica descrittiva delle altre interazioni elettrodebole
(elettromagnetica e debole) e forte.
Pur dimostrandosi un 1isico teorico rigoroso, come dimostra la sua presa di
distanza dalle visioni New Age del Fundamental Fysiks Group, cosa che non gli
impedisce di essere uno dei 1isici più apprezzati e citati dal gruppo, e di
intrattenere scambi epistolari con alcuni membri del gruppo, negli ultimi anni di
vita si dedica prevalentemente agli aspetti epistemologici e 1iloso1ici della 1isica
recependo le suggestioni della Teoria dell'Informazione e della Cibernetica. così
aprendo la via alla Fisica dell'informazione.
Nel 1989 Wheeler giunge alla conclusione che l'informazione è una grandezza
fondamentale della 1isica, importante come l'energia e la materia, sostenendo la
priorità ontologica dell'informazione rispetto alla energia e materia con la
sintetica espressione “It from Bit”, traducibile in "Tutto è Bit", a signi1icare che
qualunque cosa è fatta solo di bit, cioè di informazione, ovvero che non esiste
A cura di Marco Gentili
26
realtà 1isica senza prima una struttura informativa, cosa che porta a parlare di
1isica dell'informazione. Nell’articolo Information, Physics, Quantum: the Search
for Links (1989), con il quale propone questo slogan tesi, scrive:
It from bit simboleggia l'idea che ogni elemento del mondo 1isico ha in fondo
– in un fondo molto profondo, nella maggior parte dei casi – una fonte e una
spiegazione immateriali; che ciò che chiamiamo realtà nasce in ultima
analisi dal porre domande sì-no e dalla registrazione delle risposte evocate
dall'attrezzatura; in breve, che tutte le cose 1isiche sono di origine teoretica
dell'informazione e questo è un universo partecipativo.
Nell'esprimere questa visione Wheeler recupera una sua precedente idea, il
Principio Antropico Partecipativo (PAP), che costituisce una variante forte del
Principio antropico, termine coniato nel 1973 dal 1isico australiano
BrandonCarter (1942) per affermare che le osservazioni scienti1iche sono
soggette ai vincoli dovuti alla nostra esistenza di osservatori.
Con il Principio Antropico Partecipativo Wheeler sostiene che gli osservatori sono
necessari all'esistenza dell'universo, in quanto necessari alla sua conoscenza; da
cui consegue che gli osservatori di un universo partecipano attivamente alla sua
stessa esistenza. Dal Principio Antropico Partecipativo discende un universo
anch'esso partecipativo, in cui il ruolo dell’osservatore, già previsto
dall’interpretazione di Von Neumann e Wigner della meccanica quantistica,
viene enfatizzato 1ino al punto da immaginare che l’osservatore cosciente sia una
condizione pregiudiziale per l’esistenza stessa dell’universo.
Con lo slogan “It from Bit”, alla luce della Teoria dell’Informazione e della
Cibernetica, Wheeler aggiorna la sua precedente idea dell’universo partecipativo:
rigetta l'ipotesi di un’analogia tra universo e computer, ritenendo che ciò
implichi l’esistenza di un “programmatore cosmico" che faccia funzionare il
computer; sostiene piuttosto l’idea di un universo che si “auto-sintetizza”.
Al tempo stesso l’idea di una realtà composta di bit non è che la versione
informatica della sua concezione di spazio-tempo discreto, costituito da unità
indivisibili, idea poi posta alla 1ine degli anni '80 alla base della Gravità
quantistica a Loop (LGP, Loop Quantum Gravity) sviluppata dal 1isico indiano
Abhay Ashteka (1949), dal 1isico italiano Carlo Rovelli (1956) ed dal 1isico
statunitense lee Smolin (1955).
Lo slogan “It from Bit” non è riferibile una teoria formalmente elaborata da
Wheeler, ma indica piuttosto il programma di ricerca da lui incentivato con
l'obiettivo di ricondurre la meccanica quantistica, la relatività generale e le teorie
più avanzate di gravità quantistica, alla Teoria dell’Informazione, riscrivendole
nel linguaggio dei bit come 1isica dell'informazione.
1990-2000 - Slogan It from Q-bit di Lloyd
Numerosi 1isici e matematici hanno raccolto, dal 1989 ad oggi l’eredità di
Wheeler, ben lo testimoniano gli sviluppi:
A cura di Marco Gentili
27
• del teletrasporto quantistico con i fotoni, portati avanti in particolare dal
1isico austriaco Anton Zeilinger (1945), pioniere nel nuovo campo
dell'informatica quantistica;
• della crittogra1ia quantistica, che utilizza le proprietà della meccanica
quantistica derivanti dal principio di Heisenberg nella fase dello scambio
della chiave per evitare che questa possa essere intercettata da un attaccante
senza che le due parti in gioco se ne accorgano;
fondati su una rilettura della meccanica quantistica nel linguaggio dei bit.
All'eredita di Wheeler si aggiunge l'aggiornamento della sua intuizione Wheeler
operata dal 1isico statunitense Seth Lloyd (1960) sintetizzabile nel passaggio
dallo slogan“It from Bit” a quello “It from Q-bit”, dove "Q-bit" è la contrazione di
"Quantum bit", l'unità d'informazione quantistica.
Il concetto di Q-bit è oggi recepito da tutti gli studiosi impegnati nel campo della
computazione quantistica, branca a cavallo tra 1isica e ingegneria informatica
che tenta di creare un computer quantistico, la cui caratteristica è la possibilità
di sfruttare il principio quantistico della sovrapposizione degli stati per
aumentare enormemente le capacità di calcolo di un processore: infatti, anziché i
bit, il computer quantistico sfrutta i Q-bit, caratterizzati dalla possibilità di
assumere contemporaneamente entrambi gli stati logici 0 e 1 mentre i bit
possono assumere solo uno di questi stati 0 o1.
Nel suo saggio Il programma dell’universo (2000), Lloyd sostiene che mentre un
computer digitale tradizionale, dati i limiti della sua capacità di elaborazione
dell’informazione, non è in grado di ottenere una perfetta simulazione
dell’universo, un computer quantistico sarebbe invece in grado di replicare ogni
possibile comportamento di un sistema 1isico. Per Lloyd:
... In linea di principio, l’insieme dei componenti dell’universo si può mettere
in corrispondenza biunivoca con un numero 1inito di qubit.
Allo stesso modo, la dinamica dell’universo, cioè l’insieme delle interazioni
tra i suoi componenti, si può far corrispondere a un insieme di operazioni
logiche sugli stessi qubit.
(Il programma dell’universo, Einaudi, Torino 2006, pp. 137-138)
La conseguenza è che una simulazione dell’universo fatta da un computer
quantistico non è distinguibile dall’universo stesso in cui vive l'Uomo.
A cura di Marco Gentili
28
Argomento della Simulazione
In campo 1iloso1ico l'idea che la realtà nella quale viviamo sia una sorta
d'illusione o allucinazione collettiva, che in qualche modo anticipa l'Argomento
della Simulazione, è molto antica e, con diverse sfumature, rintracciabile tanto in
Occidente quanto in Oriente:
• In Occidente questa tesi trova un suo primo esponente in Platone (428 a.C. 348 a.C.) e nel suo mito della caverna che in qualche modo inverte il ruolo di
reale (i corpi in movimento fuori della caverna) e simulato (le ombre sulla
parete della caverna); si può ipotizzare che questa tesi abbia avuto un certo
ruolo nella visione dualistica mente-corpo, anima-natura, spirito-materia di
Cartesio (1596-1650).
• In Oriente, in particolare nella 1iloso1ia indiana, l'ipotesi che la realtà sia una
proiezione della mente è presente nella sua più estrema rappresentazione
nella 1iloso1ia dell'Advaita Vedānta, la più conosciuta delle scuole della
religione Induista, e trae origine dalla speculazione psicologica, cosmogonica
e teologica sulle Upanishad, un'insieme di testi religiosi e 1iloso1ici
indianiscritti a partire dal IX-VIII secolo a.C., 1ino al IV secolo a.C..
Nel periodo temporale che si sta esaminando, dagli anni '50 ad oggi, l'Argomento
della Simulazione, ovvero di una realtà progettata, emerge inizialmente negli
anni '50 e '60 nell'ambito della fantascienza, come dimostrano romanzi quali:
• Il tunnel sotto il mondo (1955), di Fredrik Pohl che per primo introduce l’idea
di una realtà costruita a tavolino mediante un plastico in scala ridotta
ricostruito in un laboratorio;
• Tempo fuor di sesto (1959), di Philip K. Dick, in cui una città è ricreata in scala
1:1 e popolata di attori per far credere al protagonista di vivere ancora negli
anni '50 invece che nel XXI secolo; idea alla base del 1ilm The Truman Show
(1997);
• Simulacron-3 (1964), di Daniel Galouye, che introduce per primo la
simulazione informatica; romanzo successivamente trasposto nel 1ilm Il
tredicesimo piano (1999) ed idea ripresa dal 1ilm Matrix (1999) ed i suoi
sequel.
Solo negli anni '80 il 1isico statunitense Edward Fredkin (1934) propone per
primo una teoria 1iloso1ica dell’Argomento della Simulazione, che trae dalle
concezioni attinenti alla Fisica dell'Informazione, ma bisogna aspettare il 2003
per arrivare ad una elaborazione più sistematica di questa idea 1iloso1ica opera
del 1ilosofo svedese Nick Bostrom (1973) che in merito arriva a de1inire un
omonimo teorema.
In questo modo partire dal 2000 ad Oggi l’Argomento della Simulazione
acquisisce una sempre maggiore popolarità, sia nell'ambito della cultura di
massa, in particolare la Cultura New Age ed il movimento culturale del
Transumanesimo, come anche nell'abito della 1isica e 1iloso1ia.
A cura di Marco Gentili
29
2000 - Teorema di Bostrom
Nel 2003 il 1ilosofo svedese Nick Bostrom (1973) pubblica il saggio Are you living
in a computer simulation?, "Vivi in una simulazione al computer?" intrecciando le
concezioni:
• dell'Universo Ologra1ico, che afferma l'esistenza di due diversi "piani della
realtà", quelli che Bohm nella sua Teoria dell'Ordine Implicato ha chiamato
ordine implicato ed ordine esplicato;
• della Fisica dell’Informazione, che nell'adottare lo slogan “It from Q-bit” di
Seth Lloyd (1960) fornisce all'Universo Ologra1ico una più consistente base
teorica, per cui l’universo sarebbe una simulazione virtuale generata da un
computer quantistico.
Nel citato saggio Bostrom scrive:
Se viviamo in una simulazione, il cosmo che stiamo osservando è solo un
minuscolo pezzo della totalità dell'esistenza 1isica.
La 1isica dell'universo in cui si trova il computer che esegue la simulazione
può assomigliare o meno alla 1isica del mondo che osserviamo.
Mentre il mondo che percepiamo in un certo senso “reale”, non si trova al
livello fondamentale della realtà.
Bostrom suggerisce che, se è possibile simulare virtualmente interi pianeti
popolati o addirittura interi universi per mezzo di un computer, ipotizzando
esseri intelligenti e dotati di coscienza che popolino questi mondi virtuali, allora
il numero di tali simulazioni, verosimilmente create da una qualsiasi civiltà che
sia suf1icientemente avanzata, rende statisticamente probabile il fatto che
l'Uomo stia effettivamente vivendo all'interno di una realtà simulata.
Bostrom afferma che almeno una delle seguenti affermazioni è probabilmente
vera:
1. Nessuna civiltà raggiungerà mai un livello di maturità tecnologica in grado di
creare realtà simulate.
2. Nessuna civiltà che abbia raggiunto uno status tecnologico suf1icientemente
avanzato produrrà una realtà simulata pur potendolo fare, per una qualsiasi
ragione, come l'uso della potenza di calcolo per compiti diversi dalla
simulazione virtuale, oppure per considerazioni di ordine etico.
3. Tutti i soggetti con il nostro genere di esperienze stanno vivendo all'interno
di una simulazione in atto.
Determinando così il seguente Teorema di Bostrom: se si pensa che gli argomenti
(1) e (2) siano entrambi probabilisticamente falsi, si dovrebbe allora accettare
come assai probabile l'argomento (3).
A cura di Marco Gentili
30
2000-Oggi - Simulazione <-> Cultura di Massa
Al di fuori della 1iloso1ia e della scienza anche la tesi di Bostrom è stata accolta
con grande interesse nella cultura di massa, dimostrazione che il processo di
"produzione-ricezione" tra scienza e cultura di massa teorizzato da Kaiser è
tutt'ora attivo, come ben evidenziano le interazioni tra le idee di Bostrom, o più
in generale l'Argomento della Simulazione, e:
• gli ambienti della Silicon Valley, pervasi dal movimento culturale del
Transumanesimo;
• gli studi del 1ilosofo della scienza ungherese di Ervin László (1932) che, come
tipico della Cultura New Age, si rifànno a concetti tipici dell'induismo;
• l'evento Isaac Asimov Memorial Debate, ospitato dall’American Museum of
Natural History di New York nell'aprile del 2016, che dimostra sempre
maggiore popolarità dell'Argomento della Simulazione;
• la critica all'statuto ontologico del concetto d’informazione, espresso dallo
slogan “It from Bit” espressa dal 1ilosofo italiano Riccardo Manzotti (1969).
Nella Silicon Valley, termine introdotto all'inizio degli anni '70 per indicare il
centro globale per l'alta tecnologia, l'innovazione, i social media ed il capitale di
rischio, geogra1icamente collocato nella California settentrionale, negli USA.
l’ideologia dominante sul futuro dell’Uomo è quella del Transumanesimo,
l’ipotesi secondo cui molto presto sarà possibile fondere l’intelligenza umana
con quella arti1iciale dei computer per raggiungere un nuovo stadio
dell’evoluzione, de1inito “singolarità tecnologica”. Detta "singolarità tecnologica"
è riferibile all'avvento di un'intelligenza (anche arti1iciale) superiore a quella
oggi ascrivibile all'Uomo, e ai progressi tecnologici che presumibilmente
conseguirebbero da un tale evento; progressi ben oltre la capacità di
comprendere e prevedere dell'Uomo, salvo che non intervenga un importante
aumento delle facoltà intellettive di ogni Uomo favorito dalla scienza. Se mai si
raggiungerà la "singolarità tecnologica" è materia di discussione. Di poter
raggiungere la "singolarità tecnologica" sono certi:
• l'informatico ed inventore statunitense Ray Kurzweil (1948) dal 2012
dirigente di Google, uno dei teorici del Transumanesimo che per questo
ritiene possibile simulare su un computer l’intelligenza umana, cosi
recuperando il mito degli anni '50 della Cibernetica; motivo per cui secondo
lui sarà anche possibile simulare un universo dotato di vita consapevole, cosa
che avalla l'Argomento della Simulazione.
• l'imprenditore sudafricano, poi naturalizzato statunitense, Elon Musk (1971),
impegnato in numerose aziende hi-tech ( tra cui PayPal, SpaceX, Tesla,
SolarCity, Hyperloop, openAI, Neuralink), che nel 2016 dichiara di credere
che la possibilità che il nostro universo sia reale e non una simulazione sia di
appena una su miliardi.
A cura di Marco Gentili
31
Il 1ilosofo della scienza ungherese di Ervin László (1932) nel suo libro Science
and the Akashic Field: An Integral Theory of Everything (2004), "La scienza e il
Campo Akashico: una Teoria Integrale del Tutto", utilizza l'Universo Ologra1ico
nella versione più vicina alla Teoria dell'Ordine Implicato di Bohm per sostenere
l’esistenza di un campo d’informazione di cui l’universo che esperiamo sarebbe
la proiezione.
Questo campo d'informazione è identi1icato da László col concetto induista di
Akasha, antico termine sanscrito utilizzato nell'Induismo per indicare l'essenza
base di tutte le cose del mondo materiale, l'elemento più piccolo creato dal
mondo astrale.
László spiega così la sua eterodossa riutilizzando il termine "in-formazione" è
coniato da David Bohm per indicare una forma attiva di informazione che
modella l'agente informatore:
Cosa sono le in-formazioni? Sono una connessione sottile, quasi istantanea,
non evanescente e non energetica tra cose in punti diversi del tempo e dello
spazio.
Tali connessioni vengono de1inite “non-locali” nell’ambito delle scienze
naturali e “transpersonali” nella ricerca di coscienza.
Le in-formazioni collegano le cose (particelle, atomi, molecole, organismi,
sistemi ecologici, sistemi solari, intere galassie, oltre alla mente e alla
coscienza associati a una o più di queste cose) indipendentemente dalla
distanza che c’è tra loro e al tempo trascorso da quando tra loro vennero
create le connessioni
(La scienza e il campo akashico, Urra, Milano 2009, p. 57)
Citazione che ben dimostra la persistenza, al di fuori dell’ambiente scienti1ico,
della proposta di Bohm come spiegazione per la non-località tipica della
meccanica quantistica, e il suo aggiornamento alla luce della Fisica
dell’Informazione.
Nel 2016, in occasione dell'evento Isaac Asimov Memorial Debate, l’astro1isico e
divulgatore scienti1ico statunitense Neil deGrasse Tyson (1958) ha organizzato
un incontro per discutere in merito alla domanda: Il nostro universo è una
simulazione? All'incontro Tyson ha invitato:
• il 1ilosofo australiano David Chalmers (1966), il cui lavoro è incentrato
soprattutto sul problema della coscienza;
• la giovane 1isica teorica iraniana Zohreh Davoudi (nata intorno al 1980),
esperta di teorie di campo ef1icaci, cromodinamica quantistica reticolare,
simulazione quantistica e quantistica informatica;
• il 1isico teorico statunitense James Gates (1950), noto per i suoi studi su
supersimmetria, supergravità e teoria delle superstringhe;
A cura di Marco Gentili
32
• la 1isica teorica statunitense Lisa Randall (1962), specializzata in 1isica delle
particelle e cosmologia;
• il cosmologo svedese Max Tegmark (1967), che ha sviluppato
un'argomentazione matematica a sostegno dell'ipotesi speculativa del
Multiverso e criticato il Modello ORCHestrated Objective Reduction della
coscienza elaborato da Roger Penrose e Stuart Hameroff per cui la coscienza
sarebbe una proprietà emergente dovuta agli effetti quantistici che si
sviluppano all'interno dei microtuboli dei neuroni.
Le risposte dei partecipanti all'incontro alla domanda posta sono state assai
divergenti, la probabilità che l’universo sia una simulazione è stata valutata
essere:
• il 50%, per l'astro1isico Tyson;
• il 42%, per il 1ilosofo Chalmers;
• il 17%, per il cosmologo Tegmark,
• l’1%, per il 1isico teorico Gates;
• lo 0%, per la 1isica teorica Randall;
• la 1isica teorica Davoudi si è ri1iutata di fornire una risposta secca in termini
percentuali, lo stesso atteggiamento che avrebbe assunto chi scrive.
Nel 2017 il 1ilosofo italiano Riccardo Manzotti (1969), ben esprime le critiche dei
1iloso1i della scienza che mettono in dubbio lo statuto ontologico del concetto
d’informazione, espresso dallo slogan “It from Bit”. Manzotti sostiene che
l'Argomento della Simulazione si fonda sull’erronea convinzione che
l’informazione possieda una qualche tangibilità 1isica, al punto da permettere,
attraverso opportuni strumenti, di passare dal bit all’it, dall’informazione
all’oggetto 1isico. Scrive Manzotti:
Nel 1ilm The Matrix, c’è una scena che è rimasta impressa nell’immaginario
collettivo ed è stata poi riproposta molte volte in altri 1ilm e videogiochi: una
cascata di caratteri alfanumerici verdi scorrono sullo schermo [immagine di
copertina] e si tras1igurano in una realtà virtuale fatta di colori e forme,
totalmente indistinguibile dal nostro mondo reale. Dai caratteri verdi
emerge un’avvenente donna bionda in un vestito rosso saturo.
Il messaggio è chiaro – l’informazione si può trasformare in un mondo
virtuale – ma è un messaggio completamente sbagliato.
Questa trasformazione, che viene comunemente ritenuta plausibile, da un
punto di vista scienti1ico non è più accettabile della comparsa del genio della
lampada, o della pietra 1ilosofale o di un’anima immateriale.
L’equivoco nasce dal fatto che, quotidianamente, l’informazione viene
utilizzata per produrre immagini su schermi o su carta.
A cura di Marco Gentili
33
Ma tale passaggio non è miracoloso. Per ottenere una foto di mio 1iglio, la
stampante ha bisogno di pigmenti e inchiostri 1isici, lo schermo del mio
tablet deve emettere luci colorate.
L’informazione non si trasforma in colori e forme, l’informazione si usa per
manipolare il mondo 1isico.
(Quindi l’Universo esiste davvero?, Il Tascabile, 28 giugno 2017)
Il riferimento di Manzotti a un 1ilm tanto in1luente come è Matrix, che ha
ampli1icato la popolarità dell’Argomento della Simulazione, mostra ancora una
volta come, nello studiare la continua metamorfosi di queste idee, sia
fondamentale tenere conto della loro ricezione all’interno della cultura di massa.
2010-Oggi - Simulazione <-> Fisica
Al di là delle speculative suggestioni del Transumanesimo e della Cultura New
Age, anche diversi 1isici teorici si sono occupati negli ultimi anni dell'Argomento
della Simulazione, tra questi di seguito si esamina succintamente il pensiero:
• del matematico e cosmologo britannico John Barrow (1952-2020), vicino alle
tesi di Roger Penrose;
• il già citato 1isico teorico statunitense James Gates (1950), che partecipa2016
all'evento Isaac Asimov Memorial Debate (2016);
• la già citata 1isica teorica iraniana Zohreh Davoudi (nata intorno al 1980), che
anch'essa partecipa all'evento Isaac Asimov Memorial Debate (2016).
Nel 2011 John Barrow (1952-2020) con il saggio Il libro degli universi (2011),
suggerisce di cercare delle "patch", letteralmente "toppa", come si de1iniscono
nell'informatica le porzione di software progettate per correggere errori che
emergono successivamente al lancio di un software. Nel suo libro Barrow scrive:
Se i simulatori usassero i codici informatici di correzione degli errori per
premunirsi dalla fallibilità generale delle loro simulazioni (e li simulassero
su scala inferiore al nostro codice genetico), ogni tanto verrebbe apportata
una correzione allo stato della simulazione o alle leggi che la governano.
Avverrebbero allora improvvisi cambiamenti in apparente contraddizione
con le stesse leggi di natura che gli scienziati simulati erano abituati a
osservare e predire.
(Il libro degli universi, Mondadori, Milano 2012, p. 263)
Nel caso della simulazione dell'universo, si tratterebbe di modi1iche alle costanti
di natura e alle leggi fondamentali introdotte di tanto in tanto dai simulatori per
correggere errori che si accumulano nel tempo.
A cura di Marco Gentili
34
Il 1isico statunitense James Gates (1950) sostiene che una "patch" come quella
auspicata da Barrow, possa trovarsi all’interno di uno dei formalismi utilizzati
per descrivere la supersimmetria, un’estensione del modello standard della
1isica delle particelle che sostiene l’esistenza di una simmetria tra le due famiglie
di particelle note, i fermioni e i bosoni per cui al gravitone corrisponde il
gavitino, al fotone il fotino, al gluone il gluino. In particolare il formalismo
adottato da Gates per descrivere geometricamente il modo in cui queste due
famiglie di particelle si correlano utilizza delle 1igure molto complesse, una sorta
di ideogrammi chiamati “adinkra”.
Questi simboli, originari della cultura Ashanti, geogra1icamente collocata nel
Ghana, in Africa, per questa cultura permetterebbero di visualizzare meccanismi
che supposti reali nel mondo della natura. Il loro funzionamento, tuttavia,
sembra possibile soltanto accettando l’idea che gli "adinkra" celino al loro
interno una sorta di codice binario, noto agli informatici come codice di
Hamming, sviluppato 1in dagli anni '50 per la correzione degli errori di
trasmissione. Solo se si inseriscono codici binari simili a questi gli "adinkra"
possono funzionare consentendo di mantenere, in ogni trasformazione, le
proprietà supersimmetriche previste dalla teoria.
Nel 2014 la giovane 1isica teorica iraniana Zohreh Davoudi (nata intorno al
1980), fornisce un possibile metodo di veri1ica dell'Argomento della Simulazione,
partendo dal presupposto che l’ipotetica simulazione dello spazio-tempo
dovrebbe fondarsi cromodinamica quantistica (QCD) su reticolo, la teoria 1isica
che descrive l'interazione forte la cui particella di scambio è il gluone (analogo al
fotone per l'elettromagnetismo ed al gravitone per la gravità), utilizzando un
reticolo spazio-temporale discreto. Per la Davoudi se i “simulatori” del nostro
universo utilizzassero le tecniche di simulazione informatica impiegate dalla
QCD su reticolo, basterebbe studiare le particelle emesse dai raggi cosmici ad
altissima energia per veri1icare se la loro energia limite vari al mutare della
direzione di provenienza, come avverrebbe se lo spazio-tempo fosse un reticolo
discreto.
A cura di Marco Gentili
35
Coscienza Quantistica
Il 1ilosofo australiano David Chalmers (1966), già citato perché tra i partecipanti
all'evento Isaac Asimov Memorial Debate del 2016 in cui si dibatte l'Argomento
della Simulazione, il cui lavoro è incentrato soprattutto sul problema della
coscienza, nella convinzione che la consapevolezza è ciò che permette:
cognizione e coscienza, ovvero percezione e sentire, de1inisce due diversi
problemi ad essa legati:
• Problema facile della Coscienza, inerente all'individuazione di modelli
neurobiologici della coscienza, che non spiega il carattere soggettivo ed
irriducibile che essa ha per il soggetto cosciente; facile perché, considerati i
notevoli progressi nel campo delle neuroscienze, non dovrebbe essere troppo
dif1icile trovare detti modelli;
• Problema dif1icile della Coscienza, relativo alla spiegazione degli aspetti
qualitativi e soggettivi dell'esperienza cosciente, che sfuggono ad un'analisi
materialista; dif1icile sia per distinguere dal precedente problema come
anche perché ad oggi è riuscito ad impostarne una via di soluzione.
Per capire meglio la distinzione tra questi due problemi s'immagini una rosa,
romanticamente ritenuta evocativa in termini di sentimenti, conoscere
attraverso i sentimenti signi1ica:
• avere cognizione, ciò di cui tratta il Problema facile della Coscienza, signi1ica
percepire il profumo della rosa; di questa percezione si conosce la
spiegazione biochimica, si sa che alcune molecole, a contatto con i recettori
sensoriali dell’epitelio nasale (un sottile strato di cellule collocato in un'area
ristretta della cavità nasale, sorta di organelli microscopici costituiti da
terminazioni nervose che rispondono a stimoli chimici), producono certi
segnali elettrici; questi segnali sono un’informazione oggettiva del profumo
della rosa recepito dai sensori olfattivi, che può essere usata per riconoscere
gli odori, da un Uomo come anche da una macchina;
• avere coscienza, ciò di cui tratta il Problema dif1icile della Coscienza, signi1ica
tradurre i segnali elettrici simbolo del profumo di rosa, in seno alla propria
consapevolezza individuale, nella cognizione di un sentimento soggettivo,
quello che i 1iloso1i della mente chiamano qualia.
I qualia rappresentano gli aspetti qualitativi delle esperienze coscienti, il sentire,
ognuna qualitativamente diversa dall’altra, come ad esempio l’esperienza
senziente del sentire l’odore della rosa. Il qualia associato all’odore di rosa è
molto di più del segnale elettrico prodotto dai recettori sensoriali, è una
categoria incommensurabile con quella dei segnali elettrici. Capire il problema
del sentire il profumo di una rosa, signi1ica comprendere la differenza tra:
• simbolo, il segnale elettrico relato al suono del campanello o all’odore di rosa;
• sentimento, il qualia relato al suono del campanello o all’odore di rosa.
A cura di Marco Gentili
36
Per Chalmers la coscienza sarebbe un fenomeno emergente (come è la
temperatura di un gas in 1isica legata al moto dei suoi costituenti elementari) ed
ha una necessaria relazione con il concetto d'informazione.
Questa idea è autonomamente ripresa dal medico statunitense Stuart Hameroff
(1947) e dal 1isico e matematico inglese Roger Penrose (1931) per costruire
negli anni '90 una teoria della coscienza quantistica, il Modello ORCHestrated
Objective Reduction, ORCH-OR. Nonostante l'analogia mostrata dalle conclusioni
a cui arrivano Hameroff e Penrose negli anni '90, con quelle risalenti a Bohm e
Pribran, sviluppate dal 1979 in poi, non si è trovata evidenza di un qualche
legame diretto tra queste teorie o tra i loro autori.
1980 - Oggi Modello ORCHestrated Objective Reduction
Nel 1987 il medico statunitense Stuart Hameroff (1947), sulla base del suo
lavoro di ricerca sui tumori, nel saggio Ultimate computing (1987), ipotizza che
delle strutture intracellulari chiamate microtubuli siano capaci di una qualche
forma di calcolo e quindi di coscienza nella propria attività. Hameroff suppone
che i microtubuli potrebbero essere le unità base del processo di emersione
della coscienza anziché i neuroni stessi. da ciò consegue che almeno una parte
della soluzione al Problema dif1icile della Coscienza posto da Chalmers possa
essere riconducibile alla comprensione delle funzioni dei microtubuli nei
neuroni, giungendo così alla conclusione che operazioni cellulari potrebbero
veri1icarsi tramite uno schema di calcolo suf1iciente per poter parlare di
coscienza.
Nel 1989 il 1isico e matematico inglese Roger Penrose (1931) pubblica La mente
nuova dell'imperatore (1989) una ricerca scienti1ica sulla coscienza umana e
l'intelligenza arti1iciale in cui, sulla base dei teoremi di incompletezza di Gödel,
sostiene che il cervello può svolgere funzioni non assimilabili alla logica formale
e quindi impossibili per qualsiasi computer o sistema di algoritmi, ribaltando le
convinzioni in materia allora prevalenti. Penrose individua nei principi della
meccanica quantistica un processo alternativo all'emergere della coscienza,
elaborando il modello Objective Reduction, OR, della "riduzione oggettiva", dove
per "riduzione" s'intende il collasso della funzione d'onda previsto dalla
meccanica quantistica. Hameroff rimane subito favorevolmente impressionato
dalle idee di Penrose, per questo gli propone i suoi microtubuli neurali come i
candidati idonei a supportare l'elaborazione quantistica nel cervello.
Dal 1992 al 1994 Penrose e Hameroff collaborano alla formulazione del modello
Modello ORCHestrated Objective Reduction, ORCH-OR, "Modello della Riduzione
Oggettiva Orchestrata"; orchestrazione che si riferisce al processo mediante il
quale i microtubuli in1luenzano la loro trasformazione quantistica.
A cura di Marco Gentili
37
Secondo il Modello ORCH-OR la coscienza emerge, piuttosto che dall'interazione
dei neuroni costituenti il cervello, da meccani quantistici che avvengono
all'interno dei neuroni, nei microtubuli che utilizzano il fenomeno
dell'entanglement. I risultati di questa collaborazione, che mostrano analogie
con le idee di Jack Sarfatti (1939) il principale animatore del Fundamental Fysiks
Group, sono esposti da Penrose nel suo saggio Ombre della mente (1994). Nel
2014 Penrose e Hameroff annunciano la scoperta, ad opera del 1isico
sperimentale indiano Anirban Bandyopadhyay (1975) di reazioni quantistiche
nei microtubuli. In ogni caso il Modello ORCH-OR è ancora privo di una
qualunque veri1ica sperimentale.
Il legame tra coscienza ed informazione, il considerarla un fenomeno emergente
e la sua sopravvivenza alla morte del cervello che farebbe con1luire questa
informazione ad aggiungersi a quella che riempie l'universo, sono i tenui legami
che:
• da un lato assimilano le idee di Penrose e Hameroff a quelle precedentemente
sviluppate, a partire dal 1979, da Bohm e Penrose, senza che emerga un
qualche legame diretto tra le due teorizzazioni;
• dall'altro correlano il Modello ORCH-OR all'Argomento della Simulazione.
Penrose è ateo, ciò non gli impedisce di ipotizzare, con Hameroff, che la
coscienza quantica di ogni essere vivente sia indipendente dal corpo stesso, così
che potrebbe sopravvivere alla morte 1isica del cervello, per continuare ad
esistere sotto varie forme perché l'informazione quantistica non può essere
distrutta in quanto soggiacente alla legge di conservazione dell'energia. Dove
esisterebbe questa coscienza che molti amano confondere con il concetto di
anima? Per Penrose non certo in un aldilà come quello ipotizzato da molte
religioni, ma in un universo ciclico in1inito nel tempo ma non nello spazio, come
quello del modello cosmologico denominato Conformal Cyclic Cosmology (CCC),
"Cosmologia Ciclica Conforme", da lui proposto nel 2001 (in alternativa alle
teorie del Big Bang, dell'In1lazione, del Multiverso e da non confondere con altri
cosmologici alternativi che prevedono un universo che si replica periodicamente
come il Big Bounce o l'Universo). Il modello CCC postula che la 1ine dell'universo
sia l'inizio di uno nuovo, in una successione in1inita di cicli temporali chiamati
eoni, dato che la bassa entropia successiva alla morte termica dell'universo, il
momento in cui l'entropia è massima, sarebbe la stessa che c'era prima del Big
Bang, a causa dell'evaporazione dei buchi neri. Con il Modello ORCH-OR Penrose
e Hameroff si propongono di spiegare anche le cosiddette esperienze di premorte in cui l'informazione quantistica , temporaneamente sospesa in uno stato
non “orchestrato” ritornerebbe poi nei microtubuli al momento in cui il soggetto
riprende coscienza, senza essere stata in alcun modo alterata poiché in grado di
sopravvivere a tempo indeterminato al di fuori del corpo.
A cura di Marco Gentili
38
Conclusioni
Nel contesto della genealogia delle idee di Universo Ologra1ico, Fisica
dell'Informazione, Argomento della Simulazione e Modello ORCHestrated Objective
Reduction tracciata, diventa sempre più dif1icile, negli anni più recenti dal 2000
ad Oggi, tracciare quella imprescindibile linea di demarcazione tra idee
scienti1iche e idee non-scienti1iche dalla quale anche una visione olistica che
integri 1isica, 1iloso1ia, neuroscienze e si alimenti delle idee provenienti dalla
cultura di massa non può prescindere.
Demarcazione che chi scrive ha appreso approfondendo, non a caso
parallelamente agli studi di 1isica, il pensiero del 1ilosofo ed epistemologo
austriaco, poi naturalizzato britannico, Karl Popper (1902-1994), ben
sintetizzato nei due saggi Logica della scoperta scienti1ica (1934) e Congetture e
confutazioni (1969).
Le proprietà che Popper, come anche chi scrive, ritiene indispensabili per
de1inire una teoria scienti1ica sono:
• la falsi1icabilità, per cui una teoria è scienti1ica se, e solo se, è falsi1icabile;
• la controllabilità, per cui af1inché una teoria scienti1ica sia falsi1icabile deve
essere espressa in forma logica e deduttiva, tale da partire da un asserto
universale per ricavarne, in maniera rigidamente concatenata, una
particolare predizione;
• la confutabilità, per cui una teoria scienti1ica è confutabile se, e solo se, è le
predizioni che è in grado di fare possono essere sperimentalmente veri1icate
come previsto del metodo scienti1ico.
In aggiunte per Popper, a parità di evidenze sperimentali, le teorie che
permettono di fare un maggior numero di previsioni sulla realtà devono essere
preferite; più una teoria è applicabile, maggiore è il suo valore.
Le idee espresse dalla 1isica teorica contemporanea stanno gradualmente
perdendo queste proprietà di falsi1icabilità, controllabilità e confutabilità
auspicate da Popper. Tanto che chi scrive s'interroga se le Teorie del Tutto (o
quasi) ,come la Teoria delle Stringhe o la Gravità Quantistica a Loop. possano
ancora de1inirsi teorie 1isiche o non siano invece solo teorie meta1isiche
(1iloso1iche) prive di quella produttività che alla scienza è indispensabile. Da
questa "deriva" del pensiero scienti1ico consegue il rischio di alimentare la
capacità di richiamo, attrazione, fascinazione delle teorie pseudoscienti1iche,
sopratutto all'interno della cultura di massa ma non solo.
L'approccio adottato da David Kaiser per passare dalla "storia della scienza" alla
"storia delle idee" avanza la proposta di rinunciare alla ossessiva demarcazione
tra scienza e cultura di massa (quindi al falsi1icazionismo di Popper), per
studiare in modo più oggettivo e senza presunzione di valutazione della validità
delle idee scienti1iche il loro ciclo di "produzione-ricezione" attraverso il 1iltro
della cultura di massa.
A cura di Marco Gentili
39
Un approccio che si ritiene interessante:
• che può favorire scoperte importanti relativamente al modo in cui alcune
idee inizialmente ai margini della ricerca scienti1ica, o travisate dalla cultura
di massa, vengono successivamente recuperate, rivelandosi in un secondo
momento strumenti fecondi per lo sviluppo del pensiero scienti1ico;
• che comunque non può esimere, una volta ricostruita la genealogia delle idee,
dal chiedersi se siano veramente idee scienti1iche o invece 1iloso1iche o
peggio mera disinformazione o pseudoscienza.
Cosa che inevitabilmente deve portare a chiedersi se l'assunzione di validità di
un'idea possa produrre realmente vantaggi per una migliore comprensione del
mondo e predizioni che possano successivamente essere oggettivate dalla
sperimentazione.
A cura di Marco Gentili
40
Scarica