Fisica dell`informazione ultima frontiera della scienza

A
Immagine di copertina tratta dal web (http://holographicarchetypes.weebly.com).
L’autore si dichiara disponibile a regolare eventuali spettanze, per gli stralci di alcuni articoli
(ed immagini) riportati in questo volume, qualora questi ultimi fossero coperti da copyright.
Fausto Intilla
Fisica dell’informazione
ultima frontiera della scienza
Gli ultimi inattesi sviluppi della fisica digitale
Copyright © MMXIII
ARACNE editrice S.r.l.
www.aracneeditrice.it
[email protected]
via Raffaele Garofalo, /A–B
 Roma
() 
 ----
I diritti di traduzione, di memorizzazione elettronica,
di riproduzione e di adattamento anche parziale,
con qualsiasi mezzo, sono riservati per tutti i Paesi.
Non sono assolutamente consentite le fotocopie
senza il permesso scritto dell’Editore.
I edizione: gennaio 
“Le sole leggi della materia sono quelle
costruite dalla mente, e le sole leggi della
mente, sono costruite per essa dalla materia”
J.C. Maxwell
“Non pretendo di capire l’Universo:
è tanto più grande di me”
T. Carlyle
Indice

Prefazione

Capitolo I
La matrice ultima della realtà
.. Olografia quantistica elettronica, .

Capitolo II
Informazione e teletrasporto quantistico

Capitolo III
Verso entanglement sempre più sofisticati

Capitolo IV
La realtà dei bit attraverso la fisica dei buchi neri

Capitolo V
Dalla teoria dell’Informazione al concetto di Anima
.. “Reincarnazione”, riflessioni congiunte al modello di Informazione
dinamica,  – .. Cameron, il bambino che visse due volte,  – .. Il
contributo di Pim Van Lommel, .

Capitolo VI
MWI. Potremo un giorno testarla?
.. LHC. . . qualche curiosità, .

Indice


Capitolo VII
Fotonica e Termodinamica dell’Informazione. Dalla teoria alla
tecnologia
.. Il demone di Maxwell,  – .. Irreversibilità, entropia, informazione,  – .. L’ipotesi della retro-causalità, .

Per concludere

Bibliografia
Prefazione
Probabilmente il , verrà ricordato in futuro come l’anno più proficuo nella storia della scienza moderna, in quanto a scoperte nel
campo della fisica subnucleare (fisica delle particelle) e dunque a rigor
di logica, a potenziali ampliamenti o modifiche di strutture e modelli
teorici della Meccanica Quantistica.
A titolo d’esempio, basti pensare alla recente scoperta del Bosone
di Higgs (annunciata il  luglio dai ricercatori del CERN di Ginevra);
alla dimostrazione sperimentale del limite di Landauer (confermando
così, un principio teorico sul nesso tra termodinamica classica e teoria
dell’Informazione, che aspettava un riscontro sperimentale da ben
oltre cinquant’anni); alla dimostrazione sperimentale della divisibilità
di un singolo atomo, per poi essere nuovamente ricomposto in modo
artificiale. Tre scoperte di fondamentale importanza, avvenute tutte
nel corso di quest’anno. Nuovi sviluppi di notevole interesse si sono
avuti anche, a partire dal  sino ad oggi, nel campo della fotonica,
della spintronica e delle nanotecnologie.
È chiaro dunque che ci troviamo di fronte ad una svolta epocale,
in quanto a sviluppi e applicazioni di potenziali nuove tecnologie.
Ma siccome la teoria precede sempre di qualche passo l’applicazione
pratica (in ogni ambito della sfera umana), la stessa svolta è avvenuta
in campo teorico; ossia in quello relativo ai nostri modelli di rappresentazione della realtà, ai nostri attuali paradigmi scientifici. Molte
idee, teorie e concetti, sono stati dunque rivisti ed ampliati, modificati,
ritoccati e in alcuni casi anche cancellati dal grande libro della fisica,
poiché rivelatisi non più coerenti con i nuovi modelli teorici e fisici
della realtà.
Ciò che ai nostri occhi si è resa sempre più evidente, grazie alle
innumerevoli scoperte e sviluppi scientifici avvenuti negli ultimi dieci
anni, è l’intima correlazione tra le leggi della termodinamica classica e
quelle che governano invece, un mondo concettualmente immateriale,
apparentemente del tutto astratto e comprensibilmente quindi, anche


Fisica dell’informazione, ultima frontiera della scienza
assai difficile da accettare e “digerire”, come “modello ultimo della
realtà”: quello dell’Informazione.
In questo breve saggio, cercherò dunque di condurre il lettore, con
parole semplici e riducendo al minimo (quasi a zero) il formalismo
matematico (ossia l’utilizzo di lunghe e complicate equazioni), verso
una comprensione più approfondita e ricca di spunti di riflessione,
di ciò che viene comunemente definito come un “nuovo paradigma
della realtà”, ossia quello di un Universo costituito fondamentalmente
da pura Informazione; dove anche i concetti di massa ed energia,
debbono quindi essere ampliati e ridefiniti, per poter essere relazionati
a questo nuovo modello di realtà.
Se siamo giunti al capolinea, ossia ad un punto nel campo del
sapere scientifico e filosofico, oltre il quale non è più possibile andare
oltre (assumendo una volta e per sempre, che il concetto di “Universo
digitale” sia il più idoneo a definire l’immagine della realtà), questo
ovviamente nessuno è in grado di dirlo; ma se proprio vogliamo credere nella continua ed interminabile ascesa del sapere umano, allora
possiamo tranquillamente affermare che, usando le stesse parole di
Herbert George Wells: “Ogni dogma prima o poi deve morire”.
Capitolo I
La matrice ultima della realtà
“Realtà e Informazione sono la stessa cosa.
Propongo cioè di considerare questi due concetti, che chiaramente finora abbiamo sempre tenuto distinti, come due facce della stessa
medaglia, proprio come lo spazio e il tempo
che, secondo la Relatività di Einstein, sono a
loro volta legati in modo indissolubile. Noi
vediamo queste due cose come un tutt’uno
a causa del nostro postulato secondo il quale nessuna legge della natura o descrizione
della natura può fare differenza tra realtà e
Informazione. Dovremmo allora coniare un
nuovo termine che comprenda sia la realtà
sia l’Informazione. Già il fatto che un termine del genere non solo non esista, ma che ci
sia difficile anche immaginarlo, ci fa capire
quanto siano complessi i problemi concettuali
che emergono. La nostra affermazione precedente, secondo la quale l’Informazione è la
materia primordiale dell’Universo, è ora da
considerare anche nel senso di questa unità
tra realtà e Informazione”.
Anton Zeilinger
“Calculating Space” è il titolo del libro di Konrad Zuse , pubblicato in
inglese dal MIT nel  e il cui titolo originale era, in tedesco: Rech. Konrad Zuse (Berlino,  giugno  – Hünfeld,  dicembre ) è stato un pioniere
dell’informatica e viene considerato come l’inventore del computer moderno. Il calcolatore
“Z”, completato da Zuse nel , deve essere considerato in assoluto come il primo
computer moderno, avendo anticipato di alcuni anni il Colossus, realizzato nel  dal
geniale matematico inglese Alan Turing per la decifrazione dei messaggi prodotti dalla
macchina Enigma, usata dalle forze armate tedesche per le comunicazioni militari durante
la seconda guerra mondiale, nonché i primi enormi calcolatori programmabili a valvole
prodotti in Inghilterra e negli Stati Uniti nella seconda metà degli anni quaranta. A Konrad
Zuse si deve anche l’invenzione del primo linguaggio di programmazione della storia,
ideato per fornire le istruzioni allo “Z”: il Plankalkül.


Fisica dell’informazione, ultima frontiera della scienza
nender Raum; ovvero il titolo del primo libro in cui si iniziò a trattare,
in una nuova veste (più legata al mondo della fisica piuttosto che
a quello puramente informatico), la teoria dell’Informazione. Zuse,
gettò dunque i semi di un nuovo paradigma scientifico che molti
anni più tardi, sarebbe germogliato prendendo il nome di “Digital
Physics”; oggi comunemente noto, alle nostre latitudini, come Fisica
dell’Informazione. Zuse propose l’idea che il nostro Universo, fosse
stato calcolato da una sorta di “automa cellulare” (o da un calcolatore
discreto), sfidando l’idea ormai secolare che alcune leggi fisiche siano
continue per natura. Egli si concentrò sugli automi cellulari, ritenendo
che rappresentassero in modo ottimale, un potenziale substrato idoneo al calcolo; sottolineando (tra le altre cose), che le nozioni classiche
dell’entropia, nonché la sua crescita, non hanno alcun senso in universi calcolati in modo deterministico. Il teorema di Bell viene a volte
utilizzato per confutare l’ipotesi di Zuse; ma esso non è applicabile
ad Universi deterministici, come lo stesso Bell ebbe a sottolineare.
Allo stesso modo, mentre il principio di indeterminazione di Heisenberg, limita in modo fondamentale ciò che un osservatore può
osservare (quando l’osservatore stesso è una parte dell’Universo che
sta cercando di osservare), tale principio non esclude l’ipotesi di Zuse,
che vede un osservatore come parte di un processo deterministico
ipotizzato. Finora non è mai stata elaborata e sperimentata alcuna prova fisica inequivocabile, atta a demolire la possibilità che “tutto sia
solo un calcolo”; inoltre, una grande quantità di opere incentrate sulla
Fisica dell’Informazione (Digital Physics, per gli anglosassoni) sono
state scritte dal giorno in cui è apparso per la prima volta il saggio
pioneristico di Zuse.
Nel campo della fisica (come del resto anche in quello cosmologico), la fisica dell’Informazione rappresenta un insieme di prospettive
teoriche, basate sulla premessa che l’intero Universo sia, alla radice,
descrivibile attraverso il concetto di Informazione; e che dunque, in
. Il modello ad automa cellulare è molto elegante. Il problema, però, è che si tratta di un
modello classico; e sappiamo che i computer classici non riescono a trattare con efficienza
caratteristiche quantistiche come l’entanglement o altre peculiarità. Inoltre ci sono problemi
“di spazio”: è stato calcolato che un automa grande come l’Universo sarebbe in grado di
simulare solo una piccola, piccolissima parte della realtà quantistica. Se l’Universo fosse
davvero un computer classico, la stragrande maggioranza dei suoi bit e dei suoi circuiti
dovrebbe stare nascosta da qualche parte, inaccessibile alla nostra esperienza e percezione.
. La matrice ultima della realtà

ultima analisi, sia “calcolabile”. Quindi, l’Universo potrebbe essere
concepito come l’output di un programma informatico oppure come
un vasto dispositivo per il calcolo digitale. La fisica dell’Informazione
si fonda principalmente sulle seguenti ipotesi:
a)
b)
c)
d)
e)
f)
L’Universo, o la realtà, è essenzialmente informativa.
Esso/essa è essenzialmente calcolabile.
Tale realtà può essere descritta in modo digitale.
La sua natura è essenzialmente digitale.
È essa stessa una sorta di computer.
È essenzialmente l’output di una realtà simulata.
Andiamo ora ad analizzare i primi assunti e le prime premesse, che
storicamente portarono all’elaborazione di questo nuovo paradigma
scientifico. Una delle premesse fondamentali, vuole semplicemente che qualsiasi computer, sia compatibile con i principi della Teoria
dell’Informazione (quella classica, basata su un modello puramente
informatico), con la meccanica statistica ed infine con la meccanica
quantistica . Un collegamento fondamentale tra questi campi è stato
. La teoria dell’informazione è quel settore dell’informatica e delle telecomunicazioni
che si occupa di definire le basi teoriche su cui si fonda la scienza dell’informazione. La
sua nascita è relativamente recente: essa viene solitamente fatta risalire al , anno in cui
Claude Shannon pubblicò Una teoria matematica della comunicazione in cui introduceva per
la prima volta in modo sistematico lo studio dell’informazione e della comunicazione.
. In fisica, la meccanica statistica è l’applicazione della teoria della probabilità, che
include strumenti matematici per gestire insiemi formati da numerosi elementi, al comportamento termodinamico di sistemi composti da un grande numero di particelle. La
meccanica statistica fornisce un modello per collegare le proprietà dei singoli atomi e
molecole alle proprietà macroscopiche del sistema da essi composto. Da un punto di vista
classico lo studio di un sistema con N particelle non interagenti richiede la soluzione di
N equazioni differenziali, che descrivono il moto di ogni particella. Quando il numero
di particelle è molto grande, dell’ordine del numero di Avogadro, la meccanica statistica
permette di poter caratterizzare il sistema attraverso grandezze macroscopiche, come il
calore, l’energia libera, la pressione o il volume.
. La meccanica quantistica si distingue in maniera radicale dalla meccanica classica in
quanto si limita a esprimere la probabilità di ottenere un dato risultato a partire da una certa
misurazione, secondo l’interpretazione di Copenaghen, rinunciando così al determinismo
assoluto proprio della fisica precedente. Questa condizione di incertezza o indeterminazione
non è dovuta a una conoscenza incompleta, da parte dello sperimentatore, dello stato in
cui si trova il sistema fisico osservato, ma è da considerarsi una caratteristica intrinseca,
quindi ultima e ineliminabile, del sistema e del mondo subatomico in generale. La teoria
quantistica, dunque, descrive i sistemi come una sovrapposizione di stati diversi e prevede

Fisica dell’informazione, ultima frontiera della scienza
proposto da Edwin Jaynes in due documenti del . Inoltre, Jaynes ha
elaborato un’interpretazione della teoria delle probabilità, ridefinendola come una sorta di logica Aristotelica generalizzata; una visione
indubbiamente assai comoda per collegare la fisica fondamentale con i
computer digitali, per il solo fatto che questi ultimi sono progettati per
implementare le operazioni della logica classica ed inoltre, in modo
equivalente, quelle relative all’algebra booleana .
Il termine “fisica digitale”, fu utilizzato per la prima volta da Edward Fredkin, che in seguito preferì sostituirlo con “filosofia digitale”.
Altri scienziati e pensatori che paragonarono l’intero Universo ad una
sorta di immenso calcolatore, furono Stephen Wolfram, Juergen Schmidhuber e il premio Nobel Gerardus’t Hooft. Questi autori hanno
sempre appoggiato l’idea che la natura apparentemente probabilistica
che il risultato di una misurazione non sia completamente arbitrario, ma sia incluso in un
insieme di possibili valori: ciascuno di detti valori è abbinato a uno di tali stati ed è associato
a una certa probabilità di presentarsi come risultato della misurazione. Questo nuovo
modo di interpretare i fenomeni è stato oggetto di numerose discussioni all’interno della
comunità scientifica, come testimonia l’esistenza di diverse interpretazioni della meccanica
quantistica. L’osservazione ha quindi effetti importanti sul sistema osservato: collegato a
questo nuovo concetto si ha l’impossibilità di conoscere esattamente i valori di coppie di
variabili dinamiche coniugate, espressa dal principio di indeterminazione di Heisenberg.
La meccanica quantistica rappresenta il denominatore comune di tutta la fisica moderna
ovvero della fisica atomica, della fisica nucleare e sub-nucleare (la fisica delle particelle), e
della fisica teorica, a testimonianza della sua estrema potenza concettuale-interpretativa
nonché della vasta applicabilità al mondo microscopico.
. In matematica, informatica ed elettronica, l’algebra di Boole, anche detta algebra
booleana o reticolo booleano, è un ramo dell’algebra astratta che comprende tutte le algebre
che operano con i soli valori di verità  o , detti variabili booleane o logiche. La struttura algebrica studiata dall’algebra booleana è finalizzata all’elaborazione di espressioni
nell’ambito del calcolo proposizionale. Essendo un reticolo dotato di particolari proprietà,
l’algebra booleana risulta criptomorfa, cioè associata biunivocamente e in modo da risultare
logicamente equivalente, ad un insieme parzialmente ordinato reticolato. Ogni algebra
booleana risulta criptomorfa ad un particolare tipo di anello, chiamato anello booleano.
Tale algebra permette di definire gli operatori logici AND, OR e NOT, la cui combinazione permette di sviluppare qualsiasi funzione logica e consente di trattare in termini
esclusivamente algebrici le operazioni insiemistiche dell’intersezione, dell’unione e della
complementazione, oltre a questioni riguardanti singoli bit  e , sequenze binarie, matrici
binarie e diverse altre funzioni binarie. L’algebra sviluppata nel  all’University College
di Cork da Boole assume un ruolo importante in vari ambiti, in particolare nella logica
matematica e nell’elettronica digitale, dove nella progettazione dei circuiti elettronici riveste
grande importanza il teorema di Shannon del  utilizzato per scomporre una funzione
booleana complessa in funzioni più semplici, o per ottenere un’espressione canonica da
una tabella della verità o da un’espressione non canonica.
. La matrice ultima della realtà

della fisica quantistica, non sia necessariamente incompatibile con
la nozione di computabilità. Alcuni modelli in chiave quantistica di
“fisica digitale”, sono stati recentemente proposti da David Deutsch,
Seth Lloyd e Paola Zizzi. Altre correlazioni con tale modello di realtà si possono rintracciare nella teoria binaria degli “ur-alternatives”
(oggetti archetipici) di Carl Friedrich Freiherr von Weizsäcker, nel
pancomputazionalismo, nella teoria dell’Universo computazionale,
nell’idea di John Archibald Wheeler (“It from bit”) ed infine nella
teoria di Max Tegmark (“ultimate ensemble”).
Edward Fredkin è un fisico statunitense ed è considerato uno dei
pionieri della “fisica digitale”; i suoi principali contributi sono nella
computazione reversibile e negli automi cellulari. La sua invenzione più
importante fu la porta di Fredkin . In campo informatico fu inventore
della struttura dati Trie e del modello palla da biliardo per la computazione reversibile. Fu coinvolto in varie aree di ricerca dell’Intelligenza
artificiale. Di recente ha sviluppato Slat, un modello di computazione
basato sulle leggi di conservazione fondamentali della fisica.
Stephen Wolfram, fisico e matematico britannico, è l’autore del
controverso libro A New Kind of Science (NKS), che mostra uno studio
empirico di sistemi computazionali molto semplici. Inoltre esso spiega che per capire la complessità della natura e definirne dei modelli,
questo tipo di sistemi risulta estremamente efficace, piuttosto che
la matematica tradizionale. Wolfram lavora da anni alla sua nuova
scienza. Partì constatando che semplici programmi (di computer o
di applicazione di regole logiche) possono produrre strutture complesse che modellano ogni sorta di processi fisici e biologici. Propone
congetture molto ambiziose e usa uno strumento molto semplice: gli
automi cellulari. Wolfram sta precisando e cercando di dimostrare il
Principio di Equivalenza Computazionale:
. La teoria di Weizsäcker (fisico tedesco e filosofo, deceduto nel ), costruisce assiomaticamente la fisica quantistica dalla distinzione tra alternative binarie, empiricamente
osservabili. Weizsäcker ha usato la sua teoria, una forma di fisica digitale, per ricavare la
-dimensionalità dello spazio e per stimare l’entropia di un protone che cade in un buco
nero.
. La porta di Fredkin è un circuito computazionale adatto per la computazione reversibile inventata da Edward Fredkin. La porta di Fredkin è una porta universale: qualsiasi
operazione logica o aritmetica può essere costruita interamente di porte di Fredkin. Possiede esattamente  valori in input (U, X, X) e  valori in output (V, Y, Y). La porta è
0
0
composta da  equazioni indipendenti: V = U; Y = UX + U X; Y = U X + UX.

Fisica dell’informazione, ultima frontiera della scienza
Esiste un’ equivalenza fondamentale fra molti tipi diversi di processi, se
sono visti in termini computazionali. Nessun sistema può realizzare calcoli
espliciti più sofisticati di quelli effettuati da automi cellulari. Esistono automi
cellulari universali per i quali si possono scegliere condizioni iniziali tali che,
partendo da esse, eseguano calcoli di ogni possibile complessità .
Su questo libro, pubblicato nel , degne di nota sono state le
considerazioni del noto ingegnere, scrittore e divulgatore scientifico
italiano, Roberto Vacca:
Gli automi cellulari di Wolfram rappresentano bene anche fenomeni molto
complessi come le volute apparentemente caotiche, dei moti turbolenti di
fluidi ad alta velocità. Questi processi, invece, non si analizzano agevolmente
per mezzo di equazioni matematiche. Queste constatazioni giustificherebbero il Principio di Equivalenza Computazionale, che Wolfram presenta
insieme come una legge della natura o una definizione o un insieme di fatti
astratti. La congettura essenziale è che le configurazioni o immagini prodotte dagli automi cellulari possono rappresentare e, in certo senso, spiegare
ogni processo fisico, chimico, biologico. Sarebbe una via per spiegare come
si generi l’enorme complessità delle forme animali e vegetali. Si tratta di una
struttura ramificata e illimitata. Può essere usata per generare frattali e anche per simulare macchine di Turing. [Queste sono semplicissime strutture
logiche concettuali (non costruite in pratica) capaci di simulare il comportamento di qualsiasi possibile computer.]. È molto difficile prevedere dove
porteranno queste ricerche. Le procedure fisico-matematiche tradizionali
da Newton in poi ci hanno preparato al punto di vista che gli stessi strumenti logico-matematici si possano usare in contesti diversi. Infatti le stesse
equazioni e le stesse formule descrivono con alta precisione processi fisici
molto diversi: le azioni di campi elettrici, magnetici, gravitazionali, i flussi
di elettricità, di calore e di fluidi e così via. Mi sembra, però, che esista una
difficoltà seria. Non pare che sia stato trovato un modo per determinare quali
siano le regole di generazione degli automi cellulari che portano a produrre
configurazioni che descrivono certi fenomeni piuttosto che altri. Se davvero,
le regole da applicare andassero sempre cercate a caso, lo strumento sarebbe
difficile e lento da applicare. Altra obiezione ancora più basilare: Con un
modello matematico tradizionale da certe premesse si deducono relazioni
analitiche che permettono di formulare previsioni. Ad esempio, facciamo
. Se fosse vero, questo principio porrebbe dei limiti alle previsioni del comportamento di molti sistemi naturali; poiché l’unico modo per studiarne l’evoluzione sarebbe
di osservarli mentre evolvono. Non esisterebbero scorciatoie, poiché ogni calcolo che
possiamo immaginare di fare è, al più, tanto potente e complicato quanto il fenomeno che
desideriamo studiare.
. La matrice ultima della realtà

l’ipotesi che i gravi si attraggano con forza inversamente proporzionale
al quadrato della distanza e direttamente proporzionale al prodotto fra le
masse. Su questa base e postulando che le accelerazioni sono proporzionali
alle forze applicate, deduciamo le orbite dei pianeti e le traiettorie dei gravi
nel campo gravitazionale terrestre. Invece con la nuova scienza di Wolfram
si constata che certe traiettorie sono disegnate da un automa e risultano identiche a certi processi meccanici o di moto di particelle cariche in un campo
elettrico. Allora si può dire: Curiosa coincidenza. Però non si formalizza
un meccanismo di spiegazione, né si possono prevedere risultati futuri di
esperimenti - che è l’obiettivo centrale della fisica matematica. Ma sarebbe
sbagliato saltare a conclusioni affrettate. Questa scienza di nuovo tipo contiene complessità, ragionamenti, distinzioni e aperture ben più vaste. Vale la
pena di cominciare a interessarsi di questi sviluppi. Forse i nostri nipoti a
scuola impareranno gli automi cellulari, prima o, invece, dell’algebra.
Jürgen Schmidhuber (professore di Intelligenza Artificiale all’Università di Lugano, in Svizzera), osservò che i teoremi di Gödel sono
irrilevanti anche per la fisica computabile. Nel  Schmidhuber
costruì esplicitamente universi computabili e deterministici, la cui
pseudo-casualità basata su problemi della fermata (indecidibili simili
a quelli di Gödel), è estremamente difficile da rilevare, ma non evita
assolutamente Teorie del Tutto formali, descrivibili da pochissimi bit
di informazione. Egli sottolineò inoltre che esiste un modo efficiente e
ottimale per calcolare tutti gli Universi computabili, basato sull’algoritmo di ricerca universale di Leonid Levin (). Nel  ha ampliato
questo lavoro, combinando la teoria di Ray Solomonoff dell’inferenza
induttiva con il principio che Universi velocemente calcolabili, siano
più probabili di quelli di altro genere.
Ray Solomonoff, fu l’inventore della probabilità algoritmica e fondatore della teoria algoritmica dell’Informazione. Egli fu il primo a
descrivere, nel , il principio della probabilità algoritmica, pubblicando il teorema cruciale che lanciò la teoria della Complessità di
. Il problema della terminazione (dall’inglese Halting problem, tradotto anche con problema dell’arresto o problema della fermata) chiede se sia sempre possibile, descritto un
programma e un determinato input finito, stabilire se il programma in questione termini
o continui la sua esecuzione all’infinito. È stato dimostrato che non può esistere un algoritmo generale che possa risolvere il problema per tutti i possibili input. La versione più
nota del problema è quella proposta nel  dal matematico Alan Turing, insieme alla
dimostrazione della sua indecidibilità.

Fisica dell’informazione, ultima frontiera della scienza
Kolmogorov e la teoria algoritmica dell’Informazione. La probabilità algoritmica è una combinazione formalizzata matematicamente,
del Rasoio di Occam e del Principio delle Spiegazioni Multiple (Principle of Multiple Explanations). Il metodo di Solomonoff, consiste
nell’assegnare un valore di probabilità per ciascuna ipotesi (algoritmo/programma), che spieghi un’osservazione data, con l’ipotesi più
semplice (il programma più breve) avente la più alta probabilità e
le ipotesi sempre più complesse che contrariamente alle precedenti,
ricevono dei valori di probabilità sempre più piccoli.
L’Induzione di Solomonoff, è una forma rigorosamente matematica ed idealizzata di induzione, che consiste nel prevedere cosa accadrà
nel futuro, sulla base di esperienze precedenti. Si tratta di un ramo
della teoria algoritmica dell’Informazione. Questo schema di induzione, risulta essere teoricamente ottimale, nel momento in cui si
dispone di una certa mole di dati iniziali; in tal caso lo schema sarà
sempre in grado di assegnare un determinato numero di probabilità
relative ad eventi futuri, con la massima accuratezza possibile. L’unico
problema con l’induzione Solomonoff, è che è incomputabile, ovvero,
sarebbe necessario un computer con capacità di elaborazione infinita
per l’esecuzione. Tuttavia, tutti i regimi assoggettabili a determinati
processi induttivi (macchine, animali ed esseri umani), possono essere intesi come delle pure approssimazioni relative all’Induzione di
Solomonoff. La motivazione di fondo che ha spinto Solomonoff (ma
anche Kolmogorov e Chaitin) verso tali orizzonti, è stata quella di
formalizzare la teoria delle probabilità e l’induzione mediante assiomi,
nello stesso modo in cui l’algebra e la geometria sono stati formalizzati.
L’Induzione di Solomonoff, si basa su una regola induttiva del teorema
di Bayes che descrive un modo matematico e preciso di aggiornare
. La Teoria della Complessità algoritmica o Teoria algoritmica della complessità si occupa
dello studio della complessità descrittiva degli algoritmi e non delle risorse computazionali
(memoria occupata e tempo di calcolo) necessarie ad eseguirli. Non va, quindi, confusa
con la Teoria della complessità computazionale. La Teoria algoritmica della complessità è stata
sviluppata principalmente da Kolmogorov, Chaitin e Solomonoff, per questo motivo è nota
anche come Teoria K-C-S dalle iniziali dei tre scienziati.
. Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle
probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta.
Viene impiegato per calcolare la probabilità di una causa che ha scatenato l’evento verificato.
Per esempio si può calcolare la probabilità che una certa persona soffra della malattia per
. La matrice ultima della realtà

le credenze sulla base dei dati in arrivo. Un punto debole del teorema
di Bayes, è che dipende da una probabilità a priori di un certo evento.
Per esempio, la probabilità che nei prossimi dieci anni un asteroide
di notevoli dimensioni colpisca la Terra, può essere quantificata sulla
base dei dati storici, relativi alle precedenti collisioni. Tuttavia, quando
la dimensione del campione di eventi precedenti è bassa (come ad
esempio il numero di volte che un neutrino è stato rilevato in una trappola per neutrini), diventa molto difficile prevedere la probabilità del
ripetersi di un evento, basata esclusivamente sull’esperienza passata.
Ma è proprio qui che entra in gioco l’Induzione di Solomonoff!
Utilizzando una misura oggettiva della complessità, chiamata Complessità di Kolmogorov, è possibile, con l’Induzione di Solomonoff,
formulare un’ipotesi circa la probabilità che un evento futuro si verifichi. La Complessità di Kolmogorov, si basa su un principio chiamato:
Lunghezza Minima Descrittiva (LMD), che valuta la complessità di
una stringa di bit, in base al più breve algoritmo in grado di produrre
quella stringa. Nonostante la Complessità di Kolmogorov sia stata
inizialmente applicata a stringhe di un solo bit, essa può comunque
essere tradotta per descrivere la complessità degli eventi e degli oggetti. L’Induzione di Solomonoff, integra la complessità di Kolmogorov
nel ragionamento bayesiano, dandoci a priori un giustificativo per
eventi che potrebbero anche non manifestarsi mai. La probabilità a
priori di un evento arbitrario, viene determinata in base alla propria
complessità e specificità. Per esempio, la probabilità che due gocce
di pioggia sparse a caso in una tempesta, colpiscano lo stesso metro
quadrato di suolo è piuttosto bassa; ma risulta invece molto più alta
la probabilità che dieci o cento gocce di pioggia sparse a caso in una
tempesta, colpiscano casualmente quello stesso metro quadrato di
terreno. Alcuni scienziati hanno studiato l’Induzione Solomonoff nel
contesto della neuroanatomia, mostrando come l’induzione ottimale
è un principio organizzativo per l’evoluzione di animali che hanno
cui ha eseguito il test diagnostico (nel caso in cui questo sia risultato negativo) o viceversa
non sia affetta da tale malattia (nel caso in cui il test sia risultato positivo), conoscendo la
frequenza con cui si presenta la malattia e la percentuale di efficacia del test diagnostico.
Formalmente il teorema di Bayes è valido in tutte le interpretazioni della probabilità. In
ogni caso, l’importanza di questo teorema per la statistica è tale che la divisione tra le due
scuole (statistica bayesiana e statistica frequentista) nasce dall’interpretazione che si dà al
teorema stesso.

Fisica dell’informazione, ultima frontiera della scienza
bisogno di un’accurata induzione per la sopravvivenza. Quando la
vera intelligenza artificiale sarà creata, il principio di Induzione di
Solomonoff sarà indubbiamente fonte di una probabile ispirazione,
dalla quale potranno nascere le forme più evolute di tale intelligenza.
Seth Lloyd e David Deutsch, non hanno ovviamente bisogno di
presentazioni; anch’essi hanno dato un notevole contributo allo sviluppo della teoria dell’ Universo Digitale. Secondo Seth Lloyd, l’uomo
inizierà a comprendere la vera natura dell’Universo, solo nel momento in cui disporrà di computer quantistici in grado di affrontare il
problema alla radice.
D. Deutsch è un pioniere dei computer quantistici ed un proponente dell’interpretazione a molti mondi della meccanica quantistica.
Egli sostiene che sia possibile progettare e realizzare una macchina
generante una realtà virtuale che, oltre a rivelarsi in grado di fornire esperienze non distinguibili da quelle sensorialmente oggettive,
riesca a simulare addirittura ambienti “impossibili fisicamente” ma
“possibili (solo) logicamente”.
Paola Zizzi è una fisica teorica italiana, nota per aver formulato
una versione quantistica della fisica digitale, da ella stessa denominata
“Computational Loop Quantum Gravity”, da cui l’acronimo “CLQG”.
In un suo lavoro intitolato “Quantum Computation toward Quantum Gravity”, presentatato al tredicesimo Congresso internazionale
di fisica-matematica (Londra, luglio ), le prime frasi (Abstract)
riportate in quel documento recitano quanto segue:
Lo scopo di questo lavoro è quello di mettere in luce l’emergente rilevanza
della teoria quantistica dell’Informazione nel campo della Gravità Quantistica. Come è stato suggerito da J.A. Wheeler, la teoria dell’Informazione deve
svolgere un ruolo rilevante nella comprensione dei fondamenti della Meccanica Quantistica. In questo lavoro, proponiamo l’idea che l’Informazione
Quantistica, debba rivestire un ruolo centrale nella Gravità Quantistica. L’ipotesi di base è che la Gravità Quantistica, la teoria che concilia la Meccanica
Quantistica con la Relatività Generale, possa essere formulata in termini di
bit di Informazione Quantistica (qubit), memorizzati nello spazio alla scala
di Planck.
La teoria computazionale quantistica della gravità, fa un certo numero di previsioni su alcune caratteristiche dell’Universo. Fornisce un
semplice modello del comportamento dello spazio-tempo in presenza