A Immagine di copertina tratta dal web (http://holographicarchetypes.weebly.com). L’autore si dichiara disponibile a regolare eventuali spettanze, per gli stralci di alcuni articoli (ed immagini) riportati in questo volume, qualora questi ultimi fossero coperti da copyright. Fausto Intilla Fisica dell’informazione ultima frontiera della scienza Gli ultimi inattesi sviluppi della fisica digitale Copyright © MMXIII ARACNE editrice S.r.l. www.aracneeditrice.it [email protected] via Raffaele Garofalo, /A–B Roma () ---- I diritti di traduzione, di memorizzazione elettronica, di riproduzione e di adattamento anche parziale, con qualsiasi mezzo, sono riservati per tutti i Paesi. Non sono assolutamente consentite le fotocopie senza il permesso scritto dell’Editore. I edizione: gennaio “Le sole leggi della materia sono quelle costruite dalla mente, e le sole leggi della mente, sono costruite per essa dalla materia” J.C. Maxwell “Non pretendo di capire l’Universo: è tanto più grande di me” T. Carlyle Indice Prefazione Capitolo I La matrice ultima della realtà .. Olografia quantistica elettronica, . Capitolo II Informazione e teletrasporto quantistico Capitolo III Verso entanglement sempre più sofisticati Capitolo IV La realtà dei bit attraverso la fisica dei buchi neri Capitolo V Dalla teoria dell’Informazione al concetto di Anima .. “Reincarnazione”, riflessioni congiunte al modello di Informazione dinamica, – .. Cameron, il bambino che visse due volte, – .. Il contributo di Pim Van Lommel, . Capitolo VI MWI. Potremo un giorno testarla? .. LHC. . . qualche curiosità, . Indice Capitolo VII Fotonica e Termodinamica dell’Informazione. Dalla teoria alla tecnologia .. Il demone di Maxwell, – .. Irreversibilità, entropia, informazione, – .. L’ipotesi della retro-causalità, . Per concludere Bibliografia Prefazione Probabilmente il , verrà ricordato in futuro come l’anno più proficuo nella storia della scienza moderna, in quanto a scoperte nel campo della fisica subnucleare (fisica delle particelle) e dunque a rigor di logica, a potenziali ampliamenti o modifiche di strutture e modelli teorici della Meccanica Quantistica. A titolo d’esempio, basti pensare alla recente scoperta del Bosone di Higgs (annunciata il luglio dai ricercatori del CERN di Ginevra); alla dimostrazione sperimentale del limite di Landauer (confermando così, un principio teorico sul nesso tra termodinamica classica e teoria dell’Informazione, che aspettava un riscontro sperimentale da ben oltre cinquant’anni); alla dimostrazione sperimentale della divisibilità di un singolo atomo, per poi essere nuovamente ricomposto in modo artificiale. Tre scoperte di fondamentale importanza, avvenute tutte nel corso di quest’anno. Nuovi sviluppi di notevole interesse si sono avuti anche, a partire dal sino ad oggi, nel campo della fotonica, della spintronica e delle nanotecnologie. È chiaro dunque che ci troviamo di fronte ad una svolta epocale, in quanto a sviluppi e applicazioni di potenziali nuove tecnologie. Ma siccome la teoria precede sempre di qualche passo l’applicazione pratica (in ogni ambito della sfera umana), la stessa svolta è avvenuta in campo teorico; ossia in quello relativo ai nostri modelli di rappresentazione della realtà, ai nostri attuali paradigmi scientifici. Molte idee, teorie e concetti, sono stati dunque rivisti ed ampliati, modificati, ritoccati e in alcuni casi anche cancellati dal grande libro della fisica, poiché rivelatisi non più coerenti con i nuovi modelli teorici e fisici della realtà. Ciò che ai nostri occhi si è resa sempre più evidente, grazie alle innumerevoli scoperte e sviluppi scientifici avvenuti negli ultimi dieci anni, è l’intima correlazione tra le leggi della termodinamica classica e quelle che governano invece, un mondo concettualmente immateriale, apparentemente del tutto astratto e comprensibilmente quindi, anche Fisica dell’informazione, ultima frontiera della scienza assai difficile da accettare e “digerire”, come “modello ultimo della realtà”: quello dell’Informazione. In questo breve saggio, cercherò dunque di condurre il lettore, con parole semplici e riducendo al minimo (quasi a zero) il formalismo matematico (ossia l’utilizzo di lunghe e complicate equazioni), verso una comprensione più approfondita e ricca di spunti di riflessione, di ciò che viene comunemente definito come un “nuovo paradigma della realtà”, ossia quello di un Universo costituito fondamentalmente da pura Informazione; dove anche i concetti di massa ed energia, debbono quindi essere ampliati e ridefiniti, per poter essere relazionati a questo nuovo modello di realtà. Se siamo giunti al capolinea, ossia ad un punto nel campo del sapere scientifico e filosofico, oltre il quale non è più possibile andare oltre (assumendo una volta e per sempre, che il concetto di “Universo digitale” sia il più idoneo a definire l’immagine della realtà), questo ovviamente nessuno è in grado di dirlo; ma se proprio vogliamo credere nella continua ed interminabile ascesa del sapere umano, allora possiamo tranquillamente affermare che, usando le stesse parole di Herbert George Wells: “Ogni dogma prima o poi deve morire”. Capitolo I La matrice ultima della realtà “Realtà e Informazione sono la stessa cosa. Propongo cioè di considerare questi due concetti, che chiaramente finora abbiamo sempre tenuto distinti, come due facce della stessa medaglia, proprio come lo spazio e il tempo che, secondo la Relatività di Einstein, sono a loro volta legati in modo indissolubile. Noi vediamo queste due cose come un tutt’uno a causa del nostro postulato secondo il quale nessuna legge della natura o descrizione della natura può fare differenza tra realtà e Informazione. Dovremmo allora coniare un nuovo termine che comprenda sia la realtà sia l’Informazione. Già il fatto che un termine del genere non solo non esista, ma che ci sia difficile anche immaginarlo, ci fa capire quanto siano complessi i problemi concettuali che emergono. La nostra affermazione precedente, secondo la quale l’Informazione è la materia primordiale dell’Universo, è ora da considerare anche nel senso di questa unità tra realtà e Informazione”. Anton Zeilinger “Calculating Space” è il titolo del libro di Konrad Zuse , pubblicato in inglese dal MIT nel e il cui titolo originale era, in tedesco: Rech. Konrad Zuse (Berlino, giugno – Hünfeld, dicembre ) è stato un pioniere dell’informatica e viene considerato come l’inventore del computer moderno. Il calcolatore “Z”, completato da Zuse nel , deve essere considerato in assoluto come il primo computer moderno, avendo anticipato di alcuni anni il Colossus, realizzato nel dal geniale matematico inglese Alan Turing per la decifrazione dei messaggi prodotti dalla macchina Enigma, usata dalle forze armate tedesche per le comunicazioni militari durante la seconda guerra mondiale, nonché i primi enormi calcolatori programmabili a valvole prodotti in Inghilterra e negli Stati Uniti nella seconda metà degli anni quaranta. A Konrad Zuse si deve anche l’invenzione del primo linguaggio di programmazione della storia, ideato per fornire le istruzioni allo “Z”: il Plankalkül. Fisica dell’informazione, ultima frontiera della scienza nender Raum; ovvero il titolo del primo libro in cui si iniziò a trattare, in una nuova veste (più legata al mondo della fisica piuttosto che a quello puramente informatico), la teoria dell’Informazione. Zuse, gettò dunque i semi di un nuovo paradigma scientifico che molti anni più tardi, sarebbe germogliato prendendo il nome di “Digital Physics”; oggi comunemente noto, alle nostre latitudini, come Fisica dell’Informazione. Zuse propose l’idea che il nostro Universo, fosse stato calcolato da una sorta di “automa cellulare” (o da un calcolatore discreto), sfidando l’idea ormai secolare che alcune leggi fisiche siano continue per natura. Egli si concentrò sugli automi cellulari, ritenendo che rappresentassero in modo ottimale, un potenziale substrato idoneo al calcolo; sottolineando (tra le altre cose), che le nozioni classiche dell’entropia, nonché la sua crescita, non hanno alcun senso in universi calcolati in modo deterministico. Il teorema di Bell viene a volte utilizzato per confutare l’ipotesi di Zuse; ma esso non è applicabile ad Universi deterministici, come lo stesso Bell ebbe a sottolineare. Allo stesso modo, mentre il principio di indeterminazione di Heisenberg, limita in modo fondamentale ciò che un osservatore può osservare (quando l’osservatore stesso è una parte dell’Universo che sta cercando di osservare), tale principio non esclude l’ipotesi di Zuse, che vede un osservatore come parte di un processo deterministico ipotizzato. Finora non è mai stata elaborata e sperimentata alcuna prova fisica inequivocabile, atta a demolire la possibilità che “tutto sia solo un calcolo”; inoltre, una grande quantità di opere incentrate sulla Fisica dell’Informazione (Digital Physics, per gli anglosassoni) sono state scritte dal giorno in cui è apparso per la prima volta il saggio pioneristico di Zuse. Nel campo della fisica (come del resto anche in quello cosmologico), la fisica dell’Informazione rappresenta un insieme di prospettive teoriche, basate sulla premessa che l’intero Universo sia, alla radice, descrivibile attraverso il concetto di Informazione; e che dunque, in . Il modello ad automa cellulare è molto elegante. Il problema, però, è che si tratta di un modello classico; e sappiamo che i computer classici non riescono a trattare con efficienza caratteristiche quantistiche come l’entanglement o altre peculiarità. Inoltre ci sono problemi “di spazio”: è stato calcolato che un automa grande come l’Universo sarebbe in grado di simulare solo una piccola, piccolissima parte della realtà quantistica. Se l’Universo fosse davvero un computer classico, la stragrande maggioranza dei suoi bit e dei suoi circuiti dovrebbe stare nascosta da qualche parte, inaccessibile alla nostra esperienza e percezione. . La matrice ultima della realtà ultima analisi, sia “calcolabile”. Quindi, l’Universo potrebbe essere concepito come l’output di un programma informatico oppure come un vasto dispositivo per il calcolo digitale. La fisica dell’Informazione si fonda principalmente sulle seguenti ipotesi: a) b) c) d) e) f) L’Universo, o la realtà, è essenzialmente informativa. Esso/essa è essenzialmente calcolabile. Tale realtà può essere descritta in modo digitale. La sua natura è essenzialmente digitale. È essa stessa una sorta di computer. È essenzialmente l’output di una realtà simulata. Andiamo ora ad analizzare i primi assunti e le prime premesse, che storicamente portarono all’elaborazione di questo nuovo paradigma scientifico. Una delle premesse fondamentali, vuole semplicemente che qualsiasi computer, sia compatibile con i principi della Teoria dell’Informazione (quella classica, basata su un modello puramente informatico), con la meccanica statistica ed infine con la meccanica quantistica . Un collegamento fondamentale tra questi campi è stato . La teoria dell’informazione è quel settore dell’informatica e delle telecomunicazioni che si occupa di definire le basi teoriche su cui si fonda la scienza dell’informazione. La sua nascita è relativamente recente: essa viene solitamente fatta risalire al , anno in cui Claude Shannon pubblicò Una teoria matematica della comunicazione in cui introduceva per la prima volta in modo sistematico lo studio dell’informazione e della comunicazione. . In fisica, la meccanica statistica è l’applicazione della teoria della probabilità, che include strumenti matematici per gestire insiemi formati da numerosi elementi, al comportamento termodinamico di sistemi composti da un grande numero di particelle. La meccanica statistica fornisce un modello per collegare le proprietà dei singoli atomi e molecole alle proprietà macroscopiche del sistema da essi composto. Da un punto di vista classico lo studio di un sistema con N particelle non interagenti richiede la soluzione di N equazioni differenziali, che descrivono il moto di ogni particella. Quando il numero di particelle è molto grande, dell’ordine del numero di Avogadro, la meccanica statistica permette di poter caratterizzare il sistema attraverso grandezze macroscopiche, come il calore, l’energia libera, la pressione o il volume. . La meccanica quantistica si distingue in maniera radicale dalla meccanica classica in quanto si limita a esprimere la probabilità di ottenere un dato risultato a partire da una certa misurazione, secondo l’interpretazione di Copenaghen, rinunciando così al determinismo assoluto proprio della fisica precedente. Questa condizione di incertezza o indeterminazione non è dovuta a una conoscenza incompleta, da parte dello sperimentatore, dello stato in cui si trova il sistema fisico osservato, ma è da considerarsi una caratteristica intrinseca, quindi ultima e ineliminabile, del sistema e del mondo subatomico in generale. La teoria quantistica, dunque, descrive i sistemi come una sovrapposizione di stati diversi e prevede Fisica dell’informazione, ultima frontiera della scienza proposto da Edwin Jaynes in due documenti del . Inoltre, Jaynes ha elaborato un’interpretazione della teoria delle probabilità, ridefinendola come una sorta di logica Aristotelica generalizzata; una visione indubbiamente assai comoda per collegare la fisica fondamentale con i computer digitali, per il solo fatto che questi ultimi sono progettati per implementare le operazioni della logica classica ed inoltre, in modo equivalente, quelle relative all’algebra booleana . Il termine “fisica digitale”, fu utilizzato per la prima volta da Edward Fredkin, che in seguito preferì sostituirlo con “filosofia digitale”. Altri scienziati e pensatori che paragonarono l’intero Universo ad una sorta di immenso calcolatore, furono Stephen Wolfram, Juergen Schmidhuber e il premio Nobel Gerardus’t Hooft. Questi autori hanno sempre appoggiato l’idea che la natura apparentemente probabilistica che il risultato di una misurazione non sia completamente arbitrario, ma sia incluso in un insieme di possibili valori: ciascuno di detti valori è abbinato a uno di tali stati ed è associato a una certa probabilità di presentarsi come risultato della misurazione. Questo nuovo modo di interpretare i fenomeni è stato oggetto di numerose discussioni all’interno della comunità scientifica, come testimonia l’esistenza di diverse interpretazioni della meccanica quantistica. L’osservazione ha quindi effetti importanti sul sistema osservato: collegato a questo nuovo concetto si ha l’impossibilità di conoscere esattamente i valori di coppie di variabili dinamiche coniugate, espressa dal principio di indeterminazione di Heisenberg. La meccanica quantistica rappresenta il denominatore comune di tutta la fisica moderna ovvero della fisica atomica, della fisica nucleare e sub-nucleare (la fisica delle particelle), e della fisica teorica, a testimonianza della sua estrema potenza concettuale-interpretativa nonché della vasta applicabilità al mondo microscopico. . In matematica, informatica ed elettronica, l’algebra di Boole, anche detta algebra booleana o reticolo booleano, è un ramo dell’algebra astratta che comprende tutte le algebre che operano con i soli valori di verità o , detti variabili booleane o logiche. La struttura algebrica studiata dall’algebra booleana è finalizzata all’elaborazione di espressioni nell’ambito del calcolo proposizionale. Essendo un reticolo dotato di particolari proprietà, l’algebra booleana risulta criptomorfa, cioè associata biunivocamente e in modo da risultare logicamente equivalente, ad un insieme parzialmente ordinato reticolato. Ogni algebra booleana risulta criptomorfa ad un particolare tipo di anello, chiamato anello booleano. Tale algebra permette di definire gli operatori logici AND, OR e NOT, la cui combinazione permette di sviluppare qualsiasi funzione logica e consente di trattare in termini esclusivamente algebrici le operazioni insiemistiche dell’intersezione, dell’unione e della complementazione, oltre a questioni riguardanti singoli bit e , sequenze binarie, matrici binarie e diverse altre funzioni binarie. L’algebra sviluppata nel all’University College di Cork da Boole assume un ruolo importante in vari ambiti, in particolare nella logica matematica e nell’elettronica digitale, dove nella progettazione dei circuiti elettronici riveste grande importanza il teorema di Shannon del utilizzato per scomporre una funzione booleana complessa in funzioni più semplici, o per ottenere un’espressione canonica da una tabella della verità o da un’espressione non canonica. . La matrice ultima della realtà della fisica quantistica, non sia necessariamente incompatibile con la nozione di computabilità. Alcuni modelli in chiave quantistica di “fisica digitale”, sono stati recentemente proposti da David Deutsch, Seth Lloyd e Paola Zizzi. Altre correlazioni con tale modello di realtà si possono rintracciare nella teoria binaria degli “ur-alternatives” (oggetti archetipici) di Carl Friedrich Freiherr von Weizsäcker, nel pancomputazionalismo, nella teoria dell’Universo computazionale, nell’idea di John Archibald Wheeler (“It from bit”) ed infine nella teoria di Max Tegmark (“ultimate ensemble”). Edward Fredkin è un fisico statunitense ed è considerato uno dei pionieri della “fisica digitale”; i suoi principali contributi sono nella computazione reversibile e negli automi cellulari. La sua invenzione più importante fu la porta di Fredkin . In campo informatico fu inventore della struttura dati Trie e del modello palla da biliardo per la computazione reversibile. Fu coinvolto in varie aree di ricerca dell’Intelligenza artificiale. Di recente ha sviluppato Slat, un modello di computazione basato sulle leggi di conservazione fondamentali della fisica. Stephen Wolfram, fisico e matematico britannico, è l’autore del controverso libro A New Kind of Science (NKS), che mostra uno studio empirico di sistemi computazionali molto semplici. Inoltre esso spiega che per capire la complessità della natura e definirne dei modelli, questo tipo di sistemi risulta estremamente efficace, piuttosto che la matematica tradizionale. Wolfram lavora da anni alla sua nuova scienza. Partì constatando che semplici programmi (di computer o di applicazione di regole logiche) possono produrre strutture complesse che modellano ogni sorta di processi fisici e biologici. Propone congetture molto ambiziose e usa uno strumento molto semplice: gli automi cellulari. Wolfram sta precisando e cercando di dimostrare il Principio di Equivalenza Computazionale: . La teoria di Weizsäcker (fisico tedesco e filosofo, deceduto nel ), costruisce assiomaticamente la fisica quantistica dalla distinzione tra alternative binarie, empiricamente osservabili. Weizsäcker ha usato la sua teoria, una forma di fisica digitale, per ricavare la -dimensionalità dello spazio e per stimare l’entropia di un protone che cade in un buco nero. . La porta di Fredkin è un circuito computazionale adatto per la computazione reversibile inventata da Edward Fredkin. La porta di Fredkin è una porta universale: qualsiasi operazione logica o aritmetica può essere costruita interamente di porte di Fredkin. Possiede esattamente valori in input (U, X, X) e valori in output (V, Y, Y). La porta è 0 0 composta da equazioni indipendenti: V = U; Y = UX + U X; Y = U X + UX. Fisica dell’informazione, ultima frontiera della scienza Esiste un’ equivalenza fondamentale fra molti tipi diversi di processi, se sono visti in termini computazionali. Nessun sistema può realizzare calcoli espliciti più sofisticati di quelli effettuati da automi cellulari. Esistono automi cellulari universali per i quali si possono scegliere condizioni iniziali tali che, partendo da esse, eseguano calcoli di ogni possibile complessità . Su questo libro, pubblicato nel , degne di nota sono state le considerazioni del noto ingegnere, scrittore e divulgatore scientifico italiano, Roberto Vacca: Gli automi cellulari di Wolfram rappresentano bene anche fenomeni molto complessi come le volute apparentemente caotiche, dei moti turbolenti di fluidi ad alta velocità. Questi processi, invece, non si analizzano agevolmente per mezzo di equazioni matematiche. Queste constatazioni giustificherebbero il Principio di Equivalenza Computazionale, che Wolfram presenta insieme come una legge della natura o una definizione o un insieme di fatti astratti. La congettura essenziale è che le configurazioni o immagini prodotte dagli automi cellulari possono rappresentare e, in certo senso, spiegare ogni processo fisico, chimico, biologico. Sarebbe una via per spiegare come si generi l’enorme complessità delle forme animali e vegetali. Si tratta di una struttura ramificata e illimitata. Può essere usata per generare frattali e anche per simulare macchine di Turing. [Queste sono semplicissime strutture logiche concettuali (non costruite in pratica) capaci di simulare il comportamento di qualsiasi possibile computer.]. È molto difficile prevedere dove porteranno queste ricerche. Le procedure fisico-matematiche tradizionali da Newton in poi ci hanno preparato al punto di vista che gli stessi strumenti logico-matematici si possano usare in contesti diversi. Infatti le stesse equazioni e le stesse formule descrivono con alta precisione processi fisici molto diversi: le azioni di campi elettrici, magnetici, gravitazionali, i flussi di elettricità, di calore e di fluidi e così via. Mi sembra, però, che esista una difficoltà seria. Non pare che sia stato trovato un modo per determinare quali siano le regole di generazione degli automi cellulari che portano a produrre configurazioni che descrivono certi fenomeni piuttosto che altri. Se davvero, le regole da applicare andassero sempre cercate a caso, lo strumento sarebbe difficile e lento da applicare. Altra obiezione ancora più basilare: Con un modello matematico tradizionale da certe premesse si deducono relazioni analitiche che permettono di formulare previsioni. Ad esempio, facciamo . Se fosse vero, questo principio porrebbe dei limiti alle previsioni del comportamento di molti sistemi naturali; poiché l’unico modo per studiarne l’evoluzione sarebbe di osservarli mentre evolvono. Non esisterebbero scorciatoie, poiché ogni calcolo che possiamo immaginare di fare è, al più, tanto potente e complicato quanto il fenomeno che desideriamo studiare. . La matrice ultima della realtà l’ipotesi che i gravi si attraggano con forza inversamente proporzionale al quadrato della distanza e direttamente proporzionale al prodotto fra le masse. Su questa base e postulando che le accelerazioni sono proporzionali alle forze applicate, deduciamo le orbite dei pianeti e le traiettorie dei gravi nel campo gravitazionale terrestre. Invece con la nuova scienza di Wolfram si constata che certe traiettorie sono disegnate da un automa e risultano identiche a certi processi meccanici o di moto di particelle cariche in un campo elettrico. Allora si può dire: Curiosa coincidenza. Però non si formalizza un meccanismo di spiegazione, né si possono prevedere risultati futuri di esperimenti - che è l’obiettivo centrale della fisica matematica. Ma sarebbe sbagliato saltare a conclusioni affrettate. Questa scienza di nuovo tipo contiene complessità, ragionamenti, distinzioni e aperture ben più vaste. Vale la pena di cominciare a interessarsi di questi sviluppi. Forse i nostri nipoti a scuola impareranno gli automi cellulari, prima o, invece, dell’algebra. Jürgen Schmidhuber (professore di Intelligenza Artificiale all’Università di Lugano, in Svizzera), osservò che i teoremi di Gödel sono irrilevanti anche per la fisica computabile. Nel Schmidhuber costruì esplicitamente universi computabili e deterministici, la cui pseudo-casualità basata su problemi della fermata (indecidibili simili a quelli di Gödel), è estremamente difficile da rilevare, ma non evita assolutamente Teorie del Tutto formali, descrivibili da pochissimi bit di informazione. Egli sottolineò inoltre che esiste un modo efficiente e ottimale per calcolare tutti gli Universi computabili, basato sull’algoritmo di ricerca universale di Leonid Levin (). Nel ha ampliato questo lavoro, combinando la teoria di Ray Solomonoff dell’inferenza induttiva con il principio che Universi velocemente calcolabili, siano più probabili di quelli di altro genere. Ray Solomonoff, fu l’inventore della probabilità algoritmica e fondatore della teoria algoritmica dell’Informazione. Egli fu il primo a descrivere, nel , il principio della probabilità algoritmica, pubblicando il teorema cruciale che lanciò la teoria della Complessità di . Il problema della terminazione (dall’inglese Halting problem, tradotto anche con problema dell’arresto o problema della fermata) chiede se sia sempre possibile, descritto un programma e un determinato input finito, stabilire se il programma in questione termini o continui la sua esecuzione all’infinito. È stato dimostrato che non può esistere un algoritmo generale che possa risolvere il problema per tutti i possibili input. La versione più nota del problema è quella proposta nel dal matematico Alan Turing, insieme alla dimostrazione della sua indecidibilità. Fisica dell’informazione, ultima frontiera della scienza Kolmogorov e la teoria algoritmica dell’Informazione. La probabilità algoritmica è una combinazione formalizzata matematicamente, del Rasoio di Occam e del Principio delle Spiegazioni Multiple (Principle of Multiple Explanations). Il metodo di Solomonoff, consiste nell’assegnare un valore di probabilità per ciascuna ipotesi (algoritmo/programma), che spieghi un’osservazione data, con l’ipotesi più semplice (il programma più breve) avente la più alta probabilità e le ipotesi sempre più complesse che contrariamente alle precedenti, ricevono dei valori di probabilità sempre più piccoli. L’Induzione di Solomonoff, è una forma rigorosamente matematica ed idealizzata di induzione, che consiste nel prevedere cosa accadrà nel futuro, sulla base di esperienze precedenti. Si tratta di un ramo della teoria algoritmica dell’Informazione. Questo schema di induzione, risulta essere teoricamente ottimale, nel momento in cui si dispone di una certa mole di dati iniziali; in tal caso lo schema sarà sempre in grado di assegnare un determinato numero di probabilità relative ad eventi futuri, con la massima accuratezza possibile. L’unico problema con l’induzione Solomonoff, è che è incomputabile, ovvero, sarebbe necessario un computer con capacità di elaborazione infinita per l’esecuzione. Tuttavia, tutti i regimi assoggettabili a determinati processi induttivi (macchine, animali ed esseri umani), possono essere intesi come delle pure approssimazioni relative all’Induzione di Solomonoff. La motivazione di fondo che ha spinto Solomonoff (ma anche Kolmogorov e Chaitin) verso tali orizzonti, è stata quella di formalizzare la teoria delle probabilità e l’induzione mediante assiomi, nello stesso modo in cui l’algebra e la geometria sono stati formalizzati. L’Induzione di Solomonoff, si basa su una regola induttiva del teorema di Bayes che descrive un modo matematico e preciso di aggiornare . La Teoria della Complessità algoritmica o Teoria algoritmica della complessità si occupa dello studio della complessità descrittiva degli algoritmi e non delle risorse computazionali (memoria occupata e tempo di calcolo) necessarie ad eseguirli. Non va, quindi, confusa con la Teoria della complessità computazionale. La Teoria algoritmica della complessità è stata sviluppata principalmente da Kolmogorov, Chaitin e Solomonoff, per questo motivo è nota anche come Teoria K-C-S dalle iniziali dei tre scienziati. . Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa che ha scatenato l’evento verificato. Per esempio si può calcolare la probabilità che una certa persona soffra della malattia per . La matrice ultima della realtà le credenze sulla base dei dati in arrivo. Un punto debole del teorema di Bayes, è che dipende da una probabilità a priori di un certo evento. Per esempio, la probabilità che nei prossimi dieci anni un asteroide di notevoli dimensioni colpisca la Terra, può essere quantificata sulla base dei dati storici, relativi alle precedenti collisioni. Tuttavia, quando la dimensione del campione di eventi precedenti è bassa (come ad esempio il numero di volte che un neutrino è stato rilevato in una trappola per neutrini), diventa molto difficile prevedere la probabilità del ripetersi di un evento, basata esclusivamente sull’esperienza passata. Ma è proprio qui che entra in gioco l’Induzione di Solomonoff! Utilizzando una misura oggettiva della complessità, chiamata Complessità di Kolmogorov, è possibile, con l’Induzione di Solomonoff, formulare un’ipotesi circa la probabilità che un evento futuro si verifichi. La Complessità di Kolmogorov, si basa su un principio chiamato: Lunghezza Minima Descrittiva (LMD), che valuta la complessità di una stringa di bit, in base al più breve algoritmo in grado di produrre quella stringa. Nonostante la Complessità di Kolmogorov sia stata inizialmente applicata a stringhe di un solo bit, essa può comunque essere tradotta per descrivere la complessità degli eventi e degli oggetti. L’Induzione di Solomonoff, integra la complessità di Kolmogorov nel ragionamento bayesiano, dandoci a priori un giustificativo per eventi che potrebbero anche non manifestarsi mai. La probabilità a priori di un evento arbitrario, viene determinata in base alla propria complessità e specificità. Per esempio, la probabilità che due gocce di pioggia sparse a caso in una tempesta, colpiscano lo stesso metro quadrato di suolo è piuttosto bassa; ma risulta invece molto più alta la probabilità che dieci o cento gocce di pioggia sparse a caso in una tempesta, colpiscano casualmente quello stesso metro quadrato di terreno. Alcuni scienziati hanno studiato l’Induzione Solomonoff nel contesto della neuroanatomia, mostrando come l’induzione ottimale è un principio organizzativo per l’evoluzione di animali che hanno cui ha eseguito il test diagnostico (nel caso in cui questo sia risultato negativo) o viceversa non sia affetta da tale malattia (nel caso in cui il test sia risultato positivo), conoscendo la frequenza con cui si presenta la malattia e la percentuale di efficacia del test diagnostico. Formalmente il teorema di Bayes è valido in tutte le interpretazioni della probabilità. In ogni caso, l’importanza di questo teorema per la statistica è tale che la divisione tra le due scuole (statistica bayesiana e statistica frequentista) nasce dall’interpretazione che si dà al teorema stesso. Fisica dell’informazione, ultima frontiera della scienza bisogno di un’accurata induzione per la sopravvivenza. Quando la vera intelligenza artificiale sarà creata, il principio di Induzione di Solomonoff sarà indubbiamente fonte di una probabile ispirazione, dalla quale potranno nascere le forme più evolute di tale intelligenza. Seth Lloyd e David Deutsch, non hanno ovviamente bisogno di presentazioni; anch’essi hanno dato un notevole contributo allo sviluppo della teoria dell’ Universo Digitale. Secondo Seth Lloyd, l’uomo inizierà a comprendere la vera natura dell’Universo, solo nel momento in cui disporrà di computer quantistici in grado di affrontare il problema alla radice. D. Deutsch è un pioniere dei computer quantistici ed un proponente dell’interpretazione a molti mondi della meccanica quantistica. Egli sostiene che sia possibile progettare e realizzare una macchina generante una realtà virtuale che, oltre a rivelarsi in grado di fornire esperienze non distinguibili da quelle sensorialmente oggettive, riesca a simulare addirittura ambienti “impossibili fisicamente” ma “possibili (solo) logicamente”. Paola Zizzi è una fisica teorica italiana, nota per aver formulato una versione quantistica della fisica digitale, da ella stessa denominata “Computational Loop Quantum Gravity”, da cui l’acronimo “CLQG”. In un suo lavoro intitolato “Quantum Computation toward Quantum Gravity”, presentatato al tredicesimo Congresso internazionale di fisica-matematica (Londra, luglio ), le prime frasi (Abstract) riportate in quel documento recitano quanto segue: Lo scopo di questo lavoro è quello di mettere in luce l’emergente rilevanza della teoria quantistica dell’Informazione nel campo della Gravità Quantistica. Come è stato suggerito da J.A. Wheeler, la teoria dell’Informazione deve svolgere un ruolo rilevante nella comprensione dei fondamenti della Meccanica Quantistica. In questo lavoro, proponiamo l’idea che l’Informazione Quantistica, debba rivestire un ruolo centrale nella Gravità Quantistica. L’ipotesi di base è che la Gravità Quantistica, la teoria che concilia la Meccanica Quantistica con la Relatività Generale, possa essere formulata in termini di bit di Informazione Quantistica (qubit), memorizzati nello spazio alla scala di Planck. La teoria computazionale quantistica della gravità, fa un certo numero di previsioni su alcune caratteristiche dell’Universo. Fornisce un semplice modello del comportamento dello spazio-tempo in presenza