Futuro tecnologico (Il futuro tecnologico: (Michio kaku)) 1. Campi di forze per respingere (schermo impenetrabile) Le 4 forze sono: la gravita’ attrattiva e debolissima infatti ci vuole tutta la terra per attirare al suolo una piuma e basta un dito per sollevarla annullando l’effetto dell’attrazione. F= 2 GM T m −11 Nm 24 6 = 6 . 6 ⋅ 10 Kg 2 ⋅ 10 (Kg ) ⋅ 1(Kg ) ⋅ 1 6.3 ⋅ 10 RT2 ( ) (m ) = 10 Newton 2 2 L’elettromagnetismo attrattiva e repulsiva e’ facile da neutralizzare (con plastica o isolanti) e agisce a grandi distanze. L’interazione nucleare debole responsabile del decadimento radioattivo e responsabile del riscaldamento del centro della terra. L’interazione forte mantiene unito il nucleo dell’atomo responsabile dell’energia del sole e delle altre stelle e agisce a corto raggio e per manipolarla occorre disintegrare le particelle subatomiche o far esplodere le bombe atomiche. Tali forze non possiedono le proprieta’ che vengono attribuite ai campi di forze cioe’ forze reali in grado di muovere oggetti e generare energia. Un campo di forze puo’ essere prodotto da un plasma. Gli stati della materia sono solido, liquido, gassoso ma lo stato piu’ comune e’ il plasma: gas di atomi ionizzati in cui gli atomi sono privi di tutti i loro elettroni e quindi essendo elettricamente carichi possono essere controllati con campi elettrici e magnetici. Una finestra al plasma puo’ essere usata per isolare dal vuoto una regione di spazio contenente aria. Vi si riscalda il gas a 6500 C e in questo modo le particelle esercitano un freno che impedisce all’aria di entrare nella cella con il vuoto. Se si riscalda notevolmente puo’ far vaporizzare i metalli. Un secondo strato di raggi laser puo’ riscaldare gli oggetti che lo attraversano e li puo’ vaporizzare. Un terzo strato di nanotubi di carbonio sono in gradi di respingere ogni cosa (attualmente sono solo lunghi 15mm). Un quarto strato di componenti fotocromatici (con molecole trasparenti nello stato normale che diventano opachi quando sono attraversati da ultravioletti) frenano i raggi laser. Attualmente la lunghezza dei nanotubi non e’ sufficiente e non esistono sostanze fotocromatiche ai laser per realizzare tale schermo impenetrabile! Futuro tecnologico cap-pag 1-1/43 2. Levitazione magnetica (macchine volanti, ombrello per pioggia) Per far levitare oggetti di ogni genere si utilizza l’energia di un campo di forza magnetico (poli positivi si attraggono e opposti si respingono). I Maglev sono treni sospesi su binari utilizzando magneti ordinari e cuscini d’ aria per eliminare l’ attrito a circa 500 km/h. I materiali superconduttori sono raffreddati a temperature prossime allo zero assoluto e perdono la resistenza elettrica (le vibrazioni casuali degli atomi ostacolano il flusso degli elettroni e riducendo la temperatura diminuiscono le oscillazioni). I superconduttori sono ceramiche stratificate che permettono la circolazione libera di elettroni. In tal modo il trasporto di energia elettrica avrebbe costi quasi nulli non perdendo energia nel trasporto e una spira superconduttrice percorsa da corrente diventerebbe un magnete potentissimo per sollevare grosse dimensioni! Immergere un magnete di grandi dimensioni in un contenitore di liquido super raffreddato e’ molto costoso: servono impianti di raffreddamento enormi con costi proibitivi. Occorrono superconduttori a temperatura ambiente. Attualmente esistono superconduttori ad alta temperatura a 138K cioe’ 135C (lontani dalla temperatura ambiente) che potrebbero essere raffreddati a costi contenuti mediante azoto liquido che si liquefa a 77K. Una proprieta’ del superconduttore e’ l’effetto Meissner: un magnete sopra un superconduttore levita perche’ i campi magnetici non riescono a penetrare all’interno di un superconduttore e quest’ultimo ne espelle le linee di forza. Se le strade si fanno con materiali superconduttori e le gomme o i vestiti delle persone con materiale magnetico si potrebbe levitare! Esistono materiali non magnetici che diventano tali in presenza di campi magnetici esterni. Le sostanze paramagnetiche sono attratte da un campo magnetico esterno mentre le sostanze diamagnetiche ne sono respinte. L’acqua e’ una sostanza diamagnetica pertanto tutte le creature viventi possono levitare con campi magnetici potenti di circa 15tesla cioe’ 30000 volte piu’ grande del campo magnetico terrestre. Con i superconduttori a temperatura ambiente si potrebbero far levitare oggetti non magnetici di grandi dimensioni sfruttando le proprieta’ diamagnetiche…. Futuro tecnologico cap-pag 2-2/43 3. Invisibilita’(mantello invisibile, ologramma) I campi magnetici si trasformano in campi elettrici e viceversa e i campi viaggiano in onde che si propagano alla velocita’ della luce. In un solido gli atomi sono vicinissimi mentre in un liquido/gas la distanza tra molecole e’ grande. I solidi sono opachi perche’ i raggi luminosi non riescono ad attraversare il muro degli atomi. I liquidi/gas sono trasparenti perche’ la luce attraversa gli spazi che separano gli atomi ( d spazio 〉 λlucevisibi le ). Un solido puo’ diventare trasparente se si porta a temperature elevate e poi si raffredda velocemente (es. vetro). Per rendere invisibile un solido occorre: liquefare-bollire-evaporare-cristallizzare-riscaldare-raffreddare…. I metamateriali sono sostanze con componenti microscopici che deviano le onde e.m. (es. circuiti elettrici all’interno di strisce di rame concentriche) e rendono l’oggetto totalmente invisibile a quella radiazione. La velocita’ luce c e’ costante nel vuoto ma in un mezzo interagisce con miliardi di atomi e rallenta: piu’ il mezzo e’ denso piu’ l’indice di rifrazione aumenta indicerifrazione=velocitavuoto/velocitamezzo (indicerifrazionevuoto=1;indicerifrazionearia=1.0003; indicerifrazionevetro=1.5). Nel vetro la luce viene deflessa e poi continua a viaggiare in linea retta. Se si potesse controllare l’indice rifrazione in un metamateriale in modo da portare la luce a muoversi intorno a un oggetto quest’ultimo diventerebbe invisibile. Il metamateriale ha indicerifrazione<0 e le strutture da inserire in un metamateriale devono avere d spazio 〈 λradiazione per non essere attraversate. Es. λmicroonde = 3cm; λluceverde = 500nm; λlucerossa = 780nm ; 1nm contiene 5 atomi. Per rendere invisibile un materiale occorre agire sui singoli atomi per rendere la distanza piu’ piccola della radiazione. Per deflettere la luce visibile occorre metamateriale con d < λlucevisibile = 380 ÷ 760nm addirittura distanza<50nm.!! Con la tecnica di incisione Etching su wafer di silicio immersi in ultravioletti si e’ raggiunto i 100nm e con questa tecnica si e’ realizzato un metamateriale attivo sulla luce rossa (indicerifrazione=-0.6). Attualmente con la fotolitografia dei componenti per pc su un wafer di silicio si raggiungono i 30nm per ciascun componente. I metamateriali servono per sostituire il chip di silicio che utilizza l’elettricita’ con chip che utlilizzano la luce. Chip di questo tipo non hanno bisogno di raffreddarsi!! I cristalli fotonici in un chip si realizzano incidendo su un wafer componenti piccolissime ognuna delle quali porta a un indice di rifrazione differente. I metalli conducono la corrente elettrica perche’ il legame tra gli elettroni e gli atomi di un metallo e’ debole e gli elettroni si muovono liberamente lungo il reticolo cristallino. I plasmoni sono realizzati dalla vibrazione degli elettroni con un fascio luminoso incidente. I plasmoni si possono strizzare per avere la stessa frequenza e lunghezza onda inferiore e possono essere messi su un nanofilo. Si dovrebbero usare strati di meta materiali ciascuno con frequenza diverse. Il problema e’ infatti quello che ogni metamateriale ha un suo indice di rifrazione fisso e piu’ che un mantello invisibile ora si potrebbe realizzare un cilindro invisibile… Futuro tecnologico cap-pag 3-3/43 La nanotecnologia e’ iniziata con il microscopio a scansione ad effetto tunnel che opera sui singoli atomi mediante una sonda appuntita elettricamente carica (piccolissima delle dimensioni di 1 atomo) che agisce sull’atomo da analizzare. La corrente che attraversa la punta cresce e diminuisce e le sue variazioni vengono registrate. Per effetto quantistico in un primo tempo gli elettroni non hanno abbastanza energia per passare dalla sonda al substrato attraverso il materiale da analizzare ma grazie al principio di indeterminazione esiste una probabilita’ piccola ma finita che gli elettroni penetrino e spostino gli atomi sottostanti! Lo spostamento di atomi puo’ permettere di realizzare macchine atomiche non troppo complesse!! Un po’ come gli organismi unicellulari che si muovono in tutte le direzioni e mediante filamenti. L’invisibilita’ puo’ essere raggiunta anche con l’ologramma cioe’ fotografando lo sfondo alle spalle di una persona e proiettando l’immagine cosi’ ottenuta su uno schermo olografico posto davanti alla persona. La luce laser e’ coerente cioe’ tutte le onde che la compongono vibrano all’unisono e per produrre un ologramma si divide un fascio laser in due: meta’ va ad illuminare una pellicola mentre l’altra si dirige su un oggetto ne viene riflessa e finisce sulla stessa pellicola della prima. Quando i due fasci si incontrano si genera una figura di interferenza che contiene in forma codificata tutte le informazioni relative all’immagine di partenza. Sulla pellicola per osservare il 3D occorre dirigere un fascio laser (vd dopo)!. Problemi sono: avere una fotocamera olografica che faccia 30scatti/sec, problema elaborazione e memorizzazione informazioni, proiezione immagine sullo schermo che sembri realistica Futuro tecnologico cap-pag 3-4/43 Figura: Olografia Fonte: La scienza: Vol.1 L’universo. La biblioteca di Repubblica Futuro tecnologico cap-pag 3-5/43 4. Laser L’elettrone e’ onda-corpuscolo e obbedisce all’equazione di Schrodinger mediante la quale si calcolano le proprieta’ degli atomi. Gli elettroni si muovono su orbite discrete secondo Bohr e nel saltare da un guscio esterno a uno piu’ interno (con energia inferiore) emettono un quanto di energia cioe’ un fotone. Quando un elettrone assorbe un fotone di un’energia ben precisa, salta da un guscio interno a uno piu’ esterno. Un laser funziona mediante un mezzo di trasmissione di raggi come un gas speciale, un cristallo o un diodo. Tale mezzo viene alimentato da energia come elettricita’, onde radio, luce o reazione chimica. L’energia eccita gli atomi del mezzo facendo assorbire fotoni dagli elettroni che saltano su livelli piu’ esterni. In questo stato eccitato il mezzo e’ instabile e se lo si colpisce con un fascio luminoso, i fotoni di quest’ultimo si scontreranno con gli atomi facendoli ritornare a un livello energetico piu’ basso e causando l’emissione di uno o piu’ fotoni. Alla fine si ha un decadimento a cascata emettendo migliaia di miliardi di fotoni che vibrano all’unisono cioe’ sono coerenti . Il laser a gas e’ formato da un tubo che contiene elio-neon a cui viene inviato della corrente che eccita gli atomi. L’emissione immediata di tale energia immagazzinata porta alla generazione di un fascio di luce coerente. Due specchi alle estremita’ fanno rimbalzare il fascio amplificandolo. Uno dei due specchi e’ semiriflettente cioe’ ogni volta che il fascio lo colpisce una parte della luce riesce ad attraversarlo sfuggendo all’esterno e generando cosi’ il fascio laser finale. Ci sono laser alimentati da reazioni chimiche per scopi militari o a semiconduttori per tagliare,saldare o leggere i codici a barre. I laser chimici sono alimentati mediante reazione chimica ad esempio la combustione di un getto di etilene. Sono laser potenti utilizzati per scopi militari (abbattono in volo missili a corto raggio). I laser a eccimeri sono alimentati da reazioni chimiche che coinvolgono un gas inerte (argo, krypton, xeno), del fluoro o del cloro. Utilizzati nell’industria dei semiconduttori o in campo medico I laser a stato solido con un cristallo di zaffiro drogato con atomi di cromo insieme a sostanze chimiche come ittrio, olmio, tullio. Sono usati per generare impulsi ultracorti ad alta energia. I laser a semiconduttori sono i diodi che generano fasci intensi per tagliare e saldare o per leggere i codici a barre I laser a coloranti utilizzano coloranti organici come mezzo di amplificazione per impulsi luminosi ultracorti Il primo problema dei laser e’ l’instabilita’ del mezzo che non puo’ essere sovraccaricato per evitare un surriscaldamento o la distruzione o il monuso nel caso di laser a esplosioni. Il secondo problema e’ la necessita’ di alimentatori che non esistono cosi’ potenti e portatili per garantire l’alimentazione necessaria. Tale problema potra’ essere risolto con la nanotecnologia. Riguardo alla spada laser e’ impossibile solidificare la luce e farla arrestare a mezz’aria. Si possono creare torce al plasma: un tubo telescopico che si innesta nell’impugnatura con plasma generato all’interno lasciato libero di uscire dal tubo da una serie di fori. Si ha un lungo tubo di gas brillante cosi’ caldo da riuscire a fondere l’acciaio. Anche in questo caso occorre connettere un alimentatore. Futuro tecnologico cap-pag 4-6/43 5. Fusione-fissione(arma a grande raggio in grado di distruggere pianeti) La fissione nucleare e’ il fenomeno per cui il nucleo di un atomo di uranio si scinde in due nuclei di massa leggermente inferiore liberando una quantita’ notevole di energia secondo la formula E= ∆m c2: dove ∆m e’ la differenza tra la massa del nucleo e la somma delle singole masse Figura: La fissione nucleare . Fonte: L’universo in un guscio di noce Stephen Hawking La fusione si verifica quando l’H compresso dalla gravita’ si riscalda raggiungendo temperature tra 50 106 e 100 106 C sufficienti a far scontrare i nuclei di H e provocare la fusione in nuclei di He. La massa si converte in energia secondo l’eq E= ∆m c2 . Futuro tecnologico cap-pag 5-7/43 Figura: Formazione di una stella. Fonte: La scienza: Vol.1 L’universo. La biblioteca di Repubblica Figura: Fusione nucleare in una stella di dimensioni minore (a sinistra) e maggiore (a destra) del Sole Fonte: Wikipedia Si realizza la fusione a confinamento inerziale quando in una batteria di laser a cristallo di neodimio si sparano i fasci ad alta energia in un lungo tunnel. Al termine i fasci incidono su specchi disposti a formare una sfera che fanno convergere i fasci su una pallina ricca di H come il deuteruro di litio che non pesa piu’ di 10mg e ha le dimensioni di una capocchia di spillo. La scarica vaporizza la superficie della pallina e provoca il collasso di quest’ultima. Si raggiungono temperature di alcuni 106 C e i nuclei di H si fondono in He come in una bomba di H. Secondo il Criterio di Lawson il processo si innesca se i valori T, densita’ e tempo di sconfinamento sono attuati in intervalli ben precisi. L’energia emessa e’ sottoforma di neutroni e il Deuteruro di Futuro tecnologico cap-pag 5-8/43 Litio raggiunge T di 100 106 C e densita’ maggiore di quella del piombo che vengono assorbiti dal rivestimento della camera di fusione che si riscalda. Il calore viene utilizzato nella produzione di vapore che fa girare una turbina per produrre elettricita’. Si sono realizzati Shiva costruito al LLNL california nel 1978, Nova, Nif ha 192 fasci e genera potenza di 7 1014 watt (una centrale nucleare produce solo 109 watt). Si realizza la fusione a confinamento magnetico quando una grossa ciambella al cui interno circola H gassoso e la cui superficie e’ avvolta da bobine di cavo elettrico. Si raffreddano le bobine per farle divenire superconduttrici e si inietta corrente elettrica generando un campo magnetico che confina il plasma all’interno della ciambella e lo riscalda a T stellare. La sorgente di energia e’ economica: il combustibile viene dall’acqua del mare ricca di H. il problema sta nel comprimere l’H fino a formare una sfera perfetta. Il progetto piu’ avanzato e’ ITER al sud Francia Cadarache in cui il reattore porta il plasma di H gassoso a T=100 106 C e potenza di 500Mwatt/500 sec. Nella fusione inerziale i fasci laser devono essere perfettamente uniformi e questo presenta difficolta’ insormontabili. Nella fusione magnetica i campi magnetici hanno polarita’ +/- ed e’ estremamente difficile esercitare sul gas una compressione sferica uniforme (ogni volta che si schiaccia a un’estremita’ si provoca un rigonfiamento sull’estremita’ opposta). I vantaggi sarebbero la mancanza di scorie nucleari. I laser a raggi X a innesto nucleare sono una batteria di laser a raggi X capaci di controllare e di focalizzare l’energia prodotta da un’arma nucleare e potrebbe distruggere un intero pianeta. Un pezzo di Uranio come una palla distrusse una citta’ intera nonostante la massa convertita in energia rappresentava 1/100 massa totale. I laser a raggi X con piccolissima lungh onda li rende adatti allo studio di oggetti come l’atomo. Una bomba H emette quantita’ enorme di energia sottoforma di di raggi X pertanto un laser X si puo’ alimentare con il nucleare. La bomba Teller genera un’onda d’urto sferica formata da raggi X energetici. Questi attraversano le sbarre di rame presenti nel laser che fungono da mezzi di amplificazione e concentrano l’energia dei raggi X in fasci ad alta intensita’. Il problema e’ che il dispositivo puo’ essere utilizzato solo una volta. Con la stessa logica se si vuole costruire un ordigno nucleare di potenza arbitraria basta utilizzare una bomba a fissione che sfrutta energia liberata da U per generare un impulso di raggi X (Hiroshima). Una frazione di secondo prima che l’onda d’urto prodotta dalla bomba atomica distrugga tutto, l’impulso sferico di raggi X viene riflesso e focalizzato sul combustibile primario della bomba (deuteruro di litio). I raggi X lo fanno collassare e lo portano a una T=106C . La conseguenza e’ una nuova esplosione molto piu’ potente della prima. Il processo prosegue cosi’ a cascata producendo energia inimmaginabile. Per distruggere un pianeta occorrerebbero migliaia di laser a raggiX lanciati nello spazio che sparassero insieme. Le sorgenti a impulso gamma presenti nella rotazione di una stella se si potessero controllare, prima che la stella collassi e generi una supernova, si potrebbero indirizzare verso un punto qualsiasi dello spazio. Le sorgenti gamma emettono impulsi la cui durata va da pochi secondi a qualche minuto e poi scompaiono. Dopo che un satellite ne individua la posizione, ne segnala le coordinate esatte alla terra. Tali coordinate vengono trasmesse a telescopi ottici o radio che si posizionano per puntare verso la sorgente gamma. Gli impulsi gamma sono ipernove che danno origine a buchi neri. I buchi neri ruotano come trottole e connettono due getti di radiazione al polo nord e al polo sud. Futuro tecnologico cap-pag 5-9/43 Se la sorgente si trovasse nella nostra porzione di galassia e il getto fosse diretto verso il nostro pianeta, la sua energia sarebbe sufficiente a distruggere tutto il pianeta. La prima conseguenza sarebbe la generazione di impulsi elettromagnetici che metterebbero fuori uso tutti i dispositivi elettronici presenti sul pianeta. I raggi X e gamma danneggerebbero l’atmosfera terrestre distruggendo lo strato di ozono. Si innalzerebbe la temperatura della superficie del pianeta provocando incendi di proporzioni giganteschi. Se non riuscisse ad esplodere il pianeta lo renderebbe arido e sterile. Basta solo puntare un buco nero su un bersaglio dando un’inclinazione ben precisa alla traiettoria dei pianeti e delle stelle di neutroni dirette verso la stella morente un attimo prima del suo collasso. La deviazione sarebbe sufficiente a cambiare l’asse di rotazione della stella e consentirebbe di puntarla in una direzione ben determinata. Futuro tecnologico cap-pag 5-10/43 6. Teletrasporto In un atomo c’e’ la probabilita’ che l’elettrone si possa trovare in molti posti allo stesso tempo. Tali salti quantitativi non possono essere generalizzati a un corpo di grandi dimensioni come una persona. Gli elettroni sono cosi’ tanti che i loro movimenti si compensano e quindi a livello macroscopico gli oggetti hanno un aspetto solido e stabile. A livello atomico si potrebbe cambiare la probabilita’ di qualsiasi evento quantistico e avere un teletrasporto ma su scala macroscopica occorrerebbe attendere un tempio maggiore dell’eta’ dell’universo. L’entanglement e’ l’idea per cui particelle vibrano in maniera coerente e hanno un legame profondo che le unisce. Prima di effettuare una misura lo spin dell’elettrone non e’ diretto verso il basso ne’ verso l’alto ma e’ in uno stato indeterminato. Non appena si effettua un’osservazione la funzione d’onda collassa lasciando la particella in uno stato definito. Con l’esperimento EPR (Einstein, Podolsky, Rosen) si dimostro’ che le onde di due elettroni che inizialmente vibrano all’unisono in uno stato coerente possono rimanere sincronizzate anche quando gli elettroni sono a grande distanza l’uno dall’altro, perche’ c’e’ sempre un’onda di Schroedinger invisibile che li tiene uniti. Se accade qualcosa a un elettrone l’informazione si trasmette immediatamente all’altro: entanglement quantistico. Se lo spin totale=0 allora quando lo spin di un elettrone e’ in un senso, automaticamente l’altro elettrone avra’ lo spin nel senso opposto. Tale informazione e’ pero’ casuale inutile anche se piu’ veloce della luce. Nel 1993 si teletrasporto’ tutta l’informazione contenuta in una particella cioe’ fotoni e interi atomi di Cesio. Si parte da due atomi A e C. Per trasferire l’informazione si prende un terzo atomo B e si mette in entanglement con C. B e C sono quindi sono in stato coerente. Se si mette A in contatto con B, l’informazione viene trasferita e quindi si trovano legati dall’entanglement. Poiche’ l’entanglement e’ tra B e C l’informazione in A ora si trova sicuramente in C. L’informazione trasportata da A e’ stata distrutta e non si hanno due copie. L’atomo A non e’ andato ad occupare C: solo l’informazione di A cioe’ la polarizzazione si e’ trasferita in C. Nel 2004 si sono trasferiti anche due atomi di berillio e nel 2006 hanno messo in entanglement un fascio di luce con un gas contenente miliardi di atomi di Cesio a Copenaghen. Codificarono l’informazione contenuta negli impulsi laser e riuscirono a trasferirla agli atomi di Cesio a distanza di mezzo metro. Nel 2007 Bradley e il suo gruppo teletrasporto’ 500 particelle in Australia secondo il metodo di teletrasporto classico e non quantistico. L’informazione in un fascio di atomi di Rubidio e’ stata trasferita in un fascio di fotoni che e’ stato poi trasmesso lungo fibra ottica e utilizzato per ricostruire il fascio di partenza. Si utilizza il condensato di Bose Einsteine (BEC) una delle sostanze piu’ fredde dell’universo (10-6, 10-9 K, T dello spazio=3K). Quando si portano tutti i tipi di materia a una T= 0K gli atomi che la compongono precipitano nello stato di energia minima finendo per vibrare all’unisono in uno stato coerente. Tutte le funzioni d’onda si sovrappongono e i componenti vibrano in fase. Si prende un insieme di atomi di rubidio ultrafreddi BEC e lo si fa interagire con un fascio di materia (ugualmente costituito da rubidio). Gli atomi di rubidio vengono portati anche essi nello stato di minima energia e emettono l’energia in eccesso sottoforma di impulso luminoso. Il fascio di fotoni cosi’ generato e’ inviato in una fibra ottica. I fotoni contengono tutte le informazioni quantistiche per descrivere il fascio di materia originale. (posizione e velocita’ di ogni suo atomo). Infine il fascio viene inviato in un altro BEC e il risultato e’ un fascio di materia uguale a quello di partenza. I BEC sono pero’ difficili da ottenere in laboratorio ma si comportano come Futuro tecnologico cap-pag 6-11/43 un gigantesco atomo. Con un simile atomo e’ possibile vedere ad occhio nudo qualsiasi effetto quantistico. La minima vibrazione puo’ perturbare la coerenza di due atomi: atomi inizialmente in fase nel corso di qualche secondo perdono la coerenza. Un’applicazione dei BEC e’ la creazione di laser atomici. Fra una decina di anni forse si teletrasportera’ una molecola complessa di DNA o un virus. La coerenza quantistica per corpi macroscopici richiedera’ secoli!!. Figura: Teletrasporto Fonte: La trama del cosmo. Brian Greene Futuro tecnologico cap-pag 6-12/43 Tra 50 anni si arrivera’ forse ai computer quantistici. I computer si basano sul calcolo binario (0/1) nel mondo dei quanti invece l’atomo viene descritto dalla somma di due stati (spin alto/spin basso) e ogni oggetto e’ descritto dalla somma di tutti i suoi stati possibili. In oggetti macroscopici viventi si somma la funzione d’onda dell’oggetto vivo con quello morto pertanto l’oggetto non e’ vivo ne’ morto. Se si considera una fila di atomi allineati in un campo magnetico con gli spin disposti in un certo modo e si illumina con un fascio laser, tale fascio non sara’ riflesso e in qualche atomo si verifichera’ una transizione dello spin da uno stato ad un altro. Misurando la differenza tra il fascio laser entrante e quello uscente si realizza un calcolo quantistico complesso in cui il numero di spin che hanno cambiato lo stato puo’ essere elevato. Anche qui il problema e’ la necessita’ di mantenere la coerenza di un gran numero di atomi. La necessita’ di una nuova generazione di computer sta nel fatto che la potenza di un computer legato al silicio raggiungera’ il limite fisso nel 2020. Futuro tecnologico cap-pag 6-13/43 7. Telepatia (traduttore universale) La telepatia via radio: il cervello e’ un trasmettitore che diffonde i pensieri sottoforma di segnali elettrici e onde e.m. I segnali sono estremamente deboli (potenza =mW), sono disturbati (impossibile distinguerli dal rumore di fondo), non sono in grado di ricevere msg da altri cervelli (occorrerebbe un’antenna). La telepatia quantistica: PET (positron emission tomograpy) e MRI (magnetic resonance imaging). PET mette nel sangue una quantita’ di zucchero radioattiva che si concentra nelle aree del cervello coinvolte nel processo del pensiero dove maggiore e’ il bisogno di energia. Lo zucchero radioattivo emette positroni (elettroni positivi) rilevabili dalla strumentazione. Ricostruendo l’immagine generata dall’antimateria in un cervello vivente e’ possibile delineare anche la struttura del pensiero, identificando con precisione quali parti del cervello sono coinvolte in una determinata attivita’. MRI in un magnete a forma di ciambella i nuclei degli atomi del cervello si allineano parallelamente alle linee del campo magnetico. L’invio di un impulso a radiofrequenza fa oscillare i nuclei e questi nell’orientarsi in un’altra direzione emettono una eco-radio che puo’ essere misurata e dalla quale si puo’ dedurre la presenza di una sostanza particolare. Ad esempio si puo’ isolare il processo concentrando la propria attenzione sulla presenza di sangue ossigenato. A una maggiore concentrazione di sangue ossigenato in una certa zona del cervello corrisponde un’attivita’ mentale piu’ intensa. FMRI (MRI funzionale) esamina porzioni del cervello delle dimensioni di 1m/1sec MRI serve per la macchina della verita’: secondo la tecnica Langleben mentire fa aumentare l’attivita’ di diverse zone del cervello (lobo centrale, lobo temporale, sistema libico). Fattore positivo: • nessuno puo’ alterare la struttura dei propri segnali cerebrali. Fattori negativi: • Tale tecnica identifica solo l’ansia del soggetto e non distingue la verita’ dall’inganno, • Necessita di autorizzazioni legali per registrare il flusso del pensiero • L’incriminazione da una lettura del pensiero puo’ essere considerata sufficiente/insufficiente. • Il comportamento e’ legale/illegale nel sentire la mente di un terrorista. • Esiste la possibilita’ di innestare nella mente falsi ricordi Un traduttore universale trasmette i pensieri direttamente da una mente ad un’altra. Le scansioni cerebrali sono troppo primitive per identificare singoli pensieri che coinvolgono milioni di neuroni simultaneamente. La piu’ piccola porzione di cervello analizzabile in maniera affidabile e’ detta voxel ma e’ per ora impossibile identificare i segnali (provenienti dai singoli neuroni). Si puo’ solo isolare la struttura FMRI generata da entita’ distinte (parole) per poi costruire un dizionario del pensiero. Questo non e’ un traduttore universale perche’ si deve riconoscere la struttura FMRI, si deve associarla alle parole inglesi, si deve pronunciarla indirizzandosi al destinatario. Gli MRI hanno lo svantaggio che sono enormi, costosi e si pensa si possano sostituire con magnetometri atomici supersensibili. Sukov e Romaks hanno creato un sensore magnetico basato su vapori di Potassio ad alta T sospesi in Elio. Dopo aver allineato gli spin degli elettroni del Potassio con un laser viene applicato un Futuro tecnologico cap-pag 7-14/43 debole campo magnetico a un campione, si invia un impulso radio nel campione per far oscillare le molecole. Si produce una sorta di eco che si trasmette agli elettroni di potassio e poi viene rilevata da un altro fascio laser. Le immagini sono registrate istantaneamente! Gli MRI decifrano solo le caratteristiche dei nostri pensieri ma il cervello e’ una macchina che apprende, una rete neurale che modifica le proprie connessioni ogni volta che impara ad eseguire un nuovo compito. I pensieri sono diffusi e si potra’ solo compilare un dizionario di pensiero stabilendo una corrispondenza biunivoca tra certi pensieri e particolari tracciati di elettroencefalogramma o scansione MRI Riguardo alla proiezione del pensiero, stimolando elettricamente aree del lobo temporale si stimola il cervello. Uno speciale casco puo’ inviare al cervello fasci di onde radio e suscitare emozioni o pensieri ben precisi. Si sta realizzando un progetto di mappatura neurale per costruire mappe tridimensionali di tutte le loro connessioni. Si ottiene cosi’ una corrispondenza tra un dato pensiero, la sua espressione MRI e i neuroni che si attivano. Nel 2006 si e’ trovato una mappatura di 21000 geni a livello cellulare del topo. Futuro tecnologico cap-pag 7-15/43 8. Psicocinesi (levitazone, replicatore) Psicocinesi serve per influenzare solo con la mente eventi casuali ma il problema e’ che non si adatta alle leggi fisiche note: la gravitazione e’ esclusivamente attrattiva e non puo’ essere utilizzata per levitare o respingere oggetti. La f.e.m. obbedisce alle equazioni di Maxwell ed esclude la possibilita’ di far attraversare una stanza a un oggetto elettricamente neutro. Le forze nucleari hanno un raggio d’azione piccolissimo dell’ordine della distanza tra le particelle che compongono il nucleo. Altro problema e’ che la fonte di energia che il corpo umano puo’ produrre e’ minimo 1/5 cavallo vapore. Solo l’amplificazione della psicoanalisi mediante onde radio o attraverso l’uso di un computer e’ una possibilita’ reale. Una persona osserva su uno schermo il proprio elettroencefalogramma e finisce per imporre a controllare l’andamento delle tracce osservate attraverso il biofeeedback. Si possono generare con il pensiero sullo schermo tracciati ben precisi che potrebbero essere inviati a un computer programmato per il riconoscimento e l’esecuzione di un comando. Donogitue ha inserito un chip di silicio contenente cento elettrodi nella zona del cervello che coordina l’attivita’ motoria e penetra a meta’ della corteccia cerebrale (spessa 2mm). I segnali vengono inviati con fili a un amplificatore e quindi inviato a un computer per l’elaborazione. Si cerca di rendere il dispositivo portatile e comunicante senza fili. Se si ricoprissero le pareti di casa con superconduttori a temperatura ambiente. Inserendo minuscoli elettromagneti all’interno di oggetti ad uso domestico si potrebbero fa levitare gli oggetti grazie all’effetto Meissner. Se gli elettromagneti fossero controllati da un computer collegato al cervello allora con il pensiero si potrebbe attivare il computer e quindi i magneti e si avrebbe la levitazione. La nanotecnologia costruisce macchine microscopiche a partire da singoli atomi e con tali macchine si potrebbe modificare la disposizione delle molecole che compongono un oggetto fino a trasformarlo in oggetti diversi (replicatore). In natura esistono aminoacidi e proteine (ingredienti), ribosomi (attrezzi) che tagliano e cuciono le proteine, DNA (schede). Questi si combinano per formare una cellula che ha la proprieta’ di autoreplicarsi. A causa della struttura della molecola di DNA con la forma a doppia elica, quando deve riprodursi si scinde nelle due singole eliche e queste si riproducono catturando le molecole organiche necessarie per ricostruire l’elica complementare. Si cerca di riprodurre una flotta di nanorobot per manipolare gli atomi. Con le tecnologia di incisione dell’industria dei semiconduttori si realizzano circuiti minuscoli con componenti di dimensioni di 30nm che svolgerebbero il ruolo di cervello. Oppure si potrebbe assemblare nanorobot un atomo per volta con il microscopio a scansione di sonda che identifica e sposta singoli atomi (10h per assemblare 50 atomi) Futuro tecnologico cap-pag 8-16/43 9. Robot Secondo alcuni pensieri qualsiasi neurone puo’ essere riprodotto da un insieme di transistor anche complesso, secondo altri (Penrose) i microtubuli presenti all’interno di una cellula manifestano un comportamento quantistico che rende impossibile ridurre il cervello a un insieme di componenti elettrici. Turing a proposito dell’intelligenza artificiale mise a punto un test: si mette un uomo e una macchina in due scatole sigillate e si interrogano entrambi. Se risulta impossibile stabilire la differenza tra le risposte allora la macchina passa il test di Turing. I robot sono in grado di gestire la sintassi di un linguaggio ma non la semantica. C’e’ una grossa diatriba se i robot possono pensare: dal riconoscimento delle forme utilizzare cioe’ il buon senso. Nell’approccio top-down ci sono stati progetti per l’intelligenza artificiale (CYC= enciclopedia) ma si sono resi conto che per dare a un computer un senso comune simile a quello di un bambino occorrono milioni di righe di codice! Nell’approccio bottom-up si considera il cervello come rete neurale in grado di apprendere (COG robot con intelligenza di un bambino di 6mesi). Il miglior robot a reti neurali sa camminare, nuotare ma non saltare, ne’ muoversi rapidamente o muoversi per cacciare… Le reti neurali di un robot possono essere formate da decine o centinai di neuroni mentre il nostro cervello e’ formato da 100miliardi di neuroni veri. Il sistema nervoso di un verme primitivo C.elegans e’ composto da 300 neuroni ma collegati a loro volta da piu’ di 7000 sinapsi. Pertanto per quanto possa essere semplice il sistema nervoso e’ cosi’ complesso da non poter essere ricostruito al computer. Forse bisogna realizzare una sintesi tra i due approcci come fa l’essere umano.. Differenza rispetto uomo: • Quando si entra in una stanza l’uomo riconosce immediatamente gli oggetti attraverso miliardi di operazioni e i robot non sanno riconoscere allo stesso modo gli oggetti: fattore legato all’evoluzione • Un uomo riconosce il pericolo immediatamente mentre un computer dovrebbe fare enormi calcoli: fattore legato alla sopravvivenza • Esistono verita’ che l’uomo acquisisce da bambino interagendo con il mondo reale e sviluppa attraverso creativita’, originalita’, passione, attitudine… mentre il robot conosce solo quello per cui e’ stato programmato • Reagire ai suoni o cogliere la differenza di dimensione, rugosita’ fragilita’ tra un oggetto e l’altro e’ un compito difficile. • C’e’ chi afferma che una macchina non potra’ mai provare emozioni perche’ queste rappresentano l’apice dell’evoluzione della specie umana altri affermano che le emozioni sono un prodotto secondario dell’evoluzione perche’ ci fanno comodo. Apprezzamento (sesso, amore) di qualcosa ad esempio permette di selezionare tra tanti oggetti che possono danneggiarci. Vergogna, rimorso, solitudine etc. sono strumenti per la socializzazione in una tribu’ . Forse i robot saranno programmati per provare emozioni del resto le emozioni sono cruciali per prendere delle decisioni! • La coscienza e’ una serie di pensieri e immagini derivanti da varie zone del cervello (menti) piu’ elementari che competono per catturare la ns attenzione. Un animale del resto ha un tipo di coscienza sicuramente non al livello dell’uomo. Chiedersi se un robot capisca forse e’ irrilevante. Un robot che controlli la sintassi e capisca quel che gli si dice cioe’ che abbia una padronanza perfetta della sintassi e’ uguale alla comprensione. Futuro tecnologico cap-pag 9-17/43 Se la potenza dei microprocessori raddoppia ogni 18mesi e’ anche vero che tra qualche anno l’era del silicio potrebbe essere finita. Il processo di miniaturizzazione che incide sui wafer di sicilio si potra’ interrompere. Ora siamo a spessori di 20atomi ma quando arrivera’ a 5atomi entrera’ in azione il principio di indeterminazione di Heisenberg, gli elettroni non si sapra’ dove saranno, la corrente si difoondera’ all’esterno del chip e il computer andra’ in cortocircuito. Il dopo silicio vede tecnologie come computer quantistici, a DNA, ottici, atomici etc..ma la manipolazione di atomi e molecole e’ ancora in studio. Alcuni pensano che se i robot saranno dotati di reti neurali capaci di apprendere a un ritmo piu’ rapido del nostro potranno creare altri robot.. Altri pensano che invece di un’estinzione del genere umano potrebbe verificarsi una fusione della tecnologia del carbonio con quella del silicio cosi’ che la nostra architettura neurale potra’ venire trasferita direttamente in una macchina e diventeremo immortali… per ogni neurone tolto si deve creare un neurone duplicato all’interno del robot per poter assistere all’operazione. Invece di morire in un corpo decrepito ci si puo’ trovare dentro un corpo immortale con memoria e personalita’ senza mai perdere coscienza. Futuro tecnologico cap-pag 9-18/43 10. Extraterrestri Per la nascita della vita nell’universo occorre: • acqua allo stato liquido (crea molecole complesse) • carbonio perche’ ha 4 legami disponibili e puo’ legarsi a 4 atomi distinti (forma cioe’ molecole complesse), forma inoltre catene lunghe base degli idrocarburi e della chimica. Miller/Urey presero una soluzione di ammoniaca, metano, altre soluzioni tossiche che si pensava fossero presenti nell’atmosfera dei primordi. Sottoposero tale soluzione a una scarica elettrica (per spazzare i legami di ammoniaca/metano) e dopo una settimana videro che si erano formati aminoacidi precursori delle proteine. Gli aminoacidi sono presenti nei meteoriti e nelle nubi di gas interstellare • molecola autoreplicante di DNA o simile. Le prime molecole e le cellule primordiali potrebbero avere tutta l’energia per funzionare prima della fotosintesi e della comparsa delle piante. Non si conoscono altre molecole a base di carbonio in grado di replicarsi ma e’ probabile che qualsiasi altra molecola autoreplicante nell’universo assomigli al DNA. Drake stima che ci possano essere da 100 a 10000 pianeti in grado di accogliere forme di vita intelligente nella galassia supponendo di avere 1011 stelle nella galassia e 1011 galassie. L’equazione di Drake e’: dove: N è il numero di civiltà extraterrestri presenti oggi nella nostra Galassia con le quali si può pensare di stabilire una comunicazione R* è il tasso medio annuo con cui si formano nuove stelle nella Via Lattea fp è la frazione di stelle che possiedono pianeti ne è il numero medio di pianeti per sistema solare in condizione di ospitare forme di vita fl è la frazione dei pianeti ne su cui si è effettivamente sviluppata la vita fi è la frazione dei pianeti fl su cui si sono evoluti esseri intelligenti fc è la frazione di civiltà extraterrestri in grado di comunicare L è la stima della durata di queste civiltà evolute R* – tasso di formazione stellare nella Via Lattea Il valore di R* si ricava da dati sperimentali astronomici noti con ragionevole precisione, ed è il termine dell'equazione meno discusso. Drake e i suoi colleghi scelsero un valore R* di 10 stelle nuove all'anno (come media sull'arco di vita della nostra galassia). fp – la frazione di tali stelle che possiede pianeti Il termine fp è meno sicuro, ma è comunque molto meno dubbio dei parametri seguenti. Si decise di inserire fp = 0,5 (ipotizzando cioè che metà delle stelle possieda pianeti). ne – il numero medio di pianeti (o satelliti) per sistema stellare che presentano condizioni potenzialmente compatibili con la vita Futuro tecnologico cap-pag 10-19/43 Il valore di ne venne basato sulle caratteristiche del nostro sistema solare, dato che negli anni sessanta era quasi impossibile rilevare pianeti terrestri extrasolari, a causa delle loro ridotte dimensioni. Venne usato ne = 2 (ogni stella con un sistema planetario possiede due pianeti capaci di supportare la vita). fl – la frazione di essi che effettivamente sviluppa la vita Per fl Drake usò il valore 1 (il che significherebbe che tutti i pianeti in grado di farlo sviluppano la vita); ma questa scelta risulta problematica, sempre in relazione al nostro sistema solare, perché è in contraddizione con il valore di ne (a meno di non scoprire che anche Marte ospita o ha ospitato vita intelligente). Inoltre, la scoperta di numerosi pianeti gioviani (giganti gassosi) in orbite vicine alle loro stelle ha fatto nascere dei dubbi sul fatto che sia comune che i pianeti terrestri sopravvivano alla nascita del loro sistema solare. Infine, la maggior parte delle stelle della nostra galassia sono nane rosse, intorno alle quali risulta improbabile che si sviluppi la vita. D'altro canto, la possibilità che la vita nasca anche sui satelliti e non solo sui pianeti può compensare questi fattori, anche se rende più complessa la questione. Prove geologiche ricavate dallo studio della Terra suggeriscono che fl potrebbe essere molto alto; la vita sulla Terra sembra essere iniziata quasi nello stesso periodo in cui si sono presentate le condizioni favorevoli, suggerendo che l'abiogenesi potrebbe essere relativamente comune laddove le condizioni la rendono possibile. La stessa idea sembra essere supportata anche dai risultati di esperimenti come quello di Miller-Urey, che dimostrano che in condizioni adeguate le molecole organiche possono formarsi spontaneamente a partire da elementi semplici. Tuttavia queste prove si basano esclusivamente su dati relativi alla Terra, cosicché la base statistica è estremamente ridotta; e inoltre sono influenzate dal principio antropico, nel senso che la Terra può non essere un campione perfettamente tipico, visto che siamo obbligati a sceglierla come modello perché su di essa la vita si è effettivamente sviluppata. fi – la frazione di essi che effettivamente sviluppa vita intelligente e fc – la frazione di essi che è in grado e decide di comunicare Difficoltà legate al principio antropico si pongono anche nella stima di fi e fc quando si considera la Terra come modello. Un'intelligenza capace di comunicare si è sviluppata su questo pianeta solo una volta in 4 miliardi di anni di storia della vita sulla Terra: se generalizzata, questa considerazione implica che solo pianeti piuttosto vecchi possono supportare vita intelligente in grado di tentare comunicazioni interplanetarie. D'altronde, per quanto riguarda l'uomo, la capacità di intraprendere tentativi di comunicazione extraterrestre si è sviluppata piuttosto in fretta, appena 100 000 anni dopo la nascita della specie Homo sapiens, e appena 100 anni dopo lo sviluppo delle capacità tecnologiche necessarie. Si scelse di valutare entrambi i fattori come 0,01 (il che significa che su un centesimo dei pianeti in cui si sviluppa la vita tale vita è intelligente, e che un centesimo delle forme di vita intelligenti sviluppa la capacità di comunicare su distanze interplanetarie). L – la durata media della fase comunicativa di ognuna di queste civiltà Anche il fattore L è estremamente difficile da valutare, ma infine si decise che 10 000 anni poteva essere un valore verosimile. Carl Sagan ha sostenuto che è proprio l'estensione della vita di una civiltà il fattore più importante che determina quanto grande sia il numero di civiltà nella galassia: egli cioè ha posto con forza l'accento sull'importanza e sulla difficoltà per le specie tecnologicamente avanzate di evitare l'autodistruzione. Nel caso di Sagan, l'equazione di Drake è stata un importante fattore motivante per il suo interesse nei problemi ambientali e per i suoi sforzi di sensibilizzazione contro la proliferazione nucleare. I valori di Drake producono un valore Futuro tecnologico cap-pag 10-20/43 N = 10 × 0,5 × 2 × 1 × 0,01 × 0,01 × 10 000 = 10. Ogni variazione dei parametri, anche rimanendo nei limiti della verosimiglianza scientifica, causa notevoli variazioni nel risultato N, portando a aspre contrapposizioni tra "ottimisti" e "pessimisti". I valori di N tipicamente proposti dagli "ottimisti" si aggirano intorno a 600 000, mentre quelli proposti dai "pessimisti" sono nell'ordine di 0,0000001. Una lista delle stime più attendibili dei parametri che compaiono nell'equazione di Drake. R* – tasso di formazione stellare nella Via Lattea: 7 stelle all'anno. fp – la frazione di tali stelle che possiede pianeti: il 40% di stelle simili al Sole possiedono pianeti, e la frazione reale potrebbe essere molto maggiore, poiché solo pianeti considerevolmente più massivi della Terra possono essere rilevati con la tecnologia attuale. Osservazioni all'infrarosso dei dischi di polvere intorno a stelle giovani suggeriscono che il 20-60% delle stelle paragonabili al Sole debbano possedere pianeti terrestri. Osservazioni di fenomeni di microlenti gravitazionali, abbastanza sensibili da rilevare pianeti piuttosto lontani dalle loro stelle, vedono pianeti in circa un terzo dei sistemi esaminati (valore approssimato per difetto, visto che questo sistema è in grado di rilevare solo una parte dei pianeti). La missione Kepler, dai dati iniziali, stima che circa il 34% dei sistemi ospiti almeno un pianeta. ne – il numero medio di pianeti (o satelliti) per sistema stellare che presentano condizioni potenzialmente compatibili con la vita La maggior parte dei pianeti osservati ha orbite molto eccentriche, o troppo vicine al sole per garantire temperature adatte alla vita. Comunque sono noti diversi sistemi planetari che assomigliano maggiormente a quello solare, come HD70642, HD154345, Gliese849 e Gliese581. Nelle zone abitabili intorno a queste stelle potrebbero anche esserci altri pianeti paragonabili alla Terra ancora da scoprire. Inoltre, la varietà di sistemi stellari che possono presentare zone di abitabilità non è limitata esclusivamente alle stelle simili al Sole e ai pianeti simili alla Terra; attualmente si ritiene che anche pianeti vincolati a nane rosse in modo da rivolgere alla stella sempre la stessa faccia potrebbero avere zone abitabili, e alcuni dei grandi pianeti già scoperti potrebbe, potenzialmente, supportare la vita. All'inizio del 2008, due gruppi di ricerca indipendenti hanno concluso che Gliese581 potrebbe essere abitabile. Poiché sono noti circa 200 sistemi planetari, si può stimare in modo abbastanza approssimativo che ne > 0,005. Nel 2010, i ricercatori hanno annunciato la scoperta di Gliese581g, un pianeta di 3,1 volte la massa della Terra quasi nel centro della zona abitabile di Gliese581, un valido candidato per essere il primo pianeta extraterrestre abitabile mai scoperto. Data la vicinanza di Gliese581 e il numero di stelle esaminate con un livello di dettaglio sufficiente a rilevare pianeti terrestri, la percentuale di stelle che possiedono pianeti simili alla Terra dovrebbe essere del 10-20%. La missione Kepler della NASA, partita il 6 marzo 2009, dovrebbe fornire una stima molto più accurata del numero di pianeti per stella situati in una zona abitabile. Essa infatti può contare su strumenti assai più sensibili che in passato, in grado di rilevare pianeti grandi quanto la Terra con periodi orbitali fino a un anno. Anche noto il numero di pianeti che si trovano in una zona abitabile, comunque, determinare quanti di essi presentano la giusta combinazione di fattori può essere difficile. Inoltre, se l'ipotesi della rarità della Terra è valida, l'insieme di Futuro tecnologico cap-pag 10-21/43 caratteristiche verificate sulla Terra potrebbe non essere per niente comune, e il numero ne potrebbe essere estremamente basso, fino a tendere a zero. fl – la frazione di essi che effettivamente sviluppa la vita: Nel 2002, Charles H. Lineweaver e Tamara M. Davis (dell'Università del Nuovo Galles Del Sud e dell'Australian Centre for Astrobiology) hanno usato un ragionamento statistico basato sul tempo impiegato per svilupparsi dalla vita terrestre per stimare fl, ottenendo che esso deve essere maggiore di 0,13 sui pianeti più vecchi di un miliardo di anni. fi – la frazione di essi che effettivamente sviluppa vita intelligente: Questo valore rimane particolarmente controverso. Coloro che si esprimono in favore di un valore basso, come il biologo Ernst Mayr, evidenziano che dei miliardi di specie che sono esistite sulla Terra solo una è diventata intelligente. Coloro che sono in favore di valori più alti sottolineano invece che la complessità degli esseri viventi tende ad aumentare lungo il corso dell'evoluzione, e ne concludono che l'apparizione di vita intelligente, prima o poi, sia quasi inevitabile. fc – la frazione di essi che è in grado e decide di comunicare Anche se si sono fatte molte speculazioni, su questo parametro non sono disponibili dati concreti. L – la durata media della fase comunicativa di ognuna di queste civiltà In un articolo comparso su Scientific American, lo scrittore scientifico Michael Shermer ha proposto per L il valore di 420 anni, basando la sua stima sulla durata media di sessanta civiltà storiche. Utilizzando ventotto civiltà più recenti (successive all'Impero romano) il valore sarebbe, per le "civiltà moderne", 304 anni. Va però notato che ai fini dell'equazione di Drake questi valori non sono del tutto soddisfacenti, perché nella storia dell'umanità in generale si è avuto un progresso tecnologico abbastanza lineare – cioè ogni civiltà subentrata a una precedente ha conservato e migliorato le realizzazioni già ottenute. Perciò il valore in anni deve tener conto non di una singola civiltà nel senso storico e culturale del termine, ma di una specie nella prospettiva del suo livello di sviluppo tecnologico globale. Nella versione ampliata dell'equazione che tiene conto dei fattori di ricomparsa, questa mancanza di specificità nella definizione di "civiltà" non influenza il risultato finale, poiché il succedersi di diverse culture può essere descritto come un aumento del fattore di ricomparsa anzi che come un aumento di L: una civiltà si conserva come una successione di culture. Altri, come l'astrobiologo David Grinspoon, hanno suggerito che una volta che una civiltà si è sviluppata essa potrebbe superare tutte le minacce poste alla sua sopravvivenza, e poi sopravvivere per un periodo indefinito, portando L all'ordine dei miliardi di anni. Valori basati sulle stime citate,danno come risultato N = 7 × 0,5 × 2 × 0,33 × 0,01 × 0,1 × 10 000 = 23,1 Le critiche all'equazione di Drake seguono per la maggior parte dall'osservazione che molti termini della formula sono in gran parte o completamente congetturali. Perciò l'equazione non può portare a nessun tipo di conclusione. Se si suppone siano distribuiti uniformemente in tutta la galassia dovremo aspettarci di trovarne uno a poche centinaia di a.l. dalla Terra. Si sono messi in cerca di segnali radio emessi dai pianeti che ospitano tale civilta’. Nel progetto SETI (search for extraterrestrial intelligence) Cocconi/Morrison scelsero la ricerca di segnali nella regione delle microonde tra 1 e 10Ghz. Tale frequenza corrisponde alla max probabilita’ di riuscire a trasmettere una comunicazione. Sotto 1Ghz i segnali sono Futuro tecnologico cap-pag 10-22/43 sovrastati dalla radiazione emessa dagli elettroni veloci; al di sopra dei 10Ghz c’e’ interferenza con il rumore di fondo generato nell’atmosfera dalle molecole di O2 e H2O Scelsero 1.420Ghz perche’ si tratta della frequenza emessa dall’H2 allo stato gassoso cioe’ dell’elemento piu’ comune dell’universo. Nel 1960 il progetto OZMA con radiotelescopio di 25m non ha trovato alcun segnale. Nel 1974 il radiotelescopio gigante a Portorico invio’ un msg in direzione ammasso globulare M14 a 25000 a.l. ma per un’eventuale risposta occorrono 50000 anni….. Nel 1995 Taller da’ via al progetto Phoenix sempre nella stessa frequenza con strumenti sensibili da poter raccogliere segnali emessi da 200 a.l. di distanza. Ha analizzato piu’ di 1000 stelle simili al Sole (costo 5 106 dollari/anno) senza risultati. Nel 1999 da Barkeley si e’ passati a scaricare un sw che installato su qualsiasi PC contribuisce a decodificare una parte di segnali radio ricevuti da un telescopio e si attiva quando entra lo screen saver del PC per non interferire con le attivita’ utente. Ci sono 5 106 utenti da piu’ di 200 nazioni !!!! I fallimenti forse sono dovuti: • la scelta di ricevere esclusivamente segnali solo all’interno di bande di frequenza precise. Gli alieni potrebbero usare segnali laser invece che radio!.I laser lavorando a frequenze piu’ alte puo’ trasportare piu’ informazioni di una radio pero’ e’ altamente direzionale contiene un’unica frequenza e bisognerebbe essere fortunati a trovare quella giusta. • Gli alieni potrebbero usare tecniche di compressione e distribuzione su un ampio spettro di frequenze (come i film in internet). • La vita puo’ svilupparsi in modi di cui l’equazione di Drake non ne aveva tenuto conto. Infatti l’acqua allo stato liquido non si trova solo nella zona detto “Riccioli d’oro” in cui la distanza tra terra e sole e congeniale: non troppo vicino al Sole (si avrebbe ebollizione), non troppo lontano (si avrebbe congelamento). Si puo’ trovare anche sotto la coltre di ghiacci che ricopre ad esempio Europa (una delle lune di Giove). Le forze di marea potrebbero essere abbastanza forti da sciogliere i ghiacci e formare un oceano liquido. Il fortissimo campo gravitazionale di Giove puo’deformare Europa che vi gira intorno inducendo attriti che possono fondere la crosta di ghiaccio. Nel ns sistema solare ci sono oltre 100 lune che potrebbero ospitare la vita e oltre 250 pianeti forse dotati di lune gelati. Esistono anche pianeti vaganti senza stelle intorno alla quale orbitare, non visibili. Il numero di corpi astronomici in grado di ospitare forme di vita nell’universo nella formula puo’ essere piu’ grande. La probabilita’ che un pianeta all’interno della zona riccioli d’oro possa ospitare forme di vita e’ molto piu’ piccola nella formula infatti in un sistema solare ci vuole un pianeta delle dimensioni di Giove per rispedire nello spazio le comete e le meteore in transito rendendo possibile lo sviluppo di forme di vita come accade oggi alla Terra. Senza Giove la Terra sarebbe esposta a tempeste di meteore ogni 104 anni. Occorre una Luna di grandi dimensioni grazie alla quale lo spin della Terra e’ stabile in caso contrario per effetto della legge gravitazionale di Newton su milioni dio anni, l’asse della Terra sarebbe stato instabile e il pianeta avrebbe potuto capovolgersi con conseguenze enormi sul clima e condizioni avverse per lo sviluppo di vita. Marte ha ad esempio 2 lune piccole e potrebbe non avere lo spin stabile. La nascita e l’evoluzione della vita sono molto instabili infatti in passato la vita sulla Terra si e’ quasi estinta: 2 miliardi di anni fa era ricoperta di ghiaccio, in Futuro tecnologico cap-pag 10-23/43 • • • • seguito eruzioni vulcaniche e meteoriti hanno messo in pericolo le forme di vita. La vita intelligente ha rischiato di estinguersi 105 anni fa : le specie animali presentano variabilita’ genetica mentre i profili genetici degli esseri viventi sono tutti molto simili tra loro come se fossero cloni dei ns simili. Tutto come se si fosse sopravvissuti a stento per le condizioni avverse. Gli eventi che permettono la vita sulla Terra sono: un campo magnetico intenso (senza il quale la Terra sarebbe sottoposta al bombardamento dei raggi cosmici), un’adeguata velocita’ di rotazione del pianeta (se ruotasse lentamente il lato esposto al Sole si riscalderebbe eccessivamente e il lato opposto si congelerebbe, se ruotasse velocemente si avrebbero venti e uragani fortissimi), una giusta distanza dal centro della galassia (troppo vicina sarebbe esposta a eccessiva radiazione, troppo lontana non ci sarebbero elementi pesanti da consentire la formazione di molecole di DNA e proteine) Forse la Terra nella galassia e’ l’unico pianeta popolato da forme di vita animale e occorrerebbe verificare l’esistenza in altre galassie…. Jakosky gelogo disse: “E’ un momento speciale per la storia del genere umano: siamo la prima generazione che ha una chance realistica di scoprire la vita su un altro pianeta”. I pianeti non essendo individuati direttamente da un telescopio vengono individuati dalle oscillazioni piccole della stella madre sapendo che le dimensioni devono essere almeno come Giove. Nessuno dei sistemi solari individuati finora assomiglia al nostro. Il nostro sistema ha pianeti con orbite circolari: una fascia di pianeti rocciosi in prossimita’ stella madre, una fascia intermedia di pianeti giganti gassosi e una fascia estrema popolata di pianeti ghiacciati e comete. Pianeti gioviani orbitano a distanze ravvicinate oppure seguono orbite ellittiche e cio’ e’ incompatibile con la presenza di un pianeta di tipo terrestre. Un’orbita ravvicinata e’ dovuta a una migrazione da una zona periferica seguendo una traiettoria a spirale verso il centro del sistema solare a causa dell’attrito con la polvere interplanetaria. Se cosi’ fosse tale pianeta si troverebbe sull’orbita del pianeta piu’ piccolo e lo proietterebbe nello spazio cosmico. Analogamente un pianeta gioviano con orbita ellittica attraverserebbe regolarmente la zona riccioli d’oro provocando anche in questo caso l’espulsione del pianeta piu’ piccolo. I nostri telescopi primitivi possono solo rilevare la presenza di pianeti enormi e rapidissimi e non sono in grado di rilevare una copia esatta del nostro sistema solare. Il lancio di 3 satelliti Corot (2006), Keplero (2008), Terrestrial Planet Finder (2014) cercheranno di misurare la debole variazione di luminosita’ di una stella dovuta al transito di un pianeta di tipo terrestre e trovarne almeno uno sarebbe straordinario. Analizzano la luminosita’ di 100000 stelle usando un coronografo (telescopio speciale che riduce la luce della stella madre di un fattore 1miliardo) e un interferometro (sfrutta l’interferenza delle onde luminose per ridurre la luce proveniente dalla stella madre di un fattore 1milione). Il SETI invece di analizzare a caso le stelle vicine si concentrera’ su poche stelle. Riguardo all’aspetto di un alieno bisogna considerare che la simmetria bilaterale presente in gran parte dei mammiferi presenti non e’ l’unico possibile per una vita intelligente. La natura ha sperimentato su piccoli organismi multicellulari una grande varieta’ di forme: midollo spinale a forma di X,Y, radiale per la sopravvivenza tra prede e predatori. Futuro tecnologico cap-pag 10-24/43 Una vita intelligente richiede per percepire l’ambiente esterno e controllarlo: organi della vista, pollice opponibile (tentacolo o chele), sistema di comunicazione (non un aspetto umanoide). Animali che possiedono doti eccezionali superiori alla necessita’ di sopravvivenza sono dovute a una loro esigenza di dominare sugli altri. Gli esseri umani hanno un potere cerebrale in eccesso per la solo sopravvivenza e forse gli antagonisti su cui dominare furono altri membri della stessa specie. Animali non si sono evoluti ulteriormente perche’ perfettamente adattati all’ambiente. Noi ci siamo evoluti dalle scimmie per sfuggire ai cambiamenti ambientali. Se si considera che i carnivori, i predatori con occhi frontali e visione stereoscopica sono piu’ astuti delle prede con occhi laterali (che devono solo correre) e’ possibile che cosi’ siano le altre forme di vita inla telligente. Forse tali forme di vita si baserebbero su DNA e proteine completamente diverse dalle nostre e quindi non avrebbero interesse a mangiarci o ad accoppiarsi. Se poi vivono su pianeti di dimensioni comparabili alla Terra con densita’ simile a quella dell’acqua come gli organismi che popolano la Terra, e’ improbabile che si tratti di creature enormi a causa della legge di scala secondo la quale se si modifica la scala di un oggetto qualsiasi le sue caratteristiche fisiche cambiano drasticamente. Riguardo alla forma di un alieno il peso aumenta proporzionalmente al volume e la forza e’ proporzionale all’area della sezione trasversale delle ossa e dei muscoli forza ∝ (lunghezza ) e peso ∝ (lunghezza ) 2 3 Quindi un alieno 10 volte piu’ grande di un uomo sarebbe 100 volte piu’ forte ma 1000volte piu’ pesante e le gambe si potrebbero rompere. Il contenuto di calore di un animale e’ proporzionale al suo volume e il calore emesso da un animale e’ proporzionale alla superficie. caloreemesso ∝ (lunghezza ) e contenutocalore ∝ (lunghezza ) 2 3 Gli animali di grandi dimensioni quindi perdono calore piu’ lentamente di quelli piccoli. E’ per questa ragione che si gelano prima le dita e le orecchie perche’ l’area della loro superficie e’ in proporzione maggiore e che le persone piu’ piccole sentono freddo prima di quelle piu’ grandi. Se si considera che per una sfera la superficie per unita’ di massa e’ minima si capisce perche’ le balene che solcano l’oceano Artico sono rotondeggianti. In un microcosmo la superficie rispetto al volume di un alieno sarebbe stabile. In un macrocosmo tale superficie rispetto al volume sarebbe piu’ piccola e quindi piu’ pesante e renderebbe l’alieno instabile!!. La legge di scala implica che le leggi della fisica cambiano man mano che si scende nel microcosmo e non e’ possibile che in un atomo ci sia un universo molto piu’ grande o e’ impossibile che ci siano mondi dentro altri mondi…un alieno quindi non puo’ essere un gigante. Riguardo alle civilta’ aliene possono essere classificate in base ai consumi energetici e possono esserci 3 civilta’: civilita’ di tipo I: sfruttano l’energia disponibile su un pianeta utilizzando tutta l’energia solare incidente e tutte le altre energie Futuro tecnologico cap-pag 10-25/43 civilita’ di tipo II: sfruttano l’energia emessa dal loro sole e sono 10miliardi di volte piu’ potenti della civilta’I. Non vengono distrutte da era glaciale, da comete, da supernova e sono in grado di migrare verso altro sistema solare. civilita’ di tipo III: sfruttano l’energia disponibile su scala galattica. Colonizzano miliardi di sistemi stellari, sanno utilizzare l’energia del buco nero e si spostano liberamente sulla galassia. La nostra e’ una civilta’ di tipo 0 in cui si alimentano le macchine con legna, petrolio etc., si utilizza in minima parte l’energia del Sole, si cerca di aver linguaggio universale, cultura globale, Internet etc…La transizione da una civilta’ all’altra ad esmpio dal tipo0 al tipo1 e’ problematica: esistono problemi di settarismo, fondamentalismo, razzismo, pulsioni religiose etc. Il fatto che non siamo entrati in contatto con civilta’ di tipoI e’ forse perche’ le civilta’0 si sono autodistrutte prima. Una civilta’III ha l’energia e le conoscenze per viaggiare nella galassia e quindi raggiungere la Terra: potrebbe inviare robot autoreplicanti alla ricerca di forma di vita. Non avrebbero bisogno di conquistarci ne’ di raccogliere minerali in quanto presenti in abbondanza su pianeti morti. Un esempio di tale civilita’ e’ in “odissea nello spazio”: Tale civilta’ invia sulla Terra una sentinella o monolite . Sulla Terra e’ presente una specie inferiore che davanti al monolite manifesta paura, ma anche curiosita’ e ingegno per l’uso di una clava. Quando sulla Terra e’ presente una specie evoluta il monolite trasmette segnali per la direzione di Giove. Gli uomini ormai non hanno paura e vivono con robot e automazione e lo stesso monolite e’ uno stargate per raggiungere destinazioni nello spazio. La specie umana ormai sa vivere nello spazio con l’ibernazione, la robotica etc. Il computer e’ diventato cosi’ superiore da conoscere la destinazione e boicottare l’uomo che diventa solo un manutentore. L’astronauta riesce a liberarsi del supercomputer con l’ingegno utilizzando un cacciavite che e’ l’evoluzione dell’antica clava La specie umana e’ in grado di viaggiare attraverso la galassia e l’atronauta solo si dirige a ricercare la verita’ su Giove. Anche qui entra in contatto con il monolite che sembra inglobarlo. L’astronauta entra nell’evoluzione di uno spazio tridimensionale e a forte velocita’ raggiunge una stanza. L’uomo vede se stesso invecchiare e seguire poi i diversi stadi della propria vita. Allo stato massimo della sua vecchiaia, vede se stesso con davanti a sé il monolito per poi rinascere in forma di feto cosmico, il "Bambino-delle-stelle" ("Star-Child" in lingua originale), che in un istante si riporta nello spazio terrestre scrutando dal cielo la nostra Terra, cogitabondo. Si intuisce che l'astronauta ha subito una accelerazione evolutiva diventa un essere superiore estremamente evoluto. Nel corso degli anni si sono proclamati avvistamenti di alieni la cui validita’ e’ stata negata spiegandola con le seguenti modalita’ Venere uno degli oggetti piu’ luminosi della volta celeste dopo la Luna: la Luna e Venere sono cosi’ distanti da non capire se si muovono o no e dunque danno l’impressione che ci seguano Emissione di gas naturali (fuochi fatui): quando si verifica un’inversione termica le emissioni gassose possono ristagnare e far distaccare bolle di gas Meteoriti: possono dare origine a strisce luminose visibili nel cielo notturno Futuro tecnologico cap-pag 10-26/43 Anomalie atmosferiche:fulmini e eventi atmosferici. Eco radar: le onde radar possono rimbalzare su una montagna e creare una eco che puo’ manifestarsi su uno schermo radar. Palloni stratosferici: palloni fuori controllo Aerei: passaggio di veicoli commerciali e militari Beffe e imbrogli Gli avvistamenti di astronavi non rispondono a caratteristiche tecniche valide: le astronavi non hanno gas di scarico, hanno un’accelerazione almeno cento volte superiore all’accelerazione gravitazionale della Terra che potrebbe schiacciare qualsiasi creatura pertanto i piloti possono essere solo meccanici. Se l’astronave fosse a propulsione magnetica avrebbe 2 poli e un magnete immerso nel campo terrestre non si librera’ per aria ma comincera’ a ruotare come l’ago di una bussola. Occorrerebbe un monopolo ma non e’ mai stato trovato niente del genere. I monopoli dovevano essere presenti al tempo del bigbang ma si sono quasi estinti per effetto dell’inflazione. Solo il monopolo permetterebbe di sfruttare le linee magnetiche presenti in prossimita’ di galassie o pianeti senza generare gas di scarico. Con la nanotecnologia, alieni potrebbero inviare astronavi a esplorare pianeti senza piloti e robotizzati. Tali astronavi non dovrebbero essere cosi’ grandi. Attualmente i sistemi di propulsione presi in considerazione prevedono km di diametro: motori a fusione a reazione, vele a propulsione laser, motori nucleari a impulso. Per sondare tutta la Luna alla ricerca di eventuali radiazioni anomale segno di una nanonave sul nostro satellite ci vorra’ ancora un altro secolo. Se fosse rimasta una base permanente da una visita precedente allora le astronavi non avrebbero bisogno di essere grandi perche’ potrebbero rifornirsi alla base lunare e gli avvistamenti potrebbero corrispondere al passaggio di voli di ricognizione in partenza dalla base lunare.. Futuro tecnologico cap-pag 10-27/43 11. Astronavi Occorre un altro genere di propulsione per raggiungere le stelle per poter sopravvivere. La Terra ha avuto un’era glaciale 104 anni fa, l’ultima collisione con una meteorite di 10km diametro e’ avvenuta 106 anni fa. Il Sole si riscaldera’ tra 109 anni, diventera’ una gigante rossa tra 5*109 anni e diventera’ una nana bianca tra 10*109 anni. La Via Lattea si scontrera’ con Andromeda tra 5*109 anni e i buchi neri daranno origine a una danza mortale. Il sistema solare piu’ vicino e’ Alfa Centauri a 4 a.l. e i veicoli attuali raggiungono 60000km/h e occorrono 70000 anni per raggiungerlo. Si definisce impulso specifico(in sec)=variazione (in momento)/unita’ massa propellente momento= forza*spostamento/unita’ tempo. Piu’ efficiente e’ il motore minore e’ la quantita’ di propellente necessaria per portarlo nello spazio. Un razzo a propulsione chimica (impulso specifico =250s) dispone di una spinta pari a diversi milioni di kg ma tale combustibile dura solo qualche minuto. Il motore a ioni (impulso specifico =3000s)ha una spinta piu’ debole ma puo’ operare per anni nello spazio. E’ formato da un filamento caldo infiammato dalla corrente elettrica che crea un fascio di atomi ionizzati (xeno) espulsi all’estremita’ del razzo. Un esperimento del 1998 ha funzionato per 678 giorni. Il motore a ioni a plasma usa onde radio e campi magnetici o radiazione solare o fissione nucleare(impulso specifico =1000-30000s) per riscaldare i gas di H2 fino a 106 C. Occorre pero’ una grande quantita’ di combustibile. Le vele solari utilizzano la luce del Sole che esercita una pressione lievissima ma costante sufficiente a spingere nello spazio una vela enorme. Non e’ stato ancora realizzato nulla di significativo. Si pensa di costruire sulla Luna un’ampia batteria di laser capaci di proiettare un intenso fascio laser su una vela solare, ognuno dei quali capace di emettere incessantemente luce per anni e anni se non decenni. I laser dovrebbero raggiungere una potenza enorme e per funzionare la vela dovrebbe avere un diametro di centinaia di km ed essere costruita interamente nello spazio. Potrebbe raggiungere una velocita’ pari a meta’ di quella della luce. Per tornare sulla Terra dovrebbe essere spinta da una seconda batteria di laser o potrebbe ruotare rapidamente attorno alla stella e sfruttare l’effetto fionda. I laser sulla Luna potrebbero essere impiegati per ridurre la velocita’ di ritorno. I motori a fusione(impulso specifico =2500-200000s) raccolgono l’ H2 nello spazio, lo riscaldano a una temperatura di milioni di gradi per attivare la fusione con conseguente rilascio di energia da reazione termonucleare. Un motore di circa 106 kg puo’ mantenere una spinta costante di 1g di forza (pari a quella del campo gravitazionale terrestre nei pressi della superficie del pianeta). Dovrebbe riuscire a mantenere tale accelerazione per 1anno per raggiungere il 77%c sufficiente a rendere possibile il viaggio interstellare. Ma occorrerebbe un imbuto con cui raccogliere l’H di circa 160km di diametro e si potrebbe solo realizzare nello spazio per l’assenza di Futuro tecnologico cap-pag 11-28/43 gravita’..All’interno del razzo il tempo rallenterebbe e raggiungere l’ammasso delle Pleiadi distanti 400a.l. e raggiungere Andromeda a 2*106a.l.!! Attualmente i reattori deuterio/trizio che sono molto piu’ rari nell’universo e la irrealizzabile anche se sviluppa un’energia molto inferiore. in 11 anni potrebbe in 23 anni potrebbe a fusione combinano il fusione p-p e’ ancora I motori a propulsione nucleare-elettrica(impulso specifico =800-1000s) utilizzano un reattore a fissione nucleare in modo tale da riscaldare H e poi provocare l’espulsione dall’estremita’ del razzo con conseguente spinta. Gli esperimenti compiuti hanno mandato la navicella in pezzi in seguito alle vibrazioni del motore nucleare. Inoltre i prototipi potevano provocare reazioni a catena incontrollate usando Uranio arricchito. I motori a impulsi nucleari(impulso specifico =10000-1000000s) utilizzano minibombe nucleari per procurare la propulsione. La navicella cavalca l’onda d’urto raggiungendo velocita’ prossime a quella della luce.. Il prototipo Orione utilizzando minibombe a fissione doveva raggiungere il 10%c con un peso di 8*106 tonnellate e un diametro di 400m alimentata da piu’ di 1000 bombe H ma anche con simili velocita’ occorreva un equipaggio multigenerazionale che avrebbe trascorso l’interera vita internamente!!! Il rischio sarebbe stato la contaminazione nucleare e il rischio di tumori a seguito del fallout nucleare…Il prototipo Daedalus utilizzando minibombe a H con 54000 tonnellate avrebbe raggiunto il 7%c per raggiungere senza equipaggio la stella di Barnard e IpsilonIndi Futuro tecnologico cap-pag 11-29/43 Figura: Stelle piu’ vicine al Sole Fonte: Wikipedia Ascensori spaziali. Il costo proibitivo per costruire motori giganteschi nello spazio e’ legato anche al consumo per superare i 160km dell’atmosfera terrestre per la spinta gravitazionale. Un cavo lungo resterebbe sospeso per aria (come una sfera che ruota appesa ad un filo) a seguito della forza centrifuga della rotazione terrestre che lo allontana dal centro della rotazione. La tensione di tale cavo avrebbe pero’ un valore estremamente alto e quindi irrealizzabile. Se il cavo partisse da una stazione orbitante a 58000km da terra (stazionario) sarebbe sottoposto a una tensione di 60100 gigaPascal mentre l’acciaio ad esempio ha tensione di 2gigaPascal! I nanotubi di carbonio (studiati negli anni 50) si ipotizza possano supportare una pressione di 120gigaPascal! Nel 1999 la NASA ha ipotizzato un nastro di 1m diametro e lungo 47000km in grado di innalzare un carico di 15tonnellate per ridurre i costi. Attualmente mandare mezzo chilo di materiale costa 10000dollari quanto il costo dell’oro. Ma i nanotubi attuali non superano i 15mm lunghezza e un altro problema e’ la necessita’ di purezza su scala atomica. Esiste un grosso premio “Beam power challenge”o “Teacher challenger” da parte della NASA per chi riuscira’ a spedire un congegno meccanico del peso di 25kg su per un cavo a una velocita’ di 1m/s per una distanza di 50m senza utilizzare combustibile, batterie o cavo elettrico ma alimentato Futuro tecnologico cap-pag 11-30/43 da pannelli solari, riflettori solari, laser o fonti di energia a microonde. Un ascensore spaziale non e’ affatto esente da rischi: la traiettoria dei satelliti in orbita finira’ prima o poi ad entrare in collisione con esso a un v=29000 km/s sufficiente a spezzare il cavo. Il sistema potrebbe entrare in collisone anche con meteoriti o potrebbe risentire di situazioni come uragani, maremoti etc. Effetto fionda: utilizzato dal Voyager risparmiando combustibile per raggiungere Nettuno. Dyson ipotizza che avvicinandosi a due stelle a neutroni con l’effetto fionda si potrebbe raggiungere v=c/3. Affinche’ un’astronave possa servirsi di tale effetto deve trarre la sua energia dal moto di un pianeta o di una stella non stazionaria!.Purtroppo non siamo in grado di sapere quando potremo raggiungere una stella di neutroni!. Cannoni a rotaia:due conduttori attraversati da corrente generano un forte campo magnetico che spinge un proiettile interno a velocita’ elevata (rail gun). Tale velocita’ per uscire dal campo magnetico terrestre dovrebbe essere a 29000km/h. Non esiste piu’ il problema (presente nel gas ad espansione di un comune razzo) della velocita’ massima delle onde d’urto. Esiste pero’ il problema della forte accelerazione che puo’ deformare gli stessi oggetti e puo’ anche schiacciarli nell’impatto con l’aria. A tali problemi si sovrappone la forza di gravita’. Anche se i cannoni si costruissero sulla luna la forte accelerazione provocherebbe danni. Un rail gun costruito nello spazio cosmico dovrebbe estendersi per 2/3 della distanza terra-sole, accumulerebbe l’energia solare e la rilascerebbe provocando l’espulsione del carico a 1/3c con un’accelerazione 5000g! Condizioni per la sopravvivenza: Nello spazio occorre tenere presente che non esiste la protezione dell’ozono e l’esposizione alle radiazioni potrebbe essere fatale. Lo spazio e’ attraversato inoltre non solo da metoriti ma da micometeoriti e occorre sicuramente un ulteriore scudo. L’assenza di gravita’ provoca inoltre atrofia muscolare, riduzione di globuli rossi, indebolimento del sistema immunitario, le astronavi dovranno percio’ ruotare su se stesse per creare gravita’ artificiale. I piu’ vicini sistemi solari richiederanno decenni per cui l’ibernazione puo’ essere una soluzione. Certi pesci grazie a proteine e certe rane grazie al glucosio riescono ad abbassare il punto di congelamento dell’acqua e ibernarsi a -2ºC impedendo cosi’ la formazione dei cristalli di ghiaccio. Il loro corpo si solidifica all’esterno ma non si congela all’interno permettendo di continuare a funzionare a ritmo ridotto. Nei tessuti umani il congelamento crea cristalli che aumentando di dimensioni possono distruggere le pareti cellulari. Esperimenti di animazione sospesa su animali si sono realizzati: • sostituendo il sangue con una soluzione freddissima e poi fatti rinascere facendo ripartire il cuore. • Inserendo gli animali in una camera con idrogeno solforato e riducendo la temperatura a 13ºC Nanoastronavi: nanobot ionizzati e posti in un campo elettrico potrebbero essere spinti a velocita’ prossima a quella della luce e procedere fino alle stelle a costi di gran lunga inferiori. Potrebbero anche essere impiegati in formazione e comunicanti tra loro per spingere una vela solare nel viaggio nello spazio. Le nanoastronavi pero’ potrebbero essere deviati dai campi elettrici e magnetici nello spazio cosmico. Pertanto dovrebbero essere spinte a tensioni estremamente elevate e lanciate in quantita’ numerosa. I nanobot dovrebbero essere della dimensione del silicio, lanciate Futuro tecnologico cap-pag 11-31/43 da rail gun o acceleratori e costerebbero poco. Potrebbero poi procedere all’impianto di una nanofabbrica per produrre una potente radiotrasmittente su un satellite. Potrebbero autoreplicarsi ed essendo sonde robotizzate per l’esplorazione dell’intera galassia non necessitano di rientrare. Si autoreplicano e esplorano su un fronte circolare a una velocita’ prossima a quella della luce. Brian Gilchrist costruisce nanoparticelle non piu’ grandi di un batterio che vengono espulsi da un campo elettrico di un motore a ioni mediante l’incisione a silicio. Ammassa circa 10000 propulsori in un singolo silicio di 1cm di diametro. Macchine a moto perpetuo: ogni macchina deve obbedire ai 3 principi termodinamica: il totale di materia e energia non puo’ subire variazioni, l’entropia totale e’ in continua crescita (il calore fluisce dai punti piu’ caldi a quelli piu’ freddi), non si puo’ mai raggiungere lo zero assoluto. Il processo di invecchiamento e’ dovuto al graduale accumulo di errori genetici nei geni e nelle cellule cosicche’ il loro funzionamento si deteriora lentamente ma inesorabilmente e questo e’ esemplificazione della seconda legge della termodinamica. Il nostro cervello che e’ uno degli strumenti piu’ complessi ed evoluti sembra violare la seconda legge … In realta’ la diminuzione di entropia provocata dall’emergere di organismi superiori (compresi gli umani) e’ sopravvenuta a spese dell’aumento complessivo dell’entropia da qualche altra parte. Ad esempio la diminuzione di entropia a seguito dell’evoluzione e’ controbilanciata dall’aumento di entropia nell’ambiente circostante ovvero dall’entropia della luce del Sole che raggiunge la Terra. La diminuzione di entropia a seguito della creazione del cervello umano viene compensato dal caos che produciamo sottoforma di caos, inquinamento… Se le leggi dell’universo restano identiche con il passar del tempo e’ perche’ il sistema conserva la sua energia. Se le leggi fisiche restano identiche qualsiasi sia la direzione e’ perche’ il momento si conserva ( nel caso di una rotazione si tratta di momento angolare). La luce delle stelle in galassie distanti emessa miliardi di anni prima che il nostro Sole nascesse ha uno spettro (idrogeno, carbonio etc.) uguale a quelle misurabili sul nostro pianeta. Forse in presenza di wormhole (vd dopo) il principio di conservazione puo’ essere violato o nel caso di energia prodotta dal nulla come se il vuoto possegga un’incalcolabile quantita’ di energia. L’energia oscura capace di allontanare le galassie sembra infatti possedere un’energia enorme anche se sulla Terra e’ troppo debole per alimentare macchine a moto perpetuo. Nessuno sa infatti calcolare tale energia dal nulla ne’ spiegare da dove arriva!. Un elettrone che viaggia a ritroso e’ identico a un antielettrone che viaggia in avanti. Quando un elettrone e un antielettrone si scontrano si annichilano dando origine a un raggio gamma. Invertendo la carica dell’antielettrone questo si trasforma in un comune elettrone che procede a ritroso nel tempo. Il processo di annichilazione corrisponde quindi a un elettrone che procede a ritroso nel tempo. Le antiparticelle sono particelle che viaggiano indietro nel tempo. Una sola particella puo’ andare avanti e indietro nel tempo all’infinito:parte dal big bang e ritorna al big bang ciclicamente. Il nostro universo e’solo una porzione temporale di quell’elettrone…Ogni volta che l’elettrone torna indietro non fa che adempiere al suo passato cioe’ le soluzioni avanzate dal futuro sono necessarie per tutelare la coerenza della teoria quantistica e non violano la causalita’. Feynman dimostro’ che aggiungendo il contributo delle onde avanzate e ritardate i termini che potrebbero portare a una violazione della causalita’ si cancellano con precisione assoluta. Si realizzo’ cosi’ la teoria quantistica completa dell’elettrone QED. Futuro tecnologico cap-pag 11-32/43 L’antimateria dispone di energia positiva, viaggia a velocita’ inferiore della luce, puo’ essere prodotta dagli acceleratori di particelle, subisce l’influenza attrattiva della gravita’ e viaggia a ritroso nel tempo. La materia negativa ha energia negativa, viaggia a velocita’ inferiore della luce, non subisce l’influenza attrattiva ma repulsiva della gravita’, se disponibile in grandi quantitativi potrebbe alimentare una macchina del tempo. I tachioni viaggiano a velocita’ superiore della luce, non si sa quale sia l’influenza della gravita’, ha massa a riposo immaginaria, quando si scontra con gli altri atomi perde energia ma accelera. I tachioni quando li si inserisce in una qualche teoria destabilizzano il vuoto ovvero il livello energetico piu’ basso di un sistema. Se il sistema dispone di tachioni si trova in un falso vuoto di conseguenza e’ instabile e deve decadere verso un vero vuoto. L’universo prima del BigBang si trovava in una condizione di falso vuoto con i tachioni cioe’ in un sistema instabile. Poi comparve uno squarcio nella trama dello spaziotempo a rappresentare il vero vuoto. Con l’allargarsi dello squarcio ne emerse una bolla dove all’esterno i tachioni esistevano mentre all’interno erano definitivamente scomparsi. Nella teoria inflazionaria fu un tachione a produrre il processo inflazionario originario. L’universo prese spunto da una minuscola bolla dello spaziotempo che avrebbe subito una turbolenta fase inflazionaria. Quella bolla si sarebbe rapidamente gonfiata sino a formare il nostro universo. All’interno del nostro universo-bolla, l’inflazione si sarebbe poi conclusa cosi’ da non poter piu’ essere individuata. Il bosone di Higgs sarebbe un tachione e nel falso vuoto nessuna delle particelle subatomiche disponeva di massa. La sua presenza avrebbe destabilizzato il vuoto e l’universo sarebbe passato a un nuovo vuoto in cui il bosone di Higgs si sarebbe trasformato in una particella ordinaria. Una volta compiuta la transizione da tachione a particella ordinaria le particelle subatomiche avrebbero cominciato a disporre delle masse che possiamo misurare in laboratorio. Futuro tecnologico cap-pag 11-33/43 12. Antimateria e Antiuniversi La bomba atomica e’ efficace all’1%: solo una piccola frazione dell’uranio si trasforma in energia; una bomba all’antimateria converte il 50% in energia esplosiva e il resto in neutrini. Gli acceleratori producono antiparticelle ad esempio antiH con antiprotoni e antielettroni (positroni) che vi girano intorno. Successivamente antiatomi si scontrano con atomi e nell’annichilarsi rilasciano energia. Per produrre 1g di antimateria si ha un costo di 1017 dollari e l’impianto dovrebbe lavorare per 1011 anni!! La gestione dell’antimateria inoltre e’ complicatissima perche’ il contatto tra materia e antimateria genera un’esplosione. Si potrebbe cosi’ ionizzare l’antimateria e riporla in un campo magnetico che la isolerebbe dalle pareti della camera. Un motore ad antimateria (impulso specifico =1000000-10000000s !)invece e’ formato da una camera di reazione con un flusso di antimateria combinata con materia cosi’ da indurre un’esplosione controllata. Gli ioni creati nel corso dell’esplosione vengono espulsi dall’estremita’ del razzo. Gerald Smith ritiene che 4mg di positroni possono essere sufficienti a portare un razzo ad antimateria su Marte. Il fascio di antiprotoni potrebbe venire prodotto da un acceleratore di particelle e accumulati in un congegno che ha le pareti i cui atomi hanno lunghezza d’onda minore degli antiprotoni in modo che gli antiprotoni riflettano e non annichiliscano. Inoltre il contenitore potrebbe conservare gli antriprotoni per 5 giorni fino alla loro definitiva annichilazione nel mischiarsi con atomi ordinari. Si sta cercando di ridurre i costi della produzione degli antiprotoni. Il nostro universo e’ fatto di materia (e non di antimateria) forse perche’ alla nascita dell’universo c’era una leggera asimmetria definita “violazione cp” e non due quantitativi uguali e simmetrici di materia e antimateria come si suppone. Dopo l’annichilazione, il piccolo residuo di materia ha dato origine all’universo visibile. Non si esclude ci siano piccoli quantitativi di antimateria naturale facilmente individuabili perche’ quando un elettrone e un antielettrone si incontrano, si annichilano in raggi gamma con energia superiore a 106 eV! Occorre una scansione dell’universo alla ricerca di tali raggi e si sono individuate alcune “fontane di antimateria” nella Via Lattea non distante dal centro galattico. Il satellite Pamela e’ stato messo in orbita per rilevare in 3 anni antimateria da supernove o antielio da antistelle e eventualmente raccoglierle…Il raccoglitore di antimateria si basa su tre sfere concentriche ognuna delle quali composta da un reticolo di filamenti elettrici. La sfera esterna avra’ un diametro di 16km e carica elettrica positiva cosi’ da respingere qualsiasi protone e attrarre gli antiprotoni. Una volta raccolti da tale sfera verranno rallentati dal passaggio nella seconda sfera e bloccati all’interno della sfera interna del diametro di 100m. Successivamente assicurati all’interno di un contenitore magnetico gli antiprotoni saranno combinati con antielettroni in modo da produrre antiH. Se non si dovesse trovare antimateria nello spazio dovremo aspettare decenni o secoli per produrre un quantitativo sufficiente nella Terra. Le particelle prive di carica elettrica come il fotone o il gravitone possono essere antiparticelle di se stesse cioe’ gravita’ e antigravita’ sono la stessa cosa. Sotto l’effetto della gravita’ l’antimateria dovrebbe dirigersi verso il basso e non verso l’alto anche se non si e’ mai verificato in laboratorio. Universi caratterizzati da antimateria e parita’ inversa fisicamente possono esistere perche’ le equazioni rimangono invariate! Nel 1957 si dimostro’ che nelle particelle subatomiche un universo speculare a parita’ inversa non poteva esistere: esistono cioe’ direzioni preferenziali ad esempio nello spin di elementi. Nel 1964 si dimostro’ invece che un universo a carica e parita’ inversa non poteva esistere. Futuro tecnologico cap-pag 12-34/43 Se infatti un universo caratterizzato da una simmetria CP fosse possibile, il BigBang originario avrebbe comportato quantita’ assolutamente identiche di materia e antimateria e quindi l’annichilazione avrebbe riguardato il 100% della materia senza lasciar nulla per creare gli atomi di cui siamo fatti. Le leggi fisiche ammettono pero’ la possibilita’ di un universo a carica e parita’ inverse e decorso del tempo cioe’ universo CPT-invertito. Le leggi di Newton ammettono compatibilita’ di un tempo invertito. Le leggi quantistiche ammettono violazione nel caso solo di un tempo invertito ma ammettono compatibilita’ per una completa inversione CPT . Futuro tecnologico cap-pag 12-35/43 13. Velocita’ superiore alla luce L’accelerazione alla velocita’ della luce provoca contrazione dello spazio, aumento della massa e dilatazione del tempo. In un disco in rotazione le parti esterne della circonferenza si muovono piu’ rapidamente del centro (quasi stazionario). All’esterno un oggetto dovrebbe contrarsi rispetto ad uno centrale e la superficie della giostra non sarebbe piu’ piana ma curva. Si ha cosi’ la curvatura del tempo e dello spazio come dalla relativita’ generale. Nel campo della relativita’ generale si ha superamento della velocita’ della luce solo se non si ha trasmissione di informazione (esperimento EPR, fase iniziale BigBang) e le possibili alternative per riuscirci sono: • dilatazione dello spazio: estendere lo spazio alle spalle e contrarre lo spazio davanti • lacerazione dello spazio: cunicolo wormhole spaziotemporale che mette in comunicazione due universi Nel motore a curvatura di Alcubierre, il pilota prende posto in una “bolla di curvatura” dove all’esterno lo spazio viene compresso e hanno luogo distorsioni spaziotemporali. Non esiste dilatazione del tempo che all’interno della bolla contiene a scorrere normalmente. Di fronte all’astronave le stelle si trasformano in lunghi filamenti di luce e alle spalle non si vede niente perche’ la luce delle stelle non puo’ viaggiare a velocita’ sufficiente per raggiungere la bolla. L’energia per spingere l’astronave deve essere a massa negativa o energia negativa. L’antimateria esiste ed e’ a energia positiva (anche se con carica invertita) mentre l’energia negativa non si sa se esiste. La materia negativa galleggia e viene respinta anziche’ attratta pertanto si puo’ trovare solo nello spazio cosmico piu’ remoto. La ricerca di materia negativa e cunicoli spaziotemporali puo’ essere individuata mediante le lenti di Einstein. Attualmente tali lenti individuano la materia oscura (invisibile ma dotata di massa). La luce proveniente da un oggetto distante in prossimita’ di una galassia e’ caratterizzata da un fenomeno di convergenza cosi’ tale convergenza si verifica attorno alla materia oscura. L’energia negativa si e’ scoperta nell’effetto Casimir dove due piastre prive di carica elettrica si attraggono perche’ coppie di elettroniantielettroni si annichilano e scompaiono nel vuoto da cui sono apparse. Le violazioni al principio di indeterminazione in realta’ sono talmente brevi da renderle apparenti: quindi mediamente l’energia viene conservata. Esternamente alle piastre il vuoto non ha limiti quindi si definisce una pressione che porta le piastre ad avvicinarsi. Tale energia e’ pero’ di proporzioni ridottissime. Futuro tecnologico cap-pag 13-36/43 Figura: Effetto Casimir . Fonte: L’universo in un guscio di noce: Stephen Hawking Oltre alla curvatura dello spazio calcolabile mediante le eq. Einstein sulla base di un certo quantitativo di massa o energia, esiste il metodo dei wormhole. Schwarzchild ha risolto le eq Einstein per una stella puntiforme. A una certa distanza dalla stella il campo gravitazionale e’ analogo a quello di una stella ordinaria: questo e’ servito per calcolare la deviazione della luce attorno a una stella ordinaria. Intorno alla stella puntiforme c’e’ una sfera invisibile detta “orizzonte degli eventi” un punto di non ritorno che per sfuggire necessita di superare la velocita’ luce. All’approssimarsi di tale orizzonte tutti gli atomi sarebbero sottoposti a forze di marea: la forza di gravita’ ci stirerebbe e ci strazierebbe. L’attraversamento dell’orizzonte provocherebbe un congelamento come se il tempo si fermasse e si vedrebbe roteare tutta la luce catturata nel buco nero per miliardi di anni. Il passaggio dall’altra parte e’ definito ponte di Einstein-Rosen o wormhole o cunicolo temporale. Oppenheimer dimostro’ che il buco nero non si forma spontaneamente in una stella ma si crea in seguito alla Futuro tecnologico cap-pag 13-37/43 morte di una stella che subisce il collasso gravitazionale implodendo fino a superare i confini del suo orizzonte e assumendo cosi’ proporzioni puntiformi. Kerr dimostro’ che il buco nero ruota a velocita’ incredibili come qualsiasi oggetto che rimpicciolisce. Chiunque si scontrasse con tale anello morirebbe ma se vi cadesse dentro sopravviverebbe per ritrovarsi dall’altro lato di un ponte di Einstein-Rosen in un altro universo. Per permettere un passaggio aperto sarebbe necessario una forza repellente o una massa negativa. Ogni passaggio porterebbe a raggiungere altri universi. Nel 1988 Thorne ipotizzo’ un cunicolo spaziotemporale a doppio senso. I problemi irrisolti sono: • per produrre l’estrema distorsione dello spaziotempo per potere viaggiare attraverso un wormhole c’e’ bisogno di un quantitativo enorme di energia positiva e negativa: per 1m di apertura occorre una massa equivalente a quella di Giove in negativo! • Non si conosce il livello di stabilita’ dei wormhole: potrebbero chiudersi al passaggio o le radiazioni potrebbero uccidere chiunque cercasse di attraversarli • I raggi di luce che precipitano in un buco nero sarebbero caratterizzati da un blueshift cioe’ avvicinandosi all’orizzonte otterrebbero energia superiore e quindi la radiazione dell’energia che precipita nel buco nero ucciderebbe chiunque si trovasse all’interno di un razzo. L’energia che e’ necessaria per lacerare lo spaziotempo e’ comprimere un oggetto finche’ le sue dimensioni non sono inferiori al suo stesso orizzonte. Per il Sole occorrerebbe ridurlo a 3km per avere un buco nero ma la sua gravita’ e’ troppo debole. Per un uomo occorrerebbe comprimere le dimensioni degli atomi fino a qualcosa di inferiore alle stesse distanze subatomiche…Oppure costruire una batteria di fasci laser capaci di indirizzare un intenso fascio di luce su un punto specifico. Oppure costruire un acceleratore di particelle gigantesco in modo da creare due fasci che scontrandosi a energie inaudite risulterebbero sufficienti a produrre una lacerazione della trama.. Tale energia e’ dell’ordine energia di Plank 1027 eV. L’LHC e’ 1012 eV. L’ILC (international linear collider) scagliera’ elettroni su antielettroni lungo un percorso rettilineo dai 30km ai 40km sempre sui 1012 eV. Le collisioni nell’LHC avvengono tra quark, mentre nell’ILC tra elettroni quindi con energie estremamente superiori. Tutto ancora distante per uno squarcio alla trama!!! Si parla come abbiamo visto in precedenza di civilta’ di tipoIII e non di civilta’ di tipo 0 come la nostra. In spazi alla distanza di Planck 10-35 cm si ritiene che lo spazio non sia vuoto ma schiumoso di minuscole bolle che compaiono e scompaiono come universi virtuali e la quantistica ipotizza che se (sempre le civilta’ di tipoIII) concentrassero energia sufficiente in un solo punto fino a raggiungere energia di Planck, tali bolle acquisirebbero dimensioni superiori e ogni bolla sarebbe un wormhole collegato a un baby-universo. Per migliorare l’energia di acceleratore di particelle hanno cominciato con un fascio di elettroni lungo un percorso di 3km e un’energia di 40*109 eV/m. Tali elettroni sono stati fatti passare in un postbruciatore sottoforma di una camera a plasma di 1m lunghezza pieno di Litio e hanno raddoppiato la loro energia! Il record e’ di 2*1011 eV/m Per mantenere tale rapporto su distanze superiori occorre affrontare problemi come la stabilita’ del fascio ma supponendo valido tale rapporto, per ottenere l’energia di Planck occorrerebbe un acceleratore lungo 10anni luce!! Futuro tecnologico cap-pag 13-38/43 14. Viaggi nel tempo All’aumentare della velocita’ corrisponde un rallentamento del tempo e una contrazione della massa per cui occorrerebbe avere una massa infinita. Un astronauta che andasse alla velocita’ della luce per raggiungere la stella piu’ vicina (4 a.l.) impiegherebbe 1 minuto per effetto del suo rallentamento temporale e 4 anni sulla terra cioe’ si sarebbe spostato nel futuro di 4 anni secondo la percezione terrestre. Attualmente gli astronauti che si allontanano dalla terra a v=29000 km/h viaggiano nel futuro.. Il cosmonauta Avdeyev che e’ rimasto in orbita per 2 anni si e’ spinto per 0,02s nel futuro! Nessuno e’ riuscito a trovare una legge che impedisca i viaggi nel tempo nonostante si dichiari l’impossibilita’ di effettuare tali viaggi o meglio si affermi la possibilita’ ma non la fattibilita’. Esempi di macchine del tempo sono: • Wormhole: precipitando in un cunicolo interno a un buco nero, potremo viaggiare nel tempo per la connessione spaziotemporale einsteiniana. Il problema e’ uscirne.. • Godel trovo’ la prima soluzione delle eq Einstein per il viaggio nel tempo: se l’universo ruotasse su se stesso e riuscissimo ad attraversarlo con la velocita’ necessaria potremo ritrovarci nel passato. Attualmente si sa che l’universo si espande ma lo spin e’ zero.. • Un cilindro infinito in rotazione matematicamente permette il viaggio nel tempo ma la velocita’ dovrebbe essere cosi’ elevata da far volare via il materiale del cilindro… • Gott analizza gigantesche stringhe cosmiche residuo del Bigbang originario che si scontrano con una modalita’ precisa. Tale stringa chiusa che collassi dovrebbe avere piu’ della meta’ dell’energia e della mssa dell’intero universo. Dovremmo pero’ trovare almeno una stringa… • Cunicolo spaziotemporale a doppio senso dal capitolo precedente come squarcio nello spaziotempo con energia negativa. Consisterebbe di due camere e ogni camerea sarebbe costituita di due sfere concentriche separate da brevissima distanza. Facendo implodere la sfera esterna le due sfere generebbero un effetto Casimir e quindi energia negativa. Una civilta’ di tipo III potrebbe essere in grado di tendere un wormhole tra queste due camere (ad esempio estraendolo dalla schiuma spaziotemporale). A quel punto la prima camera verrebbe lanciata nello spazio a velocita’ prossima a quella della luce e al suo interno il tempo rallenterebbe. All’interno delle due camere il tempo scorrerebbe in modo diverso. Chiunque si trovasse nella seconda camera potrebbe passare alla prima attraverso il cunicolo accedendo cosi’ ad un tempo precedente. Il wormhole sarebbe di dimensioni piccole inferiori all’atomo. Per creare sufficiente energia negativa le lastre metalliche dovrebbero essere rimpicciolite fino alla dimensione di Planck… Altro problema e’ l’accumulo di radiazione letale al nostro ingresso o nel momento in cui il wormhole dovesse richiudersi su di noi. Infatti qualsiasi radiazione che pentrasse nel portale, verrebbe automaticamente inviata nel passato dove vagherebbe fino al raggiungimento del presente che la farebbe nuovamente precipitare nel passato. Questo per un numero infinito di volte e al suo interno assumerebbe proporzioni straordinarie sufficiente a provocare la morte dell’astronauta… Il viaggio a ritroso nel tempo ci porterebbe al massimo al punto in cui le macchine sono state costruite giacche’ in qualsiasi momento precedente le due camere sarebbero caratterizzate dalla medesima scansione temporale… Futuro tecnologico cap-pag 14-39/43 Le problematiche etiche di un tale viaggio sono legate ad un viaggiatore che commette un omicidio e poi si rifugia nel passato o si sposa nel passato avendo gia’ una moglie.. Le problematiche tecniche sono uccidere i genitori o i nonni prima di essere nati. Per risolvere tali paradossi: • non esiste libero arbitrio: ritornando nel passato dobbiamo ripetere la storia • esiste libero arbitrio: si puo’ cambiare il passato entro certi limiti senza produrre un paradosso temporale. • L’universo si biforca in due universi distinti cioe’ in due universi paralleli: in accordo con la teoria quantistica. Con questa soluzione si risolve anche l’accumulo della radiazione letale infatti qbeuando la radiazione entra nella macchina e viene spedita nel passato penetra in un nuovo universo cosicche’ non potra’ mai cominciare il circolo vizioso. Ovviamente cio’ comporta che il numero di universi sia infinito uno per ogni ciclo contenente la radiazione di un solo fotone.. Tre fisici hanno dimostrato che nel viaggio del tempo tutti i problemi si concentrano sull’orizzonte degli eventi ma in tale orizzonte non regge piu’ la teoria di Einstein e vale la teoria quantistica. Occorrerebbe una teoria del tutto come unificazione delle 4 forze conosciute dell’universo Futuro tecnologico cap-pag 14-40/43 15. Universi paralleli Esistono tre tipi di universi paralleli: • iperspazio o dimensioni superiori: non e’ mai successo che un oggetto si smaterializzi o finisca in qualche altro universo. Cio’ significa che le dimensioni superiori sempre che esistano devono essere piu’ piccole dell’atomo. Kaluza descrisse la teoria di Einstein in 5 dimensioni: il tempo e’ la quarta dimensione spaziotemporale e la quinta dimensione e’ solo spaziale. Se la quinta dimensione veniva ridotta a misure inferiori le equazioni si dividevano in due spezzoni: uno descriveva la teoria relativita’ standard e l’altro la teoria luce di Maxwell. La luce che attraversa miliardi di anni luce di spazio vuoto dove non c’e’ nulla allora poteva essere descritta da equazioni di onde nella quinta dimensione. Tale quinta dimensione doveva essere incurvata fino a raggiungere proporzioni infinitesimali. Tale teoria fu presto abbandonata alla morte di Kaluza. Nella teoria delle superstringhe le vibrazioni determinano le particelle esistenti nel Modello Standard consolidato e caotico. La teoria di Einstein emerge come una delle piu’ basse vibrazioni della stringa. Le stringhe possono vibrare solo in uno spaziotempo caratterizzato da 10dimensioni. Per dimostrare o escludere l’esistenza delle dimensioni superiori forse bisognerebbe trovare deviazioni alla legge gravita’ newtoniana. La gravita’ dovrebbe diminuire in base alla potenza di n-1 dimensioni. Attualmente a grandi distanze vale sempre la legge 1/r2 di uno spazio tridimensionale e a piccole distanze non si sono trovati universi paralleli.. Il Large Hadron Collider poco fuori Ginevra cerchera’ la superparticella corrispondente alla piu’ alta vibrazione della superstringa. Se si trovasse il Modello Standard costituirebbe solo la vibrazione piu’ bassa della superstringa. • Multiversi. L’undicesima dimensione nella teoria stringhe permette l’unificazione delle 5 varie soluzioni di tale teoria. Nell’undicesima dimensione viene introdotto la membrana che rappresenta il passaggio dalla undicesima alla decima dimensione con tutte e 5 le teorie. Ogni membrana rappresenta cosi’ uno dei tanti universi-bolla e il nostro e’ uno fra quelli. Gli universi possibili sono un googol(10100)! Tra questi universi non esiste comunicazione e solo la gravita’ puo’ vagare liberamente nello spazio tra gli universi. C’e’ una teoria che sostiene che la materia oscura possa essere semplice materia ordinaria che fluttua in un universo parallelo. Secondo un’altra teoria la materia oscura sarebbe un’altra galassia in un altro universo membrana e possiamo percepire la gravita’ che pero’ resta invisibile perche’ la sua luce si muove in un’altra dimensione. Un’altra teoria afferma che la materia oscura sarebbe la vibrazione successiva della superstringa e noi percepiamo solo la sua vibrazione inferiore. Tali universi paralleli possono essere morti formati da insiemi di particelle instabili o estremamente ricco di forme complesse e non di un solo tipo di atomo con protonoi, neutroni,elettroni.. Gli universi membrana possono entrare in collisione e il nostro stesso universo e’ stato generato dallo scontro di due gigantesche membrane circa 14miliardi di anni fa (teoria Big Splat). Le costanti dell’universo sono tarate con grande precisione da permettere la vita (principio antropico): aumentando la gravita’ si avrebbe un Futuro tecnologico cap-pag 15-41/43 Big Crunch mentre riducendola si espanderebbe rapidamente Big Freeze. In tale teoria esistono miliardi di altri universi paralleli inanimati.. • universi quantistici paralleli. La teoria quantistica ammette l’esistenza simultanea ad es. di uno stato vivo e di uno stato morto come somma in una funzione d’onda di due stati. Solo al collasso istantaneo della funzione d’onda in un singolo stato le onde scompaiono e lasciano solo la particella cioe’ lo stato determinato coerente con la realta’. Nel mondo atomico tutto e’ descritto da onde probabilistiche secondo le quali gli atomi possono avere collocazioni diverse nello stesso istante. Piu’ ampia e’ l’onda probabilistica in una certa posizione maggiore la probabilita’ di ritrovare la particella in quel punto. Per oggetti di dimensioni superiori le onde sono gia’ collassate e gli oggetti esistono in uno stato determinato. Attualmente con la nanotecnologia si possono manipolare singoli atomi servendosi dei microscopi a scansione ad effetto tunnel. Esistono diverse correnti di pensiero: coscienza cosmica: gli oggetti si manifestano nel momento in cui vengono effettuate delle misurazioni e le misurazioni sono compiute da esseri senzienti. Affinche’ lo stato in cui ci troviamo sia determinato deve esserci una coscienza cosmica che pervade l’universo (nell’induismo l’universo sarebbe penetrato da una coscienza onnipervadente) idea dei molti mondi: l’universo si divide in due con uno stato morto e uno vivo da un’altra parte. Cio’ implica un’enorme proliferazione di universi paralleli che si diramano ogni qual volta c’e’ un nuovo evento quantistico. Qualsiasi universo puo’ esistere concretamente. Non esiste il collasso delle funzioni d’onda e la funzione d’onda si suddivide da sola!. Il nostro universo risulta stabile e affidabile perche’ esiste decoerenza cioe’ abbiamo perso coerenza rispetto ad ogni altro universo parallelo. Tutti gli altri universi sono possibilita’ dalle quali la nostra funzione d’onda ha perso coerenza cioe’ non vibra piu’ all’unisono e non esiste piu’ interazione. Il nostro universo per via delle interazioni ambientali risulta nettamente distinto da ogni altro universo. Nell’istante del Big Bang l’universo era piu’ piccolo di un elettrone e l’elettrone e’ quantizzabile cioe’ descritto da un’equazione d’onda probabilistica. L’universo deve esistere allora in stati paralleli cioe’ in molti mondi (cosmologia quantistica…). Come e’ possibile pero’ far collassare dall’esterno la funzione d’onda dell’universo? Nell’approccio della cosmologia quantisitica si risolve affermando che l’universo e’ sotto forma di vari stati paralleli tutti definiti da una funzione d’onda principale detta funzione d’onda dell’universo. L’universo ha preso spunto dalle fluttuazioni quantistiche del vuoto ovvero sottoforma di una minuscola bolla di schiuma spazio-temporale. La maggior parte dei baby-universi nella schiuma spazio-temporale ha vissuto un Big Bang e subito dopo e’ implosa in un Big Crunch: una danza di oggetti estremamente piccoli da poter essere analizzati dai nostri strumenti. Una di quelle bolle nella schiuma spazio-temporale non e’ collassata ma e’ continuata a espandersi: e’ il nostro universo. Come l’eq. di Schrodinger governa la funzione d’onda degli elettroni e degli atomi definita per ogni singolo punto dello spazio e del tempo, cosi’ l’eq. DeWitt-Wheeler governa la funzione d’onda dell’universo definita tenendo conto di tutti i possibili universi. Se tale funzione viene riferita a uno specifico universo ed e’ sufficientemente ampia, ci Futuro tecnologico cap-pag 15-42/43 sono buone probabilita’ che quell’universo si trovi in quel particolare stato. Hawking afferma che la funzione d’onda del nostro universo sarebbe ampia e quasi zero per buona parte degli altri. Nel multiverso possono esistere altri universi ma il nostro e’ il piu’ probabile. Inoltre un universo inflazionario e’ piu’ probabile di un universo non inflazionario e quindi il nostro universo avrebbe subito un’inflazione. La teoria secondo la quale il nostro universo proviene dal nulla della schiuma spaziotemporale e’ coerente con questo: nello spazio esterno la gravita’ costituisce la forza dominante ma cio’ e’ dovuto al fatto che cariche positive e negative si annullano reciprocamente con assoluta e misteriosa precisione. Basterebbe un piccolo squilibrio tra due cariche e quindi una forza superiore a quella gravitazionale ad annientarci. Una spiegazione a questo e’ ipotizzare che il nostro universo venga dal nulla cioe’ da carica zero.. il nostro universo ha spin zero. Sebbene Godel abbia cercato di dimostrare che l’universo era in rotazione, prendendo in considerazione la somma degli spin delle diverse galassie, oggi gli astronomi ritengono che lo spin totale dell’universo sia zero. Una spiegazione a questo e’ ipotizzare che il nostro universo venga dal nulla cioe’ da spin zero il contenuto totale di materia-energia dell’universo e’ cosi’ piccolo da essere nullo. La somma dell’energia positiva della materia con l’energia negativa associata alla gravita’ da’ un valore nullo tipico di un universo chiuso e finito come se il nostro universo venga dal nulla Un contatto con altri universi quantistici e’ improbabile. Abbiamo perso coerenza a seguito di scontro di atomi con altri atomi nell’ambiente circostante. A ogni collisione la funzione d’onda di ogni singolo atomo ha collassato riducendo il numero di universi paralleli cioe’ la possibiulita’ di altri universi. La somma totale di questi innumerevoli collassi ci induce a credere che gli atomi del nostro corpo si siano condensati in uno stato definitivo. Il contatto con un universo quantistico parallelo non puo’ essere escluso ma visto che abbiamo perso coerenza si tratta di qualcosa di raro e improbabile. Ogni forma di vita dovra’ un giorno confrontarsi con la fine dell’universo: il nostro universo e’ in espansione a velocita’ crescente e un giorno periremo secondo il Big Freeze cioe’ la morte termica dell’universo oscurita’ e stelle morte e buchi neri. Gli atomi raggiungeranno temperature attorno allo zero assoluto. Una civilta’ dovrebbe contemplare l’eventualita’ di un viaggio in un nuovo universo utilizzando energia enorme uguale al valore di Plance concentrata in un singolo punto sufficiente ad aprire un cunicolo spaziotemporale. La teoria inflazionaria per cui una minuscola e uniforma porzione di spaziotempo era esplosa fino a raggiungere le dimensioni attuali dell’universo e’ ancora irrisolta nella sua spiegazione iniziale e finale… La dimensione delle bolle spaziotemporali doveva essere sufficiente ad espandersi fino a formare un intero universo e ci sono nuove particelle chiamate inflatoni capaci di destabilizzare lo spaziotempo e provocare la nascita e l’espansione delle bolle. Nasce il concetto di evoluzione dell’universo: se le costanti fondamentali (masse, intensita’ forze etc.) sono una sorta di DNA dell’universo allora i diversi universi potrebbero evolvere e quelli ad avere maggior successo sarebbero quelli con il DNA migliore cioe’ capaci di garantire lo sviluppo di forme di vita intelligenti. Questo spiegherebbe perche’ le costanti fondamentali dell’universo siano accuratamente regolate cosi’ da permettere la vita. Futuro tecnologico cap-pag 15-43/43