Futuro tecnologico
(Il futuro tecnologico: (Michio kaku))
1. Campi di forze per respingere (schermo impenetrabile)
Le 4 forze sono:
la gravita’ attrattiva e debolissima infatti ci vuole tutta la terra per attirare al suolo
una piuma e basta un dito per sollevarla annullando l’effetto dell’attrazione.
F=
2
GM T m
−11  Nm 
24
6

=
6
.
6
⋅
10
 Kg 2  ⋅ 10 (Kg ) ⋅ 1(Kg ) ⋅ 1 6.3 ⋅ 10
RT2


(
) (m ) = 10 Newton
2
2
L’elettromagnetismo attrattiva e repulsiva e’ facile da neutralizzare (con plastica o
isolanti) e agisce a grandi distanze.
L’interazione nucleare debole responsabile del decadimento radioattivo e responsabile
del riscaldamento del centro della terra.
L’interazione forte mantiene unito il nucleo dell’atomo responsabile dell’energia del
sole e delle altre stelle e agisce a corto raggio e per manipolarla occorre disintegrare
le particelle subatomiche o far esplodere le bombe atomiche.
Tali forze non possiedono le proprieta’ che vengono attribuite ai campi di forze cioe’
forze reali in grado di muovere oggetti e generare energia. Un campo di forze puo’
essere prodotto da un plasma. Gli stati della materia sono solido, liquido, gassoso ma
lo stato piu’ comune e’ il plasma: gas di atomi ionizzati in cui gli atomi sono privi di
tutti i loro elettroni e quindi essendo elettricamente carichi possono essere controllati
con campi elettrici e magnetici.
Una finestra al plasma puo’ essere usata per isolare dal vuoto una regione di spazio
contenente aria. Vi si riscalda il gas a 6500 C e in questo modo le particelle esercitano
un freno che impedisce all’aria di entrare nella cella con il vuoto. Se si riscalda
notevolmente puo’ far vaporizzare i metalli. Un secondo strato di raggi laser puo’
riscaldare gli oggetti che lo attraversano e li puo’ vaporizzare. Un terzo strato di
nanotubi di carbonio sono in gradi di respingere ogni cosa (attualmente sono solo
lunghi 15mm). Un quarto strato di componenti fotocromatici (con molecole
trasparenti nello stato normale che diventano opachi quando sono attraversati da
ultravioletti) frenano i raggi laser. Attualmente la lunghezza dei nanotubi non e’
sufficiente e non esistono sostanze fotocromatiche ai laser per realizzare tale schermo
impenetrabile!
Futuro tecnologico
cap-pag 1-1/43
2. Levitazione magnetica (macchine volanti, ombrello per pioggia)
Per far levitare oggetti di ogni genere si utilizza l’energia di un campo di forza
magnetico (poli positivi si attraggono e opposti si respingono). I Maglev sono treni
sospesi su binari utilizzando magneti ordinari e cuscini d’ aria per eliminare l’ attrito
a circa 500 km/h. I materiali superconduttori sono raffreddati a temperature
prossime allo zero assoluto e perdono la resistenza elettrica (le vibrazioni casuali
degli atomi ostacolano il flusso degli elettroni e riducendo la temperatura
diminuiscono le oscillazioni). I superconduttori sono ceramiche stratificate che
permettono la circolazione libera di elettroni. In tal modo il trasporto di energia
elettrica avrebbe costi quasi nulli non perdendo energia nel trasporto e una spira
superconduttrice percorsa da corrente diventerebbe un magnete potentissimo per
sollevare grosse dimensioni! Immergere un magnete di grandi dimensioni in un
contenitore di liquido super raffreddato e’ molto costoso: servono impianti di
raffreddamento enormi con costi proibitivi. Occorrono superconduttori a temperatura
ambiente. Attualmente esistono superconduttori ad alta temperatura a 138K cioe’ 135C (lontani dalla temperatura ambiente) che potrebbero essere raffreddati a costi
contenuti mediante azoto liquido che si liquefa a 77K. Una proprieta’ del
superconduttore e’ l’effetto Meissner: un magnete sopra un superconduttore levita
perche’ i campi magnetici non riescono a penetrare all’interno di un superconduttore
e quest’ultimo ne espelle le linee di forza. Se le strade si fanno con materiali
superconduttori e le gomme o i vestiti delle persone con materiale magnetico si
potrebbe levitare!
Esistono materiali non magnetici che diventano tali in presenza di campi magnetici
esterni. Le sostanze paramagnetiche sono attratte da un campo magnetico esterno
mentre le sostanze diamagnetiche ne sono respinte. L’acqua e’ una sostanza
diamagnetica pertanto tutte le creature viventi possono levitare con campi magnetici
potenti di circa 15tesla cioe’ 30000 volte piu’ grande del campo magnetico terrestre.
Con i superconduttori a temperatura ambiente si potrebbero far levitare oggetti non
magnetici di grandi dimensioni sfruttando le proprieta’ diamagnetiche….
Futuro tecnologico
cap-pag 2-2/43
3.
Invisibilita’(mantello invisibile, ologramma)
I campi magnetici si trasformano in campi elettrici e viceversa e i campi viaggiano in
onde che si propagano alla velocita’ della luce. In un solido gli atomi sono vicinissimi
mentre in un liquido/gas la distanza tra molecole e’ grande. I solidi sono opachi
perche’ i raggi luminosi non riescono ad attraversare il muro degli atomi. I
liquidi/gas sono trasparenti perche’ la luce attraversa gli spazi che separano gli atomi
( d spazio ⟩ λlucevisibi le ). Un solido puo’ diventare trasparente se si porta a temperature
elevate e poi si raffredda velocemente (es. vetro). Per rendere invisibile un solido
occorre: liquefare-bollire-evaporare-cristallizzare-riscaldare-raffreddare….
I metamateriali sono sostanze con componenti microscopici che deviano le onde e.m.
(es. circuiti elettrici all’interno di strisce di rame concentriche) e rendono l’oggetto
totalmente invisibile a quella radiazione. La velocita’ luce c e’ costante nel vuoto ma
in un mezzo interagisce con miliardi di atomi e rallenta: piu’ il mezzo e’ denso piu’
l’indice di rifrazione aumenta
indicerifrazione=velocitavuoto/velocitamezzo
(indicerifrazionevuoto=1;indicerifrazionearia=1.0003; indicerifrazionevetro=1.5).
Nel vetro la luce viene deflessa e poi continua a viaggiare in linea retta. Se si potesse
controllare l’indice rifrazione in un metamateriale in modo da portare la luce a
muoversi intorno a un oggetto quest’ultimo diventerebbe invisibile. Il metamateriale
ha indicerifrazione<0 e le strutture da inserire in un metamateriale devono avere
d spazio ⟨ λradiazione per non essere attraversate.
Es. λmicroonde = 3cm; λluceverde = 500nm; λlucerossa = 780nm ; 1nm contiene 5 atomi.
Per rendere invisibile un materiale occorre agire sui singoli atomi per rendere la
distanza piu’ piccola della radiazione. Per deflettere la luce visibile occorre
metamateriale con d < λlucevisibile = 380 ÷ 760nm addirittura distanza<50nm.!! Con la
tecnica di incisione Etching su wafer di silicio immersi in ultravioletti si e’ raggiunto i
100nm e con questa tecnica si e’ realizzato un metamateriale attivo sulla luce rossa
(indicerifrazione=-0.6). Attualmente con la fotolitografia dei componenti per pc su un
wafer di silicio si raggiungono i 30nm per ciascun componente.
I metamateriali servono per sostituire il chip di silicio che utilizza l’elettricita’ con
chip che utlilizzano la luce. Chip di questo tipo non hanno bisogno di raffreddarsi!!
I cristalli fotonici in un chip si realizzano incidendo su un wafer componenti
piccolissime ognuna delle quali porta a un indice di rifrazione differente.
I metalli conducono la corrente elettrica perche’ il legame tra gli elettroni e gli atomi
di un metallo e’ debole e gli elettroni si muovono liberamente lungo il reticolo
cristallino. I plasmoni sono realizzati dalla vibrazione degli elettroni con un fascio
luminoso incidente. I plasmoni si possono strizzare per avere la stessa frequenza e
lunghezza onda inferiore e possono essere messi su un nanofilo. Si dovrebbero usare
strati di meta materiali ciascuno con frequenza diverse. Il problema e’ infatti quello
che ogni metamateriale ha un suo indice di rifrazione fisso e piu’ che un mantello
invisibile ora si potrebbe realizzare un cilindro invisibile…
Futuro tecnologico
cap-pag 3-3/43
La nanotecnologia e’ iniziata con il microscopio a scansione ad effetto tunnel che
opera sui singoli atomi mediante una sonda appuntita elettricamente carica
(piccolissima delle dimensioni di 1 atomo) che agisce sull’atomo da analizzare. La
corrente che attraversa la punta cresce e diminuisce e le sue variazioni vengono
registrate. Per effetto quantistico in un primo tempo gli elettroni non hanno
abbastanza energia per passare dalla sonda al substrato attraverso il materiale da
analizzare ma grazie al principio di indeterminazione esiste una probabilita’ piccola
ma finita che gli elettroni penetrino e spostino gli atomi sottostanti! Lo spostamento
di atomi puo’ permettere di realizzare macchine atomiche non troppo complesse!! Un
po’ come gli organismi unicellulari che si muovono in tutte le direzioni e mediante
filamenti.
L’invisibilita’ puo’ essere raggiunta anche con l’ologramma cioe’ fotografando lo
sfondo alle spalle di una persona e proiettando l’immagine cosi’ ottenuta su uno
schermo olografico posto davanti alla persona. La luce laser e’ coerente cioe’ tutte le
onde che la compongono vibrano all’unisono e per produrre un ologramma si divide
un fascio laser in due: meta’ va ad illuminare una pellicola mentre l’altra si dirige su
un oggetto ne viene riflessa e finisce sulla stessa pellicola della prima. Quando i due
fasci si incontrano si genera una figura di interferenza che contiene in forma
codificata tutte le informazioni relative all’immagine di partenza. Sulla pellicola per
osservare il 3D occorre dirigere un fascio laser (vd dopo)!. Problemi sono: avere una
fotocamera olografica che faccia 30scatti/sec, problema elaborazione e
memorizzazione informazioni, proiezione immagine sullo schermo che sembri
realistica
Futuro tecnologico
cap-pag 3-4/43
Figura: Olografia
Fonte: La scienza: Vol.1 L’universo. La biblioteca di Repubblica
Futuro tecnologico
cap-pag 3-5/43
4. Laser
L’elettrone e’ onda-corpuscolo e obbedisce all’equazione di Schrodinger mediante la
quale si calcolano le proprieta’ degli atomi. Gli elettroni si muovono su orbite discrete
secondo Bohr e nel saltare da un guscio esterno a uno piu’ interno (con energia
inferiore) emettono un quanto di energia cioe’ un fotone. Quando un elettrone
assorbe un fotone di un’energia ben precisa, salta da un guscio interno a uno piu’
esterno.
Un laser funziona mediante un mezzo di trasmissione di raggi come un gas speciale,
un cristallo o un diodo. Tale mezzo viene alimentato da energia come elettricita’,
onde radio, luce o reazione chimica. L’energia eccita gli atomi del mezzo facendo
assorbire fotoni dagli elettroni che saltano su livelli piu’ esterni. In questo stato
eccitato il mezzo e’ instabile e se lo si colpisce con un fascio luminoso, i fotoni di
quest’ultimo si scontreranno con gli atomi facendoli ritornare a un livello energetico
piu’ basso e causando l’emissione di uno o piu’ fotoni. Alla fine si ha un decadimento
a cascata emettendo migliaia di miliardi di fotoni che vibrano all’unisono cioe’ sono
coerenti .
Il laser a gas e’ formato da un tubo che contiene elio-neon a cui viene inviato della
corrente che eccita gli atomi. L’emissione immediata di tale energia immagazzinata
porta alla generazione di un fascio di luce coerente. Due specchi alle estremita’ fanno
rimbalzare il fascio amplificandolo. Uno dei due specchi e’ semiriflettente cioe’ ogni
volta che il fascio lo colpisce una parte della luce riesce ad attraversarlo sfuggendo
all’esterno e generando cosi’ il fascio laser finale. Ci sono laser alimentati da reazioni
chimiche per scopi militari o a semiconduttori per tagliare,saldare o leggere i codici a
barre.
I laser chimici sono alimentati mediante reazione chimica ad esempio la combustione
di un getto di etilene. Sono laser potenti utilizzati per scopi militari (abbattono in volo
missili a corto raggio).
I laser a eccimeri sono alimentati da reazioni chimiche che coinvolgono un gas inerte
(argo, krypton, xeno), del fluoro o del cloro. Utilizzati nell’industria dei
semiconduttori o in campo medico
I laser a stato solido con un cristallo di zaffiro drogato con atomi di cromo insieme a
sostanze chimiche come ittrio, olmio, tullio. Sono usati per generare impulsi
ultracorti ad alta energia.
I laser a semiconduttori sono i diodi che generano fasci intensi per tagliare e saldare o
per leggere i codici a barre
I laser a coloranti utilizzano coloranti organici come mezzo di amplificazione per
impulsi luminosi ultracorti
Il primo problema dei laser e’ l’instabilita’ del mezzo che non puo’ essere
sovraccaricato per evitare un surriscaldamento o la distruzione o il monuso nel caso
di laser a esplosioni. Il secondo problema e’ la necessita’ di alimentatori che non
esistono cosi’ potenti e portatili per garantire l’alimentazione necessaria. Tale
problema potra’ essere risolto con la nanotecnologia. Riguardo alla spada laser e’
impossibile solidificare la luce e farla arrestare a mezz’aria. Si possono creare torce al
plasma: un tubo telescopico che si innesta nell’impugnatura con plasma generato
all’interno lasciato libero di uscire dal tubo da una serie di fori. Si ha un lungo tubo
di gas brillante cosi’ caldo da riuscire a fondere l’acciaio. Anche in questo caso
occorre connettere un alimentatore.
Futuro tecnologico
cap-pag 4-6/43
5. Fusione-fissione(arma a grande raggio in grado di distruggere pianeti)
La fissione nucleare e’ il fenomeno per cui il nucleo di un atomo di uranio si scinde in
due nuclei di massa leggermente inferiore liberando una quantita’ notevole di energia
secondo la formula E= ∆m c2: dove ∆m e’ la differenza tra la massa del nucleo e la
somma delle singole masse
Figura: La fissione nucleare .
Fonte: L’universo in un guscio di noce Stephen Hawking
La fusione si verifica quando l’H compresso dalla gravita’ si riscalda raggiungendo
temperature tra 50 106 e 100 106 C sufficienti a far scontrare i nuclei di H e
provocare la fusione in nuclei di He. La massa si converte in energia secondo l’eq E=
∆m c2 .
Futuro tecnologico
cap-pag 5-7/43
Figura: Formazione di una stella.
Fonte: La scienza: Vol.1 L’universo. La biblioteca di Repubblica
Figura: Fusione nucleare in una stella di dimensioni minore (a sinistra) e maggiore
(a destra) del Sole
Fonte: Wikipedia
Si realizza la fusione a confinamento inerziale quando in una batteria di laser a
cristallo di neodimio si sparano i fasci ad alta energia in un lungo tunnel. Al termine i
fasci incidono su specchi disposti a formare una sfera che fanno convergere i fasci su
una pallina ricca di H come il deuteruro di litio che non pesa piu’ di 10mg e ha le
dimensioni di una capocchia di spillo. La scarica vaporizza la superficie della pallina
e provoca il collasso di quest’ultima. Si raggiungono temperature di alcuni 106 C e i
nuclei di H si fondono in He come in una bomba di H. Secondo il Criterio di Lawson il
processo si innesca se i valori T, densita’ e tempo di sconfinamento sono attuati in
intervalli ben precisi. L’energia emessa e’ sottoforma di neutroni e il Deuteruro di
Futuro tecnologico
cap-pag 5-8/43
Litio raggiunge T di 100 106 C e densita’ maggiore di quella del piombo che vengono
assorbiti dal rivestimento della camera di fusione che si riscalda. Il calore viene
utilizzato nella produzione di vapore che fa girare una turbina per produrre
elettricita’. Si sono realizzati Shiva costruito al LLNL california nel 1978, Nova, Nif
ha 192 fasci e genera potenza di 7 1014 watt (una centrale nucleare produce solo 109
watt). Si realizza la fusione a confinamento magnetico quando una grossa ciambella
al cui interno circola H gassoso e la cui superficie e’ avvolta da bobine di cavo
elettrico. Si raffreddano le bobine per farle divenire superconduttrici e si inietta
corrente elettrica generando un campo magnetico che confina il plasma all’interno
della ciambella e lo riscalda a T stellare. La sorgente di energia e’ economica: il
combustibile viene dall’acqua del mare ricca di H. il problema sta nel comprimere
l’H fino a formare una sfera perfetta. Il progetto piu’ avanzato e’ ITER al sud
Francia Cadarache in cui il reattore porta il plasma di H gassoso a T=100 106 C e
potenza di 500Mwatt/500 sec.
Nella fusione inerziale i fasci laser devono essere perfettamente uniformi e questo
presenta difficolta’ insormontabili.
Nella fusione magnetica i campi magnetici hanno polarita’ +/- ed e’ estremamente
difficile esercitare sul gas una compressione sferica uniforme (ogni volta che si
schiaccia a un’estremita’ si provoca un rigonfiamento sull’estremita’ opposta).
I vantaggi sarebbero la mancanza di scorie nucleari.
I laser a raggi X a innesto nucleare sono una batteria di laser a raggi X capaci di
controllare e di focalizzare l’energia prodotta da un’arma nucleare e potrebbe
distruggere un intero pianeta. Un pezzo di Uranio come una palla distrusse una citta’
intera nonostante la massa convertita in energia rappresentava 1/100 massa totale. I
laser a raggi X con piccolissima lungh onda li rende adatti allo studio di oggetti come
l’atomo. Una bomba H emette quantita’ enorme di energia sottoforma di di raggi X
pertanto un laser X si puo’ alimentare con il nucleare. La bomba Teller genera
un’onda d’urto sferica formata da raggi X energetici. Questi attraversano le sbarre di
rame presenti nel laser che fungono da mezzi di amplificazione e concentrano
l’energia dei raggi X in fasci ad alta intensita’. Il problema e’ che il dispositivo puo’
essere utilizzato solo una volta. Con la stessa logica se si vuole costruire un ordigno
nucleare di potenza arbitraria basta utilizzare una bomba a fissione che sfrutta
energia liberata da U per generare un impulso di raggi X (Hiroshima). Una frazione
di secondo prima che l’onda d’urto prodotta dalla bomba atomica distrugga tutto,
l’impulso sferico di raggi X viene riflesso e focalizzato sul combustibile primario
della bomba (deuteruro di litio). I raggi X lo fanno collassare e lo portano a una
T=106C . La conseguenza e’ una nuova esplosione molto piu’ potente della prima. Il
processo prosegue cosi’ a cascata producendo energia inimmaginabile. Per
distruggere un pianeta occorrerebbero migliaia di laser a raggiX lanciati nello spazio
che sparassero insieme.
Le sorgenti a impulso gamma presenti nella rotazione di una stella se si potessero
controllare, prima che la stella collassi e generi una supernova, si potrebbero
indirizzare verso un punto qualsiasi dello spazio. Le sorgenti gamma emettono
impulsi la cui durata va da pochi secondi a qualche minuto e poi scompaiono. Dopo
che un satellite ne individua la posizione, ne segnala le coordinate esatte alla terra.
Tali coordinate vengono trasmesse a telescopi ottici o radio che si posizionano per
puntare verso la sorgente gamma.
Gli impulsi gamma sono ipernove che danno origine a buchi neri. I buchi neri
ruotano come trottole e connettono due getti di radiazione al polo nord e al polo sud.
Futuro tecnologico
cap-pag 5-9/43
Se la sorgente si trovasse nella nostra porzione di galassia e il getto fosse diretto verso
il nostro pianeta, la sua energia sarebbe sufficiente a distruggere tutto il pianeta. La
prima conseguenza sarebbe la generazione di impulsi elettromagnetici che
metterebbero fuori uso tutti i dispositivi elettronici presenti sul pianeta. I raggi X e
gamma danneggerebbero l’atmosfera terrestre distruggendo lo strato di ozono. Si
innalzerebbe la temperatura della superficie del pianeta provocando incendi di
proporzioni giganteschi. Se non riuscisse ad esplodere il pianeta lo renderebbe arido e
sterile. Basta solo puntare un buco nero su un bersaglio dando un’inclinazione ben
precisa alla traiettoria dei pianeti e delle stelle di neutroni dirette verso la stella
morente un attimo prima del suo collasso. La deviazione sarebbe sufficiente a
cambiare l’asse di rotazione della stella e consentirebbe di puntarla in una direzione
ben determinata.
Futuro tecnologico
cap-pag 5-10/43
6. Teletrasporto
In un atomo c’e’ la probabilita’ che l’elettrone si possa trovare in molti posti allo
stesso tempo. Tali salti quantitativi non possono essere generalizzati a un corpo di
grandi dimensioni come una persona. Gli elettroni sono cosi’ tanti che i loro
movimenti si compensano e quindi a livello macroscopico gli oggetti hanno un aspetto
solido e stabile. A livello atomico si potrebbe cambiare la probabilita’ di qualsiasi
evento quantistico e avere un teletrasporto ma su scala macroscopica occorrerebbe
attendere un tempio maggiore dell’eta’ dell’universo. L’entanglement e’ l’idea per cui
particelle vibrano in maniera coerente e hanno un legame profondo che le unisce.
Prima di effettuare una misura lo spin dell’elettrone non e’ diretto verso il basso ne’
verso l’alto ma e’ in uno stato indeterminato. Non appena si effettua un’osservazione
la funzione d’onda collassa lasciando la particella in uno stato definito. Con
l’esperimento EPR (Einstein, Podolsky, Rosen) si dimostro’ che le onde di due
elettroni che inizialmente vibrano all’unisono in uno stato coerente possono rimanere
sincronizzate anche quando gli elettroni sono a grande distanza l’uno dall’altro,
perche’ c’e’ sempre un’onda di Schroedinger invisibile che li tiene uniti. Se accade
qualcosa a un elettrone l’informazione si trasmette immediatamente all’altro:
entanglement quantistico. Se lo spin totale=0 allora quando lo spin di un elettrone e’ in
un senso, automaticamente l’altro elettrone avra’ lo spin nel senso opposto. Tale
informazione e’ pero’ casuale inutile anche se piu’ veloce della luce. Nel 1993 si
teletrasporto’ tutta l’informazione contenuta in una particella cioe’ fotoni e interi
atomi di Cesio. Si parte da due atomi A e C. Per trasferire l’informazione si prende
un terzo atomo B e si mette in entanglement con C. B e C sono quindi sono in stato
coerente. Se si mette A in contatto con B, l’informazione viene trasferita e quindi si
trovano legati dall’entanglement. Poiche’ l’entanglement e’ tra B e C l’informazione
in A ora si trova sicuramente in C. L’informazione trasportata da A e’ stata distrutta
e non si hanno due copie. L’atomo A non e’ andato ad occupare C: solo
l’informazione di A cioe’ la polarizzazione si e’ trasferita in C. Nel 2004 si sono
trasferiti anche due atomi di berillio e nel 2006 hanno messo in entanglement un
fascio di luce con un gas contenente miliardi di atomi di Cesio a Copenaghen.
Codificarono l’informazione contenuta negli impulsi laser e riuscirono a trasferirla
agli atomi di Cesio a distanza di mezzo metro. Nel 2007 Bradley e il suo gruppo
teletrasporto’ 500 particelle in Australia secondo il metodo di teletrasporto classico e
non quantistico. L’informazione in un fascio di atomi di Rubidio e’ stata trasferita in
un fascio di fotoni che e’ stato poi trasmesso lungo fibra ottica e utilizzato per
ricostruire il fascio di partenza. Si utilizza il condensato di Bose Einsteine (BEC) una
delle sostanze piu’ fredde dell’universo (10-6, 10-9 K, T dello spazio=3K). Quando si
portano tutti i tipi di materia a una T= 0K gli atomi che la compongono precipitano
nello stato di energia minima finendo per vibrare all’unisono in uno stato coerente.
Tutte le funzioni d’onda si sovrappongono e i componenti vibrano in fase. Si prende
un insieme di atomi di rubidio ultrafreddi BEC e lo si fa interagire con un fascio di
materia (ugualmente costituito da rubidio). Gli atomi di rubidio vengono portati
anche essi nello stato di minima energia e emettono l’energia in eccesso sottoforma di
impulso luminoso. Il fascio di fotoni cosi’ generato e’ inviato in una fibra ottica. I
fotoni contengono tutte le informazioni quantistiche per descrivere il fascio di
materia originale. (posizione e velocita’ di ogni suo atomo). Infine il fascio viene
inviato in un altro BEC e il risultato e’ un fascio di materia uguale a quello di
partenza. I BEC sono pero’ difficili da ottenere in laboratorio ma si comportano come
Futuro tecnologico
cap-pag 6-11/43
un gigantesco atomo. Con un simile atomo e’ possibile vedere ad occhio nudo
qualsiasi effetto quantistico. La minima vibrazione puo’ perturbare la coerenza di
due atomi: atomi inizialmente in fase nel corso di qualche secondo perdono la
coerenza. Un’applicazione dei BEC e’ la creazione di laser atomici. Fra una decina di
anni forse si teletrasportera’ una molecola complessa di DNA o un virus. La coerenza
quantistica per corpi macroscopici richiedera’ secoli!!.
Figura: Teletrasporto
Fonte: La trama del cosmo. Brian Greene
Futuro tecnologico
cap-pag 6-12/43
Tra 50 anni si arrivera’ forse ai computer quantistici. I computer si basano sul
calcolo binario (0/1) nel mondo dei quanti invece l’atomo viene descritto dalla somma
di due stati (spin alto/spin basso) e ogni oggetto e’ descritto dalla somma di tutti i suoi
stati possibili. In oggetti macroscopici viventi si somma la funzione d’onda
dell’oggetto vivo con quello morto pertanto l’oggetto non e’ vivo ne’ morto. Se si
considera una fila di atomi allineati in un campo magnetico con gli spin disposti in
un certo modo e si illumina con un fascio laser, tale fascio non sara’ riflesso e in
qualche atomo si verifichera’ una transizione dello spin da uno stato ad un altro.
Misurando la differenza tra il fascio laser entrante e quello uscente si realizza un
calcolo quantistico complesso in cui il numero di spin che hanno cambiato lo stato
puo’ essere elevato. Anche qui il problema e’ la necessita’ di mantenere la coerenza di
un gran numero di atomi. La necessita’ di una nuova generazione di computer sta nel
fatto che la potenza di un computer legato al silicio raggiungera’ il limite fisso nel
2020.
Futuro tecnologico
cap-pag 6-13/43
7. Telepatia (traduttore universale)
La telepatia via radio: il cervello e’ un trasmettitore che diffonde i pensieri sottoforma
di segnali elettrici e onde e.m. I segnali sono estremamente deboli (potenza =mW),
sono disturbati (impossibile distinguerli dal rumore di fondo), non sono in grado di
ricevere msg da altri cervelli (occorrerebbe un’antenna).
La telepatia quantistica: PET (positron emission tomograpy) e MRI (magnetic
resonance imaging).
PET mette nel sangue una quantita’ di zucchero radioattiva che si concentra nelle
aree del cervello coinvolte nel processo del pensiero dove maggiore e’ il bisogno di
energia. Lo zucchero radioattivo emette positroni (elettroni positivi) rilevabili dalla
strumentazione. Ricostruendo l’immagine generata dall’antimateria in un cervello
vivente e’ possibile delineare anche la struttura del pensiero, identificando con
precisione quali parti del cervello sono coinvolte in una determinata attivita’.
MRI in un magnete a forma di ciambella i nuclei degli atomi del cervello si allineano
parallelamente alle linee del campo magnetico. L’invio di un impulso a
radiofrequenza fa oscillare i nuclei e questi nell’orientarsi in un’altra direzione
emettono una eco-radio che puo’ essere misurata e dalla quale si puo’ dedurre la
presenza di una sostanza particolare. Ad esempio si puo’ isolare il processo
concentrando la propria attenzione sulla presenza di sangue ossigenato. A una
maggiore concentrazione di sangue ossigenato in una certa zona del cervello
corrisponde un’attivita’ mentale piu’ intensa. FMRI (MRI funzionale) esamina
porzioni del cervello delle dimensioni di 1m/1sec
MRI serve per la macchina della verita’: secondo la tecnica Langleben
mentire fa aumentare l’attivita’ di diverse zone del cervello (lobo centrale, lobo
temporale, sistema libico).
Fattore positivo:
• nessuno puo’ alterare la struttura dei propri segnali cerebrali.
Fattori negativi:
• Tale tecnica identifica solo l’ansia del soggetto e non distingue la verita’
dall’inganno,
• Necessita di autorizzazioni legali per registrare il flusso del pensiero
• L’incriminazione da una lettura del pensiero puo’ essere considerata
sufficiente/insufficiente.
• Il comportamento e’ legale/illegale nel sentire la mente di un terrorista.
• Esiste la possibilita’ di innestare nella mente falsi ricordi
Un traduttore universale trasmette i pensieri direttamente da una mente ad un’altra.
Le scansioni cerebrali sono troppo primitive per identificare singoli pensieri che
coinvolgono milioni di neuroni simultaneamente. La piu’ piccola porzione di cervello
analizzabile in maniera affidabile e’ detta voxel ma e’ per ora impossibile identificare
i segnali (provenienti dai singoli neuroni). Si puo’ solo isolare la struttura FMRI
generata da entita’ distinte (parole) per poi costruire un dizionario del pensiero.
Questo non e’ un traduttore universale perche’ si deve riconoscere la struttura
FMRI, si deve associarla alle parole inglesi, si deve pronunciarla indirizzandosi al
destinatario. Gli MRI hanno lo svantaggio che sono enormi, costosi e si pensa si
possano sostituire con magnetometri atomici supersensibili. Sukov e Romaks hanno
creato un sensore magnetico basato su vapori di Potassio ad alta T sospesi in Elio.
Dopo aver allineato gli spin degli elettroni del Potassio con un laser viene applicato un
Futuro tecnologico
cap-pag 7-14/43
debole campo magnetico a un campione, si invia un impulso radio nel campione per
far oscillare le molecole. Si produce una sorta di eco che si trasmette agli elettroni di
potassio e poi viene rilevata da un altro fascio laser. Le immagini sono registrate
istantaneamente!
Gli MRI decifrano solo le caratteristiche dei nostri pensieri ma il cervello e’ una
macchina che apprende, una rete neurale che modifica le proprie connessioni ogni
volta che impara ad eseguire un nuovo compito. I pensieri sono diffusi e si potra’ solo
compilare un dizionario di pensiero stabilendo una corrispondenza biunivoca tra certi
pensieri e particolari tracciati di elettroencefalogramma o scansione MRI
Riguardo alla proiezione del pensiero, stimolando elettricamente aree del lobo
temporale si stimola il cervello. Uno speciale casco puo’ inviare al cervello fasci di
onde radio e suscitare emozioni o pensieri ben precisi. Si sta realizzando un progetto
di mappatura neurale per costruire mappe tridimensionali di tutte le loro connessioni.
Si ottiene cosi’ una corrispondenza tra un dato pensiero, la sua espressione MRI e i
neuroni che si attivano. Nel 2006 si e’ trovato una mappatura di 21000 geni a livello
cellulare del topo.
Futuro tecnologico
cap-pag 7-15/43
8. Psicocinesi (levitazone, replicatore)
Psicocinesi serve per influenzare solo con la mente eventi casuali ma il
problema e’ che non si adatta alle leggi fisiche note: la gravitazione e’ esclusivamente
attrattiva e non puo’ essere utilizzata per levitare o respingere oggetti. La f.e.m.
obbedisce alle equazioni di Maxwell ed esclude la possibilita’ di far attraversare una
stanza a un oggetto elettricamente neutro. Le forze nucleari hanno un raggio
d’azione piccolissimo dell’ordine della distanza tra le particelle che compongono il
nucleo. Altro problema e’ che la fonte di energia che il corpo umano puo’ produrre e’
minimo 1/5 cavallo vapore.
Solo l’amplificazione della psicoanalisi mediante onde radio o attraverso l’uso di un
computer e’ una possibilita’ reale. Una persona osserva su uno schermo il proprio
elettroencefalogramma e finisce per imporre a controllare l’andamento delle tracce
osservate attraverso il biofeeedback. Si possono generare con il pensiero sullo
schermo tracciati ben precisi che potrebbero essere inviati a un computer
programmato per il riconoscimento e l’esecuzione di un comando. Donogitue ha
inserito un chip di silicio contenente cento elettrodi nella zona del cervello che
coordina l’attivita’ motoria e penetra a meta’ della corteccia cerebrale (spessa 2mm).
I segnali vengono inviati con fili a un amplificatore e quindi inviato a un computer
per l’elaborazione. Si cerca di rendere il dispositivo portatile e comunicante senza fili.
Se si ricoprissero le pareti di casa con superconduttori a temperatura ambiente.
Inserendo minuscoli elettromagneti all’interno di oggetti ad uso domestico si
potrebbero fa levitare gli oggetti grazie all’effetto Meissner. Se gli elettromagneti
fossero controllati da un computer collegato al cervello allora con il pensiero si
potrebbe attivare il computer e quindi i magneti e si avrebbe la levitazione.
La nanotecnologia costruisce macchine microscopiche a partire da singoli atomi e con
tali macchine si potrebbe modificare la disposizione delle molecole che compongono
un oggetto fino a trasformarlo in oggetti diversi (replicatore). In natura esistono
aminoacidi e proteine (ingredienti), ribosomi (attrezzi) che tagliano e cuciono le
proteine, DNA (schede). Questi si combinano per formare una cellula che ha la
proprieta’ di autoreplicarsi. A causa della struttura della molecola di DNA con la
forma a doppia elica, quando deve riprodursi si scinde nelle due singole eliche e
queste si riproducono catturando le molecole organiche necessarie per ricostruire
l’elica complementare. Si cerca di riprodurre una flotta di nanorobot per manipolare
gli atomi. Con le tecnologia di incisione dell’industria dei semiconduttori si realizzano
circuiti minuscoli con componenti di dimensioni di 30nm che svolgerebbero il ruolo di
cervello. Oppure si potrebbe assemblare nanorobot un atomo per volta con il
microscopio a scansione di sonda che identifica e sposta singoli atomi (10h per
assemblare 50 atomi)
Futuro tecnologico
cap-pag 8-16/43
9. Robot
Secondo alcuni pensieri qualsiasi neurone puo’ essere riprodotto da un insieme di
transistor anche complesso, secondo altri (Penrose) i microtubuli presenti all’interno
di una cellula manifestano un comportamento quantistico che rende impossibile
ridurre il cervello a un insieme di componenti elettrici. Turing a proposito
dell’intelligenza artificiale mise a punto un test: si mette un uomo e una macchina in
due scatole sigillate e si interrogano entrambi. Se risulta impossibile stabilire la
differenza tra le risposte allora la macchina passa il test di Turing. I robot sono in
grado di gestire la sintassi di un linguaggio ma non la semantica. C’e’ una grossa
diatriba se i robot possono pensare: dal riconoscimento delle forme utilizzare cioe’ il
buon senso.
Nell’approccio top-down ci sono stati progetti per l’intelligenza artificiale (CYC=
enciclopedia) ma si sono resi conto che per dare a un computer un senso comune
simile a quello di un bambino occorrono milioni di righe di codice! Nell’approccio
bottom-up si considera il cervello come rete neurale in grado di apprendere (COG
robot con intelligenza di un bambino di 6mesi). Il miglior robot a reti neurali sa
camminare, nuotare ma non saltare, ne’ muoversi rapidamente o muoversi per
cacciare… Le reti neurali di un robot possono essere formate da decine o centinai di
neuroni mentre il nostro cervello e’ formato da 100miliardi di neuroni veri. Il sistema
nervoso di un verme primitivo C.elegans e’ composto da 300 neuroni ma collegati a
loro volta da piu’ di 7000 sinapsi. Pertanto per quanto possa essere semplice il
sistema nervoso e’ cosi’ complesso da non poter essere ricostruito al computer. Forse
bisogna realizzare una sintesi tra i due approcci come fa l’essere umano..
Differenza rispetto uomo:
• Quando si entra in una stanza l’uomo riconosce immediatamente gli oggetti
attraverso miliardi di operazioni e i robot non sanno riconoscere allo stesso modo
gli oggetti: fattore legato all’evoluzione
• Un uomo riconosce il pericolo immediatamente mentre un computer dovrebbe
fare enormi calcoli: fattore legato alla sopravvivenza
• Esistono verita’ che l’uomo acquisisce da bambino interagendo con il mondo reale
e sviluppa attraverso creativita’, originalita’, passione, attitudine… mentre il robot
conosce solo quello per cui e’ stato programmato
• Reagire ai suoni o cogliere la differenza di dimensione, rugosita’ fragilita’ tra un
oggetto e l’altro e’ un compito difficile.
• C’e’ chi afferma che una macchina non potra’ mai provare emozioni perche’
queste rappresentano l’apice dell’evoluzione della specie umana altri affermano
che le emozioni sono un prodotto secondario dell’evoluzione perche’ ci fanno
comodo. Apprezzamento (sesso, amore) di qualcosa ad esempio permette di
selezionare tra tanti oggetti che possono danneggiarci. Vergogna, rimorso,
solitudine etc. sono strumenti per la socializzazione in una tribu’ . Forse i robot
saranno programmati per provare emozioni del resto le emozioni sono cruciali
per prendere delle decisioni!
• La coscienza e’ una serie di pensieri e immagini derivanti da varie zone del
cervello (menti) piu’ elementari che competono per catturare la ns attenzione. Un
animale del resto ha un tipo di coscienza sicuramente non al livello dell’uomo.
Chiedersi se un robot capisca forse e’ irrilevante. Un robot che controlli la sintassi
e capisca quel che gli si dice cioe’ che abbia una padronanza perfetta della sintassi
e’ uguale alla comprensione.
Futuro tecnologico
cap-pag 9-17/43
Se la potenza dei microprocessori raddoppia ogni 18mesi e’ anche vero che tra
qualche anno l’era del silicio potrebbe essere finita. Il processo di miniaturizzazione
che incide sui wafer di sicilio si potra’ interrompere. Ora siamo a spessori di 20atomi
ma quando arrivera’ a 5atomi entrera’ in azione il principio di indeterminazione di
Heisenberg, gli elettroni non si sapra’ dove saranno, la corrente si difoondera’
all’esterno del chip e il computer andra’ in cortocircuito. Il dopo silicio vede
tecnologie come computer quantistici, a DNA, ottici, atomici etc..ma la manipolazione
di atomi e molecole e’ ancora in studio.
Alcuni pensano che se i robot saranno dotati di reti neurali capaci di apprendere a un
ritmo piu’ rapido del nostro potranno creare altri robot.. Altri pensano che invece di
un’estinzione del genere umano potrebbe verificarsi una fusione della tecnologia del
carbonio con quella del silicio cosi’ che la nostra architettura neurale potra’ venire
trasferita direttamente in una macchina e diventeremo immortali… per ogni neurone
tolto si deve creare un neurone duplicato all’interno del robot per poter assistere
all’operazione. Invece di morire in un corpo decrepito ci si puo’ trovare dentro un
corpo immortale con memoria e personalita’ senza mai perdere coscienza.
Futuro tecnologico
cap-pag 9-18/43
10. Extraterrestri
Per la nascita della vita nell’universo occorre:
• acqua allo stato liquido (crea molecole complesse)
• carbonio perche’ ha 4 legami disponibili e puo’ legarsi a 4 atomi distinti (forma
cioe’ molecole complesse), forma inoltre catene lunghe base degli idrocarburi e
della chimica. Miller/Urey presero una soluzione di ammoniaca, metano, altre
soluzioni tossiche che si pensava fossero presenti nell’atmosfera dei primordi.
Sottoposero tale soluzione a una scarica elettrica (per spazzare i legami di
ammoniaca/metano) e dopo una settimana videro che si erano formati aminoacidi
precursori delle proteine. Gli aminoacidi sono presenti nei meteoriti e nelle nubi di
gas interstellare
• molecola autoreplicante di DNA o simile. Le prime molecole e le cellule primordiali
potrebbero avere tutta l’energia per funzionare prima della fotosintesi e della
comparsa delle piante. Non si conoscono altre molecole a base di carbonio in
grado di replicarsi ma e’ probabile che qualsiasi altra molecola autoreplicante
nell’universo assomigli al DNA.
Drake stima che ci possano essere da 100 a 10000 pianeti in grado di accogliere forme
di vita intelligente nella galassia supponendo di avere 1011 stelle nella galassia e 1011
galassie.
L’equazione di Drake e’:
dove:
N è il numero di civiltà extraterrestri presenti oggi nella nostra Galassia con le quali
si può pensare di stabilire una comunicazione
R* è il tasso medio annuo con cui si formano nuove stelle nella Via Lattea
fp è la frazione di stelle che possiedono pianeti
ne è il numero medio di pianeti per sistema solare in condizione di ospitare forme di
vita
fl è la frazione dei pianeti ne su cui si è effettivamente sviluppata la vita
fi è la frazione dei pianeti fl su cui si sono evoluti esseri intelligenti
fc è la frazione di civiltà extraterrestri in grado di comunicare
L è la stima della durata di queste civiltà evolute
R* – tasso di formazione stellare nella Via Lattea
Il valore di R* si ricava da dati sperimentali astronomici noti con ragionevole
precisione, ed è il termine dell'equazione meno discusso. Drake e i suoi colleghi
scelsero un valore R* di 10 stelle nuove all'anno (come media sull'arco di vita della
nostra galassia).
fp – la frazione di tali stelle che possiede pianeti
Il termine fp è meno sicuro, ma è comunque molto meno dubbio dei parametri
seguenti. Si decise di inserire fp = 0,5 (ipotizzando cioè che metà delle stelle possieda
pianeti).
ne – il numero medio di pianeti (o satelliti) per sistema stellare che presentano
condizioni potenzialmente compatibili con la vita
Futuro tecnologico
cap-pag 10-19/43
Il valore di ne venne basato sulle caratteristiche del nostro sistema solare, dato che
negli anni sessanta era quasi impossibile rilevare pianeti terrestri extrasolari, a causa
delle loro ridotte dimensioni. Venne usato ne = 2 (ogni stella con un sistema planetario
possiede due pianeti capaci di supportare la vita).
fl – la frazione di essi che effettivamente sviluppa la vita
Per fl Drake usò il valore 1 (il che significherebbe che tutti i pianeti in grado di farlo
sviluppano la vita); ma questa scelta risulta problematica, sempre in relazione al
nostro sistema solare, perché è in contraddizione con il valore di ne (a meno di non
scoprire che anche Marte ospita o ha ospitato vita intelligente). Inoltre, la scoperta di
numerosi pianeti gioviani (giganti gassosi) in orbite vicine alle loro stelle ha fatto
nascere dei dubbi sul fatto che sia comune che i pianeti terrestri sopravvivano alla
nascita del loro sistema solare. Infine, la maggior parte delle stelle della nostra
galassia sono nane rosse, intorno alle quali risulta improbabile che si sviluppi la vita.
D'altro canto, la possibilità che la vita nasca anche sui satelliti e non solo sui pianeti
può compensare questi fattori, anche se rende più complessa la questione.
Prove geologiche ricavate dallo studio della Terra suggeriscono che fl potrebbe
essere molto alto; la vita sulla Terra sembra essere iniziata quasi nello stesso periodo
in cui si sono presentate le condizioni favorevoli, suggerendo che
l'abiogenesi potrebbe essere relativamente comune laddove le condizioni la rendono
possibile. La stessa idea sembra essere supportata anche dai risultati di esperimenti
come quello di Miller-Urey, che dimostrano che in condizioni adeguate
le molecole organiche possono
formarsi
spontaneamente
a
partire
da elementi semplici. Tuttavia queste prove si basano esclusivamente su dati relativi
alla Terra, cosicché la base statistica è estremamente ridotta; e inoltre sono
influenzate dal principio antropico, nel senso che la Terra può non essere un campione
perfettamente tipico, visto che siamo obbligati a sceglierla come modello perché su di
essa la vita si è effettivamente sviluppata.
fi – la frazione di essi che effettivamente sviluppa vita intelligente e fc – la frazione di
essi che è in grado e decide di comunicare
Difficoltà legate al principio antropico si pongono anche nella stima di fi e fc quando
si considera la Terra come modello. Un'intelligenza capace di comunicare si è
sviluppata su questo pianeta solo una volta in 4 miliardi di anni di storia della vita
sulla Terra: se generalizzata, questa considerazione implica che solo pianeti piuttosto
vecchi possono supportare vita intelligente in grado di tentare comunicazioni
interplanetarie. D'altronde, per quanto riguarda l'uomo, la capacità di intraprendere
tentativi di comunicazione extraterrestre si è sviluppata piuttosto in fretta, appena
100 000 anni dopo la nascita della specie Homo sapiens, e appena 100 anni dopo lo
sviluppo delle capacità tecnologiche necessarie. Si scelse di valutare entrambi i fattori
come 0,01 (il che significa che su un centesimo dei pianeti in cui si sviluppa la vita tale
vita è intelligente, e che un centesimo delle forme di vita intelligenti sviluppa la
capacità di comunicare su distanze interplanetarie).
L – la durata media della fase comunicativa di ognuna di queste civiltà
Anche il fattore L è estremamente difficile da valutare, ma infine si decise che 10 000
anni poteva essere un valore verosimile. Carl Sagan ha sostenuto che è proprio
l'estensione della vita di una civiltà il fattore più importante che determina quanto
grande sia il numero di civiltà nella galassia: egli cioè ha posto con forza l'accento
sull'importanza e sulla difficoltà per le specie tecnologicamente avanzate di evitare
l'autodistruzione. Nel caso di Sagan, l'equazione di Drake è stata un importante
fattore motivante per il suo interesse nei problemi ambientali e per i suoi sforzi di
sensibilizzazione contro la proliferazione nucleare.
I valori di Drake producono un valore
Futuro tecnologico
cap-pag 10-20/43
N = 10 × 0,5 × 2 × 1 × 0,01 × 0,01 × 10 000 = 10.
Ogni variazione dei parametri, anche rimanendo nei limiti della verosimiglianza
scientifica, causa notevoli variazioni nel risultato N, portando a aspre
contrapposizioni tra "ottimisti" e "pessimisti". I valori di N tipicamente proposti
dagli "ottimisti" si aggirano intorno a 600 000, mentre quelli proposti dai
"pessimisti" sono nell'ordine di 0,0000001.
Una lista delle stime più attendibili dei parametri che compaiono nell'equazione di
Drake.
R* – tasso di formazione stellare nella Via Lattea: 7 stelle all'anno.
fp – la frazione di tali stelle che possiede pianeti: il 40% di stelle simili al Sole
possiedono pianeti, e la frazione reale potrebbe essere molto maggiore, poiché solo
pianeti considerevolmente più massivi della Terra possono essere rilevati con la
tecnologia attuale. Osservazioni all'infrarosso dei dischi di polvere intorno a stelle
giovani suggeriscono che il 20-60% delle stelle paragonabili al Sole debbano
possedere pianeti terrestri. Osservazioni di fenomeni di microlenti gravitazionali,
abbastanza sensibili da rilevare pianeti piuttosto lontani dalle loro stelle, vedono
pianeti in circa un terzo dei sistemi esaminati (valore approssimato per difetto, visto
che questo sistema è in grado di rilevare solo una parte dei pianeti). La missione
Kepler, dai dati iniziali, stima che circa il 34% dei sistemi ospiti almeno un pianeta.
ne – il numero medio di pianeti (o satelliti) per sistema stellare che presentano
condizioni potenzialmente compatibili con la vita
La maggior parte dei pianeti osservati ha orbite molto eccentriche, o troppo vicine al
sole per garantire temperature adatte alla vita. Comunque sono noti diversi sistemi
planetari
che
assomigliano
maggiormente
a
quello
solare,
come
HD70642, HD154345, Gliese849 e Gliese581. Nelle zone abitabili intorno a queste
stelle potrebbero anche esserci altri pianeti paragonabili alla Terra ancora da
scoprire. Inoltre, la varietà di sistemi stellari che possono presentare zone di
abitabilità non è limitata esclusivamente alle stelle simili al Sole e ai pianeti simili alla
Terra; attualmente si ritiene che anche pianeti vincolati a nane rosse in modo da
rivolgere alla stella sempre la stessa faccia potrebbero avere zone abitabili, e alcuni
dei grandi pianeti già scoperti potrebbe, potenzialmente, supportare la vita.
All'inizio del 2008, due gruppi di ricerca indipendenti hanno concluso che Gliese581
potrebbe essere abitabile. Poiché sono noti circa 200 sistemi planetari, si può stimare
in modo abbastanza approssimativo che ne > 0,005. Nel 2010, i ricercatori hanno
annunciato la scoperta di Gliese581g, un pianeta di 3,1 volte la massa della
Terra quasi nel centro della zona abitabile di Gliese581, un valido candidato per
essere il primo pianeta extraterrestre abitabile mai scoperto. Data la vicinanza di
Gliese581 e il numero di stelle esaminate con un livello di dettaglio sufficiente a
rilevare pianeti terrestri, la percentuale di stelle che possiedono pianeti simili alla
Terra dovrebbe essere del 10-20%.
La missione Kepler della NASA, partita il 6 marzo 2009, dovrebbe fornire una stima
molto più accurata del numero di pianeti per stella situati in una zona abitabile. Essa
infatti può contare su strumenti assai più sensibili che in passato, in grado di rilevare
pianeti grandi quanto la Terra con periodi orbitali fino a un anno.
Anche noto il numero di pianeti che si trovano in una zona abitabile, comunque,
determinare quanti di essi presentano la giusta combinazione di fattori può essere
difficile. Inoltre, se l'ipotesi della rarità della Terra è valida, l'insieme di
Futuro tecnologico
cap-pag 10-21/43
caratteristiche verificate sulla Terra potrebbe non essere per niente comune, e il
numero ne potrebbe essere estremamente basso, fino a tendere a zero.
fl – la frazione di essi che effettivamente sviluppa la vita: Nel 2002, Charles H.
Lineweaver e Tamara M. Davis (dell'Università del Nuovo Galles Del Sud e
dell'Australian Centre for Astrobiology) hanno usato un ragionamento statistico
basato sul tempo impiegato per svilupparsi dalla vita terrestre per stimare fl,
ottenendo che esso deve essere maggiore di 0,13 sui pianeti più vecchi di un miliardo
di anni.
fi – la frazione di essi che effettivamente sviluppa vita intelligente: Questo valore
rimane particolarmente controverso. Coloro che si esprimono in favore di un valore
basso, come il biologo Ernst Mayr, evidenziano che dei miliardi di specie che sono
esistite sulla Terra solo una è diventata intelligente. Coloro che sono in favore di
valori più alti sottolineano invece che la complessità degli esseri viventi tende ad
aumentare lungo il corso dell'evoluzione, e ne concludono che l'apparizione di vita
intelligente, prima o poi, sia quasi inevitabile.
fc – la frazione di essi che è in grado e decide di comunicare
Anche se si sono fatte molte speculazioni, su questo parametro non sono disponibili
dati concreti.
L – la durata media della fase comunicativa di ognuna di queste civiltà
In un articolo comparso su Scientific American, lo scrittore scientifico Michael
Shermer ha proposto per L il valore di 420 anni, basando la sua stima sulla durata
media di sessanta civiltà storiche. Utilizzando ventotto civiltà più recenti (successive
all'Impero romano) il valore sarebbe, per le "civiltà moderne", 304 anni. Va però
notato che ai fini dell'equazione di Drake questi valori non sono del tutto
soddisfacenti, perché nella storia dell'umanità in generale si è avuto un progresso
tecnologico abbastanza lineare – cioè ogni civiltà subentrata a una precedente ha
conservato e migliorato le realizzazioni già ottenute. Perciò il valore in anni deve
tener conto non di una singola civiltà nel senso storico e culturale del termine, ma di
una specie nella prospettiva del suo livello di sviluppo tecnologico globale. Nella
versione ampliata dell'equazione che tiene conto dei fattori di ricomparsa, questa
mancanza di specificità nella definizione di "civiltà" non influenza il risultato finale,
poiché il succedersi di diverse culture può essere descritto come un aumento del
fattore di ricomparsa anzi che come un aumento di L: una civiltà si conserva come
una successione di culture.
Altri, come l'astrobiologo David Grinspoon, hanno suggerito che una volta che una
civiltà si è sviluppata essa potrebbe superare tutte le minacce poste alla sua
sopravvivenza, e poi sopravvivere per un periodo indefinito, portando L all'ordine
dei miliardi di anni.
Valori basati sulle stime citate,danno come risultato
N = 7 × 0,5 × 2 × 0,33 × 0,01 × 0,1 × 10 000 = 23,1
Le critiche all'equazione di Drake seguono per la maggior parte dall'osservazione che
molti termini della formula sono in gran parte o completamente congetturali. Perciò
l'equazione non può portare a nessun tipo di conclusione.
Se si suppone siano distribuiti uniformemente in tutta la galassia dovremo aspettarci
di trovarne uno a poche centinaia di a.l. dalla Terra. Si sono messi in cerca di segnali
radio emessi dai pianeti che ospitano tale civilta’. Nel progetto SETI (search for
extraterrestrial intelligence) Cocconi/Morrison scelsero la ricerca di segnali nella
regione delle microonde tra 1 e 10Ghz. Tale frequenza corrisponde alla max
probabilita’ di riuscire a trasmettere una comunicazione. Sotto 1Ghz i segnali sono
Futuro tecnologico
cap-pag 10-22/43
sovrastati dalla radiazione emessa dagli elettroni veloci; al di sopra dei 10Ghz c’e’
interferenza con il rumore di fondo generato nell’atmosfera dalle molecole di O2 e
H2O Scelsero 1.420Ghz perche’ si tratta della frequenza emessa dall’H2 allo stato
gassoso cioe’ dell’elemento piu’ comune dell’universo.
Nel 1960 il progetto OZMA con radiotelescopio di 25m non ha trovato alcun segnale.
Nel 1974 il radiotelescopio gigante a Portorico invio’ un msg in direzione ammasso
globulare M14 a 25000 a.l. ma per un’eventuale risposta occorrono 50000 anni…..
Nel 1995 Taller da’ via al progetto Phoenix sempre nella stessa frequenza con
strumenti sensibili da poter raccogliere segnali emessi da 200 a.l. di distanza. Ha
analizzato piu’ di 1000 stelle simili al Sole (costo 5 106 dollari/anno) senza risultati.
Nel 1999 da Barkeley si e’ passati a scaricare un sw che installato su qualsiasi PC
contribuisce a decodificare una parte di segnali radio ricevuti da un telescopio e si attiva
quando entra lo screen saver del PC per non interferire con le attivita’ utente. Ci sono 5
106 utenti da piu’ di 200 nazioni !!!!
I fallimenti forse sono dovuti:
• la scelta di ricevere esclusivamente segnali solo all’interno di bande di frequenza
precise. Gli alieni potrebbero usare segnali laser invece che radio!.I laser
lavorando a frequenze piu’ alte puo’ trasportare piu’ informazioni di una radio
pero’ e’ altamente direzionale contiene un’unica frequenza e bisognerebbe essere
fortunati a trovare quella giusta.
• Gli alieni potrebbero usare tecniche di compressione e distribuzione su un ampio
spettro di frequenze (come i film in internet).
• La vita puo’ svilupparsi in modi di cui l’equazione di Drake non ne aveva tenuto
conto.
Infatti l’acqua allo stato liquido non si trova solo nella zona detto “Riccioli
d’oro” in cui la distanza tra terra e sole e congeniale: non troppo vicino al Sole
(si avrebbe ebollizione), non troppo lontano (si avrebbe congelamento). Si puo’
trovare anche sotto la coltre di ghiacci che ricopre ad esempio Europa (una
delle lune di Giove). Le forze di marea potrebbero essere abbastanza forti da
sciogliere i ghiacci e formare un oceano liquido. Il fortissimo campo
gravitazionale di Giove puo’deformare Europa che vi gira intorno inducendo
attriti che possono fondere la crosta di ghiaccio. Nel ns sistema solare ci sono
oltre 100 lune che potrebbero ospitare la vita e oltre 250 pianeti forse dotati di
lune gelati. Esistono anche pianeti vaganti senza stelle intorno alla quale
orbitare, non visibili. Il numero di corpi astronomici in grado di ospitare
forme di vita nell’universo nella formula puo’ essere piu’ grande.
La probabilita’ che un pianeta all’interno della zona riccioli d’oro possa
ospitare forme di vita e’ molto piu’ piccola nella formula infatti in un sistema
solare ci vuole un pianeta delle dimensioni di Giove per rispedire nello spazio
le comete e le meteore in transito rendendo possibile lo sviluppo di forme di
vita come accade oggi alla Terra. Senza Giove la Terra sarebbe esposta a
tempeste di meteore ogni 104 anni.
Occorre una Luna di grandi dimensioni grazie alla quale lo spin della Terra e’
stabile in caso contrario per effetto della legge gravitazionale di Newton su
milioni dio anni, l’asse della Terra sarebbe stato instabile e il pianeta avrebbe
potuto capovolgersi con conseguenze enormi sul clima e condizioni avverse per
lo sviluppo di vita. Marte ha ad esempio 2 lune piccole e potrebbe non avere lo
spin stabile.
La nascita e l’evoluzione della vita sono molto instabili infatti in passato la vita
sulla Terra si e’ quasi estinta: 2 miliardi di anni fa era ricoperta di ghiaccio, in
Futuro tecnologico
cap-pag 10-23/43
•
•
•
•
seguito eruzioni vulcaniche e meteoriti hanno messo in pericolo le forme di
vita.
La vita intelligente ha rischiato di estinguersi 105 anni fa : le specie animali
presentano variabilita’ genetica mentre i profili genetici degli esseri viventi
sono tutti molto simili tra loro come se fossero cloni dei ns simili. Tutto come
se si fosse sopravvissuti a stento per le condizioni avverse.
Gli eventi che permettono la vita sulla Terra sono: un campo magnetico intenso
(senza il quale la Terra sarebbe sottoposta al bombardamento dei raggi
cosmici), un’adeguata velocita’ di rotazione del pianeta (se ruotasse lentamente
il lato esposto al Sole si riscalderebbe eccessivamente e il lato opposto si
congelerebbe, se ruotasse velocemente si avrebbero venti e uragani fortissimi),
una giusta distanza dal centro della galassia (troppo vicina sarebbe esposta a
eccessiva radiazione, troppo lontana non ci sarebbero elementi pesanti da
consentire la formazione di molecole di DNA e proteine)
Forse la Terra nella galassia e’ l’unico pianeta popolato da forme di vita animale e
occorrerebbe verificare l’esistenza in altre galassie….
Jakosky gelogo disse: “E’ un momento speciale per la storia del genere umano:
siamo la prima generazione che ha una chance realistica di scoprire la vita su un
altro pianeta”.
I pianeti non essendo individuati direttamente da un telescopio vengono
individuati dalle oscillazioni piccole della stella madre sapendo che le dimensioni
devono essere almeno come Giove. Nessuno dei sistemi solari individuati finora
assomiglia al nostro. Il nostro sistema ha pianeti con orbite circolari: una fascia di
pianeti rocciosi in prossimita’ stella madre, una fascia intermedia di pianeti giganti
gassosi e una fascia estrema popolata di pianeti ghiacciati e comete. Pianeti
gioviani orbitano a distanze ravvicinate oppure seguono orbite ellittiche e cio’ e’
incompatibile con la presenza di un pianeta di tipo terrestre. Un’orbita
ravvicinata e’ dovuta a una migrazione da una zona periferica seguendo una
traiettoria a spirale verso il centro del sistema solare a causa dell’attrito con la
polvere interplanetaria. Se cosi’ fosse tale pianeta si troverebbe sull’orbita del
pianeta piu’ piccolo e lo proietterebbe nello spazio cosmico. Analogamente un
pianeta gioviano con orbita ellittica attraverserebbe regolarmente la zona riccioli
d’oro provocando anche in questo caso l’espulsione del pianeta piu’ piccolo.
I nostri telescopi primitivi possono solo rilevare la presenza di pianeti enormi e
rapidissimi e non sono in grado di rilevare una copia esatta del nostro sistema
solare. Il lancio di 3 satelliti Corot (2006), Keplero (2008), Terrestrial Planet
Finder (2014) cercheranno di misurare la debole variazione di luminosita’ di una
stella dovuta al transito di un pianeta di tipo terrestre e trovarne almeno uno
sarebbe straordinario. Analizzano la luminosita’ di 100000 stelle usando un
coronografo (telescopio speciale che riduce la luce della stella madre di un fattore
1miliardo) e un interferometro (sfrutta l’interferenza delle onde luminose per
ridurre la luce proveniente dalla stella madre di un fattore 1milione). Il SETI
invece di analizzare a caso le stelle vicine si concentrera’ su poche stelle.
Riguardo all’aspetto di un alieno bisogna considerare che la simmetria bilaterale
presente in gran parte dei mammiferi presenti non e’ l’unico possibile per una vita
intelligente. La natura ha sperimentato su piccoli organismi multicellulari una
grande varieta’ di forme: midollo spinale a forma di X,Y, radiale per la
sopravvivenza tra prede e predatori.
Futuro tecnologico
cap-pag 10-24/43
Una vita intelligente richiede per percepire l’ambiente esterno e controllarlo: organi
della vista, pollice opponibile (tentacolo o chele), sistema di comunicazione (non un
aspetto umanoide).
Animali che possiedono doti eccezionali superiori alla necessita’ di sopravvivenza
sono dovute a una loro esigenza di dominare sugli altri. Gli esseri umani hanno un
potere cerebrale in eccesso per la solo sopravvivenza e forse gli antagonisti su cui
dominare furono altri membri della stessa specie.
Animali non si sono evoluti ulteriormente perche’ perfettamente adattati
all’ambiente. Noi ci siamo evoluti dalle scimmie per sfuggire ai cambiamenti
ambientali. Se si considera che i carnivori, i predatori con occhi frontali e visione
stereoscopica sono piu’ astuti delle prede con occhi laterali (che devono solo correre)
e’ possibile che cosi’ siano le altre forme di vita inla telligente. Forse tali forme di vita
si baserebbero su DNA e proteine completamente diverse dalle nostre e quindi non
avrebbero interesse a mangiarci o ad accoppiarsi. Se poi vivono su pianeti di
dimensioni comparabili alla Terra con densita’ simile a quella dell’acqua come gli
organismi che popolano la Terra, e’ improbabile che si tratti di creature enormi a
causa della legge di scala secondo la quale se si modifica la scala di un oggetto
qualsiasi le sue caratteristiche fisiche cambiano drasticamente.
Riguardo alla forma di un alieno il peso aumenta proporzionalmente al volume e la
forza e’ proporzionale all’area della sezione trasversale delle ossa e dei muscoli
forza ∝ (lunghezza ) e peso ∝ (lunghezza )
2
3
Quindi un alieno 10 volte piu’ grande di un uomo sarebbe 100 volte piu’ forte ma
1000volte piu’ pesante e le gambe si potrebbero rompere. Il contenuto di calore di un
animale e’ proporzionale al suo volume e il calore emesso da un animale e’
proporzionale alla superficie.
caloreemesso ∝ (lunghezza ) e contenutocalore ∝ (lunghezza )
2
3
Gli animali di grandi dimensioni quindi perdono calore piu’ lentamente di quelli
piccoli. E’ per questa ragione che si gelano prima le dita e le orecchie perche’ l’area
della loro superficie e’ in proporzione maggiore e che le persone piu’ piccole sentono
freddo prima di quelle piu’ grandi. Se si considera che per una sfera la superficie per
unita’ di massa e’ minima si capisce perche’ le balene che solcano l’oceano Artico
sono rotondeggianti. In un microcosmo la superficie rispetto al volume di un alieno
sarebbe stabile. In un macrocosmo tale superficie rispetto al volume sarebbe piu’
piccola e quindi piu’ pesante e renderebbe l’alieno instabile!!. La legge di scala
implica che le leggi della fisica cambiano man mano che si scende nel microcosmo e
non e’ possibile che in un atomo ci sia un universo molto piu’ grande o e’ impossibile
che ci siano mondi dentro altri mondi…un alieno quindi non puo’ essere un gigante.
Riguardo alle civilta’ aliene possono essere classificate in base ai consumi energetici e
possono esserci 3 civilta’:
civilita’ di tipo I: sfruttano l’energia disponibile su un pianeta utilizzando tutta
l’energia solare incidente e tutte le altre energie
Futuro tecnologico
cap-pag 10-25/43
civilita’ di tipo II: sfruttano l’energia emessa dal loro sole e sono 10miliardi di volte
piu’ potenti della civilta’I. Non vengono distrutte da era glaciale, da comete, da
supernova e sono in grado di migrare verso altro sistema solare.
civilita’ di tipo III: sfruttano l’energia disponibile su scala galattica. Colonizzano
miliardi di sistemi stellari, sanno utilizzare l’energia del buco nero e si spostano
liberamente sulla galassia.
La nostra e’ una civilta’ di tipo 0 in cui si alimentano le macchine con legna, petrolio
etc., si utilizza in minima parte l’energia del Sole, si cerca di aver linguaggio
universale, cultura globale, Internet etc…La transizione da una civilta’ all’altra ad
esmpio dal tipo0 al tipo1 e’ problematica: esistono problemi di settarismo,
fondamentalismo, razzismo, pulsioni religiose etc. Il fatto che non siamo entrati in
contatto con civilta’ di tipoI e’ forse perche’ le civilta’0 si sono autodistrutte prima.
Una civilta’III ha l’energia e le conoscenze per viaggiare nella galassia e quindi
raggiungere la Terra: potrebbe inviare robot autoreplicanti alla ricerca di forma di
vita. Non avrebbero bisogno di conquistarci ne’ di raccogliere minerali in quanto
presenti in abbondanza su pianeti morti. Un esempio di tale civilita’ e’ in “odissea
nello spazio”:
Tale civilta’ invia sulla Terra una sentinella o monolite . Sulla Terra e’
presente una specie inferiore che davanti al monolite manifesta paura, ma
anche curiosita’ e ingegno per l’uso di una clava.
Quando sulla Terra e’ presente una specie evoluta il monolite trasmette
segnali per la direzione di Giove. Gli uomini ormai non hanno paura e vivono
con robot e automazione e lo stesso monolite e’ uno stargate per raggiungere
destinazioni nello spazio.
La specie umana ormai sa vivere nello spazio con l’ibernazione, la robotica
etc. Il computer e’ diventato cosi’ superiore da conoscere la destinazione e
boicottare l’uomo che diventa solo un manutentore. L’astronauta riesce a
liberarsi del supercomputer con l’ingegno utilizzando un cacciavite che e’
l’evoluzione dell’antica clava
La specie umana e’ in grado di viaggiare attraverso la galassia e l’atronauta
solo si dirige a ricercare la verita’ su Giove. Anche qui entra in contatto con il
monolite che sembra inglobarlo.
L’astronauta entra nell’evoluzione di uno spazio tridimensionale e a forte
velocita’ raggiunge una stanza. L’uomo vede se stesso invecchiare e seguire poi
i diversi stadi della propria vita. Allo stato massimo della sua vecchiaia, vede
se stesso con davanti a sé il monolito per poi rinascere in forma di feto
cosmico, il "Bambino-delle-stelle" ("Star-Child" in lingua originale), che in un
istante si riporta nello spazio terrestre scrutando dal cielo la nostra Terra,
cogitabondo. Si intuisce che l'astronauta ha subito una accelerazione evolutiva
diventa un essere superiore estremamente evoluto.
Nel corso degli anni si sono proclamati avvistamenti di alieni la cui validita’ e’ stata
negata spiegandola con le seguenti modalita’
Venere uno degli oggetti piu’ luminosi della volta celeste dopo la Luna: la
Luna e Venere sono cosi’ distanti da non capire se si muovono o no e dunque
danno l’impressione che ci seguano
Emissione di gas naturali (fuochi fatui): quando si verifica un’inversione
termica le emissioni gassose possono ristagnare e far distaccare bolle di gas
Meteoriti: possono dare origine a strisce luminose visibili nel cielo notturno
Futuro tecnologico
cap-pag 10-26/43
Anomalie atmosferiche:fulmini e eventi atmosferici.
Eco radar: le onde radar possono rimbalzare su una montagna e creare una
eco che puo’ manifestarsi su uno schermo radar.
Palloni stratosferici: palloni fuori controllo
Aerei: passaggio di veicoli commerciali e militari
Beffe e imbrogli
Gli avvistamenti di astronavi non rispondono a caratteristiche tecniche valide: le
astronavi non hanno gas di scarico, hanno un’accelerazione almeno cento volte
superiore all’accelerazione gravitazionale della Terra che potrebbe schiacciare
qualsiasi creatura pertanto i piloti possono essere solo meccanici. Se l’astronave fosse
a propulsione magnetica avrebbe 2 poli e un magnete immerso nel campo terrestre
non si librera’ per aria ma comincera’ a ruotare come l’ago di una bussola.
Occorrerebbe un monopolo ma non e’ mai stato trovato niente del genere. I monopoli
dovevano essere presenti al tempo del bigbang ma si sono quasi estinti per effetto
dell’inflazione. Solo il monopolo permetterebbe di sfruttare le linee magnetiche
presenti in prossimita’ di galassie o pianeti senza generare gas di scarico. Con la
nanotecnologia, alieni potrebbero inviare astronavi a esplorare pianeti senza piloti e
robotizzati. Tali astronavi non dovrebbero essere cosi’ grandi. Attualmente i sistemi
di propulsione presi in considerazione prevedono km di diametro: motori a fusione a
reazione, vele a propulsione laser, motori nucleari a impulso. Per sondare tutta la
Luna alla ricerca di eventuali radiazioni anomale segno di una nanonave sul nostro
satellite ci vorra’ ancora un altro secolo. Se fosse rimasta una base permanente da
una visita precedente allora le astronavi non avrebbero bisogno di essere grandi
perche’ potrebbero rifornirsi alla base lunare e gli avvistamenti potrebbero
corrispondere al passaggio di voli di ricognizione in partenza dalla base lunare..
Futuro tecnologico
cap-pag 10-27/43
11. Astronavi
Occorre un altro genere di propulsione per raggiungere le stelle per poter
sopravvivere. La Terra ha avuto un’era glaciale 104 anni fa, l’ultima collisione con
una meteorite di 10km diametro e’ avvenuta 106 anni fa. Il Sole si riscaldera’ tra 109
anni, diventera’ una gigante rossa tra 5*109 anni e diventera’ una nana bianca tra
10*109 anni. La Via Lattea si scontrera’ con Andromeda tra 5*109 anni e i buchi neri
daranno origine a una danza mortale.
Il sistema solare piu’ vicino e’ Alfa Centauri a 4 a.l. e i veicoli attuali raggiungono
60000km/h e occorrono 70000 anni per raggiungerlo.
Si definisce
impulso specifico(in sec)=variazione (in momento)/unita’ massa propellente
momento= forza*spostamento/unita’ tempo.
Piu’ efficiente e’ il motore minore e’ la quantita’ di propellente necessaria per
portarlo nello spazio.
Un razzo a propulsione chimica (impulso specifico =250s) dispone di una spinta pari a
diversi milioni di kg ma tale combustibile dura solo qualche minuto.
Il motore a ioni (impulso specifico =3000s)ha una spinta piu’ debole ma puo’ operare
per anni nello spazio. E’ formato da un filamento caldo infiammato dalla corrente
elettrica che crea un fascio di atomi ionizzati (xeno) espulsi all’estremita’ del razzo.
Un esperimento del 1998 ha funzionato per 678 giorni.
Il motore a ioni a plasma usa onde radio e campi magnetici o radiazione solare o
fissione nucleare(impulso specifico =1000-30000s) per riscaldare i gas di H2 fino a 106
C. Occorre pero’ una grande quantita’ di combustibile.
Le vele solari utilizzano la luce del Sole che esercita una pressione lievissima ma
costante sufficiente a spingere nello spazio una vela enorme. Non e’ stato ancora
realizzato nulla di significativo. Si pensa di costruire sulla Luna un’ampia batteria di
laser capaci di proiettare un intenso fascio laser su una vela solare, ognuno dei quali
capace di emettere incessantemente luce per anni e anni se non decenni. I laser
dovrebbero raggiungere una potenza enorme e per funzionare la vela dovrebbe avere
un diametro di centinaia di km ed essere costruita interamente nello spazio. Potrebbe
raggiungere una velocita’ pari a meta’ di quella della luce. Per tornare sulla Terra
dovrebbe essere spinta da una seconda batteria di laser o potrebbe ruotare
rapidamente attorno alla stella e sfruttare l’effetto fionda. I laser sulla Luna
potrebbero essere impiegati per ridurre la velocita’ di ritorno.
I motori a fusione(impulso specifico =2500-200000s) raccolgono l’ H2 nello spazio, lo
riscaldano a una temperatura di milioni di gradi per attivare la fusione con
conseguente rilascio di energia da reazione termonucleare. Un motore di circa 106 kg
puo’ mantenere una spinta costante di 1g di forza (pari a quella del campo
gravitazionale terrestre nei pressi della superficie del pianeta). Dovrebbe riuscire a
mantenere tale accelerazione per 1anno per raggiungere il 77%c sufficiente a rendere
possibile il viaggio interstellare. Ma occorrerebbe un imbuto con cui raccogliere l’H
di circa 160km di diametro e si potrebbe solo realizzare nello spazio per l’assenza di
Futuro tecnologico
cap-pag 11-28/43
gravita’..All’interno del razzo il tempo rallenterebbe e
raggiungere l’ammasso delle Pleiadi distanti 400a.l. e
raggiungere Andromeda a 2*106a.l.!! Attualmente i reattori
deuterio/trizio che sono molto piu’ rari nell’universo e la
irrealizzabile anche se sviluppa un’energia molto inferiore.
in 11 anni potrebbe
in 23 anni potrebbe
a fusione combinano il
fusione p-p e’ ancora
I motori a propulsione nucleare-elettrica(impulso specifico =800-1000s) utilizzano un
reattore a fissione nucleare in modo tale da riscaldare H e poi provocare l’espulsione
dall’estremita’ del razzo con conseguente spinta. Gli esperimenti compiuti hanno
mandato la navicella in pezzi in seguito alle vibrazioni del motore nucleare. Inoltre i
prototipi potevano provocare reazioni a catena incontrollate usando Uranio
arricchito.
I motori a impulsi nucleari(impulso specifico =10000-1000000s) utilizzano minibombe
nucleari per procurare la propulsione. La navicella cavalca l’onda d’urto
raggiungendo velocita’ prossime a quella della luce.. Il prototipo Orione utilizzando
minibombe a fissione doveva raggiungere il 10%c con un peso di 8*106 tonnellate e un
diametro di 400m alimentata da piu’ di 1000 bombe H ma anche con simili velocita’
occorreva un equipaggio multigenerazionale che avrebbe trascorso l’interera vita
internamente!!! Il rischio sarebbe stato la contaminazione nucleare e il rischio di
tumori a seguito del fallout nucleare…Il prototipo Daedalus utilizzando minibombe a
H con 54000 tonnellate avrebbe raggiunto il 7%c per raggiungere senza equipaggio
la stella di Barnard e IpsilonIndi
Futuro tecnologico
cap-pag 11-29/43
Figura: Stelle piu’ vicine al Sole
Fonte: Wikipedia
Ascensori spaziali. Il costo proibitivo per costruire motori giganteschi nello spazio e’
legato anche al consumo per superare i 160km dell’atmosfera terrestre per la spinta
gravitazionale. Un cavo lungo resterebbe sospeso per aria (come una sfera che ruota
appesa ad un filo) a seguito della forza centrifuga della rotazione terrestre che lo
allontana dal centro della rotazione. La tensione di tale cavo avrebbe pero’ un valore
estremamente alto e quindi irrealizzabile. Se il cavo partisse da una stazione
orbitante a 58000km da terra (stazionario) sarebbe sottoposto a una tensione di 60100 gigaPascal mentre l’acciaio ad esempio ha tensione di 2gigaPascal! I nanotubi di
carbonio (studiati negli anni 50) si ipotizza possano supportare una pressione di
120gigaPascal! Nel 1999 la NASA ha ipotizzato un nastro di 1m diametro e lungo
47000km in grado di innalzare un carico di 15tonnellate per ridurre i costi.
Attualmente mandare mezzo chilo di materiale costa 10000dollari quanto il costo
dell’oro. Ma i nanotubi attuali non superano i 15mm lunghezza e un altro problema
e’ la necessita’ di purezza su scala atomica. Esiste un grosso premio “Beam power
challenge”o “Teacher challenger” da parte della NASA per chi riuscira’ a spedire un
congegno meccanico del peso di 25kg su per un cavo a una velocita’ di 1m/s per una
distanza di 50m senza utilizzare combustibile, batterie o cavo elettrico ma alimentato
Futuro tecnologico
cap-pag 11-30/43
da pannelli solari, riflettori solari, laser o fonti di energia a microonde. Un ascensore
spaziale non e’ affatto esente da rischi: la traiettoria dei satelliti in orbita finira’
prima o poi ad entrare in collisione con esso a un v=29000 km/s sufficiente a spezzare
il cavo. Il sistema potrebbe entrare in collisone anche con meteoriti o potrebbe
risentire di situazioni come uragani, maremoti etc.
Effetto fionda: utilizzato dal Voyager risparmiando combustibile per raggiungere
Nettuno. Dyson ipotizza che avvicinandosi a due stelle a neutroni con l’effetto fionda
si potrebbe raggiungere v=c/3. Affinche’ un’astronave possa servirsi di tale effetto
deve trarre la sua energia dal moto di un pianeta o di una stella non
stazionaria!.Purtroppo non siamo in grado di sapere quando potremo raggiungere
una stella di neutroni!.
Cannoni a rotaia:due conduttori attraversati da corrente generano un forte campo
magnetico che spinge un proiettile interno a velocita’ elevata (rail gun). Tale velocita’
per uscire dal campo magnetico terrestre dovrebbe essere a 29000km/h. Non esiste
piu’ il problema (presente nel gas ad espansione di un comune razzo) della velocita’
massima delle onde d’urto. Esiste pero’ il problema della forte accelerazione che puo’
deformare gli stessi oggetti e puo’ anche schiacciarli nell’impatto con l’aria. A tali
problemi si sovrappone la forza di gravita’. Anche se i cannoni si costruissero sulla
luna la forte accelerazione provocherebbe danni. Un rail gun costruito nello spazio
cosmico dovrebbe estendersi per 2/3 della distanza terra-sole, accumulerebbe
l’energia solare e la rilascerebbe provocando l’espulsione del carico a 1/3c con
un’accelerazione 5000g!
Condizioni per la sopravvivenza: Nello spazio occorre tenere presente che non esiste la
protezione dell’ozono e l’esposizione alle radiazioni potrebbe essere fatale. Lo spazio
e’ attraversato inoltre non solo da metoriti ma da micometeoriti e occorre
sicuramente un ulteriore scudo. L’assenza di gravita’ provoca inoltre atrofia
muscolare, riduzione di globuli rossi, indebolimento del sistema immunitario, le
astronavi dovranno percio’ ruotare su se stesse per creare gravita’ artificiale.
I piu’ vicini sistemi solari richiederanno decenni per cui l’ibernazione puo’ essere una
soluzione. Certi pesci grazie a proteine e certe rane grazie al glucosio riescono ad
abbassare il punto di congelamento dell’acqua e ibernarsi a -2ºC impedendo cosi’ la
formazione dei cristalli di ghiaccio. Il loro corpo si solidifica all’esterno ma non si
congela all’interno permettendo di continuare a funzionare a ritmo ridotto. Nei
tessuti umani il congelamento crea cristalli che aumentando di dimensioni possono
distruggere le pareti cellulari. Esperimenti di animazione sospesa su animali si sono
realizzati:
• sostituendo il sangue con una soluzione freddissima e poi fatti rinascere
facendo ripartire il cuore.
• Inserendo gli animali in una camera con idrogeno solforato e riducendo la
temperatura a 13ºC
Nanoastronavi: nanobot ionizzati e posti in un campo elettrico potrebbero essere
spinti a velocita’ prossima a quella della luce e procedere fino alle stelle a costi di
gran lunga inferiori. Potrebbero anche essere impiegati in formazione e comunicanti
tra loro per spingere una vela solare nel viaggio nello spazio. Le nanoastronavi pero’
potrebbero essere deviati dai campi elettrici e magnetici nello spazio cosmico.
Pertanto dovrebbero essere spinte a tensioni estremamente elevate e lanciate in
quantita’ numerosa. I nanobot dovrebbero essere della dimensione del silicio, lanciate
Futuro tecnologico
cap-pag 11-31/43
da rail gun o acceleratori e costerebbero poco. Potrebbero poi procedere all’impianto
di una nanofabbrica per produrre una potente radiotrasmittente su un satellite.
Potrebbero autoreplicarsi ed essendo sonde robotizzate per l’esplorazione dell’intera
galassia non necessitano di rientrare. Si autoreplicano e esplorano su un fronte
circolare a una velocita’ prossima a quella della luce. Brian Gilchrist costruisce
nanoparticelle non piu’ grandi di un batterio che vengono espulsi da un campo
elettrico di un motore a ioni mediante l’incisione a silicio. Ammassa circa 10000
propulsori in un singolo silicio di 1cm di diametro.
Macchine a moto perpetuo:
ogni macchina deve obbedire ai 3 principi
termodinamica: il totale di materia e energia non puo’ subire variazioni, l’entropia
totale e’ in continua crescita (il calore fluisce dai punti piu’ caldi a quelli piu’ freddi),
non si puo’ mai raggiungere lo zero assoluto. Il processo di invecchiamento e’ dovuto
al graduale accumulo di errori genetici nei geni e nelle cellule cosicche’ il loro
funzionamento si deteriora lentamente ma inesorabilmente e questo e’
esemplificazione della seconda legge della termodinamica. Il nostro cervello che e’
uno degli strumenti piu’ complessi ed evoluti sembra violare la seconda legge … In
realta’ la diminuzione di entropia provocata dall’emergere di organismi superiori
(compresi gli umani) e’ sopravvenuta a spese dell’aumento complessivo dell’entropia
da qualche altra parte. Ad esempio la diminuzione di entropia a seguito
dell’evoluzione e’ controbilanciata dall’aumento di entropia nell’ambiente circostante
ovvero dall’entropia della luce del Sole che raggiunge la Terra. La diminuzione di
entropia a seguito della creazione del cervello umano viene compensato dal caos che
produciamo sottoforma di caos, inquinamento… Se le leggi dell’universo restano
identiche con il passar del tempo e’ perche’ il sistema conserva la sua energia. Se le
leggi fisiche restano identiche qualsiasi sia la direzione e’ perche’ il momento si
conserva ( nel caso di una rotazione si tratta di momento angolare). La luce delle stelle
in galassie distanti emessa miliardi di anni prima che il nostro Sole nascesse ha uno
spettro (idrogeno, carbonio etc.) uguale a quelle misurabili sul nostro pianeta. Forse
in presenza di wormhole (vd dopo) il principio di conservazione puo’ essere violato o
nel caso di energia prodotta dal nulla come se il vuoto possegga un’incalcolabile
quantita’ di energia. L’energia oscura capace di allontanare le galassie sembra infatti
possedere un’energia enorme anche se sulla Terra e’ troppo debole per alimentare
macchine a moto perpetuo. Nessuno sa infatti calcolare tale energia dal nulla ne’
spiegare da dove arriva!.
Un elettrone che viaggia a ritroso e’ identico a un antielettrone che viaggia in avanti.
Quando un elettrone e un antielettrone si scontrano si annichilano dando origine a un
raggio gamma. Invertendo la carica dell’antielettrone questo si trasforma in un
comune elettrone che procede a ritroso nel tempo. Il processo di annichilazione
corrisponde quindi a un elettrone che procede a ritroso nel tempo. Le antiparticelle
sono particelle che viaggiano indietro nel tempo. Una sola particella puo’ andare
avanti e indietro nel tempo all’infinito:parte dal big bang e ritorna al big bang
ciclicamente. Il nostro universo e’solo una porzione temporale di
quell’elettrone…Ogni volta che l’elettrone torna indietro non fa che adempiere al suo
passato cioe’ le soluzioni avanzate dal futuro sono necessarie per tutelare la coerenza
della teoria quantistica e non violano la causalita’. Feynman dimostro’ che
aggiungendo il contributo delle onde avanzate e ritardate i termini che potrebbero
portare a una violazione della causalita’ si cancellano con precisione assoluta. Si
realizzo’ cosi’ la teoria quantistica completa dell’elettrone QED.
Futuro tecnologico
cap-pag 11-32/43
L’antimateria dispone di energia positiva, viaggia a velocita’ inferiore della luce, puo’
essere prodotta dagli acceleratori di particelle, subisce l’influenza attrattiva della
gravita’ e viaggia a ritroso nel tempo. La materia negativa ha energia negativa,
viaggia a velocita’ inferiore della luce, non subisce l’influenza attrattiva ma
repulsiva della gravita’, se disponibile in grandi quantitativi potrebbe alimentare una
macchina del tempo. I tachioni viaggiano a velocita’ superiore della luce, non si sa
quale sia l’influenza della gravita’, ha massa a riposo immaginaria, quando si scontra
con gli altri atomi perde energia ma accelera. I tachioni quando li si inserisce in una
qualche teoria destabilizzano il vuoto ovvero il livello energetico piu’ basso di un
sistema. Se il sistema dispone di tachioni si trova in un falso vuoto di conseguenza e’
instabile e deve decadere verso un vero vuoto. L’universo prima del BigBang si
trovava in una condizione di falso vuoto con i tachioni cioe’ in un sistema instabile.
Poi comparve uno squarcio nella trama dello spaziotempo a rappresentare il vero
vuoto. Con l’allargarsi dello squarcio ne emerse una bolla dove all’esterno i tachioni
esistevano mentre all’interno erano definitivamente scomparsi. Nella teoria
inflazionaria fu un tachione a produrre il processo inflazionario originario.
L’universo prese spunto da una minuscola bolla dello spaziotempo che avrebbe
subito una turbolenta fase inflazionaria. Quella bolla si sarebbe rapidamente gonfiata
sino a formare il nostro universo. All’interno del nostro universo-bolla, l’inflazione si
sarebbe poi conclusa cosi’ da non poter piu’ essere individuata. Il bosone di Higgs
sarebbe un tachione e nel falso vuoto nessuna delle particelle subatomiche disponeva
di massa. La sua presenza avrebbe destabilizzato il vuoto e l’universo sarebbe passato
a un nuovo vuoto in cui il bosone di Higgs si sarebbe trasformato in una particella
ordinaria. Una volta compiuta la transizione da tachione a particella ordinaria le
particelle subatomiche avrebbero cominciato a disporre delle masse che possiamo
misurare in laboratorio.
Futuro tecnologico
cap-pag 11-33/43
12. Antimateria e Antiuniversi
La bomba atomica e’ efficace all’1%: solo una piccola frazione dell’uranio si
trasforma in energia; una bomba all’antimateria converte il 50% in energia esplosiva
e il resto in neutrini. Gli acceleratori producono antiparticelle ad esempio antiH con
antiprotoni e antielettroni (positroni) che vi girano intorno. Successivamente
antiatomi si scontrano con atomi e nell’annichilarsi rilasciano energia. Per produrre
1g di antimateria si ha un costo di 1017 dollari e l’impianto dovrebbe lavorare per
1011 anni!! La gestione dell’antimateria inoltre e’ complicatissima perche’ il contatto
tra materia e antimateria genera un’esplosione. Si potrebbe cosi’ ionizzare
l’antimateria e riporla in un campo magnetico che la isolerebbe dalle pareti della
camera. Un motore ad antimateria (impulso specifico =1000000-10000000s !)invece e’
formato da una camera di reazione con un flusso di antimateria combinata con
materia cosi’ da indurre un’esplosione controllata. Gli ioni creati nel corso
dell’esplosione vengono espulsi dall’estremita’ del razzo. Gerald Smith ritiene che
4mg di positroni possono essere sufficienti a portare un razzo ad antimateria su
Marte. Il fascio di antiprotoni potrebbe venire prodotto da un acceleratore di
particelle e accumulati in un congegno che ha le pareti i cui atomi hanno lunghezza
d’onda minore degli antiprotoni in modo che gli antiprotoni riflettano e non
annichiliscano. Inoltre il contenitore potrebbe conservare gli antriprotoni per 5 giorni
fino alla loro definitiva annichilazione nel mischiarsi con atomi ordinari. Si sta
cercando di ridurre i costi della produzione degli antiprotoni. Il nostro universo e’
fatto di materia (e non di antimateria) forse perche’ alla nascita dell’universo c’era
una leggera asimmetria definita “violazione cp” e non due quantitativi uguali e
simmetrici di materia e antimateria come si suppone. Dopo l’annichilazione, il piccolo
residuo di materia ha dato origine all’universo visibile. Non si esclude ci siano piccoli
quantitativi di antimateria naturale facilmente individuabili perche’ quando un
elettrone e un antielettrone si incontrano, si annichilano in raggi gamma con energia
superiore a 106 eV! Occorre una scansione dell’universo alla ricerca di tali raggi e si
sono individuate alcune “fontane di antimateria” nella Via Lattea non distante dal
centro galattico. Il satellite Pamela e’ stato messo in orbita per rilevare in 3 anni
antimateria da supernove o antielio da antistelle e eventualmente raccoglierle…Il
raccoglitore di antimateria si basa su tre sfere concentriche ognuna delle quali
composta da un reticolo di filamenti elettrici. La sfera esterna avra’ un diametro di
16km e carica elettrica positiva cosi’ da respingere qualsiasi protone e attrarre gli
antiprotoni. Una volta raccolti da tale sfera verranno rallentati dal passaggio nella
seconda sfera e bloccati all’interno della sfera interna del diametro di 100m.
Successivamente assicurati all’interno di un contenitore magnetico gli antiprotoni
saranno combinati con antielettroni in modo da produrre antiH. Se non si dovesse
trovare antimateria nello spazio dovremo aspettare decenni o secoli per produrre un
quantitativo sufficiente nella Terra. Le particelle prive di carica elettrica come il
fotone o il gravitone possono essere antiparticelle di se stesse cioe’ gravita’ e
antigravita’ sono la stessa cosa. Sotto l’effetto della gravita’ l’antimateria dovrebbe
dirigersi verso il basso e non verso l’alto anche se non si e’ mai verificato in
laboratorio. Universi caratterizzati da antimateria e parita’ inversa fisicamente
possono esistere perche’ le equazioni rimangono invariate! Nel 1957 si dimostro’ che
nelle particelle subatomiche un universo speculare a parita’ inversa non poteva
esistere: esistono cioe’ direzioni preferenziali ad esempio nello spin di elementi. Nel
1964 si dimostro’ invece che un universo a carica e parita’ inversa non poteva esistere.
Futuro tecnologico
cap-pag 12-34/43
Se infatti un universo caratterizzato da una simmetria CP fosse possibile, il BigBang
originario avrebbe comportato quantita’ assolutamente identiche di materia e
antimateria e quindi l’annichilazione avrebbe riguardato il 100% della materia senza
lasciar nulla per creare gli atomi di cui siamo fatti. Le leggi fisiche ammettono pero’
la possibilita’ di un universo a carica e parita’ inverse e decorso del tempo cioe’
universo CPT-invertito. Le leggi di Newton ammettono compatibilita’ di un tempo
invertito. Le leggi quantistiche ammettono violazione nel caso solo di un tempo
invertito ma ammettono compatibilita’ per una completa inversione CPT .
Futuro tecnologico
cap-pag 12-35/43
13. Velocita’ superiore alla luce
L’accelerazione alla velocita’ della luce provoca contrazione dello spazio, aumento
della massa e dilatazione del tempo. In un disco in rotazione le parti esterne della
circonferenza si muovono piu’ rapidamente del centro (quasi stazionario). All’esterno
un oggetto dovrebbe contrarsi rispetto ad uno centrale e la superficie della giostra
non sarebbe piu’ piana ma curva. Si ha cosi’ la curvatura del tempo e dello spazio
come dalla relativita’ generale. Nel campo della relativita’ generale si ha superamento
della velocita’ della luce solo se non si ha trasmissione di informazione (esperimento
EPR, fase iniziale BigBang) e le possibili alternative per riuscirci sono:
• dilatazione dello spazio: estendere lo spazio alle spalle e contrarre lo spazio
davanti
• lacerazione dello spazio: cunicolo wormhole spaziotemporale che mette in
comunicazione due universi
Nel motore a curvatura di Alcubierre, il pilota prende posto in una “bolla di
curvatura” dove all’esterno lo spazio viene compresso e hanno luogo distorsioni
spaziotemporali. Non esiste dilatazione del tempo che all’interno della bolla contiene a
scorrere normalmente. Di fronte all’astronave le stelle si trasformano in lunghi
filamenti di luce e alle spalle non si vede niente perche’ la luce delle stelle non puo’
viaggiare a velocita’ sufficiente per raggiungere la bolla. L’energia per spingere
l’astronave deve essere a massa negativa o energia negativa. L’antimateria esiste ed e’
a energia positiva (anche se con carica invertita) mentre l’energia negativa non si sa se
esiste. La materia negativa galleggia e viene respinta anziche’ attratta pertanto si puo’
trovare solo nello spazio cosmico piu’ remoto. La ricerca di materia negativa e
cunicoli spaziotemporali puo’ essere individuata mediante le lenti di Einstein.
Attualmente tali lenti individuano la materia oscura (invisibile ma dotata di massa).
La luce proveniente da un oggetto distante in prossimita’ di una galassia e’
caratterizzata da un fenomeno di convergenza cosi’ tale convergenza si verifica
attorno alla materia oscura. L’energia negativa si e’ scoperta nell’effetto Casimir dove
due piastre prive di carica elettrica si attraggono perche’ coppie di elettroniantielettroni si annichilano e scompaiono nel vuoto da cui sono apparse. Le violazioni
al principio di indeterminazione in realta’ sono talmente brevi da renderle apparenti:
quindi mediamente l’energia viene conservata. Esternamente alle piastre il vuoto non
ha limiti quindi si definisce una pressione che porta le piastre ad avvicinarsi. Tale
energia e’ pero’ di proporzioni ridottissime.
Futuro tecnologico
cap-pag 13-36/43
Figura: Effetto Casimir .
Fonte: L’universo in un guscio di noce: Stephen Hawking
Oltre alla curvatura dello spazio calcolabile mediante le eq. Einstein sulla base di un
certo quantitativo di massa o energia, esiste il metodo dei wormhole. Schwarzchild ha
risolto le eq Einstein per una stella puntiforme. A una certa distanza dalla stella il
campo gravitazionale e’ analogo a quello di una stella ordinaria: questo e’ servito per
calcolare la deviazione della luce attorno a una stella ordinaria. Intorno alla stella
puntiforme c’e’ una sfera invisibile detta “orizzonte degli eventi” un punto di non
ritorno che per sfuggire necessita di superare la velocita’ luce. All’approssimarsi di
tale orizzonte tutti gli atomi sarebbero sottoposti a forze di marea: la forza di gravita’
ci stirerebbe e ci strazierebbe. L’attraversamento dell’orizzonte provocherebbe un
congelamento come se il tempo si fermasse e si vedrebbe roteare tutta la luce
catturata nel buco nero per miliardi di anni. Il passaggio dall’altra parte e’ definito
ponte di Einstein-Rosen o wormhole o cunicolo temporale. Oppenheimer dimostro’
che il buco nero non si forma spontaneamente in una stella ma si crea in seguito alla
Futuro tecnologico
cap-pag 13-37/43
morte di una stella che subisce il collasso gravitazionale implodendo fino a superare i
confini del suo orizzonte e assumendo cosi’ proporzioni puntiformi. Kerr dimostro’
che il buco nero ruota a velocita’ incredibili come qualsiasi oggetto che rimpicciolisce.
Chiunque si scontrasse con tale anello morirebbe ma se vi cadesse dentro
sopravviverebbe per ritrovarsi dall’altro lato di un ponte di Einstein-Rosen in un
altro universo. Per permettere un passaggio aperto sarebbe necessario una forza
repellente o una massa negativa. Ogni passaggio porterebbe a raggiungere altri
universi. Nel 1988 Thorne ipotizzo’ un cunicolo spaziotemporale a doppio senso. I
problemi irrisolti sono:
• per produrre l’estrema distorsione dello spaziotempo per potere viaggiare
attraverso un wormhole c’e’ bisogno di un quantitativo enorme di energia
positiva e negativa: per 1m di apertura occorre una massa equivalente a
quella di Giove in negativo!
• Non si conosce il livello di stabilita’ dei wormhole: potrebbero chiudersi al
passaggio o le radiazioni potrebbero uccidere chiunque cercasse di
attraversarli
• I raggi di luce che precipitano in un buco nero sarebbero caratterizzati da un
blueshift cioe’ avvicinandosi all’orizzonte otterrebbero energia superiore e
quindi la radiazione dell’energia che precipita nel buco nero ucciderebbe
chiunque si trovasse all’interno di un razzo.
L’energia che e’ necessaria per lacerare lo spaziotempo e’ comprimere un oggetto
finche’ le sue dimensioni non sono inferiori al suo stesso orizzonte. Per il Sole
occorrerebbe ridurlo a 3km per avere un buco nero ma la sua gravita’ e’ troppo
debole. Per un uomo occorrerebbe comprimere le dimensioni degli atomi fino a
qualcosa di inferiore alle stesse distanze subatomiche…Oppure costruire una batteria
di fasci laser capaci di indirizzare un intenso fascio di luce su un punto specifico.
Oppure costruire un acceleratore di particelle gigantesco in modo da creare due fasci
che scontrandosi a energie inaudite risulterebbero sufficienti a produrre una
lacerazione della trama.. Tale energia e’ dell’ordine energia di Plank 1027 eV. L’LHC
e’ 1012 eV. L’ILC (international linear collider) scagliera’ elettroni su antielettroni
lungo un percorso rettilineo dai 30km ai 40km sempre sui 1012 eV. Le collisioni
nell’LHC avvengono tra quark, mentre nell’ILC tra elettroni quindi con energie
estremamente superiori. Tutto ancora distante per uno squarcio alla trama!!! Si
parla come abbiamo visto in precedenza di civilta’ di tipoIII e non di civilta’ di tipo 0
come la nostra.
In spazi alla distanza di Planck 10-35 cm si ritiene che lo spazio non sia vuoto ma
schiumoso di minuscole bolle che compaiono e scompaiono come universi virtuali e la
quantistica ipotizza che se (sempre le civilta’ di tipoIII) concentrassero energia
sufficiente in un solo punto fino a raggiungere energia di Planck, tali bolle
acquisirebbero dimensioni superiori e ogni bolla sarebbe un wormhole collegato a un
baby-universo.
Per migliorare l’energia di acceleratore di particelle hanno cominciato con un fascio
di elettroni lungo un percorso di 3km e un’energia di 40*109 eV/m. Tali elettroni sono
stati fatti passare in un postbruciatore sottoforma di una camera a plasma di 1m
lunghezza pieno di Litio e hanno raddoppiato la loro energia! Il record e’ di 2*1011
eV/m Per mantenere tale rapporto su distanze superiori occorre affrontare problemi
come la stabilita’ del fascio ma supponendo valido tale rapporto, per ottenere
l’energia di Planck occorrerebbe un acceleratore lungo 10anni luce!!
Futuro tecnologico
cap-pag 13-38/43
14. Viaggi nel tempo
All’aumentare della velocita’ corrisponde un rallentamento del tempo e una
contrazione della massa per cui occorrerebbe avere una massa infinita. Un astronauta
che andasse alla velocita’ della luce per raggiungere la stella piu’ vicina (4 a.l.)
impiegherebbe 1 minuto per effetto del suo rallentamento temporale e 4 anni sulla
terra cioe’ si sarebbe spostato nel futuro di 4 anni secondo la percezione terrestre.
Attualmente gli astronauti che si allontanano dalla terra a v=29000 km/h viaggiano
nel futuro.. Il cosmonauta Avdeyev che e’ rimasto in orbita per 2 anni si e’ spinto per
0,02s nel futuro! Nessuno e’ riuscito a trovare una legge che impedisca i viaggi nel
tempo nonostante si dichiari l’impossibilita’ di effettuare tali viaggi o meglio si
affermi la possibilita’ ma non la fattibilita’. Esempi di macchine del tempo sono:
• Wormhole: precipitando in un cunicolo interno a un buco nero, potremo
viaggiare nel tempo per la connessione spaziotemporale einsteiniana. Il
problema e’ uscirne..
• Godel trovo’ la prima soluzione delle eq Einstein per il viaggio nel tempo: se
l’universo ruotasse su se stesso e riuscissimo ad attraversarlo con la velocita’
necessaria potremo ritrovarci nel passato. Attualmente si sa che l’universo si
espande ma lo spin e’ zero..
• Un cilindro infinito in rotazione matematicamente permette il viaggio nel
tempo ma la velocita’ dovrebbe essere cosi’ elevata da far volare via il
materiale del cilindro…
• Gott analizza gigantesche stringhe cosmiche residuo del Bigbang originario che
si scontrano con una modalita’ precisa. Tale stringa chiusa che collassi
dovrebbe avere piu’ della meta’ dell’energia e della mssa dell’intero universo.
Dovremmo pero’ trovare almeno una stringa…
• Cunicolo spaziotemporale a doppio senso dal capitolo precedente come
squarcio nello spaziotempo con energia negativa. Consisterebbe di due camere
e ogni camerea sarebbe costituita di due sfere concentriche separate da
brevissima distanza. Facendo implodere la sfera esterna le due sfere
generebbero un effetto Casimir e quindi energia negativa. Una civilta’ di tipo
III potrebbe essere in grado di tendere un wormhole tra queste due camere (ad
esempio estraendolo dalla schiuma spaziotemporale). A quel punto la prima
camera verrebbe lanciata nello spazio a velocita’ prossima a quella della luce e
al suo interno il tempo rallenterebbe. All’interno delle due camere il tempo
scorrerebbe in modo diverso. Chiunque si trovasse nella seconda camera
potrebbe passare alla prima attraverso il cunicolo accedendo cosi’ ad un tempo
precedente. Il wormhole sarebbe di dimensioni piccole inferiori all’atomo. Per
creare sufficiente energia negativa le lastre metalliche dovrebbero essere
rimpicciolite fino alla dimensione di Planck… Altro problema e’ l’accumulo di
radiazione letale al nostro ingresso o nel momento in cui il wormhole dovesse
richiudersi su di noi. Infatti qualsiasi radiazione che pentrasse nel portale,
verrebbe automaticamente inviata nel passato dove vagherebbe fino al
raggiungimento del presente che la farebbe nuovamente precipitare nel
passato. Questo per un numero infinito di volte e al suo interno assumerebbe
proporzioni straordinarie sufficiente a provocare la morte dell’astronauta… Il
viaggio a ritroso nel tempo ci porterebbe al massimo al punto in cui le
macchine sono state costruite giacche’ in qualsiasi momento precedente le due
camere sarebbero caratterizzate dalla medesima scansione temporale…
Futuro tecnologico
cap-pag 14-39/43
Le problematiche etiche di un tale viaggio sono legate ad un viaggiatore che commette
un omicidio e poi si rifugia nel passato o si sposa nel passato avendo gia’ una moglie..
Le problematiche tecniche sono uccidere i genitori o i nonni prima di essere nati. Per
risolvere tali paradossi:
• non esiste libero arbitrio: ritornando nel passato dobbiamo ripetere la storia
• esiste libero arbitrio: si puo’ cambiare il passato entro certi limiti senza
produrre un paradosso temporale.
• L’universo si biforca in due universi distinti cioe’ in due universi paralleli: in
accordo con la teoria quantistica. Con questa soluzione si risolve anche
l’accumulo della radiazione letale infatti qbeuando la radiazione entra nella
macchina e viene spedita nel passato penetra in un nuovo universo cosicche’
non potra’ mai cominciare il circolo vizioso. Ovviamente cio’ comporta che il
numero di universi sia infinito uno per ogni ciclo contenente la radiazione di
un solo fotone..
Tre fisici hanno dimostrato che nel viaggio del tempo tutti i problemi si concentrano
sull’orizzonte degli eventi ma in tale orizzonte non regge piu’ la teoria di Einstein e
vale la teoria quantistica. Occorrerebbe una teoria del tutto come unificazione delle 4
forze conosciute dell’universo
Futuro tecnologico
cap-pag 14-40/43
15. Universi paralleli
Esistono tre tipi di universi paralleli:
• iperspazio o dimensioni superiori: non e’ mai successo che un oggetto si
smaterializzi o finisca in qualche altro universo. Cio’ significa che le
dimensioni superiori sempre che esistano devono essere piu’ piccole
dell’atomo. Kaluza descrisse la teoria di Einstein in 5 dimensioni: il tempo e’ la
quarta dimensione spaziotemporale e la quinta dimensione e’ solo spaziale. Se
la quinta dimensione veniva ridotta a misure inferiori le equazioni si
dividevano in due spezzoni: uno descriveva la teoria relativita’ standard e
l’altro la teoria luce di Maxwell. La luce che attraversa miliardi di anni luce di
spazio vuoto dove non c’e’ nulla allora poteva essere descritta da equazioni di
onde nella quinta dimensione. Tale quinta dimensione doveva essere incurvata
fino a raggiungere proporzioni infinitesimali. Tale teoria fu presto
abbandonata alla morte di Kaluza. Nella teoria delle superstringhe le
vibrazioni determinano le particelle esistenti nel Modello Standard consolidato
e caotico. La teoria di Einstein emerge come una delle piu’ basse vibrazioni
della stringa. Le stringhe possono vibrare solo in uno spaziotempo
caratterizzato da 10dimensioni. Per dimostrare o escludere l’esistenza delle
dimensioni superiori forse bisognerebbe trovare deviazioni alla legge gravita’
newtoniana. La gravita’ dovrebbe diminuire in base alla potenza di n-1
dimensioni. Attualmente a grandi distanze vale sempre la legge 1/r2 di uno
spazio tridimensionale e a piccole distanze non si sono trovati universi
paralleli.. Il Large Hadron Collider poco fuori Ginevra cerchera’ la
superparticella corrispondente alla piu’ alta vibrazione della superstringa. Se
si trovasse il Modello Standard costituirebbe solo la vibrazione piu’ bassa della
superstringa.
•
Multiversi. L’undicesima dimensione nella teoria stringhe permette
l’unificazione delle 5 varie soluzioni di tale teoria. Nell’undicesima dimensione
viene introdotto la membrana che rappresenta il passaggio dalla undicesima
alla decima dimensione con tutte e 5 le teorie. Ogni membrana rappresenta
cosi’ uno dei tanti universi-bolla e il nostro e’ uno fra quelli. Gli universi
possibili sono un googol(10100)! Tra questi universi non esiste comunicazione e
solo la gravita’ puo’ vagare liberamente nello spazio tra gli universi. C’e’ una
teoria che sostiene che la materia oscura possa essere semplice materia
ordinaria che fluttua in un universo parallelo. Secondo un’altra teoria la
materia oscura sarebbe un’altra galassia in un altro universo membrana e
possiamo percepire la gravita’ che pero’ resta invisibile perche’ la sua luce si
muove in un’altra dimensione. Un’altra teoria afferma che la materia oscura
sarebbe la vibrazione successiva della superstringa e noi percepiamo solo la
sua vibrazione inferiore. Tali universi paralleli possono essere morti formati da
insiemi di particelle instabili o estremamente ricco di forme complesse e non di
un solo tipo di atomo con protonoi, neutroni,elettroni.. Gli universi membrana
possono entrare in collisione e il nostro stesso universo e’ stato generato dallo
scontro di due gigantesche membrane circa 14miliardi di anni fa (teoria Big
Splat). Le costanti dell’universo sono tarate con grande precisione da
permettere la vita (principio antropico): aumentando la gravita’ si avrebbe un
Futuro tecnologico
cap-pag 15-41/43
Big Crunch mentre riducendola si espanderebbe rapidamente Big Freeze. In
tale teoria esistono miliardi di altri universi paralleli inanimati..
•
universi quantistici paralleli. La teoria quantistica ammette l’esistenza
simultanea ad es. di uno stato vivo e di uno stato morto come somma in una
funzione d’onda di due stati. Solo al collasso istantaneo della funzione d’onda
in un singolo stato le onde scompaiono e lasciano solo la particella cioe’ lo stato
determinato coerente con la realta’. Nel mondo atomico tutto e’ descritto da
onde probabilistiche secondo le quali gli atomi possono avere collocazioni
diverse nello stesso istante. Piu’ ampia e’ l’onda probabilistica in una certa
posizione maggiore la probabilita’ di ritrovare la particella in quel punto. Per
oggetti di dimensioni superiori le onde sono gia’ collassate e gli oggetti esistono
in uno stato determinato. Attualmente con la nanotecnologia si possono
manipolare singoli atomi servendosi dei microscopi a scansione ad effetto
tunnel. Esistono diverse correnti di pensiero:
coscienza cosmica: gli oggetti si manifestano nel momento in cui
vengono effettuate delle misurazioni e le misurazioni sono compiute
da esseri senzienti. Affinche’ lo stato in cui ci troviamo sia
determinato deve esserci una coscienza cosmica che pervade
l’universo (nell’induismo l’universo sarebbe penetrato da una
coscienza onnipervadente)
idea dei molti mondi: l’universo si divide in due con uno stato morto
e uno vivo da un’altra parte. Cio’ implica un’enorme proliferazione
di universi paralleli che si diramano ogni qual volta c’e’ un nuovo
evento quantistico. Qualsiasi universo puo’ esistere concretamente.
Non esiste il collasso delle funzioni d’onda e la funzione d’onda si
suddivide da sola!. Il nostro universo risulta stabile e affidabile
perche’ esiste decoerenza cioe’ abbiamo perso coerenza rispetto ad
ogni altro universo parallelo. Tutti gli altri universi sono possibilita’
dalle quali la nostra funzione d’onda ha perso coerenza cioe’ non
vibra piu’ all’unisono e non esiste piu’ interazione. Il nostro universo
per via delle interazioni ambientali risulta nettamente distinto da
ogni altro universo.
Nell’istante del Big Bang l’universo era piu’ piccolo di un elettrone e
l’elettrone e’ quantizzabile
cioe’ descritto da un’equazione d’onda
probabilistica. L’universo deve esistere allora in stati paralleli cioe’ in molti
mondi (cosmologia quantistica…). Come e’ possibile pero’ far collassare
dall’esterno la funzione d’onda dell’universo? Nell’approccio della cosmologia
quantisitica si risolve affermando che l’universo e’ sotto forma di vari stati
paralleli tutti definiti da una funzione d’onda principale detta funzione d’onda
dell’universo. L’universo ha preso spunto dalle fluttuazioni quantistiche del
vuoto ovvero sottoforma di una minuscola bolla di schiuma spazio-temporale.
La maggior parte dei baby-universi nella schiuma spazio-temporale ha vissuto
un Big Bang e subito dopo e’ implosa in un Big Crunch: una danza di oggetti
estremamente piccoli da poter essere analizzati dai nostri strumenti. Una di
quelle bolle nella schiuma spazio-temporale non e’ collassata ma e’ continuata
a espandersi: e’ il nostro universo. Come l’eq. di Schrodinger governa la
funzione d’onda degli elettroni e degli atomi definita per ogni singolo punto
dello spazio e del tempo, cosi’ l’eq. DeWitt-Wheeler governa la funzione
d’onda dell’universo definita tenendo conto di tutti i possibili universi. Se tale
funzione viene riferita a uno specifico universo ed e’ sufficientemente ampia, ci
Futuro tecnologico
cap-pag 15-42/43
sono buone probabilita’ che quell’universo si trovi in quel particolare stato.
Hawking afferma che la funzione d’onda del nostro universo sarebbe ampia e
quasi zero per buona parte degli altri. Nel multiverso possono esistere altri
universi ma il nostro e’ il piu’ probabile. Inoltre un universo inflazionario e’
piu’ probabile di un universo non inflazionario e quindi il nostro universo
avrebbe subito un’inflazione. La teoria secondo la quale il nostro universo
proviene dal nulla della schiuma spaziotemporale e’ coerente con questo:
nello spazio esterno la gravita’ costituisce la forza dominante ma cio’ e’
dovuto al fatto che cariche positive e negative si annullano
reciprocamente con assoluta e misteriosa precisione. Basterebbe un
piccolo squilibrio tra due cariche e quindi una forza superiore a quella
gravitazionale ad annientarci. Una spiegazione a questo e’ ipotizzare
che il nostro universo venga dal nulla cioe’ da carica zero..
il nostro universo ha spin zero. Sebbene Godel abbia cercato di
dimostrare che l’universo era in rotazione, prendendo in considerazione
la somma degli spin delle diverse galassie, oggi gli astronomi ritengono
che lo spin totale dell’universo sia zero. Una spiegazione a questo e’
ipotizzare che il nostro universo venga dal nulla cioe’ da spin zero
il contenuto totale di materia-energia dell’universo e’ cosi’ piccolo da
essere nullo. La somma dell’energia positiva della materia con l’energia
negativa associata alla gravita’ da’ un valore nullo tipico di un universo
chiuso e finito come se il nostro universo venga dal nulla
Un contatto con altri universi quantistici e’ improbabile. Abbiamo perso
coerenza a seguito di scontro di atomi con altri atomi nell’ambiente
circostante. A ogni collisione la funzione d’onda di ogni singolo atomo ha
collassato riducendo il numero di universi paralleli cioe’ la possibiulita’ di altri
universi. La somma totale di questi innumerevoli collassi ci induce a credere
che gli atomi del nostro corpo si siano condensati in uno stato definitivo. Il
contatto con un universo quantistico parallelo non puo’ essere escluso ma visto
che abbiamo perso coerenza si tratta di qualcosa di raro e improbabile.
Ogni forma di vita dovra’ un giorno confrontarsi con la fine dell’universo: il nostro
universo e’ in espansione a velocita’ crescente e un giorno periremo secondo il Big
Freeze cioe’ la morte termica dell’universo oscurita’ e stelle morte e buchi neri. Gli
atomi raggiungeranno temperature attorno allo zero assoluto. Una civilta’ dovrebbe
contemplare l’eventualita’ di un viaggio in un nuovo universo utilizzando energia
enorme uguale al valore di Plance concentrata in un singolo punto sufficiente ad
aprire un cunicolo spaziotemporale. La teoria inflazionaria per cui una minuscola e
uniforma porzione di spaziotempo era esplosa fino a raggiungere le dimensioni attuali
dell’universo e’ ancora irrisolta nella sua spiegazione iniziale e finale… La dimensione
delle bolle spaziotemporali doveva essere sufficiente ad espandersi fino a formare un
intero universo e ci sono nuove particelle chiamate inflatoni capaci di destabilizzare lo
spaziotempo e provocare la nascita e l’espansione delle bolle. Nasce il concetto di
evoluzione dell’universo: se le costanti fondamentali (masse, intensita’ forze etc.) sono
una sorta di DNA dell’universo allora i diversi universi potrebbero evolvere e quelli
ad avere maggior successo sarebbero quelli con il DNA migliore cioe’ capaci di
garantire lo sviluppo di forme di vita intelligenti. Questo spiegherebbe perche’ le
costanti fondamentali dell’universo siano accuratamente regolate cosi’ da permettere
la vita.
Futuro tecnologico
cap-pag 15-43/43