ORDINE, CAOS E COMPLESSITÀ ENRICO SANTAMATO 1. INTRODUZIONE ......................................................... 2 2. DETERMINISMO E SEMPLICITÀ ...................................... 3 3. IMPREDICIBILITÀ E CAOS ............................................ 10 4. LA COMPLESSITÀ ..................................................... 22 5. CONCLUSIONI .......................................................... 40 6. APPENDICE ............................................................. 43 COME CONTINUANO GLI STUDI ....................................... 46 INTERVISTE AI LAUREATI ................................................ 50 Enrico Santamato è professore ordinario di Ottica Quantistica presso l'Università degli Studi di Napoli Federico II [email protected] Tel. 081 67 63 59 2. DETERMINISMO E SEMPLICITÀ La convinzione di una Natura semplice nasce dal fatto che sembrano esistere "leggi" della Natura. Queste leggi sono la base di una concezione ordinata e deterministica del mondo. Per comprendere l'essenza delle leggi di Natura in un contesto leggermente più ampio che le scienze naturali, è conveniente utilizzare alcune idee tratte dalla recente matematica e scienza dei computer. Consideriamo le due sequenze numeriche 1. INTRODUZIONE Se conversando con un fisico delle particelle elementari vi trovate a parlare della natura del mondo, egli vi racconterà ben presto come semplice e simmetrico sia in realtà il mondo fisico, purché lo si guardi dalla giusta prospettiva. Ma se si osserva la realtà che ci sta intorno, ci si accorge che essa non è affatto semplice. Anche tra gli stessi scienziati, pochi saranno d'accordo con il giudizio del fisico delle particelle elementari. Per il chimico, il fisiologo, l'economista, lo zoologo il mondo è tutt'altro che semplice. La realtà fenomenica appare come un'accozzaglia di eventi la cui natura sembra essere più che altro la loro mera esistenza in competizione con altri eventi, senza alcuna tendenza verso la simmetria e la semplicità. Chi ha ragione, dunque? Il mondo è veramente semplice come afferma il fisico delle particelle o, viceversa, è complesso e spesso imprevedibile come appare a chiunque altro? 2 a) 0123012301230123… b) 012002130220120320130… e chiediamoci se queste due sequenze sono ordinate o no. È evidente che la prima sequenza è ordinata per la semplice ragione che noi vediamo in essa una struttura regolare; cioè, noi possiamo sostituire la sequenza a) con una regola (o legge) che ci permette di ricordarla facilmente o di comunicarla ad altri usando un messaggio molto più corto che la sequenza stessa. Diremo che una sequenza di simboli è ordinata o deterministica se essa può essere abbreviata in una formula o regola molto più corta della sequenza stessa. Diremo anche che una tal sequenza è "comprimibile". Viceversa, non esiste alcuna formula o legge che permetta di ricostruire la sequenza b): l'unico modo di trasmettere questa sequenza a una terza persona è trasmetterla integralmente così com'è. La sequenza b) è impredicibile e, pertanto, è anche incomprimibile. In effetti, la sequenza a) è stata generata designando con le cifre da 0 a 3 i successivi passaggi dell'orbita di un pianeta attraverso quattro punti prefissati lungo la sua orbita e la sequenza b) è stata generata gettando ripetuta3 mente un dado a quattro facce. È ovvio che la sequenza a) è il prototipo di qualunque fenomeno periodico regolare e che la sequenza b) è il prototipo di qualunque fenomeno caotico. È possibile esprimere quanto detto in modo quantitativo calcolando quanti bit è necessario trasmettere a una terza persona perché questi possa ricostruire senza errori una qualunque sottosequenza di m cifre delle sequenze a) o b). Per effettuare il calcolo, esprimiamo le due sequenze in cifre binarie: a') 00011011000110110001101100011011… b') 00011000001001110010100001100011… dove N è il numero di sottosequenze distinte a n bit che possono essere trasmesse, troviamo che l'informazione necessaria per ricostruire un messaggio di n bit dalla sequenza b') è i = log22n = n bit, pari alla lunghezza del messaggio stesso. Nel caso della sequenza a') si ha N = 4 e l'informazione da trasmettere è molto minore e vale i=log24 = 2 bit, come già detto. In questo calcolo abbiamo considerato l'estrazione delle sottosequenze a n bit sia da a') che da b') completamente a caso. Se si assume, invece, che ciascuna delle 2n sottosequenze possibili abbia probabilità pi di essere trasmessa, possiamo definire l'informazione media da trasmettere come Eq. 2 Consideriamo poi tutte le possibili sottosequenze distinte di lunghezza n = 2m di a') e b'). Siccome a') è periodica con periodo di otto posizioni, il numero N di sottosequenze distinte è sempre quattro, qualunque sia n: si tratta delle quattro sottosequenze di n cifre binarie che iniziano con 00, 01, 10, 11, corrispondenti ai numeri 0, 1, 2, 3, rispettivamente. Per permettere a una terza persona di ricostruire l'intera sottosequenza di n cifre binarie è sufficiente trasmettergli solo i primi due bit. L'informazione contenuta in un messaggio di n bit preso a caso dalla sequenza a') può essere compressa in due bit soltanto. Questo è dovuto alle regolarità e periodicità di tale sequenza. Ma se passiamo a considerare un messaggio di n bit tratto dalla sequenza b'), che è del tutto casuale, ci accorgiamo che il numero di sottosequenze distinte possibili di lunghezza n è N = 2n (le sottosequenze a n bit possono essere poste in corrispondenza biunivoca con i numeri naturali da 0 a 2n - 1). Se ora definiamo l'informazione i (in bit) come Nel caso di equiprobabilità, pi = 1/N e si riottene la formula precedente. Per messaggi molto lunghi, la quantità K è piccola per la serie ordinata a') ed è molto grande per la serie casuale b'). Seguendo Kolmogorov, possiamo prendere K come misura del grado di ordine di una sequenza. Nella trattazione statistica dei sistemi termodinamici si introduce l'entropia con una formula identica alla Eq. 2, in cui le probabilità pi si riferiscono alla realizzazione di un particolare stato microscopico del sistema per un numero fissato di molecole e un dato valore dell'energia totale. Appare quindi logico assegnare a K il nome di "entropia di Kolmogorov". Le sequenze ordinate sono molto compressibili e hanno un'entropia di Kolmogorov piccola, che, inoltre, non varia o varia poco al variare della loro lunghezza. Le sequenze disordinate sono poco compressibili e hanno, in genere, un'entropia di Kolmogorov grande, che cresce linearmente con la loro lunghezza. L'entropia di Kolmogorov, ci mette in grado di misurare quantitativamente il grado di ordine di un sistema. Eq. 1 4 5 Questo semplice esempio ci può insegnare alcune cose circa la natura della ricerca scientifica. Si può considerare infatti la scienza come la ricerca della massima compressione dell'informazione. La semplice osservazione del mondo e la registrazione quantitativa dei fatti che in esso avvengono non fanno scienza. Noi cerchiamo invece delle regolarità in questi fatti, regolarità che noi diciamo essere le leggi della Natura e che ci permettono di condensare in poche proposizioni o formule una grande quantità di informazioni riguardo ai fenomeni naturali. Le grandi tappe della storia della Fisica sono, in fondo, momenti di grande sintesi. La prima grande sintesi di questo tipo è stata concepita da Newton con la sua legge di gravitazione universale e i suoi principi sul moto. Tutti i fenomeni meccanici, dal moto dei pianeti alla caduta della mela dall'albero possono essere "compressi" in una semplice legge di forza inversamente proporzionale al quadrato della distanza e a un semplice legame lineare tra le accelerazioni dei corpi e le forze loro applicate. Una seconda grande sintesi è stata portata a termine da Maxwell, che in poche equazioni è riuscito a comprimere tutti i fenomeni elettromagnetici dalla legge di Faraday sull'induzione magnetica alla propagazione delle onde radio, della luce e dei raggi X e gamma. Anche la teoria della relatività ristretta fu proposta da Einstein nello spirito di un'ulteriore compressione delle leggi fisiche, al fine di includere in un'unica teoria le leggi della meccanica e quelle dell'elettromagnetismo. È significativo il fatto che l'esigenza di sintesi è stata in questo caso così forte da far rinunciare alle stesse categorie aristoteliche di spazio e tempo assoluti. Si è preferito affermare che lo scorrere del tempo è influenzato dal moto dei corpi pur di unificare meccanica e elettromagnetismo. La teoria generale della relatività è stata anch'essa un ulteriore momento di sintesi: in questa teoria le cosiddette forze apparenti che si osservano nei sistemi di riferimento accelerati sono unificate alla forza gravitazionale, per cui viene a cadere la distinzione tra sistemi di riferimento inerziali e non inerziali. Il prezzo da pagare per raggiungere questa nuova "compressione" è stato rinunciare alla struttura piatta dello spazio Euclideo. al teorema di Pitagora e al principio delle rette parallele che a noi appaiono così evidenti. La sintesi operata dalla teoria generale della relatività è così grande da render possibile scrivere un'equazione di evoluzione per l'universo intero. I modelli cosmologici come quello del big bang sono basati sulle equazioni della relatività generale1. A partire dagli anni '70, l'unione dei concetti geometrici propri della relatività generale con quelli provenienti dalla meccanica quantistica ha permesso di fare ulteriori passi in avanti verso quella che è chiamata la "grande unificazione" ovvero la "teoria del tutto" (Barrow91). In queste teorie le forze elettromagnetiche e deboli2 appaiono come aspetti di un unico tipo d'inte- Fig. 1. La via all'unificazione delle interazioni fondamentali. 6 1 L'equazione fondamentale della relatività generale stabilisce semplicemente che la curvatura dello spazio tempo in un punto è proporzionale al contenuto di energia e quantità di moto nello stesso punto. 2 Le forze deboli sono responsabili di alcuni decadimenti radioattivi. 7 razione e ci sono buone possibilità che anche le interazioni forti3 possano essere incluse. Molto più problematica appare la possibilità di includere le forze gravitazionali (Fig. 1). Quanto si potrà andare avanti in questo processo di unificazione o "compressione" delle scienze fisiche? È abbastanza interessante, a questo proposito, la dimostrazione di Chaitin (Chaitin80), basata sul teorema d'incompletezza di Gödel4, dell'impossibilità di dimostrare se una sequenza di simboli è o no incompressibile. Non potremo mai essere sicuri che la compressione raggiunta in una data epoca storica è quella ultima: è sempre aperta la possibilità di una unificazione ancora più profonda e, in ultima analisi, più semplice. La sequenza "semplice" a) mostra una successione ripetitiva di simboli che si mantiene costante nel tempo: la sequenza mostra cioè una simmetria, nel senso che essa è invariante per una traslazione di due posti. Questa invarianza per traslazione è una "legge" cui la sequenza a) obbedisce. D'altra parte, la stessa ripetitività della sequenza ci permette di determinare univocamente tutte le cifre successive a partire da una cifra qualunque assegnata. In altre parole, il futuro della sequenza è univocamente determinato dal suo presente. È questa l'essenza del determinismo: l'evoluzione futura di un sistema è univocamente determinata dal suo stato presente. L'esempio della sequenza a) mostra che il concetto (essenzialmente dinamico) di evoluzione deterministica è strettamente collegato al concetto (essenzialmente statico) di invarianza (o simmetria). Da Newiton a Einstein, le leggi della Natura sono state viste sempre in una prospettiva dinamica, come leggi deterministiche di evoluzione 3 Le interazioni forti rendono i nuclei atomici stabili a dispetto della forte repulsione elettrostatica tra i protoni carchi positivamente. 4 Questo teorema afferma che ogni teoria formale assiomatica o è incoerente o è in-completa, nel senso che esistono infinite proposizioni la cui verità o falsità è indimo-strabile nell'ambito della teoria stessa. 8 di un sistema, anche se è sempre stata ben chiara agli scienziati l'importanza delle leggi di conservazione, quali la conservazione dell'energia, della quantità di moto, ecc. e il loro stretto legame con le proprietà di invarianza o di simmetria del sistema considerato. Le leggi di Newton, ad esempio, fissano l'accelerazione di un corpo ad un dato istante, il che permette di calcolare, noto lo stato del corpo (cioè la sua posizione e velocità) in quel medesimo istante la sua posizione e velocità (cioè il suo stato) ad un istante immediatamente successivo. La conoscenza delle leggi evolutive e dello stato oggi permette di calcolare univocamente lo stato domani. È, questo, ciò che chiamiamo determinismo. Durante l'evoluzione temporale di un sistema meccanico, comunque, alcune quantità, come l'energia, restano invariate. Nella visione newtoniana del mondo, l'esistenza di quantità conservate era vista come mera conseguenza delle leggi evolutive del moto. Questo è vero anche per le teorie della relatività ristretta e generale. A partire dagli anni '70, con la formulazione delle cosiddette teorie di gauge5, che hanno portato verso la grande unificazione, le nozioni di invarianza e di simmetria hanno preso via via il sopravvento sulla nozione di evoluzione, fino a diventare il fondamento principale degli studi sulle particelle elementari e le interazioni fondamentali della Natura. È evidente che più vincoli di simmetria si impongono a una teoria, meno gradi di libertà restano alla formulazione della teoria stessa. Estremizzando questo punto di vista, alcuni scienziati hanno ipotizzato che la grande unificazione delle interazioni fondamentali (gravitazione inclusa) possa essere raggiunta nell'ambito di una teoria "supersimmetrica" come la moderna teoria delle "superstringhe"6. Tale teoria dovrebbe racchiu5 Letteralmente gauge significa calibrazione. Le teorie di gauge esigono l'invarianza delle leggi della Natura rispetto ai cambiamenti di gauge. Un semplice cambiamento di gauge è per esempio quello di alterare (ricalibrare) le unità di misura di lunghezza e tempo in modo differente da punto a punto nello spazio e al variare del tempo. La ricalibrazione può essere fatta in modo arbitrario e le leggi della Natura non ne devono risentire. 6 Per una descrizione elementare del funzionamento delle teorie supersimmetriche si veda, ad esempio, Green86, Bailin89. 9 dere tante di quelle simmetrie da renderla pressoché unica. Una teoria di questo genere avrebbe raggiunto la massima compressione possibile delle leggi della natura e, nel contempo, la massima semplicità. Anche se allo stato odierno le teorie del tutto sono più che altro speculazioni, è innegabile che l'aver adottato il punto di vista delle simmetrie piuttosto che quello precedente dell'evoluzione deterministica ha prodotto risultati incoraggianti, verificati sperimentalmente, quali l'unificazione elettrodebole. È proprio la possibilità di concepire un piccolo insieme di leggi che governano le forze fondamentali della Natura e che possano convergere, a loro volta, in una singola legge unificata il cuore della percezione del mondo come qualcosa di semplice (Fig. 1). 3. Fig. 2. Rottura della simmetria. a) buca di potenziale singola; b) buca di potenziale doppia. La figura a sinistra mostra un corpo che si muove nella buca di potenziale V1(x) = x2 + x4. La figura a destra mostra lo stesso corpo che si muove nel potenziale V2(x) =- x2 + x4. I due potenziali differiscono solo per il segno del termine in x2. La forza agente sul IMPREDICIBILITA’ E CAOS Come si giustifica, allora. l'evidente complessità e imprevedibilità dei fenomeni che osserviamo? Le sequenze del tipo b) non hanno forse licenza di esistere in Natura? Il determinismo insito nelle leggi naturali è sì o no compatibile con l'evidente impredicibilità di molti eventi quotidiani? Il punto fondamentale che spesso sfugge quando si affronta questo genere di problemi è che le simmetrie delle leggi non implicano affatto la simmetria (e, quindi, la "semplicità") dei fenomeni che esse descrivono. È infatti possibile avere un mondo che mostra strutture complicate e non simmetriche, ma che tuttavia continui ad essere governato da leggi simmetriche. La simmetria presente nelle leggi viene rotta nei fenomeni. Per comprendere questo concetto si faccia riferimento alla Fig. 2. 10 corpo nei due casi è, come è noto, F1,2(x)=-dV1,2/dx. Quando il corpo si trova nelle posizioni mostrate in figura dV/dx = 0 e la forza si annulla. Le due posizioni sono quindi posizioni di equilibrio. I potenziali V1(x) e V2(x) hanno la stessa simmetria speculare rispetto all'asse verticale mostrato nelle figure. Supponiamo ora di dare un piccolo colpo al corpo mostrato in Fig. 2a. Il corpo inizierà ad oscillare intorno al minimo della curva di potenziale. Se non ci sono attriti o altri effetti dissipativi, il corpo continuerà le sue oscillazioni indefinitamente in modo simmetrico rispetto all'asse di simmetria del potenziale. La simmetria dell'equazione della dinamica che governa il moto è rispecchiata nel moto stesso. Nel caso della doppia buca di potenziale, invece, un piccolo colpo fa sì che il corpo cada in una delle due buche. Una volta caduto, il corpo inizia ad oscillare attorno al nuovo minimo di potenziale per un tempo indefinito. Il moto non rispecchia più la simmetria assiale della legge che l'ha generato e non potrà mai più rispecchiarla. Si dice, in tal caso, che la simmetria della legge fisica è stata rotta. La rottura della sim11 metria, una volta avvenuta, è irreversibile. Il corpo in Fig. 2a è in una posizione di equilibrio stabile, il corpo in Fig. 2b è in un punto di equilibrio instabile. Quando un sistema fisico durante la sua evo- che apparivano nei giochi d'azzardo. Pascal fu tra i primi a chiedersi se esistesse o no un "regolarità del caso" e a porsi problemi anche pratici quali, ad esempio, come dividere le poste quando un gioco luzione si trova in prossimità di una doppia buca di potenziale (o, come si dice, di un punto di biforcazione) esso diviene instabile e deve effettuare una scelta. Tale scelta avviene sotto l'azione di piccole perturbazioni casuali, per cui è impossibile sapere a priori verso quale ramo della biforcazione il sistema evolverà. Se poi il sistema d'azzardo viene interrotto. L'esperienza mostra che un processo casuale o stocastico ha due caratteristiche principali: da un lato i singoli eventi (ad esempio, il risultato del lancio di due dadi o l'estrazione di un numero al lotto) hanno un modo di presentarsi che è irregolare e imprevedibile; dall'altro, alla lunga, emerge qualche tipo di incontra un numero molto grande di biforcazioni non sarà più possibile prevedere il suo comportamento a lungo termine. Si capisce così che non solo la simmetria, ma anche il determinismo delle leggi fisi- regolarità. Questa regolarità, che si osserva in un gran numero di eventi ripetuti nelle medesime condizioni, permette di calcolare opportuni valori medi, di assegnare opportune probabilità ai singoli che viene perduto quando si osservano i fenomeni che da tali leggi scaturiscono. I fenomeni sono complessi a dispetto della semplicità eventi e di fare anche delle previsioni. La teoria matematica delle probabilità è stata sviluppata dapprima da Pascal e Laplace e, in delle leggi. Gli scienziati che studiano i fenomeni hanno la percezione di un mondo complesso. Della complessità si parlerà più avanti. Qui accenneremo al caso limite dei sistemi il cui comportamento è tempi più recenti, da Bayes e poi, in connessione con la teoria dell'informazione, da Shannon e, soprattutto, da Kolmogorov. Senza entrare nei dettagli della teoria delle probabilità, basterà dire qui del tutto imprevedibile, cioè casuale o, come si dice, stocastico. che questa teoria trova il suo fondamento nella cosiddetta "legge empirica del caso" o "legge dei grandi numeri". Questa "legge" afferma che se n è il numero di volte in cui l'evento scelto si è realizzato (ad esempio è venuto un doppio sei) su un numero N di tentativi (di lanci dei due dadi), allora il limite Eq. 3 Fig. 3. Simulazione di 26 (a sinistra) e 1717 (a destra) lanci di due dadi a sei facce. Le barre rosse sono le frequenze n/N osservate. Le barre azzurre sono le probabilità calcolate. L'attenzione verso i fenomeni casuali comincia molto dopo quella dedicata a scoprire le leggi deterministiche della Natura, quando verso il '600 si cominciarono a notare certe strane regolarità 12 tende a un valore finito che chiamiamo "probabilità" dell' evento considerato. Il calcolo delle probabilità insegna come manipolare matematicamente le probabilità. L'Eq. 3 connette le probabilità calcolate per via teorica con le "frequenze" n/N misurate sperimentalmente. La legge dei grandi numeri ha un fondamento empirico. Il lettore può verificarla di persona lanciando una coppia di dadi un gran numero di volte oppure facendo girare la macro in Excel in Appendice A. La Fig. 3 mostra l'istogramma dei risultati della macro 13 di simulazione di 26 e di 1717 lanci, rispettivamente. Come si vede l'accordo tra frequenze (barre rosse) e le probabilità (barre azzurre) migliora con l'aumentare del numero N di lanci. Il sette è il risultato più probabile. Nell'ambito della fisica, la teoria delle probabilità ha assunto via via una sempre maggiore rilevanza. Infatti, l'esperienza mostra che, al di là del determinismo delle leggi naturali, tutti i fenomeni fisici sono accompagnati da un grado maggiore o minore di impredicibilità, che chiameremo genericamente "rumore". L'origine del rumore è, di solito, l'interazione del sistema considerato con il mondo esterno che viene chiamato "il bagno termico". In altri casi, l'origine del rumore è la "granularità" stessa del sistema che è formato da moltissimi individui (persone nel caso delle scienze statistiche e demografiche, molecole ed atomi nel caso dei sistemi materiali). Per meglio studiare le regolarità (leggi) soggiacenti ai fenomeni, gli scienziati, nei loro esperimenti, pongono particolare cura nell'eliminare ogni fonte di "rumore". L'eliminazione totale del rumore è impossibile, comunque, se non altro per la presenza del "rumore quantistico"7. La fonte più comune di rumore è la cosiddetta "agitazione termica", che dipende dalla temperatura del sistema considerato8. Abbassare la temperatura è di solito la via maestra per diminuire il rumore. Fenomeni quantistici particolari come la superconduttività, la superfluidità e la condensazione di Bose-Einstein sono osservabili solo a bassissima temperatura, in un ambiente, cioè, a bassissimo rumore. Per questi motivi, lo studio del "rumore" o, meglio, dei processi stocastici è uno dei capitoli più importanti della fisica. Un modello meccanico di un processo stocastico è quello di un moto a caso (moto dell'ubriaco). Un moto casuale di questo tipo si osserva in pratica nel cosiddetto moto browniano. 7 Il rumore quantistico ha caratteristiche molto peculiari e obbedisce a regole diverse da quelle postulate nella teoria delle probabilità. 8 La stretta connessione tra "rumore termico" e temperatura è dovuta a Boltzmann. 14 3.1 IL MOTO BROWNIANO Per ironia della sorte, il moto browniano fu scoperto casualmente dal naturalista Robert Brown nel 1828. Osservando al microscopio alcuni granelli di polline sospesi in acqua, Brown notò che i granelli si muovevano continuamente avanti e indietro come se fossero vivi9. In effetti, Brown li scambiò per microorganismi viventi. Il fenomeno fu spiegato molto tempo dopo (1905) da Einstein, il quale dimostrò che tale moto era dovuto ai continui urti delle molecole dell'acqua sui granelli. Gli urti avvengono da tutti i lati, per cui il loro effetto medio è zero. Talvolta, però, gli urti si combinano in modo da produrre una forza sufficiente a spingere il granello da un lato o dall'altro, da cui il moto "danzante" dei granelli osservato sperimentalmente. Il moto di una particella browniana genera sequenze casuali ad alta entropia K simili alle sequenze b) e b') considerate nel paragrafo 2. Il moto browniano, però, non è completamente casuale come il risultato del lancio di un dado, ma presenta un certo grado di correlazione, ovvero di determinismo. Nei moti deterministici, la posizione e velocità all'istante t determinano univocamente la posizione e velocità all'istante immediatamente successivo t+dt. Nel moto browniano, invece, la posizione a t determina la probabilità di avere un'altra posizione al tempo t+dt. Sebbene la posizione x(t+dt) della particella al tempo t+dt sia casuale, la sua probabilità dipende dalla posizione x(t) all'istante precedente t, che, quindi, mantiene una certa influenza sul futuro. In particolare, la posizione x(t+dt) deve essere necessariamente molto vicina alla posizione x(t), perché la particella non può scomparire da un punto e riapparire istantaneamente in un punto distante. 9 Un filmato del moto Browniano di alcune goccioline di grasso nel latte può essere visto nel sito http://www.pik-potsdam.de/~tillk/brown.html 15 La probabilità10 P(x(t+dt);x(I)) di trovare la particella in x(t+dt) deve decrescere a zero molto rapidamente al crescere dello spostamento Δx = x(t+dt)- x(t). In effetti, nella teoria del moto browniano si assume una distribuzione gaussiana P(x(t+dt);x(t))=P(Δ)=A exp(-Δ2/σ2), dove A e σ sono costanti. La variabile casuale non è la posizione, bensì lo spostamento Δ della particella; inoltre, l'evento più probabile è Δ = 0, cioè che la particella non si sposti affatto. Ma, dove appare, allora la "regolarità" del caso? Esitono leggi che governano il moto browniano? La risposta è sì. Il punto cruciale è che le leggi, ora, non si riferiscono direttamente al moto della particella, che è impredicibile, ma all'evoluzione temporale della probabilità P(x,t) di trovare la particella in x all'istante t. Infatti la legge che governa il moto brow- sarà molto più alta di quella del moto del pianeta, ma un po' più bassa di quella del lancio di un dado. Essendo comunque un processo stocastico, ci aspettiamo che l'entropia del moto browniano cresca man mano che esso evolve dalla posizione iniziale (Santamato82). La crescita di entropia è sempre accompagnata da dissipazione di energia, energia che nel caso del moto browniano è ceduta al fluido circostante tramite le forze viscose. Esiste, infatti, una stretta connessione tra dissipazione di energia e forze (o moti) fluttuanti (teorema di fluttuazione-dissipazione): questa connessione è stata dimostrata da Einstein, che ha trovato la celebre relazione tra la viscosità del mezzo η, la costante di diffusione D e la temperatura assoluta T niano è (D è la cosiddetta costante di diffusione) Eq. 5 Eq. 4 conosciuta come l'equazione di Fokker-Planck o equazione della diffusione. Questa equazione è deterministica, perché si può dimostrare che la funzione P(x,t) è univocamente determinata dalla funzione P(x,t0) arbitrariamente assegnata all'istante t0. L'esempio del moto browniano mostra come possa esistere una gradualità nel caos: la posizione x(t) di una particella browniana è un processo meno casuale del lancio di un dado o dell'estrazione di un numero al lotto, ma certamente più casuale dell'orbita di un pianeta. L'entropia di Kolmogorov K associata al moto browniano dove k = 1,38 10-16 erg/°K è la costante universale di Boltzmann e r è il raggio della particella, che supponiamo sferica. La Eq. 5 mostra che la costante di diffusione D e, quindi, il moto caotico browniano, è tanto più grande quanto più cresce la temperatura e quanto più è piccola la particella in sospensione nel fluido. Quest'ultimo fatto permette di comprendere come il moto browniano ostacoli il funzionamento di meccanismi e motori a livello nanometrico. Esistono comunque metodi molto astuti11 messi in opera sia dall'intelligenza umana sia dalla stessa Natura per aggirare questo problema e permettere il funzionamento dei cosiddetti motori molecolari (Sauvage01). I motori molecolari costituiscono uno dei più interessanti campi di ricerca applicata della nostra epoca e sono alla 11 Il più comune di questi metodi è simile al meccanismo a ruota dentata che si trova in alcuni 10 Più esattamente, essendo x una variabile casuale continua, si dovrebbe parlare di densità (o orologi che non necessitano di carica o di batteria: questo meccanismo converte il moto casuale distribuzione) di probabilità. (browniano) del braccio in un moto ordinato (motore) che mantiene carico l'orologio. 16 17 base di molti fenomeni sia fisici che biologici12. Purtroppo, discutere il loro funzionamento ci porterebbe troppo lontano dal filo principale del nostro discorso. Il moto browniano ha avuto e continua ad avere un ruolo primario in molti settori della fisica e viene usato per trattare sistemi che vanno dalle dimensioni degli atomi a quelle delle stelle. Infine, occorre tener presente che l'evoluzione dei "sistemi complessi dissipativi", di cui si parlerà più avanti, è sempre innescata dal rumore di fondo prodotto dall'onnipresente moto browniano dovuto all'interazione tra le diverse parti del sistema stesso o con l'ambiente circostante. nica quantistica, una teoria inizialmente concepita per includere pochi fenomeni abbastanza marginali, quali il problema del corpo nero, dei calori specifici dei gas, dell'effetto fotoelettrico e degli spettri di righe dei gas, che restavano inspiegati sulla base della meccanica newtoniana e dell'elettromagnetismo maxwelliano. Ben presto, però, la meccanica quantistica, con la sua estensione all'elettrodinamica quantistica, mostrò una capacità di previsione di un numero talmente grande di fenomeni atomici, nucleari e subnucleari, fin nei minimi dettagli, che oggi essa è una delle teorie più accreditate e confermate della fisica, nonostante i seri problemi che tale teoria presenta nei suoi fondamenti e nell'interpretazione fisica del suo formalismo. Della meccanica quantistica si parlerà altrove in questo libro. I soli aspetti della meccanica quantistica che esamineremo qui sono quelli concernenti la sua interpretazione statistica. 3.2 IL MOTO QUANTISTICO La possibilità di processi casuali come il moto browniano, non è in reale contrasto con l'idea che la Natura segua leggi deterministiche. Laplace, uno dei più grandi studiosi del calcolo delle probabilità, dichiarò che una Mente suprema avrebbe sempre conosciuto tutto il passato e tutto il futuro dell'universo, conoscendone lo stato in un istante e che il fatto che gli uomini non potessero fare altrettanto dipendeva da una sorta di ignoranza parziale. Secondo questa visione, la teoria delle probabilità e la fisica statistica si giu- Abbiamo già detto che lo stato dinamico di una particella classica è determinato univocamente dalla sua posizione e velocità e che le leggi della meccanica governano in modo deterministico l'evoluzione temporale dello stato. Nella formulazione più semplice, non relativistica, della meccanica quantistica, lo stato di una particella all'istante t è determinato da una funzione complessa ψ(x, t) della sua posizione, chiamata funzione d'onda. L'evoluzione temporale dello stato è governata da una legge deterministica, che permette la determinazione univoca di ψ(x, t), noto lo stato ψ(x, t0) all'istante iniziale t0. Questa legge è condensata nell'equazione di Schrödinger, che qui riportiamo stificano come mezzi per creare modelli matematici di fenomeni, di per sé deterministici, ma conosciuti solo parzialmente. Il positivismo deterministico, che pareva così evidente nell'Ottocento, fu messo in seria crisi negli anni '20 del secolo scorso dall'avvento della mecca12 Un esempio è il motore biochimico molecolare che permette la contrazione dei muscoli. 18 Eq. 6 dove m è la massa della particella, erg s è la costante di Planck (divisa 2 pi greco) e V(x) è il potenziale in cui si muove 19 la particella. Il potenziale V(x) potrebbe essere, ad esempio uno dei due riportati in Fig. 2. Il punto cruciale è l'interpretazione fisica della funzione d'onda ψ(x, t). L'interpretazione fino ad oggi più accreditata è quella statistica, proposta da Born. La cosiddetta "regola di Born", infatti, stabilisce che la quan- ψ (x, t)*ψ(x, t), dove l'asterisco indica la coniugazione complessa, è proporzionale alla probabilità13 di trovare la particella nella posizione x all'istante t. Secondo questa interpretazione, tutto ciò che le leggi della fisica (Eq. 6) possono tità reale e positiva P(x, t) = prevedere è la probabilità che si realizzi l'evento di trovare la particella in x all'istante t. La posizione x della particella è forzatamente una variabile casuale e non può mai assumere un valore ben definito. Possiamo anche pensare che, invece di descrivere una singola particella, la funzione d'onda descriva un insieme statistico di particelle (che, individualmente, possono assumere posizioni ben definite) preparate in modo identico. In ogni caso, la posizione di una singola particella non può essere prevista se non statisticamente ed è quindi soggetta a una sorta di indeterminazione14. È da notare che tutte le teorie di unificazione delle interazioni fondamentali citate nel §2 si basano sulla meccanica quantistica e prevedono un'evoluzione deterministica per lo stato del sistema, ma probabilistica per i valori delle grandezze fisiche osservabili sperimentalmente. Apparentemente siamo in una situazione molto simile al moto browniano. Il determinismo è stato trasferito dalle quantità osservabili sperimentalmente, come la posizione della particella, 13 Anche qui, come nel moto browniano, sarebbe più corretto parlare di densità di probabilità. 14 Il celebre "principio d'indeterminazione" di Heisenberg deriva direttamente dall'Eq. 6. Se si cerca di localizzare la particella stringendo il "pacchetto d'onda" P(x,t) = ψ(x, t)* ψ(x, t) attorno ad un punto fissato x , la rapida salita e discesa dei fronti del profilo a campana di P(x,t) porta 0 a derivate spaziali molto grandi, per cui il primo termine sulla destra nell'Eq. 6 cresce indefinitamente, impedendo, di fatto, una perfetta localizzazione. 20 alla probabilità di realizzazione dei loro valori, che, singolarmente, sono impredicibili. Ma è veramente possibile ricondurre la meccanica quantistica a una sorta di processo caotico? In effetti, ci sono stati tentativi di riportare la meccanica quantistica nell'ambito di un modello classico simile al moto browniano (Nelson67), ma senza effettivo successo. Il motivo è che la meccanica quantistica, anche nella sua formulazione più semplice, differisce in modo sostanziale da un processo stocastico per due ragioni fondamentali impossibili da eliminare. La prima è che la meccanica quantistica non prevede traiettorie, ma solo posizioni casuali per la particella. In altre parole, mentre osservando il moto browniano di una particella classica possiamo associare ad essa una sequenza di numeri casuali del tipo delle sequenze b) e b') del §2, esattamente come faremmo, del resto, per un pianeta, nel caso quantistico questo è impossibile per principio. Sarebbe vano associare al moto "caotico" della particella quantistica una qualche informazione o entropia K alla Kolmogorov15. La seconda ragione è che ogni processo stocastico produce, come visto, un aumento dell'entropia nel tempo con conseguente dissipazione d'energia. I processi stocastici sono processi essenzialmente irreversibili, rispetto ai quali passato e futuro non sono simmetrici. Questo è rispecchiato dal fatto che l'Eq. 4 cambia se si inverte il segno del tempo; non gode, cioè, della simmetria d'invarianza rispetto al cambiamento del segno della freccia del tempo. Viceversa, la meccanica quantistica è pur sempre una teoria "meccanica", che conserva l'energia e per la quale passato e futuro sono indistinguibili. Infatti, se si cambia il segno di t nella Eq. 6, l'equazione si trasforma nella complessa coniugata, cioè ψ(x,-t) = ψ*(x, t), lasciando invariata la probabilità P(x,t). Le equazioni della meccani15 È possibile, viceversa, associare dell'informazione (detta qu-bit) alla funzione d'onda ψ, perché essa obbedisce a una legge deterministica. La informazione quantistica ha assunto in tempi recenti una notevole importanza, perché potrebbe aprire la strada a computer superveloci di nuova concezione. 21 ca quantistica sono simmetriche rispetto al cambiamento del segno della freccia del tempo16. Nel suo approccio stocastico alla meccanica quantistica, infatti, Nelson è stato costretto a considerare due moti browniani sovrapposti e simmetrici, il primo normale e il secondo che procede dal futuro verso il passato. È evidente che l'intera costruzione appare alquanto improbabile e bizzarra. In verità, fino ad oggi, non si è trovata nessun’interpretazione fisica della meccanica quantistica più soddisfacente di quella, pur insoddisfacente, basata sulla regola di Born. il DNA è un codice in grado di organizzare la materia circostante in modo tale da creare un organismo vivente? La stessa cosa si può dire per la sequenza 4D 5A 90 00 03 00 00 00 04 00 00 00 FF FF 00 00 B8 00 00 00 00 00 00 00 40 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 C8 00 00 00 0E 1F BA 0E 00 B4 09 CD 21 B8 01 4C CD 21 54 68 69 73 20 70 72 6F 67 72 61 6D 20 63 61 6E 6E 6F 74 20 62 65 20 72 75 6E 20 69 6E 20 44 4F 53 20 6D 6F 64 65 2E 0D 0D 0A 24 00 00 00 00 00 00 00 EF 12 18 FB AB 73 76 A8 AB 73 76 A8 apparentemente sembra senza significato, ma, in realtà, è la sequenza iniziale in cifre esadecimali del programma del PC con cui questo articolo è stato scritto. La cosa che interessa qui non è tanto 4. se la sequenza è più o meno ordinata, ma piuttosto il fatto che proprio quella sequenza, unita al resto del programma e inserita in un ambiente appropriato (il PC), è in grado di produrre effetti osserva- LA COMPLESSITÀ Si consideri la seguente sequenza numerica c) 023011003332… A prima vista non sembra dire molto, eppure si tratta di una sequenza molto importante…infatti è un piccolo pezzo della sequenza del nostro DNA, con 0,1,2,3 corrispondenti alle quattro basi adenina, guanina, citosina, timina. Potremmo associare all'intera sequenza del DNA umano un valore K dell'entropia di Kolmogorov. Come è noto, la sequenza del DNA non è periodica, ma, d'altra parte, non è nemmeno completamente casuale. Troveremo quindi un valore di K abbastanza alto, ma minore della lunghezza dell'intera sequenza. Ma il valore più o meno alto dell'informazione o dell'entropia K del DNA è così rilevante? O non è, piuttosto, molto più rilevante il fatto che 16 In realtà, se si considerano particelle dotate di carica elettrica, l'invarianza delle equazioni è preservata se, insieme al segno del tempo (T) si cambia simultaneamente il segno della carica (C). Si dice che l'invarianza delle leggi quantistiche è per CT. Se si includono, poi, le interazioni deboli, l'invarianza si restringe a CPT, dove P, detta parità, corrisponde all'inversione simultanea delle tre coordinate spaziali. 22 bili e, soprattutto, utili. Diremo che una sequenza di questo tipo è complessa. L'aver dato un nome, però, non significa aver colto il significato della parola "complessità" nell'accezione che ci interessa. La sequenza del DNA così come la sequenza di cifre esadecimali di un programma di computer acquistano rilevanza non per le singoli parti che le compongono (nucleotidi in un caso, bit nell'altro), ma per come queste parti si combinano tra loro in modo da produrre una o più funzioni specifiche che agiscono sull'ambiente circostante. Possiamo dire che, in questi casi, il tutto è molto più importante che la semplice somma delle parti e che è proprio il tutto che segue, eventualmente, comportamenti le cui leggi occorre comprendere e studiare. Quando usiamo un editor di testo al PC, ci interessa conoscere le funzioni che può eseguire e la logica di tali funzioni. Similmente, quando il fisiologo studia un essere vivente, ciò che interessa sono le reazioni del soggetto agli stimoli ambientali e le logiche che a tali reazioni soggiacciono. Queste logiche e queste rea23 zioni agli stimoli esterni sono le caratteristiche precipue dei sistemi complessi e hanno ben poco in comune con le leggi fondamentali della Natura. Per comprendere il comportamento dei sistemi com- glio indifferenziato di materia (principalmente elettroni e neutrini con le rispettive antiparticelle) e radiazione (fotoni) in perfetto equilibrio termodinamico: in questo stato l'Universo è un sistema plessi occorre un approccio olistico e non riduzionistico, occorre trovare le leggi che governano il tutto mentre le leggi elementari che governano le singole parti assumono un ruolo secondario e, a volte, assolutamente irrilevante. molto simmetrico e, perciò, semplice. Via via che l'Universo, espandendosi, diminuisce la sua temperatura cominciano ad apparire i protoni e i neutroni (1 secondo dal big bang) e, poi, successivamente, i primi atomi leggeri di elio (10 secondi dal big bang), poi di trizio, quindi di deuterio fino ad arrivare alla formazione dei nuclei Abbiamo considerato due esempi di sistemi complessi, uno atomici pesanti (circa tre minuti dal big bang) e alla completa annichilazione tra elettroni e positoni, tranne quella piccola quantità di elettroni in eccesso (uno su un miliardo) necessaria a controbilancia- tratto dalla biologia e uno tratto dalla cibernetica. Ma è altrettanto facile trovare esempi tratti dal mondo fisico. Un cristallo, un pendolo e un pianeta sono esempi di sistemi molto ordinati (l'entropia K è bassa), mentre un liquido o un gas sono sistemi molto disordinati (l'entropia K è alta), ma nessuno dei due sistemi può dirsi complesso. Il comportamento di questi sistemi, infatti, può essere dedotto conoscendo le leggi della meccanica nel primo caso e della fisica statistica nel secondo. Ma consideriamo, invece, un materiale super- re la carica dei protoni. Dopo questi primi minuti, l'Universo continuerà ad espandersi, gli atomi, ormai stabili, cominceranno ad aggregarsi per attrazione gravitazionale, fino a formare le galassie, le stelle, i pianeti finché, "dopo altri 10 miliardi di anni, alcuni esseri viventi (in verità molto complessi) inizieranno a ricostruire questa storia" (Weinberg77). conduttore ad alta temperatura critica (Gough91). Materiali di questo genere non esistono in natura, né si formano per caso: la loro proprietà interessante, la superconduttività, si basa su una miscela molto particolare creata in condizioni particolari che non avrebbe mai potuto manifestarsi nell'universo prima che sulla Terra si fosse realizzata la miscela giusta nel 1987. Possiamo dire che la complessità che chiamiamo "superconduttività ad alta temperatura critica" è basata su di un'altra complessità, che chiamiamo "intelligenza", che Si può dire che la moderna scienza dei materiali basata sulle nanotecnologie non sia altro che l'applicazione pratica della complessità. L'idea di fondo è che un'intelligente strutturazione dei materiali a livello nanometrico, resa tecnologicamente possibile solo di recente, può conferire ad essi caratteristiche molto diverse da quelle associate alle singole molecole di cui sono costituiti. Al di là della sfida tecnologica posta dalla realizzazione pratica delle nano- ha agito come una sorta di catalizzatore per la sua creazione. L'intelligenza, a sua volta, ha richiesto miliardi di anni di evoluzione dal caotico brodo primordiale fino alla "semplice" complessità delle prime cellule protozoiche e su su verso organismi sempre più differenziati e complessi. Anche l'Universo ha subito un simile processo strutture, progettare le strutture stesse e prevedere le proprietà che esse potranno conferire al materiale è una sfida anche intellettuale, perché, come detto, gli effetti legati alla complessità generata dalla strutturazione obbediscono a leggi non derivabili dalle leggi note della fisica e ancora in gran parte da scoprire. L'evidenza sperimen- evolutivo (Weinberg77). Un centesimo di secondo dopo il big bang ad una temperatura di 100 miliardi di gradi Kelvin l'Universo è un miscu- tale mostra, infatti, che i sistemi complessi esibiscono, nel loro comportamento d'insieme, regolarità che possono essere sintetizzate in 24 25 "leggi" , che tali leggi assumono spesso un carattere di "universalità", nel senso che la successione di stati e di processi che hanno luogo in alcune classi di sistemi complessi non dipendono dai dettagli del sistema considerato e seguono leggi di scala ben definite17. La determinazione di queste nuove "leggi" (che possiamo chiamare a buon titolo olistiche) ha stimolato un'intensa attività teorica nell'ambito della struttura della materia, un'intensa attività sperimentale nel campo delle nanotecnologie, lo sviluppo di tecniche di calcolo e di simulazione numerica sempre più potenti e veloci e, infine, la creazione di materiali e dispositivi di nuova concezione con grande impatto anche in settori scientifici molto lontani, quali l'ingegneria, la biologia, la medicina, ecc. Laplace sulla Mente superiore in chiave ottusamente deterministica e riduzionistica è superficiale. Già Poincaré, contemporaneo di Laplace, fece notare subito che l'esistenza delle biforcazioni e della instabilità poteva portare a quei comportamenti che oggi noi chiamiamo complessi. Solo negli ultimi 20-30 anni, con l'avvento dei moderni sistemi di calcolo, è stato possibile introdurre la "matematica sperimentale". Il computer può essere programmato per simulare l'evoluzione di un sistema complicato, il cui comportamento a lungo termine può essere studiato, modificato e ripetuto come in un sofisticato gioco virtuale. Lo studio dei problemi semplici e affrontabili per via analitica è stato affiancato da quello di sistemi complessi in interazione con ambienti altrettanto complessi. Un esempio è quello dei sistemi ecologici che evolvono nel loro ambiente per Sembra quindi lecito speculare sull'esistenza di nuove "leggi" o "principi" che governano l'esistenza e l'evoluzione della complessità, definita in qualche senso astratto (Lloyd88). Queste leggi potreb- selezione naturale e che, nel far questo, modificano l'ambiente stesso in modo complicato. Va detto, comunque, che la stessa definizione di "complessità" è sfuggente e, finora, non si è trovato alcun bero essere molto diverse dalle leggi del fisico delle particelle e non essere basate sulla simmetria e l'invarianza, ma, piuttosto, su principi di logica e di elaborazione dell'informazione. Fino a tempi modo soddisfacente di misurare quantitativamente il grado di complessità di un sistema (anche se ad ognuno è evidente che un mam- recenti, i fisici hanno focalizzato la loro attenzione principalmente sullo studio delle leggi fondamentali più che sulla complessità delle conseguenze di quelle leggi. Questo non deve stupire: lo studio delle conseguenze delle leggi (ovvero delle possibili soluzioni delle equazioni che esprimono quelle leggi) è un problema molto più difficile, che richiede la disponibilità di computer molto potenti, dotati di una grafica veloce ed interattiva. Non è una coincidenza che lo studio della complessità e del caos che compaiono nelle soluzioni delle equazioni è cresciuta enormemente con lo sviluppo di PC a basso costo. Non bisogna però credere che i fisici non fossero consapevoli di tale complessità anche in passato: la lettura delle parole di 17 L'individuazione teorica di questi caratteri di universalità richiede tecniche matematiche sofisticate quale l'uso del cosiddetto "gruppo di rinormalizzazione". 26 mifero è più complesso di un batterio). Nel caso dell'informatica, una possibile via potrebbe essere quella di misurare non tanto il contenuto di informazione di una sequenza di bit, quanto piuttosto il tempo di calcolo necessario per generare quella sequenza. Generare una sequenza periodica o una sequenza casuale richiede un codice molto breve e di rapida esecuzione. Generare il codice dell'editor di testo usato per scrivere questo articolo è costato anni di lavoro di diverse persone. Generare il genoma umano è costato miliardi di anni di evoluzione e di selezione. Nonostante la difficoltà di una precisa definizione, è possibile definire alcune proprietà e alcuni comportamenti tipici che sono comuni a tutti i sistemi complessi. In molti casi, come già detto, è possibile scrivere perfino leggi matematiche universali che governano questi sistemi. Di questo parleremo brevemente nell'ultima parte di questo articolo. 27 4.1 LE LEGGI DEI SISTEMI COMPLESSI Perché un sistema fisico possa definirsi complesso è necessario che il tutto sia più che la semplice somma delle singole parti. Per questo motivo, i sistemi complessi sono detti anche sistemi cooperativi. In fisica esistono sistemi complessi basati sulla meccanica classica e sistemi complessi basati sulla meccanica quantistica (la superconduttività ad alta Tc appartiene a quest'ultimo tipo di sistemi). Nel seguito, accenneremo solo ai sistemi complessi basati sulla meccanica classica e, quindi, su equazioni di evoluzione deterministiche. Inoltre, possiamo distinguere i sistemi complessi in sistemi dissipativi, in cui l'energia del sistema viene dissipata nell'interazione con un "bagno termico" e in sistemi "hamiltoniani" in cui gli attriti e gli effetti dissipativi sono trascurabili e l'energia si conserva. I sistemi complessi sono - multistabilità - auto-organizzazione - presenza di caos deterministico 4.1.1 MULTISTABILITÀ La presenza di dissipazione, fa sì che il sistema tenda a fermarsi in uno stato di minima energia. Lo stato di energia minima assoluta è lo stato di equilibrio termodinamico. hamiltoniani osservabili in natura sono molto rari. Gli esempi più importanti si riferiscono al moto dei pianeti18, la progettazione di acceleratori di particelle, in cui deboli fasci di particelle cariche si muovono in intensi campi magnetici e la fisica dei plasmi confinati magneticamente, quali si riscontrano nei dispositivi per la fusione nucleare. Sebbene questi esempi siano rilevanti, nel seguito considereremo solo i sistemi dissipativi. Quali caratteristiche hanno i sistemi complessi? Dal punto di vista costitutivo, tali sistemi sono caratterizzati da una forte nonlinearità e, spesso, da sistemi di controreazione (in inglese, feedback) o incorporati nel sistema stesso o aggiunti esternamente. La nonlinearità e la controreazione servono a far interagire le diverse parti del sistema in modo non semplicemente additivo, ma cooperativo. Dal punto di vista dinamico, le principali caratteristiche dei sistemi 18 Un esempio è il moto irregolare di Iperone, una luna di Saturno. 28 Fig. 4. Curva di energia potenziale V(x) che mostra la metastabilità. Il punto A è il punto di equilibrio termodinamico stabile. I punti B, C, B', C' sono punti di equilibrio metastabile. Una fluttuazione abbastanza forte potrebbe far cadere lo stato del sistema da C a B e, infine ad A. Nel punto A, l'energia non può diminuire ulteriormente, per cui questo stato è stabile. Se questo stato è unico come in Fig. 2a, il sistema va certamente all'equilibrio termodinamico. Lo stato di equilibrio termodinamico è sempre stabile e, di solito, ben ordinato e simmetrico. In presenza di altri minimi relativi dell'energia, però, il sistema potrebbe collocarsi in uno di essi, fissandosi in uno stato metastabile (Fig. 4). La metastabilità è dovuta al fatto che l'inevitabile rumore dovuto al 29 bagno termico (teorema di fluttuazione-dissipazione) potrebbe fornire al sistema una spinta sufficiente per uscire dal minimo di energia in cui ritrova e cadere successivamente in un altro minimo più basso dell'energia. Anzi, in un tempo infinto questo certamente accadrà e il sistema cambierà continuamente stato fino ad arrivare all'equilibrio termodinamico, che è l'unico stato veramente stabile. Azioni esterne, come campi applicati od altro, possono far transire di nuovo il sistema in un suo stato metastabile. Questa proprietà è detta "multistabilità". Le plastiche, ad esempio, sembrano solidi, ma sono in realtà sistemi metastabili. Esse sono costituite da polimeri, molecole formate da lunghe catene atomiche in forma di filamenti. Lo stato di equilibrio termodinamico corrisponde a tutti questi filamenti allineati in un'unica direzione. Ma questo non succede mai: infatti, durante il processo di polimerizzazione, i filamenti molecolari si aggrovigliano tra loro formando stati metastabili di minimo relativo dell'energia. Nel tempo, il polimero cambia continuamente stato (i filamenti tendono ad allinearsi) passando da un minimo relativo di energia all'altro. Ma i minimi sono talmente tanti e i tempi di transizione sono così lunghi che questo processo richiede, in certi casi, molti millenni. Il fenomeno è analogo a quanto ciascuno di noi vede quotidianamente dietro il proprio PC. I fili che collegano il PC alla stampante, al monitor e alle altre periferiche hanno un minimo di energia gravitazionale quando poggiano tutti sul tavolo senza sovrapporsi l'un l'altro. Eppure sappiamo bene che questi cavi sono perennemente intrecciati e quanta fatica ci vuole per districarli. Il motivo per cui i fili tendono ad intrecciarsi è che l'insieme degli stati a fili intrecciati è molto più numeroso (tali stati intrecciati sono molto più probabili) che l'insieme degli stati, di minima energia con tutti i fili posti a contatto del tavolo. Poiché gli stati a fili intrecciati non corrispondono al minimo assoluto dell'energia gravitazionale, essi sono stati di equilibrio metastabile. Se si facesse vibrare il tavolo con intensità sufficiente, i fili tenderebbero a cadere man mano 30 verso il tavolo fino a districarsi19. Questo principio è lo stesso che usiamo quando agitiamo un sacco, poniamo, di noci per meglio assestarle. Nell'assestamento, le noci cadono mediamente verso il basso, diminuendo la loro energia potenziale gravitazionale. Queste considerazioni, se rese quantitative, possono trovare utilissime applicazioni in molti problemi pratici, come, ad esempio, l'immagazzinamento di materiali granulari (grano, polveri, ecc.) e la loro separazione mediante opportune vibrazioni applicate al contenitore (Fierro03). I dispositivi multistabili, inoltre, sono alla base di tutti i sistemi di immagazzinamento dell'informazione. Non si deve pensare, però, che lo stato su cui un sistema dissipativo si porta debba essere necessariamente uno stato di equilibrio in cui le proprietà del sistema restino costanti nel tempo. Al contrario, il sistema complesso può evolvere verso uno stato stabile dinamico, detto moto di regime, che può essere periodico (si parla allora di ciclo limite) o aperiodico (si parla allora di caos deterministico). Del caos deterministico si parlerà più avanti in maggiore dettaglio. Un aspetto comune a tutti i sistemi dissipativi è che lo stato stabile di equilibrio o metastabile di regime che essi raggiungono asintoticamente nel tempo dipende molto poco dalle condizioni iniziali. Con linguaggio antropologico, possiamo dire che i sistemi dissipativi hanno "memoria corta", nel senso che si dimenticano presto della sollecitazione esterna che ha iniziato la loro evoluzione e si portano in uno stato stazionario o dinamico fissato dal sistema stesso. Questo stato ha di solito caratteristiche di grande stabilità e di resistenza alle perturbazioni esterne. Ad esempio, un ecosistema mantiene un bilancio complessivo al di là dell'impatto costante di estinzioni, variazioni di habitat, epidemie, calamità naturali, ecc. In linguaggio tecnico si dice che il regime raggiunto dal sistema costituisce un attrattore stabile, nel senso che tutte le possibili traiettorie evolutive del sistema nelle vicinan19 A meno che, ovviamente, non ci siano impedimenti "topologici" come, ad esempio, l'esistenza di nodi. 31 ze dell'attrattore stabile tendono asintoticamente verso l'attrattore stesso. Le traiettorie, cioè le modalità con cui il sistema raggiunge lo stato finale dipendono dalle condizioni iniziali e possono essere ta come un processo di formazione di strutture sempre più complesse e differenziate sotto l'azione della selezione naturale e di altre influenze ambientali. Il fatto che questi processi conducono a confi- ogni volta diverse, ma lo stato finale è sempre il medesimo. Ad esempio, tecniche ottiche sofisticate oggi disponibili permettono la registrazione simultanea dello stato di attività di ogni singolo neurone che fa parte di un determinato circuito nervoso. Ebbene, studi recenti hanno mostrato che il sistema nervoso lavora in modo molto gurazioni stabili ordinate a partire dalle fluttuazioni interne al sistema è stato chiamato "ordine dal caos" e "ordine tramite le fluttuazioni" da Ilya Prigogone, premio Nobel per la chimica nel 1977). meno deterministico di quanto si pensi (cioè della relazione univoca tra stimolo e risposta) anche nel caso di riflessi molto semplici. Un riflesso molto studiato in neurofisiologia è quello della retrazione della branchia in seguito a stimoli tattili nell'invertebrato marino Aplysia. Utilizzando stimoli ripetuti, è stato scoperto che ogni stimolo, anche se di intensità e durata uguale agli altri, porta all'attivazione di insiemi molto differenti di neuroni. Malgrado ciò, la risposta del circuito neuronico è sempre la stessa (contrazione della branchia) (Wu94). È questo un comportamento tipico dei sistemi complessi multistabili. Il sistema stesso sviluppa al suo interno meccanismi di controreazione (feedback) che stabilizzano lo stato finale. La presenza di controreazione è un'altra caratteristica peculiare dei sistemi complessi, che porta a fenomeni interessantissimi come l'au- L'auto-organizzazione porta a maggiore ordine e, quindi, a una diminuzione di entropia. Non c'è contraddizione con il secondo principio della termodinamica, perché i sistemi auto-organizzanti sono sempre sistemi aperti, in contatto con l'ambiente esterno. Durante il processo di auto-organizzazione l'entropia dell'ambiente cresce di più di quanto diminuisca quella del sistema. In molti casi, i processi di auto-organizzazione possono essere considerati come processi di rottura spontanea della simmetria: il sistema passa da uno stato più simmetrico (meno ordinato) ad uno meno simmetrico (più ordinato). Il più classico degli esempi di auto-organizzazione è il fenomeno di Bénard, la formazione, cioè, di caratteristiche strutture a forma di celle quando un fluido viene scaldato dall'alto (Fig. 5). to-organizzazione. 4.1.2 AUTO-ORGANIZZAZIONE Una proprietà estremamente interessante dei sistemi complessi è la possibilità di auto-organizzazione. Con questo termine s'intende lo sviluppo spontaneo di nuove strutture ordinate. La transizione verso queste strutture, che possono essere anche molto stabili, avviene sotto l'azione delle fluttuazioni sia esterne che interne al sistema dissipativo. L'evoluzione delle specie può essere concepi32 Fig. 5. Il fenomeno di Bénard. 33 Un altro esempio importante, sono le strutture che si osservano durante l'evoluzione di alcune reazioni chimiche autocatalitiche, che hanno grande rilevanza in biochimica. Queste reazioni hanno la proprietà di produrre, tra i prodotti di reazione, i catalizzatori necessari per far procedere la reazione stessa. Si tratta di un tipico esempio di controreazione positiva. Più la reazione accelera, più catalizzatore si produce e la reazione va ancora più veloce. In opportune condizioni, le reazioni autocatalitiche avanzano lungo fronti d'onda, che assumono strutture particolari. Un esempio di un fronte di reazione a forma di spirale è mostrato in Fig. 6. Per effetto dell'autocatalisi, le reazioni chimiche autocatalitiche avvengono a velocità molto maggiore delle altre. Per questo motivo, si ritiene che gli enzimi, ovvero i catalizzatori delle reazioni biochimiche, abbiano avuto un ruolo determinante nello sviluppo delle forme viventi a partire dal caos molecolare del brodo primordiale. Senza di essi, infatti, si calcola che lo sviluppo della vita avrebbe richiesto molto più tempo per evolversi di quanto effettivamente impiegato (qualche miliardo di anni). deve credere che questo sia necessario per l'auto-organizzazione: sistemi molto semplici possono auto-organizzarsi in opportune condizioni. Un esempio è la formazione spontanea di pattern regolari nei sistemi ottici, un fenomeno che apre interessanti prospettive nel campo dell'eleborazione tutt'ottica delle immagini e dell'informazione parallela. Il sistema è particolarmente semplice: supponiamo di avere un materiale trasparente il cui indice di rifrazione n possa cambiare proporzionalmente all'intensità I della luce che lo attraversa, secondo la legge Eq. 7 dove n0 è l'indice di rifrazione del materiale in assenza di luce e n2 è una costante. Materiali di questo tipo sono detti otticamente nonlineari (l'intensità I è proporzionale al quadrato del campo elettrico ottico) e sono, ad esempio, i cristalli fotorifrattivi e i cristalli liquidi. Ebbene, facendo passare un fascio di luce abbastanza intenso attraverso il materiale e retroriflettendo con uno specchio la luce verso la zona illuminata del campione, si osserva nel fascio retroriflesso la formazione spontanea di una caratteristica figura con simmetria esagonale, come mostrato in Fig. 7. Questo fenomeno mostra come gli ingredienti minimali per avere auto-organizzzione siano i) la nonlinearità (Eq. 7) e ii) la controreazione, fornita dallo specchio retroriflettente. Fig. 6. Il fronte a spirale di una reazione autocatalitica (Zykov04). Il fenomeno di Bénard e le reazioni autocatalitiche si riferiscono a sistemi in cui si attuano meccanismi abbastanza complicati quali i moti convettivi idrodinamici e le reazioni chimiche. Ma non si 34 Fig. 7. Pattern esagonale generato dalla retroriflessione di un fascio laser in un film di cristallo liquido (Tamburrini93). 35 4.1.3 CAOS DETERMINISTICO Come detto in precedenza, i sistemi complessi, durante la loro evoluzione temporale possono incontrare molti punti di biforcazione (Fig. 2b). La scelta tra i rami evolutivi che partono da un punto di biforcazione è innescata dal rumore browniano di fondo e, pertanto, è casuale. Si comprende quindi come, in assenza di forti meccanismi interni di stabilizzazione e in presenza di moltissimi punti di biforcazione successivi, un sistema complesso possa evolvere verso un regime caotico, caratterizzato da un comportamento imprevedibile. A tale comportamento si dà il nome di "caos deterministico". L'ossimoro deriva dal fatto che il comportamento del sistema è impredicibile malgrado il perfetto determinismo delle leggi che lo governano. Occorre chiarire subito, che il caos non si riferisce al modo, spesso imprevedibile, con cui il sistema si porta in uno stato di regime (si veda l'esempio dell'Alypsia), quanto piuttosto alle modalità impredicibili dell'evoluzione dinamica dello stesso stato di regime. Come detto in precedenza, gli stati di regime verso cui tende il sistema sono attrattori dinamici. Ebbene, può succedere, che l'attrattore corrisponda non a uno stato stazionario, né a un moto ripetitivo (ciclo limite), ma a uno stato caotico. In tal caso, l'attrattore si dice "strano". L'esistenza di attrattori strani è una peculiarità dei sistemi complessi. Molti sistemi complessi hanno un numero grande di gradi di libertà e richiedono la soluzione simultanea di un grande numero di equazioni. Un esempio, è la turbolenza nella fluidodinamica. Non crea stupore che sistemi di questo tipo portino a comportamenti caotici e turbolenti. Ma non si deve credere che la complessità di un sistema sia legata necessariamente all'esistenza di molti gradi di libertà. È celebre il cosiddetto modello di Lorenz, descritto dalle seguenti tre equazioni differenziali accoppiate 36 Eq. 8 Queste equazioni furono introdotte nel 1963 da Edward Lorenz, un meteorologo, per descrivere in modo semplice i moti convettivi dell'atmosfera. Assegnate le condizioni iniziali a t=0, il moto del sistema è univocamente determinato (determinismo). Le Eq. 8 possono essere risolte con semplicissime procedure numeriche in grado di girare su un comune PC. Se però si traccia la traiettoria seguita dal punto P di coordinate (x,y,z), si trova qualcosa di simile a quanto mostrato in Fig. 8. A regime, la traiettoria del punto P si avvolge intorno a due superfici a forma di ali di farfalla, saltando da un'ala all'altra in modo irregolare. La traiettoria non si chiude mai su se stessa, ma si avvolge su se stessa un numero infinito di volte. Se si prova guardare la traiettoria con una lente d'ingrandimento, si trova che ad ogni scala essa mostra la stessa specie di struttura intricata, sempre simile a se stessa. Strutture con queste caratteristiche di autosimilarità sono note in geometria col nome di frattali. L'attrattore di Lorentz riempie una zona di spazio che è più di una superficie e meno di un volume, e può essere caratterizzato da una dimensione frattale tra due e tre. Il valore della dimensionalità dell'attrattore di Lorentz dipende dai valori dei parametri r, a, b, nelle Eq. 8. Nel caso della Fig. 8, la dimensionalità frattale dell'attrattore è 2.05. 37 con una certa attendibilità solo a tempi brevi (uno-due giorni). Previsioni del tempo a lungo termine sono in principio impossibili. Che sistemi complicati come l'atmosfera e le sue turbolenze possano avere comportamenti complessi e anche caotici non desta molto stupore. Ma la semplicità delle equazioni di Lorenz suggerisce che il caos deterministico può essere osservato anche in sistemi molto semplici21. Fig. 8. Una traiettoria a regime della soluzione delle Eq. 8. La curva è stata calcolata per r=28, a=10,b=8/3 e per le condizioni iniziali x = y =z =1. La figura mostra soltanto il moto di regime del sistema e non la parte iniziale della traiettoria. Non si deve pensare che l'attrattore strano di Lorenz sia un caso particolare: anzi, come già accennato in precedenza, uno dei più importanti risultati dello sforzo di ricerca sui sistemi complessi ha portato alla scoperta del carattere universale delle leggi che guidano la "via al caos"20. Queste leggi hanno un carattere di invarianza (o, se si preferisce, di simmetria) rispetto alle trasformazioni di scala e sono quindi "semplici". Il modello di Lorenz mostra, tra l'altro, che l'atmosfera è un sistema intrinsecamente caotico e che è impossibile predire il suo comportamento a lungo termine. Ma nello stesso tempo esso è anche un modello deterministico e che quindi è possibile predirne il comportamento a breve termine. Questo è il motivo per cui, nonostante l'enorme numero di dati oggi disponibili dai satelliti artificiali e nonostante l'enorme potenza dei calcolatori impiegati per le simulazioni numeriche, le previsioni meteorologiche possono essere fatte Fig. 9. Un esempio d'intermittenza. La figura mostra la velocità angolare delle molecole di un film sottile di cristallo liquido sul quale viene fatto incidere un fascio laser polarizzato circolarmente e con sezione ellittica. Questo tipo d'intermittenza è detto intermittenza on-off (Vella03). La Fig. 9 mostra l'intermittenza caotica della velocità angolare di rotazione delle molecole di un cristallo liquido sotto l'azione di un fascio di luce laser a sezione ellittica polarizzato circolarmente a incidenza normale (Vella03). In questo caso, il sistema si trova per la maggior parte del tempo lungo un ciclo limite in cui esso ruota a velocità angolare costante ω0, ma, di quando in quando, effettua brevi escursioni intermittenti e imprevedibili, verso un attrattore caotico. Un altro semplicissimo sistema che può mostrare moto caotico e che può essere costruito facilmente è il pendolo a molla o pen- 20 Le vie al caos più comuni sono due: il raddoppiamento di periodo in cui un moto periodico di frequenza f genera una serie di sub-armoniche f/n e la cosiddetta “rottura di simmetria del toro”, 21 Si dimostra, che per raggiungere il caos deterministico un sistema autonomo di equazioni dif- in cui un moto periodico di frequenza f genera una frequenza f' incommensurabile con f. ferenziali del prim'ordine come le Eq. 8, deve avere almeno tre gradi di libertà. 38 39 dolo elastico. Si tratta di un corpo di massa m appeso ad una molla elastica di massa trascurabile e libero di muoversi in tutte le direzioni. Questo sistema conserva l'energia meccanica ed è quindi un esempio di sistema complesso non dissipativo. Per energia meccanica abbastanza bassa il moto del pendolo è regolare (Fig. 10a) , ma diventa caotico ad alta energia (Fig. 10b)22. grand'unificazione. Ma la complessità non è cosi semplice. Solo negli ultimi trent'anni, grazie anche allo sviluppo delle nuove tecnologie informatiche multimediali, l'attenzione dei fisici si è spostata verso lo studio del complesso, al fine di spiegare la diversità, l'asimmetria e l'irregolarità. Nonostante la relativa giovinezza di questo nuovo campo d'indagine, i risultati sono stati notevoli e hanno aperto la strada verso la comprensione delle "leggi" e "regolarità", spesso universali, che guidano i sistemi complessi, cooperativi e persino caotici. Questo nuovo sviluppo ha avuto, tra l'altro, il grande pregio di mettere in contatto la comunità dei fisici, sia sperimentali che teorici, con discipline lontane dalla fisica più tradizionale quali l'informatica, la biologia, la zoologia, l'economia, le scienze sociali, aprendo nuove vie alla interdisciplinarietà. Lo sforzo verso la comprensio- Fig. 10. Proiezione nel piano orizzontale del moto di un pendolo a molla. a) a bassa energia la traiettoria è chiusa con la caratteristica forma di stella. b) ad energia più alta la traiettoria evolve caoticamente ricoprendo il piano orizzontale in modo frattale. ne quantitativa delle leggi che governano i sistemi complessi deve comunque considerarsi in una fase iniziale: è facilmente prevedibile che nei prossimi anni questo sforzo di ricerca si estenderà ad altre discipline, anche umanistiche, e produrrà nuove eccitanti scoperte. RIFERIMENTI 5. CONCLUSIONI - Bailin D., Why Superstrings?, Contemporary Physics, vol. 30, 237 Questa breve escursione tra determinismo e caos ha mostrato il cambiamento avvenuto recentemente nelle percezioni scientifiche del mondo, che per un tempo lunghissimo hanno sottolineato le sue regolarità al di là delle apparenze. Questa ricerca di semplicità e ordine, con l'assunto di leggi universali che connettono il passato al futuro, ha diretto la ricerca scientifica durante gli ultimi trecento anni, culminando nelle moderne teorie supersimmetriche di 40 (1989). - Barrow J. D., Theories of Everithing: the quest for ultimate explanation, Oxford UP 1991 and Vintage pbk 1992. - Chaitin G., Randomness in arithmetics, Scientific American, p. 80, July 1980; Gödel Theorem and Information, Int. J. Th. Phys., 22, 941 (1982). - Fierro A., Nicodemi M., Coniglio A., Edwards' approach to horizontal and vertical segregation in a mixture of hard spheres under gravity, J. Phys. Cond. Mat. 15, S1095 (2003). 41 - Gough J., Challenges if high-Tc, Physics World, p. 26, dec. 1991. - Green M., Superstrings, Scientific American, p. 48, Sept. 1986. 6. APPENDICE - Lloyd S. e Pagels H., Complexity as thermodynamic depth, Annals of Physics (N.Y.) 188, 186 (1988) - Nelson E., Dynamical theories of Brownian motion, Princeton Univ. Press, Princeton, 1967. - Santamato E., Lavenda B. H., The Stochastic H-Theorem, J. Math. Phys., 23, 2452 (1982). - Sauvage J.P., ed., Molecular machines and motors, Springer, Berlin, 2001. - Tamburrini M., Bonavita M., Wabnitz S., and Santamato E., Hexagonally-patterned beam filamentation in a thin liquid crystal film with a single feed-back mirror, Opt. Lett., 18, 855 (1993). - Vella A., Setaro A., Piccirillo B., and Santamato E., On-off intermittency in chaotic rotation induced in liquid crystals by competition between spin and orbital angular momentum of light, Phys. Rev. E, 67, 051704 (2003). - Weinberg S., I primi tre minuti, Arnoldo Mondatori ed., 1997 - Wu J. Y. et al., Consistency in nervous systems : trial-to-trial and animal-to-animal variations in the responses to repeated applications of a sensory stimulus in Alypsia, J. Neurosci. 14, 1366 (1994). - Zykov V. S. et al., Global Control of Spiral Wave Dynamics in an Excitable Domain of Circular and Elliptical Shape, Phys. Rev. Lett., 92, 018304 (2004). La seguente macro di Excel simula i lanci successivi di due dadi a sei facce e produce l'istogramma dei possibili risultati, da 2 a 12. Per avviare la macro, creare nell'editor di Visual Basic incorporato in Excel un modulo di nome Dices e un form di nome frmDices. Nel form di nome frmDices aggiungere tre pulsanti di nome cmdStart, cmdStop, cmdPause e una etichetta di nome lblStatus. Copiare nel modulo Dices il seguente codice Sub Dices() If ActiveWorkbook Is Nothing Then Exit Sub frmDices.Show End Sub Copiare nel form frmDices tutte le subroutine seguenti. Dim fPause As Boolean Dim fRun As Boolean Dim fStop As Boolean Private Sub UserForm_Initialize() InitializeForm End Sub Private Sub cmdPause_Click() lblStatus.Caption = "Lancio dadi interrotto" cmdPause.Enabled = False cmdStop.Enabled = False cmdStart.Enabled = True fRun = Not fRun 42 43 End Sub Private Sub cmdStop_Click() lblStatus.Caption = "Lancio dadi concluso" cmdPause.Enabled = False cmdStop.Enabled = False cmdStart.Enabled = True fRun = False fStop = True Cells.Clear Cells(1, 1).Font.Bold = True Cells(1, 3).Font.Bold = True Cells(1, 4).Font.Bold = True Cells(1, 5).Font.Bold = True Cells(13, 4).Font.Bold = True Cells(13, 5).Font.Bold = True Cells(1, 1).HorizontalAlignment = xlRight End Sub Private Sub Throw() Do Cells(1, 3).HorizontalAlignment = xlCenter Cells(1, 4).HorizontalAlignment = xlCenter Cells(1, 5).HorizontalAlignment = xlCenter ' Genera un valore casuale compreso tra 1 e 6 per i due dadi. Dice1 = Int((6 * Rnd) + 1) Cells(13, 4).HorizontalAlignment = xlRight Cells(1, 3) = "Evento" Dice2 = Int((6 * Rnd) + 1) ' Somma i due valori Result = Dice1 + Dice2 Cells(1, 4) = "Frequenza" Cells(1, 5) = "Probabilità" Cells(13, 4) = "Totale" ' incrementa i contatori nelle celle del foglio Cells(Result, 1) = Cells(Result, 1) + 1 Cells(1, 1).Select For n = 2 To 12 ' incrementa il contatore totale nelle cella (1,1) Cells(1, 1) = Cells(1, 1) + 1 For n = 2 To 12 ' scrive gli eventi Cells(n, 3) = n Next n ' aggiorna le celle con la frquenza degli eventi Cells(n, 4) = Cells(n, 1) / Cells(1, 1) Next n DoEvents Loop While fRun For n = 2 To 6 ' scrive le probabilità Cells(n, 5) = (n - 1) / 36 Cells(14 - n, 5) = (n - 1) / 36 Next n End Sub Private Sub cmdExit_Click() fRun = False Unload Me Cells(7, 5) = 6 / 36 ' mostra la probabilità totale (=1) ptot = 0 For n = 2 To 12 End Sub Private Sub InitializeForm() ptot = ptot + CDbl(Cells(n, 5)) Next n 44 45 Cells(13, 5) = ptot End Sub Private Sub cmdStart_Click() fisiche per la biomedicina, Fisica dei semiconduttori, Fisica dell'Ambiente, Metodologie Nucleari Applicate, Elettronica. Il primo anno è comune a tutti i curricula. In ogni caso i primi due anni sono lblStatus.Caption = "Lancio dadi in corso" cmdPause.Enabled = True cmdStop.Enabled = True cmdStart.Enabled = False If fStop Then InitializeForm dedicati ad acquisire le basi della fisica e la metodologia delle osservazioni sperimentali ed al terzo anno lo studente struttura il piano di studi, nell'ambito del curriculum scelto, in funzione dei suoi obiettivi: entrare subito nel mondo del lavoro o continuare gli studi. In particolare le attività didattiche del corso di laurea triennale in fStop = False fRun = True Throw ' inizia il lancio dei dadi Fisica si articolano in attività di base che introducono lo studente alla Matematica e all'Informatica ed al loro uso in Fisica, attività caratterizzanti che forniscono le adeguate conoscenze di meccanica, End Sub di termodinamica, elettromagnetismo classico, meccanica quantistica e di fisica moderna, dal subnucleare agli stati aggregati all'astro- COME CONTINUANO GLI STUDI IN FISICA LAUREA TRIENNALE IN FISICA Il corso di Laurea triennale in Fisica intende fornire una preparazione che spazia da un ambito puramente conoscitivo, rivolto allo studio teorico e sperimentale delle leggi fondamentali della natura, ad ambiti di carattere tecnologico e applicativo. Esso prevede un curriculum a carattere generale e più curricula a carattere tecnologico o applicativo. Il curriculum generale ha lo scopo di dare una formazione in fisica sufficientemente approfondita per permettere il proseguimento degli studi nelle lauree specialistiche senza debiti formativi o l'ingresso nel mondo del lavoro con una solida formazione di base e ulteriori conoscenze, a scelta dello studente, in uno dei settori della Fisica: Astrofisico, Biofisico, Geofisico, Cibernetico, Nucleare, Subnucleare, Struttura della Materia, Teorico. I curricula tecnologici o applicativi riguardano: Tecniche 46 fisica, con un forte corredo metodologico di laboratorio (che costituisce una componente essenziale nella formazione del laureato in Fisica) e di calcolo tale da poter essere utilizzato proficuamente in un vasto campo di applicazioni, attività in ambiti affini alla fisica che forniscono conoscenze e capacità in matematica, in fisica matematica, in chimica ed in applicazioni informatiche, adeguate ad operare in ambiti teorici, sperimentali ed applicativi della fisica classica e moderna, attività a libera scelta dello studente fra cui approfondimenti di lingua inglese ed informatica, attività correlate con la produzione dell'elaborato finale, che include eventuale stage preparatorio. L'organizzazione didattica è articolata in due periodi didattici ("semestri") nell'anno accademico; tra il primo ed il secondo periodo è inserita una interruzione di alcune settimane, in cui si svolgono gli esami, per la verifica della preparazione raggiunta dagli studenti negli insegnamenti svolti nel periodo. Una delle novità introdotte dalla riforma universitaria è il credito formativo universitario (corrispondente a 25 ore di impegno per lo studente, comprensivo di lezioni, laboratorio, studio individuale). Ad ogni insegnamento o attività è assegnato un determinato numero di crediti e la lau47 rea triennale (il titolo di "dottore in Fisica") si consegue con l'acquisizione di 180 crediti in tre anni ed una prova finale che consiste nella discussione di un elaborato su un'applicazione di metodi teorici e/o sperimenta-li ad un problema specifico. L'elaborato è anche finalizzato all'acquisizione di abilità riguardanti la comunicazione, la diffusione ed il reperimento delle informazioni scientifiche anche con metodi bibliografici, informatici e telematici. Le prospettive professionali dei laureati in fisica sono principalmente nel settore industriale, in ambiti in cui è richiesta la capacità di costruire e trattare modelli di realtà complesse (elettronico, opto-elettronico, informatico, ottico, biomedico, ecc.), negli Enti pubblici quali ospedali, nei laboratori di controllo, nelle strutture sanitarie in cui è richiesta competenza sulle tecnologie per la diagnostica medica e per la terapia medica, nei laboratori o strutture di controllo ambientale, in cui si applicano e si sviluppano metodologie fisiche per il controllo degli impatti fisici sull'ambiente, nelle società di consulenza e servizi per aziende, tra cui, per esempio, banche e agenzie finanziarie, in cui si utilizzano le capacità del laureato in fisica di costruire modelli per la trattazione di realtà complesse, nel settore della formazione (insegnamento, divulgazione e giornalismo scientifico) e nella ricerca scientifica presso Università ed Enti di ricerca. Per i fisici l'apertura delle frontiere e l'unificazione europea, anche della formazione universitaria, costituisce nuove opportunità e più ampie opportunità di lavoro anche all'estero. Dottorato di Ricerca (tre anni). La Laurea magistrale si consegue con 120 crediti. Il corso di Laurea magistrale in Fisica si articola in otto differenti curricula: Fisica Subnucleare, Fisica della Materia, Fisica Teorica, Fisica Nucleare, Fisica Biomedica, Geofisica, Elettronica, Astrofisica ed il titolo di "Dottore Magistrale in Fisica" si consegue dopo aver superato una prova finale che consiste nella discussione di un elaborato scritto di tesi su un’applicazione originale di metodi teorici o sperimentali ad un problema specifico di interesse per la ricerca nei campi della Fisica e delle sue applicazioni. L'attività svolta nell'ambito della tesi potrà essere effettuata sia nell'interno delle strutture universitarie, sia presso Enti di ricerca (fra cui l'INFN Istituto Nazionale di Fisica Nucleare, il CNR-INFM - Istituto Nazionale di Fisica della Materia, il CNISM - Consorzio Nazionale Interuniversitario per le Scienze Fisiche della Materia, l’INAF Istituto Nazionale di Astrofisica, l'INGV Istituto Nazionale di Geofisica e Vulcanologia, il CNR), centri di ricerca o laboratori nazionali ed internazionali, in Italia o all'estero, aziende o enti esterni. I laureati magistrali potranno trovare impiego nella ricerca fondamentale ed applicata presso Università ed Enti di ricerca ed in altre attività produttive e di pubblica utilità, quali, ad esempio, produzione e studio delle proprietà di nuovi materiali, prevenzione e controllo dei rischi ambientali, analisi nel campo dei beni culturali, analisi del rischio sismico, progettazione di sistemi di rivelatori e di sensori, radioprotezione dell'uomo e dell'ambiente, controllo e rivelazione di fenomeni fisici nell'ambito della prevenzione, diagnosi e cura, modellizzazione matematica di fenomeni complessi. LAUREA MAGISTRALE IN FISICA Dopo la laurea triennale è possibile frequentare il corso di Laurea magistrale in Fisica (due anni) che permette di raggiungere una più spiccata specializzazione nei vari settori scientifici ed applicativi e consente, se si vuole continuare nella ricerca, l'accesso al 48 Siti Web e riferimenti utili http://www.na.infn.it http://www.na.infn.it/didattica/didattica.htm 49 Dato il lavoro che faccio, sono stati fondamentali. - E' stato più importante che il corso di laurea abbia fornito una INTERVISTA A LORENZO MARRUCCI forma mentis o competenze specifiche? La forma mentis, non c'è dubbio. Le competenze specifiche che ho acquisito nel corso di laurea sono state comunque molto utili, ma credo che questo dipenda in grande misura dal particolare lavoro che mi sono ritrovato a fare. La forma mentis che si acquisisce con studi rigorosi e di qualità è invece utile per qualsiasi lavoro, nonché per crescere come persona. - Avrebbe gradito un curriculum di studi o un'impostazione diversa? Come preparazione per il lavoro che faccio oggi, il curriculum di - Che studi ha fatto ? Dopo la maturità classica, avevo intenzione di studiare qualcosa che avesse a che fare con l'intelligenza artificiale. Così mi sono iscritto al corso di laurea in fisica di Napoli (dove c'era l'indirizzo di cibernetica). La fisica vera e propria mi è poi piaciuta tanto che non ho più perseguito la mia intenzione originaria e ho scelto invece l'indirizzo riguardante la struttura della materia. Mi sono laureato (nel 1989) con una tesi in ottica non lineare. Successivamente ho anche preso il dottorato di ricerca in fisica (nel 1993), sempre a Napoli, e ho compiuto studi post-dottorali per due anni all'Università della California di Berkeley, negli Stati Uniti. - Che lavoro svolge ora? Sono professore associato di fisica della materia all'Università "Federico II" di Napoli. studi con cui era organizzata la laurea tradizionale in fisica era molto ben congegnato, anche se era anche molto impegnativo. Forse l'unica cosa che gli mancava era una maggiore apertura a studi interdisciplinari che oggi sempre più spesso sono quelli che presentano le migliori opportunità. - Perché le è piaciuta la fisica? La fisica fornisce potenti strumenti mentali e concettuali con cui possiamo comprendere tanti aspetti della realtà che ci circonda. E l'immagine della realtà che ci viene fornita, ad esempio, dalla fisica quantistica o dalla teoria della relatività è affascinante, misteriosa e, soprattutto, tutt'altro che scontata. Ma anche la fisica delle "cose di tutti i giorni" è divertente: capire perché le cose fanno quello che fanno, dal motivo per cui dopo la pioggia appare l'arcobaleno al funzionamento di un lettore di CD, è sempre entusiasmante. - Che ruolo hanno avuto gli studi nella sua esperienza lavorativa? 50 51 pubblicato più di cento articoli, ho due brevetti, sono referee di tre riviste internazionali, relatore di una decina di tesi di laurea in Fisica, tutor di svariati borsisti (alcuni provenienti dall'estero), INTERVISTA A PASQUALE MORMILE responsabile scientifico di una ventina di progetti di ricerca regionali, nazionali ed europei, sono stato più volte invitato a scuole e congressi internazionali. Nonostante tutto questo continuo ad essere per il mio Ente "ricercatore di fascia iniziale". Ciò mi ha causato non piccole delusioni professionali che tuttavia sono riuscito comunque a colmare grazie ad un'idea progettuale che proposi qualche anno fa a Sviluppo Italia che vedeva la nascita di una nuova società (PolyEur srl di Benevento) produttrice di film plastici fotoselettivi per l'agricoltura. Tale idea fu subito premiata con un finanziamento, attraverso la Legge 44, di circa 3.000.000 Euro.Oggi La PolyEur è una realtà produttiva, che dopo la delicata fase di start-up, è in forte crescita vendendo i propri prodotti su tutto il territorio nazionale, ed è già presente in Europa e in nord Africa. E' stata un'impresa non facile, ma - Che studi ha fatto e che ruolo hanno avuto nella sua esperienza lavorativa ? non impossibile, soprattutto grazie alla determinazione, all'impegno ed alla passione che ci ho messo. Mi sono laureato in Fisica nel 1980 presso l'Università di Napoli "Federico II". Da studente ho avuto due grandi privilegi: sono stato allievo del Prof. Ettore Pancini (di cui ho seguito un ottimo corso di - E' stato più importante che il corso di laurea abbia fornito una forma mentis o competenze specifiche? Ottica) e ho svolto la mia tesi di laurea con il Prof. Enrico Santamato. Queste due esperienze sono state assolutamente determinanti ed hanno costituito due punti di forza che mi hanno spianato la strada come ricercatore al CNR, dove dal 1984 svolgo la mia attività di ricerca. L'uno e l'altro. E' stato molto importante proporsi sul mercato del lavoro con competenze specifiche. Conoscere pochi argomenti, ma bene, a volte può essere determinante. Per questo motivo ritengo che il periodo della tesi di laurea sia fondamentale perché si acquisiscono competenze ed esperienze utili per il mercato del lavoro. È - Quale attività svolge attualmente? Sono ricercatore di fascia iniziale presso l'ICIB-CNR di Pozzuoli e mi occupo da sempre di ottica applicata e di materiali otticamente atti- chiaro però che un buon corso di formazione scolastica ed universitaria aiuta a crearsi una forma mentis capace di proporsi ovunque. Ad essa bisogna però associare concretezza e capacità di scelta al fine di orientare i propri studi verso chiare esigenze del mercato del vi (cristalli liquidi, PDLC, polimeri e nanocompositi) per la realizzazione di dispositivi elettro-ottici. In oltre venti anni di carriera, ho 52 lavoro. 53 - Quali progetti ha per il futuro ? Ho in cantiere per questo anno la nascita di due nuove società. La IR Tec, società che offrirà tecnologia IR nei settori più svariati come l'edilizia, l'agricoltura, i beni culturali, l'industria e la medicina e la PolyBio, società che produrrà materiali biodegradabili per l'agricoltura unici al mondo. Sto per brevettare un sistema per la sterilizzazione dei terreni. Riguardo la mia attività di ricerca, ci siamo dotati finalmente di un'apparecchiatura (Electro Beam Lithography) che ci consentirà di lavorare su scala nanometrica per realizzare dispositivi fotonici. 54