In questo breve lavoro sarà mia intenzione analizzare dal punto di

annuncio pubblicitario
Caos : verità o
necessità ?
In questo breve lavoro sarà mia intenzione analizzare dal punto di vista epistemologico un problema
da sempre fonte di conflitto tra le varie scuole di pensiero nella comunità dei fisici, siano essi
teorici o sperimentali.
Prima di procedere è mia intenzione fare una piccola introduzione per mettere in luce gli eventi e le
teorie che hanno fatto da preludio a questo conflitto concettuale.
Newton e i deterministi classici
Tutto ebbe inizio a Cambridge nel 1665 quando il fisico-matematico Isaac Newton fondò le basi
della meccanica classica ed inconsciamente la visione “deterministica” del mondo tanto difesa e
sostenuta dai fisici a metà del settecento.
Nel “Philosophiae naturalis principia mathematica”, Newton, formulando tre assiomi fondamentali,
dà vita a un trattato di pura meccanica dove vengono analizzati in modo matematico e rigoroso
moltissimi argomenti tra cui il moto dei gravi, le forze d’attrito, la teoria della gravitazione
universale e tutta la meccanica celeste che da questa geniale concezione ne scaturì.
Ma come ho preannunciato, Newton, nel formulare i suoi “Principia”, partì da tre assiomi, che per
definizione sono postulati intuitivi della ragione umana e talmente elementari da non poter essere
dimostrati se non dall’esperienza pratica comune.
Tali assiomi sono:
I. Consideriamo un corpo sul quale agiscono più forze di risultante nulla. Se il corpo è fermo
rimane fermo. Se si muove di velocità costante, continua così indefinitamente.
II. La risultante delle forze agenti su un corpo divise per la massa del corpo stesso, rappresenta
l’accelerazione prodotta dalle forze sul corpo stesso. Formulata matematicamente: ∑ F = ma ,
dove ∑ F rappresenta il vettore somma di tutte le forze agenti sul corpo, m è la massa ed a
l’accelerazione prodotta.
III.A ogni azione corrisponde una reazione uguale e contraria.
Questi assiomi nascondono due conseguenze di carattere filosofico non banali: il primo assioma
contraddice il pensiero della maggior parte dei filosofi che consideravano la quiete lo “stato
naturale” di tutti i corpi.
Il secondo assioma, nella sua elegante e fredda formulazione matematica, racchiude il seme che
darà vita alla visione deterministica del mondo e a tutte le conseguenze sociali, etiche e filosofiche
che da tale concezione scaturiranno.
Infatti, l’equazione di Newton non è altro che un’equazione differenziale del 2° ordine rispetto al
tempo e quella da me riportata è l’equazione nella forma vettoriale, in verità si tratta di un sistema
di tre equazioni differenziali scalari che legano le componenti lungo gli assi x, y e z della forza
risultante ( ∑ Fx , ∑ Fy , ∑ Fz ) alle tre componenti dell’accelerazione ( ax , ay , az ) e alla massa m.
A questo punto interviene il fondamentale teorema di Cauchy che assicura l’esistenza e l’unicità
delle soluzioni di un sistema di equazioni differenziali in corrispondenza di un dato insieme di
condizioni iniziali.
Il problema si riduce all’integrazione analitica delle equazioni del moto ed, in linea di principio, se
un superuomo riuscisse ad impostare le equazioni di moto per ogni particella che compone
l’universo tenendo conto di tutte le forze agenti su quest’ultima senza trascurarne alcuna (forze
d’attrito, gravitazionali, elettriche e/o magnetiche, nucleari, ...) ed ad un istante t=0 conoscesse con
infinita precisione posizione e velocità di ogni particella costituente il sistema, il teorema di
esistenza e unicità delle soluzioni garantirebbe una conoscenza del futuro senza alcuna ambiguità.
E’ evidente che ciò uccide ogni idea di libero arbitrio, coscienza delle azioni e decisioni; il concetto
di evento casuale o aleatorio perde di significato e in una filosofia strettamente deterministica la
presenza nell’Universo di un Dio onnipresente risulta del tutto obsoleta.
L’atteggiamento deterministico influenzò anche il ‘700 e lo sviluppo della meccanica celeste e della
dinamica dei sistemi elastici portò alla formulazione di una teoria dinamica ben precisa.
Si arrivò a una riformulazione dell’equazione del moto di Newton da parte del fisico-matematico
francese Lagrange il quale introdusse la ben nota funzione “lagrangiana” per descrivere le
interazioni tra i componenti elementari che formano il sistema fisico studiato.
Il formalismo lagrangiano fu introdotto per risolvere due problemi legati alle equazioni di Newton:
il problema dell’espressione delle equazioni in un sistema di coordinate arbitrario e il problema
dell’eliminazione delle reazioni vincolari nei sistemi vincolati.
Matematicamente la lagrangiana è definita dalla funzione L=T-V cioè la differenza di energia
cinetica T ed energia potenziale V. La funzione di Lagrange deve pensarsi espressa come funzione
delle coordinate q = (q1 ... qN) di un generico sistema di riferimento (in sostituzione delle coordinate
cartesiane ortogonali imposte dal formalismo newtoniano) e delle velocità generalizzate q=(q1 ...
qN).
Quindi L=L(q,q) e le equazioni del moto nel nuovo formalismo hanno la seguente forma:
d/dt(∂L/∂qi) = ∂L/∂qi
(1)
con i = 1, ..., N.
Si noti che un sistema con N gradi di libertà è descritto da un sistema di N equazioni differenziali
del 2° ordine che, grazie al teorema di Cauchy, ammette una e una sola soluzione una volta
assegnate le condizioni iniziali del sistema.
E’ del tutto equivalente la scelta dei due formalismi per descrivere un sistema fisico con l’unica
differenza che il formalismo lagrangiano non vincola all’uso di coordinate cartesiane ortogonali non
sempre convenienti per descrivere la dinamica di un sistema.
Matematicamente parlando, sia con Newton sia con Lagrange si ha a che fare con un sistema di
equazioni differenziali del 2° ordine.
L’ideale sarebbe avere equazioni del 1° ordine, indubbiamente più facili da trattare e da risolvere.
Il problema fu risolto dal fisico-matematico Hamilton che trovò il modo, nel descrivere un sistema
fisico con N gradi di libertà, di passare da un sistema di N equazioni del secondo ordine ad un
sistema di 2N equazioni del primo ordine.
Richiamando le equazioni di Lagrange ( 1 ), Hamilton introdusse delle nuove variabili p1 ... pN dette
momenti coniugati alle coordinate generalizzate q1 ... qN mediante la seguente definizione:
pi = ∂L(q,q,t)/∂qi
con i = 1 ... N
sicchè le equazioni di Lagrange assumono la forma:
pi = ∂L(q,q,t)/∂qi
con i = 1 ... N
Esiste un fondamentale teorema che lega il formalismo Hamiltoniano al formalismo Lagrangiano:
Si consideri la lagrangiana L = L(q,q,t) con determinante hessiano non nullo: det(∂ 2L /∂qi∂qh ) ≠ 0.
Allora il sistema:
p=∂L/∂q
(2)
p=∂L/∂q
è equivalente al sistema:
q=∂H/∂p (3)
p = -∂ H / ∂ q ( 3 )
dove H = H (p,q,t) è la funzione definita da:
H (p,q,t) = [ p· q - L(q,q,t)]q = q( p,q,t )
essendo la funzione q(p,q,t) definita per inversione della ( 2 ).
Inoltre si ha:
∂ H / ∂ t = -∂ L / ∂ t
La funzione H si dice funzione di Hamilton o hamiltoniana del sistema, e le equazioni ( 3 ) si
dicono equazioni canoniche o di Hamilton.
Il teorema stabilisce dunque l’equivalenza tra le equazioni di Lagrange e le equazioni di Hamilton,
nel caso di determinante hessiano non nullo.
La funzione hamiltoniana di un sistema meccanico è strettamente connessa con l’energia; in un
sistema meccanico naturale l’hamiltoniana H ha l’espressione
H = T2 - T0 + V
dove T2 e T0 sono i termini dell’energia cinetica T, rispettivamente di ordine due e zero nelle
velocità q , riespressi in funzione di p,q,t ; in particolare, nel caso indipendente dal tempo, si ha:
H=T+V
Quindi, nel caso indipendente dal tempo, l’hamiltoniana coincide con l’energia totale del sistema,
ovviamente espressa in funzione delle coordinate libere e dei momenti coniugati.
Il risultato ottenuto da Hamilton insegna una via pratica molto semplice per costruire l’hamiltoniana
nel caso indipendente dal tempo: basta scrivere l’energia totale T + V , con la sola avvertenza di
esprimere T in termini di p anziché di q .
Perciò, nel formalismo hamiltoniano, un sistema con N gradi di libertà è caratterizzato da N coppie
di coordinate generalizzate (q1 ... qN) e momenti (p1 ... pN) , le quali soddisfano le equazioni del
moto canoniche :
pi = -∂H/∂qi ; qi = ∂H/∂pi con i = 1, ... ,N
dove H = H(p1 ... pN q1 ... qN) è l’hamiltoniana del sistema.
Anche in questo caso si tratta di risolvere un sistema di 2N equazioni del 1° ordine che per via del
teorema di Cauchy ammette un’unica soluzione analitica una volta fissati in modo univoco e
infinitamente preciso le condizioni iniziali del moto.
Per concludere, tutti e tre i diversi (ma solo nella forma) formalismi conducono inesorabilmente ad
un determinismo ASSOLUTO.
Successivamente, a fine ‘800, Maxwell, proponendo il suo trattato sull’elettromagnetismo
introdusse il concetto di campo e tale concetto fu usato in seguito da Einstein con le forze
gravitazionali nella teoria della relatività generale.
Ma il concetto di campo e la critica delle azioni a distanza hanno portato a sostituire i sistemi finiti
di equazioni differenziali ordinarie, con equazioni alle derivate parziali, ma le assunzioni di base
sono rimaste totalmente inalterate, infatti, anche le equazioni alle derivate parziali, se pur molto più
complesse di quelle ordinarie, sono in linea di principio risolvibili analiticamente e ammettono
soluzione unica una volta fissati dati iniziali ed al contorno.
Riassumendo, i cardini base su cui si poggia l’intero formalismo classico (sia matematicamente, sia
filosoficamente) si possono schematizzare in tre punti:
a) Riduzionismo. Le proprietà globali sono univocamente determinate dalle interazioni tra
componenti e pertanto la fisica macroscopica è completamente deducibile dalla fisica delle
interazioni fondamentali.
b) Determinismo. La situazione iniziale determina univocamente il futuro.
c) Reversibilità del tempo. Se si inverte il segno del tempo, le soluzioni risultanti sono altrettanto
“legittime”: non esiste a livello microfisico una freccia del tempo e quella che compare in alcuni
modelli macrofisici (es. modello della diffusione) è un “artificio” introdotto dalle
approssimazioni adottate.
Prima di proseguire vorrei ricordare che il principio del “riduzionismo” fu magistralmente
enunciato da Cartesio quando la scoperta di una imprevista complessità del mondo microscopico
mise in crisi i principi metodologici fondamentali della fisica in generale.
Tale principio fonda sulla convinzione che il mondo microscopico sia più semplice di quello
macroscopico e di fronte ad eventuali discrepanze tra teoria e dati sperimentali, la prescrizione
aurea consiste nel cercare un livello più profondo di realtà, più fondamentale e più semplice.
Si tratta di un principio molto potente: quando è possibile applicarlo con successo, esso fornisce la
chiave per un nuovo livello di interpretazione dei fenomeni e consente un approfondimento delle
conoscenze. Il microscopico costituisce dunque la frontiera della conoscenza stessa e tale pensiero è
fortemente diffuso e operante anche ai giorni nostri (basti pensare alle ricerche a livello di particelle
elementari) .
Dopo questa breve introduzione sui formalismi classici, sembrerebbe che lo studio della natura e
dei suoi molteplici fenomeni si riduca all’impostazione delle equazioni del moto, scegliendo il
formalismo ed il sistema di riferimento più comodi a noi, e una volta definiti i dati iniziali e/o le
condizioni al contorno, trovare una tecnica matematica per integrarle.
Sfortunatamente le cose non sono così semplici ! Per dimostrare come questo tipo di approccio sia
impossibile da realizzarsi in situazioni reali, valga come esempio lo studio del moto di un gas
all’interno di un recipiente.
Supponiamo di avere nel recipiente una mole di gas i.e. ∼1023 atomi .
Ora, usando il formalismo hamiltoniano, dovrei introdurre ∼1023 coordinate generalizzate qi ed
altrettanti momenti coniugati pi e una volta sviluppata l’hamiltoniana H che tenga conto di tutte le
energie cinetiche e di tutti i potenziali di interazione delle particelle l’una con l’altra e con le pareti
del recipiente (anch’esso formato da un numero N di atomi) , otterrei un sistema di ∼2*1023
equazioni canoniche del moto. Fatto ciò, dovrei ad un istante arbitrario t=0 misurare
contemporaneamente e con infinita precisione tutte le posizioni e tutti i momenti delle ∼1023
particelle contenute nel sistema studiato. Infine, forte del teorema di Cauchy e delle tecniche
analitiche per l’integrazione delle equazioni differenziali, risolvo il mio super-sistema che
ammetterà soluzione unica una volta imposti i dati iniziali precedentemente misurati. A questo
punto, tenendo presente l’assunzione della reversibilità del tempo, il futuro ed il passato del sistema
si rivelerà ai miei occhi senza dubbio alcuno ed a qualunque tempo t potrò conoscere posizione e
velocità di ogni particella con infinita precisione.
PROBLEMA: impostare e risolvere analiticamente un sistema di ∼1023 equazioni differenziali non
disaccoppiate (e soprattutto misurare contemporaneamente ∼1023 posizioni e momenti ) è cosa
UMANAMENTE IMPOSSIBILE!!!
Statistica, probabilità ed ... entropia
!!!
A questo punto, nella seconda metà del 1800, entra in scena il concetto di “processo stocastico”
(fortemente sostenuto dai fisici termodinamici) e tale concetto fu l’annuncio di una rivoluzione
concettuale, dapprima fortemente criticata ma poi accettata, che condusse ad una descrizione
probabilistica dei fenomeni fisici.
Infatti, in quegl’anni, la termodinamica si presentava come un livello di descrizione della realtà del
tutto avulsa dalla struttura microscopica : le sue variabili (es.temperatura, pressione, entropia, ...)
non erano desunte dalla dinamica delle particelle.
Grazie a fisici come Maxwell, Boltzmann e Gibbs, la meccanica statistica ha tentato di correlare
due livelli di descrizione della realtà, costruendo i concetti di temperatura, pressione, entropia come
proprietà di insieme della materia .
La logica fortemente deterministica viene parzialmente abbandonata ed un problema del tutto
intrattabile come il moto di una mole di gas dentro un recipiente, viene agevolmente trattato se si
accettano i principi e le variabili introdotte dalla meccanica statistica.
In questa logica, un concetto come “velocità di una particella ad un certo istante”, viene sostituito
dai più pratici : distribuzione statistica e valor medio delle velocità , inoltre, fanno la loro comparsa
variabili come temperatura e pressione : la prima legata all’energia cinetica media delle particelle
(e quindi alla loro velocità media) , la seconda legata alla quantità di moto media scambiata tra il
gas e le pareti del recipiente durante le collisioni.
Storicamente il problema della determinazione della distribuzione delle velocità di un gas composto
da un gran numero di molecole fu risolto da Maxwell.
La distribuzione maxwelliana delle velocità per un gas di N molecole di massa m a temperatura T è:
n(v) = 4πN(m/2πkT)3/2v2exp[-mv2/2kT]
In questa equazione n(v) è il numero di molecole per intervallo unitario di velocità che hanno
velocità comprese tra v e v+dv ; oppure si può dire che n(v)dv è il numero di molecole del gas che
hanno velocità compresa tra v e v+dv.
Si noti che, per un dato gas, la distribuzione delle velocità dipende solo dalla temperatura .
Successivamente, Maxwell e Boltzmann diedero una descrizione alternativa del moto delle
molecole ponendo l’attenzione sulla distribuzione delle energie, anziché delle velocità.
Analizzarono la distribuzione n(E), nella quale n(E)dE rappresenta il numero di molecole con
energia compresa tra E ed E+dE.
Come precedentemente anticipato, il problema fu risolto per la prima volta da Maxwell, ricavando
la cosiddetta distribuzione di Maxwell-Boltzmann nel caso particolare in cui le molecole possiedano
solo energia cinetica traslazionale (si è trascurata l’energia cinetica rotazionale e vibrazionale delle
molecole) :
n(E) = {2NE1/2exp[-E/kT]}/π1/2(kT)3/2
Avendo fatto l’ipotesi che le molecole del gas abbiano solo energia cinetica traslazionale, questa
distribuzione si applica soltanto a un gas monoatomico. Nel caso di gas con molecole più
complesse, all’interno dell’equazione compariranno altri fattori .
La bellezza delle due equazioni sta nel fatto che non c’è differenza se si contano le molecole per la
loro velocità o per la loro energia cinetica ; finché i limiti inferiore e superiore degli intervalli delle
velocità corrispondono a quelli delle energie cinetiche, tra quei limiti contiamo lo stesso numero di
molecole i.e. il numero di molecole con energia compresa tra E ed E+dE è lo stesso del numero di
molecole con velocità fra v e v+dv.
Matematicamente ciò si esprime:
n(E)dE = n(v)dv
La meccanica statistica e gli studi sulla termodinamica misero fortemente in crisi tutto il
formalismo deterministico, soprattutto quando venne enunciata la seconda legge della
termodinamica per studiare i processi reversibili ed irreversibili.
Questa legge tratta la variabile termodinamica: entropia e non è deducibile dagli assiomi di
Newton.
Il secondo principio dice sostanzialmente che ogni processo fisico, affinché avvenga, comporta un
aumento di entropia nell’universo; per esempio, se si ha a che fare con una “macchina termica”, il
secondo principio impone che non è possibile in un processo ciclico, convertire interamente calore
in lavoro senza che avvenga una qualche variazione dell’ambiente (questa enunciazione del
secondo principio, chiamata anche formulazione di Kelvin-Planck, stabilisce che non esiste una
macchina termica ideale ), analogamente, se si ha a che fare con un “frigorifero” il secondo
principio pone il vincolo : non è possibile un processo ciclico nel quale il calore fluisca da un
corpo ad un altro a temperatura maggiore, senza che null’altro accada (questo rappresenta
l’enunciato di Clausius e in sostanza dice che non esistono frigoriferi perfetti ).
Come vedremo, tutto ruota attorno ai concetti di trasformazione reversibile ed irreversibile.
Ricordo che si dice reversibile una trasformazione nella quale si può invertire il verso del processo
variando di una quantità infinitesima le condizioni dell’ambiente circostante (per esempio si pensi
ad un gas reale dentro un cilindro che passa dallo stato iniziale i (caratterizzato dalla pressione pi ,
dal volume Vi e dalla temperatura Ti ) allo stato finale f (caratterizzato da pf ,Vf e Tf ). La
trasformazione può essere irreversibile ponendo improvvisamente un peso sul pistone, oppure
reversibile aggiungendo sul pistone pochi grani di sabbia per volta).
Una trasformazione reversibile è dunque caratterizzata dal fatto che il sistema è sempre in uno stato
che si discosta poco da quello di equilibrio e quindi, nell’esempio del gas nel cilindro, aumentando
infinitamente il numero di passi intermedi e diminuendo, in corrispondenza, le dimensioni di ogni
passo (granelli di sabbia infinitamente piccoli e leggeri) , si arriva ad un processo ideale nel quale il
sistema attraversa una successione continua di stati di equilibrio che si possono rappresentare con
una linea continua sul piano pV.
Ma una trasformazione rigorosamente reversibile è una semplice ed utile astrazione !!!
Definendo la variabile di stato entropia S mediante il differenziale esatto:
dS = dQ/T
la variazione di entropia tra due stati i e f in una trasformazione reversibile è:
∆S = Sf - Si = ∫dS = ∫dQ/T
dove l’integrale è calcolato lungo un qualsiasi percorso reversibile che collega i due stati.
In natura non esistono trasformazioni reversibili; sono sempre presenti attrito e dispersioni di calore
incontrollabili, per cui difficilmente si può suddividere una trasformazione reale in una sequenza di
trasformazioni infinitesime. Ogni trasformazione reale è quindi irreversibile !!!
Utilizzando il concetto di entropia il secondo principio della termodinamica è così enunciato: in
qualsiasi trasformazione termodinamica che evolva tra due stati di equilibrio, l’entropia
dell’insieme costituito dal sistema più l’ambiente circostante può solo restare costante o
aumentare. Non può esistere in natura nessuna trasformazione nella quale diminuisca l’entropia
totale del sistema + l’ambiente circostante.
A questo punto entra in crisi la terza assunzione del formalismo deterministico i.e. la reversibilità
del tempo : è la variazione di entropia che indica perché un sistema evolve nel tempo in un verso
piuttosto che in un altro. I sistemi evolvono nel tempo sempre in modo tale da far aumentare
l’entropia totale del sistema+ambiente circostante.
Se si osserva un processo nel quale l’entropia del sistema diminuisce, si può essere sicuri che la
variazione d’entropia dell’ambiente circostante è positiva e sufficiente a rendere positiva anche la
variazione totale di entropia.
Ma intuitivamente, cos’è l’entropia ?
Si è visto che tutte le grandezze termodinamiche macroscopiche hanno una corrispondente
grandezza microscopica (per es. temperatura ↔ energia cinetica molecolare media).
LA GRANDEZZA MICROSCOPICA ASSOCIATA ALL’ENTROPIA È LA PROBABILITÀ RELATIVA DEI DIVERSI
MODI DI ORDINARE LE MOLECOLE DEL SISTEMA.
Se si pensa a situazioni comuni come l’espansione libera di un gas o la conduzione del calore tra
due corpi a differenti temperature una volta posti a contatto o, più semplicemente, la diffusione di
una zolletta di zucchero in una tazza di caffè, il sistema passa spontaneamente da uno stato di bassa
probabilità ad uno di alta probabilità.
Esiste una relazione, introdotta da Boltzmann, tra probabilità ed entropia :
S = k lnP
dove k è la costante di Boltzmann, S l’entropia del sistema e P il numero delle diverse
configurazioni molecolari che corrispondono allo stesso stato macroscopico.
L’entropia si può anche pensare come misura dell’aumento del disordine del sistema. Il termine
“disordine” non ha una definizione matematica precisa, ma è qualitativamente correlato al concetto
di probabilità. Quindi l’aumento di entropia nelle trasformazioni reali può essere visto come un
aumento del livello di disordine del sistema.
I processi naturali tendono a rendere l’universo più disordinato !!!
Qui è doveroso fare una precisazione: avendo a che fare con delle probabilità, una frase del tipo,
“tale evento non si verificherà mai !” , è logicamente sbagliata.
Infatti, in linea di principio c’è sempre la possibilità che, per una fluttuazione statistica, si possa
giungere spontaneamente ad uno stato finale del sistema con entropia minore di quella dello stato
iniziale. Per sistemi macroscopici, la probabilità che l’entropia decresca realmente in una
trasformazione spontanea è notevolmente piccola ma NON NULLA !!!
Per esempio, la probabilità che tutte le molecole d’aria di una stanza migrino spontaneamente da
una parte, lasciando il vuoto dall’altra, è esponenzialmente piccola ma non nulla (si noti che,
sebbene la situazione risulti paradossale, energia del sistema si conserva e quindi, siamo in accordo
con il primo principio della termodinamica), perciò, osservando il sistema per un tempo INFINITO
tale situazione deve verificarsi !!!
Poincarè,
Lorenz
deterministico’’
e
il
‘‘caos
Dopo la termodinamica ed il diffondersi della meccanica statistica, all’inizio del ‘900, un problema
intravisto e sviluppato dal fisico-matematico francese Poincaré, minacciò al cuore stesso
dell’ipotesi deterministica.
L’ipotesi deterministica “forte” è significativa a patto di conoscere con infinita precisione posizioni
e velocità. Tale conoscenza è ovviamente impossibile ma, in linea di principio, la precisione delle
osservazioni può essere sempre migliorata, non esistendo per essa, in meccanica classica, limiti
teorici. Poincaré dimostrò che in molti casi, i sistemi di equazioni differenziali possono dare origine
a soluzioni molto diverse tra loro in corrispondenza di condizioni iniziali estremamente vicine .
Studiando il “problema gravitazionale a tre corpi”, Poincaré incontrò delle “instabilità asintotiche”
i.e. se nello spazio delle fasi, al tempo t = 0 scegliamo due punti rappresentativi arbitrariamente
vicini tra loro, e chiamo ε la loro distanza, può accadere (per un insieme non nullo di parametri
fisici) che la separazione tra le traiettorie che emergono dai due punti aumenti esponenzialmente
come εexp[λt] (λ>0). Ciò vuol dire che se fissiamo una risoluzione δ del nostro apparato di misura,
per ogni ε* esisterà un t* tale che : ε* exp[λt*]>δ.
Per t>t* si avranno due traiettorie distinte per la stessa condizione “iniziale”. Il teorema di unicità
vale se partiamo da un punto ideale (ε = 0), ma ciò non ha significato in fisica.
Ma allora, se basta una modifica arbitrariamente piccola delle condizioni iniziali per avere a che
fare con un’evoluzione diversa, e diversa in modo imprevedibile, allora l’impossibilità di effettuare
misure infinitamente precise implica una impossibilità sostanziale di fare previsioni !!!
La portata epistemologica di tutto ciò è rivoluzionaria, perché di colpo entrano in crisi il
riduzionismo (il problema a tre corpi non è deducibile per estrapolazione da quello a due corpi) e il
determinismo (la predicibilità è limitata nel tempo). Anche la reversibilità entra in crisi, nonostante
le equazioni mantengano un’invarianza formale per inversione temporale, infatti, l’evoluzione da t
= 0 a t =t* a partire da una certa condizione iniziale è affetta dall’incertezza legata a λ>0. Se inverto
il tempo, le condizioni a t = t* sono a loro volta troncate, per cui anche il problema inverso
presenterà una direzione espandente e si arriverà, a t = 0, ad un punto finale NON COINCIDENTE con
quello da cui si era partiti nel problema diretto.
E’ importante sottolineare il fatto che questa critica ai dogmi del formalismo classico ha origine
nell’ambito di una teoria dinamica, sulla base dell’esistenza di direzioni instabili e della
impossibilità di una definizione assolutamente precisa delle condizioni iniziali (nessuna ipotesi
termodinamica e/o statistica è stata invocata).
Questa rivoluzione sfuggì ai contemporanei di Poincaré, e le conseguenze non furono sviluppate .
In quel periodo la ricerca fisica era interessata ad altri problemi come per esempio la radioattività,
la struttura atomica legata alla regolarità degli spettri atomici, ecc.
Ma negli anni ‘60, grazie alla disponibilità di potenti elaboratori elettronici e la spinta di problemi
pratici (es. la stabilità delle orbite dei satelliti o l’affidabilità delle previsioni meteorologiche) hanno
portato in auge questa linea di tendenza.
Famoso è il lavoro nel 1963 di E.N.Lorenz che, studiando un modello di instabilità idrodinamica a
tre equazioni non lineari accoppiate, riscoprì la non periodicità del flusso che scaturisce da tale
modello.
Infatti, sono sufficienti tre equazioni differenziali per avere una dipendenza critica dalle condizioni
iniziali con comparsa di un “attrattore strano” (o “attrattore caotico”) i.e. una sorta di “matassa” di
traiettorie che non ha dimensione intera.
Lorenz battezzò questo fatto “effetto farfalla”, osservando che è sufficiente lo sbatter d’ali di una
farfalla in Cina perché, dopo un certo tempo, ciò provochi un’incertezza nelle condizioni
meteorologiche in California .
Gli studi e le teorie di Lorenz nel campo della meteorologia e dei fenomeni “turbolenti” sono strati i
precursori di una nuova fisica, che si sviluppò dagli anni ‘60 fino ai giorni nostri soprattutto grazie
al forte sviluppo dell’informatica e dei calcolatori elettronici, per lo studio di sistemi complessi per
mezzo di equazioni puramente deterministiche.
Nasce il concetto di caos deterministico e vengono ripresi tutti i concetti e teoremi fisicomatematici riguardanti attrattori, cicli limite, biforcazioni nello spazio delle fasi, ecc. e soprattutto,
grazie a B.B.Mandelbrot, si sviluppa la teoria della geometria frattale e le sue applicazioni nei
modelli naturali.
La necessità di tali teorie nasce dalla necessità di spiegare qualitativamente e quantitativamente
l’esistenza in natura di fenomeni di auto-organizzazione come, per esempio, la comparsa di
strutture regolari in un fluido prossimo all’ebollizione se l’azione di un gradiente termico prodotto e
mantenuto dall’esterno è mantenuto sotto ben precise condizioni sperimentali.
Queste correnti di convezione all’interno del fluido che avvengono secondo tali strutture regolari
sono chiamati “rulli” (o “celle”) di Bénard.
Tutto ciò segnala la presenza di un elevato grado di cooperazione molecolare e questa cooperazione
può essere creata o distrutta semplicemente per effetto dalla modifica del valore di un parametro
che di per sé possiede un limitato contenuto informativo (nel nostro caso il gradiente esterno di
temperatura).
Si tratta quindi di una risposta specifica del sistema ad una variazione ambientale resa possibile
dall’interazione NON LINEARE tra i sottosistemi .
Questi effetti cooperativi danno origine ad equazioni non lineari che ammettono in generale
molteplici soluzioni asintotiche (stati stazionari, soluzioni periodiche, soluzioni “caotiche”); la
variazione dei parametri di controllo può alterare le proprietà di stabilità delle soluzioni stesse,
inducendo transizioni tra l’una e l’altra.
Si è arrivati al punto nevralgico del discorso !!!
Se nei sistemi complessi basta una minima variazione delle condizioni iniziali per avere un insieme
di traiettorie completamente differenti, passando addirittura da una condizione di stabilità ad una
d’instabilità, la linea di demarcazione tra una filosofia deterministica ed una probabilistica della
natura diviene pericolosamente sottile ed ambigua .
Un esempio su tutti è dato dal “ritratto di fase” di un pendolo con forzante periodica descritto
dall’equazione di moto:
x + ω2sinx = CcosΩt
Il moto del pendolo è retto da un’equazione non lineare che studiata con tecniche numeriche
conduce a risultati qualitativi sulla dinamica molto interessanti .
Per studiare numericamente la dinamica del pendolo con forzante, bisogna introdurre quella che
viene chiamata mappa di Poincaré i.e. una mappa Φ che contiene tutte le informazioni sulla
dinamica del sistema.
Infatti, poiché nell’equazione del moto compare esplicitamente il tempo, lo spazio adeguato nel
quale pensare immersa l’orbita sarà uno spazio tridimensionale xvt e solo in tale spazio un dato
iniziale individua univocamente un’orbita. Data la periodicità del termine forzante, i punti (x,v,t) e
(x,v,t’) danno luogo alla stessa orbita (e si possono identificare) se t e t’ differiscono per un
multiplo intero del periodo τ = 2π/Ω . Ci si può ridurre allo spazio bidimensionale xv a patto di
effettuare le osservazioni a tempi discreti tk = kτ con k∈Z. In questo modo ad ogni orbita resta
associata su tal piano, che chiameremo Π , una successione discreta di punti (xk ,vk ) con k∈Z ed
avendo posto
xk = x(kτ) e vk = v(kτ). La dinamica definisce una mappa Φ : Π→Π tale che (xk+1 ,vk+1) = Φ(xk ,vk)
; Φ associa al generico punto iniziale (x,v)∈Π (o dato al tempo t = kτ ) il suo evoluto al tempo τ
(ovvero al tempo t = (k+1)τ ).
Di seguito saranno riportati alcuni ritratti della mappa Φ per un pendolo forzato con Ω = √2ω e
differenti valori dell’ampiezza della forzante C.
Nel caso limite C = 0 la forzante non esiste e la mappa si riduce al consueto ritratto di fase del
pendolo con l’unica differenza che le orbite continue sono sostituite da successioni discrete di punti.
Per valori di C ≠ 0 la situazione cambia: per C = 0.05 e 0.1 si ha la formazione, in prossimità delle
separatrici, di una regione bidimensionale, detta regione caotica, invasa dalle orbite in modo
irregolare, a prima vista CASUALE, mentre, per dati iniziali sufficientemente lontani dalla
separatrice, non si ha nessun cambiamento rilevante; i punti appartenenti ad una medesima orbita
sono ancora allineati in curve come se vi fosse ancora una costante del moto, a dispetto del fatto
che il sistema non è autonomo e dunque l’energia non si conserva.
La regione caotica cresce al crescere di C fino a divenire preponderante.
La situazione si fa molto complicata !!! All’interno della regione caotica esistono piccole “isole” di
moti ordinati e la regione ordinata racchiude piccolissime regioni caotiche sparse tra una curva e
l’altra. Le figure mostrano la situazione per C = 1.0 e 1.5 .
In tale situazione è difficile dire se vi sia nel sistema una costante del moto. Sembra che essa ci sia
o non ci sia a seconda del dato iniziale e per dirla in termini più rigorosi: nel piano Π , per C non
troppo grandi, vi è un’abbondanza di curve invarianti (i.e. moti ordinati su un’orbita ben precisa e
con periodo costante) che tuttavia non costituiscono una foliazione continua del piano .
A questo punto la situazione sembra quasi contraddittoria: si è partiti da equazioni del moto
deterministiche per descrivere un evento di tipo “causale” e si è arrivati invece ad osservare anche
moti “casuali” confinati dentro una regione, battezzata caotica ,dalla quale non possono uscire .
Sembra che ordine e caos convivano reciprocamente l’uno affianco all’altro, suddividendosi il
“territorio” nel modo imposto dalle equazioni che descrivono il sistema i.e. DETERMINISTICO !!!
Questo risultato fu predetto a inizio ‘900 da Poincaré dallo studio del problema gravitazionale a tre
corpi: già considerando il problema “ristretto circolare piano” i.e. lo studio del moto di un punto
soggetto all’azione gravitazionale di due primari che ruotano nel piano con periodo T attorno al
comune baricentro (soluzione del classico problema dei due corpi), definendo l’integrale di Jacobi
come C = -2H (essendo H l’hamiltoniana della massa prova soggetta a forze gravitazionali,
centrifughe e di Coriolis) e tenendo presente l’esistenza di cinque punti d’equilibrio (punti
Lagrangiani), queste orbite presentano un carattere altamente caotico e possono compiere
qualunque successione di giri attorno ai due primari una volta scelti gli opportuni dati iniziali.
Risolvendo le equazioni numericamente si vede che per energie c∈[c1 ,c2],con c1= C(L1) e c2=
C(L2), le curve di Hill che delimitano la zona del moto (in modo che in ogni momento
T+V=E=cost.) assumono la forma di un “otto” con il lobo più grande centrato attorno al primario
più massiccio ed il lobo più piccolo centrato attorno al primario di minor massa.
Ora, questa zona è suddivisa in una regione ordinata e in una regione caotica: le due regioni
ordinate si localizzano in prossimità dei due primari ed in questa regione la massa di prova si
muove indefinitamente attorno al proprio primario con orbite ordinate e invarianti; mentre la
regione caotica riempie il rimanente spazio ed in questa zona sono possibili dei trasferimenti della
massa prova da un primario all’altro e tali orbite non possono entrare nella zona di moto ordinato (e
viceversa).
Per quanto riguarda i trasferimenti da un primario all’altro, esiste uno straordinario teorema che
asserisce: data una successione infinita di numeri interi K1 ,K2 ,K3 , ... rappresentanti, in alterno,
orbite attorno al primo e secondo primario, per c∈[c1 ,c2] , ∃! quaterna di dati iniziali X0,Y0,X0,Y0
tale che la successione prestabilita si verifichi rigorosamente.
Per spiegare invece l’esistenza della regione invariante costituita da orbite ordinate, si pone un
“vincolo dinamico” che è aggiuntivo rispetto al vincolo di conservazione dell’energia. Si tratta di
uno “pseudo-integrale” il quale NON È PRESENTE IN TUTTO LO SPAZIO DELLE FASI, MA SOLTANTO IN
UNA REGIONE IL CUI BORDO (confine di stocasticità) DIPENDE DAL VALORE DEGLI INTEGRALI
“CLASSICI” (i.e. dell’energia e del momento angolare).
Si osservi che Poincaré previde tutto ciò agli inizi del 1900 utilizzando solamente carta, penna e
brillante immaginazione !!!
Dopo questa breve discussione sul “problema a tre corpi” e sulla “dinamica del pendolo forzato”,
possiamo tranquillamente affermare che: I SISTEMI HAMILTONIANI SONO PORTATORI DI CAOS !!!
Lo spazio delle fasi di un arbitrario sistema dinamico hamiltoniano contiene regioni dove il moto è
accompagnato da un “miscuglio” di traiettorie nello spazio delle fasi.
La coesistenza di regioni di dinamica stabile e di caos nello spazio delle fasi è una delle scoperte
più forti e importanti mai fatte .
Si apre ai nostri occhi un nuovo campo della fisica che, utilizzando semplici modelli matematici,
cerca di riprodurre tipici comportamenti complessi di molti problemi fisici naturali.
Questi modelli matematici semplici vengono chiamate “mappe” (in inglese: “map”) e le più
gettonate per descrivere la dinamica di molti problemi fisici sono:
• Standard Map (o Kicked Rotator)
• Web-Map (o Kicked Oscillator)
Per esempio l’hamiltoniana di un sistema che può essere descritto mediante lo “standard map” è
espressa come:
H = ½ I 2 - Kcosθ ∑n∈ℵ δ(t/T - n)
Questa definisce un sistema con un’hamiltoniana imperturbata H0 = ½ I 2, la quale subisce una
periodica sequenza di “calci” (δ-pulsazioni) con periodo T = 2π/ν . L’hamiltoniana soprascritta
descrive dal punto di vista fisico il moto di una particella in un pacchetto d’onda periodico con un
infinito numero di armoniche di ugual ampiezza.
Le equazioni del moto che derivano da tale hamiltoniana hanno la forma:
I = - Ksinθ ∑n∈ℵ δ(t/T - n)
θ=I
Tra due δ-funzioni, I = cost. e θ = It + cost. Ad ogni “calcio”, rappresentato dalla δ-funzione, la
variabile θ rimane continua e l’azione I cambia di un valore - Ksinθ .
Tutto può essere ottenuto integrando le equazioni del moto rispetto al tempo nelle vicinanze di una
δ-funzione e se assumiamo che ( I, θ) sono i valori delle variabili appena prima dell’n-esimo calcio,
e che ( I ,θ ) sono i valori delle variabili prima dell’(n+1)-esimo calcio, segue che la mappa
derivante dalle equazioni del moto sarà:
I = I - Ksinθ
θ=θ+I
Per K = 0 non c’è perturbazione e la mappa si riduce banalmente a:
In = cost. = I0
θn = θ0 + nI0
Per K ≠ 0 le cose cambiano notevolmente. E’ stato riportato il ritratto di fase (con riduzione al toro)
dello standard map con K = 0.5 e relativo ingrandimento in prossimità del punto di sella.
Si noti la complessità e la varietà dei tipi di traiettorie; le strette zone con traiettorie caotiche sono
chiamate “strati stocastici”, dentro tali strati stocastici ci sono “isole” con nette ed invarianti
traiettorie, sub-isole e più piccoli strati stocastici e così via, con una topologia che si ripete
all’infinito in ogni zona infinitesima.
La Web-Map è un risultato delle considerazioni fatte su moto di una particella sotto l’influenza di
un campo magnetico costante e di un pacchetto d’onda elettrostatico che si propaga
perpendicolarmente al campo magnetico.
L’hamiltoniana del sistema è:
H = ½ (p2 + ω2x2) - (ωK/ T )cosx ∑n∈ℵ δ( t / T - n)
dove ω è la frequenza giroscopica e K il parametro adimensionale proporzionale all’ampiezza della
perturbazione.
Da questa hamiltoniana seguono la seguente equazione del moto:
x + ω2x = - (ωK/ T )cosx ∑n∈ℵ δ( t / T - n)
Essa descrive un oscillatore lineare affetto da una periodica sequenza di “calci”.
Quest’ultimo modello può essere ridotto allo standard map usando le sole trasformazioni singolari:
ω→0, K→∞ e ωK = cost.
Tra due calci adiacenti, la soluzione dell’equazione del moto soddisfa l’equazione del moto libero:
x + ω2x = 0
Introducendo le variabili adimensionali: u = x/ω ; v = -x e α = ωT , si ottiene la seguente mappa:
un+1 = (un + Ksinvn )cosα + vn sinα
vn+1 = -(un + Ksinvn )sinα + vn cosα
La mappa ottenuta è chiamata : Web-map.
Questa mappa ha un’importanza pratica enorme. Infatti, se consideriamo il caso in cui esiste una
risonanza tra la sequenza di “calci” e la frequenza di oscillazione ω, ponendo tale condizione come:
α = ωT = 2π / q , q∈ℵ ,
la web-map può essere considerata un generatore dinamico delle q-fold symmetry per le condizioni
di risonanza.
Questa simmetrie saranno di tipo cristallino per q∈{qc} = {1,2,3,4,6} e di tipo quasi-cristallino per
q∉{qc}. Le illustrazioni riportate sotto, dimostrano l’esistenza di un “tessuto stocastico” e della
corrispondente simmetria nello spazio delle fasi.
La rete di canali che formano tale “web stocastica” provvedono al trasporto di particelle lungo la
rete stessa. Il “tessuti stocastico” può essere finito o infinito !!!
Le illustrazioni rappresentano, in ordine, la web stocastica per : q = 4, K = 1.5 (elemento della web
+ ingrandimento della parte centrale) ; q = 6, K = 1.2 (elemento delle web) e q = 3, K = 1.7
(elemento della web).
Il discorso riguardo la web-map può essere ulteriormente approfondito.
Infatti, studiando il problema da un punto di vista più generale, si arriva a concludere che una
dinamica di tipo caotico (e quindi un moto complesso) è generata da interazioni di risonanza.
Si consideri una generica hamiltoniana in variabili azione-angolo:
H = H0( I ) + εV( I, θ, t )
dove ε<<1 è un parametro adimensionale di perturbazione molto piccolo e V è periodica nel tempo
con periodo T = 2π/ν. Essendo V periodica, può essere espressa in doppia serie di Fourier in θ e t:
V( I, θ, t ) = ½ iε∑k,lVk,l(I)exp[i(kθ - lνt)] + c.c.
dove c.c. rappresenta il termine complesso coniugato.
Utilizzando queste due ultime equazioni, le equazioni canoniche del moto possono essere
trasformate in:
I = -ε∂V/∂θ = -½∑k,l kVk,l(I)exp[i(kθ - lνt)] + c.c.
θ = ∂H/∂I = dH0/dI + ε∂ V( I, θ, t )/∂I = ω(I) + ½ε∑k,l{∂Vk,l(I)/∂I}exp[i(kθ - lνt)] + c.c.
dove si è introdotta la frequenza di oscillazione per il moto imperturbato:
ω(I) = dH0/dI
La condizione di risonanza implica che la seguente condizione sia soddisfatta:
kω(I) - lν = 0
dove k ed l sono numeri interi. Si arriva a concludere che per ogni I0 fissato, esiste un terzetto k0, l0
ed ω0 tale che la relazione di risonanza sia rispettata.
Come regola, i valori (k0,l0 ; I0) possono essere trovati in abbondanza e questo è dovuto alla forte
non linearità del sistema i.e. alla dipendenza di ω(I) da I.
Ora, come si è detto in precedenza, le perturbazioni cambiano la topologia dello spazio delle fasi
del sistema e le perturbazioni risonanti creano catene di isole e aumentano il numero di punti
ellittici ed iperbolici nello spazio delle fasi.
Infatti, per una risonanza di ordine k0, c’è una “catena di isole” con k0 celle separatrici, k0 punti
singolari iperbolici e k0 celle ellittiche.
LA TOPOLOGIA DELLO SPAZIO DELLE FASI VIENE MODIFICATA NELLE VICINANZE DEL VALORE DI
RISONANZA I0 .
Per avere un’idea di tutto ciò sono riportate di seguito due ritratti di fase in condizioni di risonanza
non lineare.
Nella figura k0 = l0 = 1 ; la curva tratteggiata rappresenta la traiettoria imperturbata con I = I0 ,
mentre la linea più spessa è una nuova separatrice dovuta alla risonanza.
Questa figura rappresenta un’altra versione della risonanza non lineare per k0 = 6 ed l0 = 1.
Grazie a questi concetti è ora semplice descrivere i ritratti di fase dello standard map: dentro il
“cappio” di una separatrice, esiste un insieme di nette curve invarianti alle quali non corrisponde
nessuna condizione di risonanza. C’è anche una catena di isole che corrisponde ad un alto valore di
risonanza l0. Questa catena di risonanza confina il punto ellittico centrale benché ci siano molte che
non lo fanno. Ogni catena di isole è separata da curve invarianti ma quando il caos si manifesta
(ved. ingrandimento), le isole di risonanza persistono nello “strato stocastico” ma non sono più
separate da curve invarianti.
Analizzando le figure dello standard map si introduce il parametro Kc = ∆Ι/δΙ , dove ∆Ι è la
massima ampiezza di una catena di isole e δΙ è la distanza tra due catene adiacenti.
Se Kc<< 1, le catene di isole sono ben separate l’una dalle altre da uno strato di curve invarianti.
Se Kc ≥ 1 ci sarà l’insorgere di caos causato dalla distorsione delle separatrici da parte del termine
perturbativo e dentro le catene si formerà uno “strato stocastico”.
La sovrapposizione tra catene di isole risonanti come criterio per creare dinamiche caotiche fu
scoperto e dimostrato dal matematico russo Chirikov.
LO SPLITTING DELLE SEPARATRICI (es. pendolo con forzante) E FORMAZIONE DELLO “STRATO
STOCASTICO” (es. web-map e standard map) SONO UN TIPICO “SEME” DI CAOS NEI SISTEMI
HAMILTONIANI .
Quindi, si può vedere la rete delle separatrici come uno “scheletro” per l’apparizione di caos !!!
Riassumendo, durante la fase di caos, la parte dello spazio delle fasi che ha dinamica caotica è
chiamato “mare stocastico”; dentro il “mare” esistono isole di stabilità (che influenzano l’intera
dinamica nello spazio delle fasi !!!) ed una traiettoria caotica non può entrare nell’isola e
analogamente, ad una traiettoria regolare è vietato fuggire da un’isola di stabilità.
Generalmente, NEI SISTEMI TIPICI, IL CAOS NON ESISTE SENZA LA PRESENZA DI ISOLE.
Lo studio delle isole risulta un argomento molto vasto ed importante che merita sicuramente un
breve approfondimento.
Da subito si nota che un set di isole possiede una complessa struttura topologica la quale può
essere modificata agendo sui “parametri di controllo” (in particolare, per alcuni valori di tali
parametri, un’isola può o collassare oppure nascere).
Uno di questi parametri di controllo è sicuramente il sopracitato Kc , e in particolare, esiste una
particolare classe di isole, chiamate “Blincking Islands”, le quali collassano SOLO per uno speciale
valore K = Kc ed hanno una differente orientazione per K> Kc e K< Kc .
Queste particolari isole rivelano due importanti caratteristiche:
• la locale simmetria del terzo ordine
• la presenza di “cicatrici” i.e. regioni con “traiettorie stagnanti” che possono influenzare le
proprietà di trasporto delle particelle.
A titolo di esempio riporto il collasso e la riapparizione di una “blincking island” per lo standard
map la quale presenta un valore critico Kc = 6.96264...
Nella figura a sinistra, l’isola è soggetta a K = 6.962640 i.e. prima della biforcazione; nella figura
centrale siamo prossimi alla biforcazione (K = 6.962643) con l’apparizione delle “cicatrici”
sopracitate; infine, nelle figura a destra, K = 6.962650 i.e. dopo la biforcazione. E’ da notare che
durante la transizione da sinistra a destra, l’isola ha subito una rotazione pari a π .
Esistono poi altri tipi di isole che rivelano proprietà interessanti e curiose al variare dei parametri di
controllo, ma la trattazione approfondita dell’argomento non è scopo di questo lavoro, per cui si
invita, chi ne fosse interessato, la consultazione di testi specifici di cui la letteratura scientifica ne è
largamente fornita.
Un’occhio di riguardo nello studio della topologia di un’isola è sicuramente il suo contorno (o
boundary). Tale zona è una zona singolare che rivela una struttura topologica molto complessa.
Vicino al contorno di un’isola si verificano dei fenomeni di “trapping” i.e. se una ipotetica
particella, durante il suo moto nello spazio delle fasi, penetra in questo strato di confine, può
rimanere confinata in questa zona per un tempo estremamente lungo che dipende direttamente dalla
profondità della sua penetrazione. L’ “appiccicosità” del contorno di un’isola è spiegabile solo
studiando la sua complessa topologia. Questa topologia è ancora legata al parametro di controllo K
e grazie a tale parametro, nel contorno di un’isola, si viene a creare una sequenza di isole di
differenti generazioni che formano una struttura gerarchica auto-similare quando viene scelto uno
speciale valore per il parametro di controllo K ; piccole variazioni di K cambieranno in numeri di
isole nel contorno.
Questa struttura è molto importante nella comprensione del trasporto caotico nel “mare stocastico”.
La struttura gerarchica delle isole nella singular zone può spiegare l’origine dell’ “appiccicosità”
del contorno nei confronti delle traiettorie in esso localizzate.
Per darne un’idea visiva, si sono riportate le strutture auto-similari per la web-map con
K=6.349972.
In ordine, la prima figura rappresenta lo spazio delle fasi con le isole; la seconda è l’ingrandimento
della parte in fondo a destra della prima figura; la terza è l’ingrandimento dell’isola in alto a destra
della seconda figura; infine, la quarta figura è l’ingrandimento dell’isola in basso a sinistra della
terza rappresentazione.
Si noti la struttura auto-similare che va ripetendosi ad ogni successivo ingrandimento.
E’ questa struttura, che emerge solo dopo un preciso studio numerico del problema, a conferire al
confine di un’isola quell’appiccicosità responsabile dell’ “intrappolamento del moto” di una
particella ed i conseguenti problemi della sua diffusione nel “mare stocastico”.
Per concludere questo breve accenno qualitativo sul caos deterministico, vorrei richiamare ed
approfondire alcuni concetti introdotti precedentemente riguardo le q-fold symmetry ed il “web
skeleton”.
Si apre un vasto capitolo che lega in modo paradossale ed affascinante il CAOS e le SIMMETRIE
DELLE NATURA.
Possiamo schematicamente riassumere i concetti precedentemente espressi in una serie di punti:
⇒ le proprietà topologiche dello spazio delle fasi sono definite da un set di punti singolari e di
curve
⇒ queste proprietà sono imposte da un’Hamiltoniana imperturbata ed una perturbazione
⇒ la simmetria della mappa di Poincaré è il risultato di una complessa interazione reciproca tra le
simmetrie dell’Hamiltoniana imperturbata e la perturbazione
⇒ i sottili “filamenti” (canali) di dinamica caotica sono chiamati “stochastic web”. Questi creano
una rete usando simmetrie o quasi-simmetrie
⇒ la web-map introdotta precedentemente “piastrella” lo spazio delle fasi con una simmetria di tipo
“cristallo” o “quasi-cristallo” (a seconda della condizione di risonanza)
⇒ la “piastrellatura” è caratterizzata da un web skeleton . La web-map è generatrice della
piastrellatura q-fold symmetric di ordine arbitrario q. L’effettiva Hamiltoniana per ottenere lo
web skeleton è.
Hq (u,v) = ∑j=1...q cos( r·ej )
con r = (u,v) e ej = (cos 2πj /q , sin 2πj /q)
La piastrellatura periodica corrisponde a q = 1,2,3,4,6. Il resto sono aperiodiche e sono
equivalenti alla struttura bidimensionale quasi-cristallina.
Si può dimostrare che si possono ottenere delle non banali simmetrie dalla dinamica e in questo
modo uno mostra come le simmetrie possono essere modificate usando metodi dinamici.
Tutto ciò suggerisce una nuova ed unica opportunità per lo studio di una complessa simmetria
(come per esempio quella quasi-cristallina) utilizzando metodi di dinamica Hamiltoniana.
Per avere un’idea del cambio di simmetria che si ottiene agendo su un parametro di controllo di un
sistema dinamico, si è riportata la mappa corrispondente a q = 3 con un certo valore del parametro
critico Kα . Per K< Kα si ha una piastrellatura esagonale, mentre per K> Kα si ha una piastrellatura
rettangolare .
Se vengono ignorati certi dettagli, gli esagoni sono modificati a divenire rettangoli e c’è un
corrispondente cambio nella simmetria della stochastic web, la quale ora occupa una zona molta
stretta tra i rettangoli.
Possiamo formulare la seguente asserzione: la web-map Mq definita come
un+1 = (un + Ksinvn )cos2π/q + vn sin2π/q
vn+1 = -(un + Ksinvn )sin2π/q + vn sin2π/q
è considerato un generatore dinamico di “piastrellatura del piano” il quale ha una simmetria di tipo
cristallino se q∈{qc} o di tipo quasi-cristallino se q∉{qc}.
Inoltre, è da notare che il ritratto di fase giacente dentro una “piastrella” (o “cella”) della web può
avere una simmetria completamente differente da quella della web stessa, in particolare, può non
avere nessuna particolare simmetria.
... in conclusione
In questa breve cavalcata storico-fisico-matamatica ho voluto astenermi dal dare pareri personali al
fine di non influenzare possibili lettori.
Non ho trattato il problema della fisica quantistica che nella sua logica di base vede il probabilismo
con proprietà intrinseca della natura. Infatti, tutti hanno in testa il famoso “principio di
indeterminazione”, postulato da Heisenberg e cuore della meccanica quantistica stessa.
Questo postulato, banalmente asserisce che “in qualunque esperimento, comunque preciso, è
impossibile misurare simultaneamente e con precisione assoluta la posizione e l’impulso di una
particella. Più precisamente, detto ∆x l’errore nella misura della componente x della posizione e
∆px l’errore nella misura della componente px dell’impulso:
∆x∆px ≥ h/2 “
in altre parole: con maggior precisione misuro la posizione di una particella e maggior incertezza
avrò sul suo impulso (e viceversa); nel limite di misurare con precisione assoluta la posizione di
una particella (i.e. ∆x = 0), il suo impulso sarà completamente indeterminato (i.e. ∆px = ∞) (e
viceversa).
E’ palese che questa logica va contro il senso comune della meccanica classica che vedeva l’errore
sulla misura dovuto ai nostri strumenti, comunque migliorabili, in linea di principio, a “strumenti
perfetti” i.e. privi di errore !!!
Quindi, le due differenti filosofie possono essere così formulate:
NELLA MECCANICA CLASSICA LA STATISTICA E LA PROBABILITÀ SONO INTRODOTTI PER SOPPERIRE
ALLA NOSTRA IGNORANZA ED IMPRECISIONE NELLA MISURA E BISOGNA SEMPRE TENERE PRESENTE
CHE LA NATURA NON SBAGLIA: ESSA NON GIOCA, NON SCEGLIE; MENTRE NELLA MECCANICA
QUANTISTICA LA PROBABILITÀ ED IL CASO SONO PROPRIETÀ INTRINSECHE DELLA NATURA CIOÈ ESSA
GIOCA E SCEGLIE !!!
Altro grande risultato ottenuto nella seconda metà del 1900, fu la formulazione e la dimostrazione
del famoso “teorema KAM”.
Tale teorema fu enunciato dal matematico russo Kolmogorov nel 1953 al “Congresso
Internazionale dei Matematici” e fu successivamente dimostrato nel 1962 da Vladimir Arnol’d
dell’Université de Paris-Dauphine e da Jurgen Moser del Politecnico federale di Zurigo.
Il “teorema KAM” nacque successivamente agli studi di grandi fisico-matematici sulla stabilità del
Sistema Solare.
Storicamente, nel XIX secolo, Lagrange, Laplace e Poisson tentarono di dimostrare la stabilità del
Sistema Solare, ma i loro studi davano qualche assicurazione per l’immediato avvenire (circa due o
trecentomila anni) e non dicevano nulla sul suo destino ultimo.
SI ERA COSÌ POSTO IL “PROBLEMA DEGLI N CORPI” !!!
Nel Sistema Solare, il caso più bizzarro è quello della coppia Giove-Saturno, i cui tempi di
rivoluzione sono in rapporto 2/5 : nel tempo che Saturno impiega per compiere due rivoluzioni
intorno al Sole, Giove ne effettua cinque.
Periodicamente i due pianeti si ritrovano nella stessa posizione relativa, e ci si aspetterebbe che le
perturbazioni dovute alla loro mutua attrazione si accumulassero ed amplificassero le modificazioni
delle orbite; inoltre, i movimenti dei pianeti non sono modificati dall’attrito, e nulla ne ammortizza
la perturbazione.
Nel 1885 il re di Svezia indisse un premio per una scoperta matematica importante e Weierstrass
suggerì che fosse posto come tema il “problema degli n corpi”.
Il premio fu conferito ad Henry Poincaré, il quale provò che nel problema degli n corpi NON CI SONO
LEGGI DI CONSERVAZIONE A PARTE QUELLA GIÀ CONOSCIUTE i.e. conservazione dell’energia,
momento angolare e quantità di moto.
Ora, un sistema è integrabile se possiede leggi di conservazione a sufficienza .
Se un sistema integrabile è affetto da una perturbazione, questa distrugge certe leggi di
conservazione; il nuovo sistema risulta così non integrabile e le orbite, da stabili, risulteranno
caotiche ed imprevedibili.
Poincaré arrivò alla conclusione che nel Sistema Solare non esistono orbite stabili (dovute alla
mancanza di leggi di conservazione “supplementari”) e che quindi tale sistema è da ritenersi
sostanzialmente instabile !!!
Tale conclusione parve ragionevole alla comunità dei matematici; nondimeno, era FALSA !!!
A questo punto entra in scena il “teorema KAM” : non solo le orbite stabili possono esistere in
assenza di leggi di conservazione, ma, in certe condizioni, le orbite sono stabili per la maggior
parte.
Il “teorema KAM” afferma che, per perturbazioni sufficientemente piccole, una maggioranza di
orbite è stabile : esse non sono più periodiche, ma quasi-periodiche e non si allontanano mai troppo
dalle orbite periodiche del sistema imperturbato; altre orbite sono caotiche ed imprevedibili; altre
ancora (e sono queste, probabilmente, che spiegano la stabilità di Saturno e di Giove) sono
imprigionate per sempre su “isole di stabilità” in un oceano di caos.
Ormai la paradossalità della situazione è palese agli occhi di tutti: i deterministi “puri” vedono la
loro fisica come l’unica e vera possibile ed usano i concetti di statistica e probabilità solo per
sopperire l’impossibilità di trattare un problema a molti corpi (es. moto del gas in una stanza) ma,
d’altro canto, senza l’aiuto della meccanica statistica e probabilità, una scienza come la
termodinamica (e di conseguenza tutte le applicazioni pratiche da essa derivate) non sarebbe nata e
sviluppata.
Analogamente, la meccanica quantistica privata dei concetti di probabilità ed indeterminazione
nella misura delle osservabili non avrebbe senso. Sebbene tale teoria risulti poco intuitiva e quasi
“campata per aria”, le conferme sperimentali a suo favore sono innumerevoli e tanto per fare un
esempio, si ricordi che la meccanica quantistica relativistica elaborata da Dirac, previde l’esistenza
dell’antimateria (positrone) e la proprietà di spin nelle particelle (prontamente verificata nel famoso
esperimento di Stern e Gerlach). Infine, il teorema KAM è l’ennesima minaccia alle fondamenta del
determinismo assoluto, anche perché nasce da una situazione puramente meccanica (classica) come
il “problema degli n corpi”.
Ma la validità e l’affidabilità di una teoria basata su equazioni alle derivate parziali, risolvibili
analiticamente e con soluzione unica per il teorema di Cauchy, è dura da soppiantare e inoltre, a
difesa di questa già solida roccaforte, si schiera la teoria della relatività generale di Einstein, fondata
sul concetto di campo (in senso classico) ed ampiamente verificata sperimentalmente (es.
deflessione della luce in un campo gravitazionale e precessione dell’orbita di Mercurio).
Come se non bastasse, quando si cerca di unificare la meccanica quantistica e la teoria della
relatività generale in un’unica superteoria, queste due più belle ed affascinanti teorie della fisica
moderna fanno letteralmente “a pugni”, infatti, la prima ha una visione DISCRETA del mondo, la
seconda una visione CONTINUA ... a questo punto le discrepanze logico-concettuali sono evidenti ed
incolmabili !!!
Ma allora, cosa bisogna fare ? Qual è la teoria giusta per descrivere la Natura ? Esisterà mai una
teoria “generalizzata” che tenga conto degli aspetti quantistici quanto di quelli “continui” tipo
gravitazionale ?
La situazione non è così allarmante come possa sembrare !!!
Tutte le teorie sono valide per descrivere e predire i fenomeni naturali ma ad ogni teoria il relativo
campo di applicazione.
Una teoria fisica non è altro che una costruzione logico-matematica di teoremi ed equazioni derivati
da assiomi posti all’inizio della trattazione.
Se un assioma viene modificato, tutti i risultati cambieranno ma, se la “metamorfosi” è logica e
rigorosa, allora quest’ultimi risultati sono validi quanto i primi; solo l’evidenza sperimentale
promuoverà un modello piuttosto che un altro .
Per capire tutto ciò basti pensare all’evoluzione della geometria, nata con Euclide, che pose come
V° postulato la condizione che: data una retta ed un punto esterno ad essa, allora esiste una ed una
sola retta parallela alla retta data e passante per il punto esterno.
Se si cambia quest’ultimo assioma e si pone la condizione (di per se poco intuitiva !) che per il
punto esterno passino INFINITE o NESSUNA retta parallela alla retta data, allora ottengo
rispettivamente la geometria di Lobacevskij (o iperbolica) e la geometria di Riemann (o
sferica).Tutte e tre le diverse geometrie sono logicamente consistenti dal punto di vista matematico
ma la fisica ha favorito la geometria Euclidea perché sembrava meglio rappresentare la “geometria
della Natura”; ho usato il condizionale perché la teoria della relatività generale ha dimostrato che la
geometria Euclidea non è in grado di rappresentare la “geometria naturale” salvo come
approssimazione, infatti, la geometria dello spazio-tempo viene distorta in prossimità di un oggetto
molto massivo (es. stelle ordinarie, stelle di neutroni, buchi neri) ma tale “distorsione” non è
percettibile nelle nostre condizioni di vita quotidiana ed ecco perché i fisici pre-relativisti,
consideravano la geometria Euclidea come la “vera” geometria e consideravano le altre come
affascinanti (ma inutili !) “speculazioni della ragione umana”.
Ma una teoria fisica è un elaborato della mente umana, l’uomo è di per se imperfetto e quindi, di
conseguenza, qualsiasi teoria risulterà imperfetta ... qualche imprecisione o qualche paradosso deve
esserci !!! Queste imprecisioni saranno poi lo spunto per apportare modifiche alla teoria (o
costruirne una nuova!) ed arrivare così ad una maggior comprensione della Natura e degli
esperimenti; ma la “nuova” teoria sarà anch’essa un’approssimazione e sicuramente si arriverà ad
un risultato sperimentale o ad una inconsistenza logica nei risultati predetti che imporrà una nuova
“revisione” dell’attuale teoria, e così via ... per dirla in parole povere: la Natura è come un numero
irrazionale (es.√2) ma a noi è concesso usare solo numeri razionali per rappresentarla !!!
LA PERFEZIONE E L’IDEALITÀ NON SONO CONCESSI ALLA RAGIONE UMANA !!!
Siamo nella stessa situazione che descrisse Macchiavelli ne “Il Principe” : nei rapporti tra popolo e
sovrano, si è come un pittore che per dare l’idea della maestosità e magnificenza di una montagna
deve porsi a valle ma deve salire su quella vetta se vuol dipingere un tramonto sull’ampia vallata,
così, per sapere se si è buoni sovrani bisogna esser popolo ma per dirigere ed organizzare un popolo
bisogna essere sovrani.
Questo paragone può essere adattato anche alla fisica ed alle sue teorie.
Alla comunità dei fisici spetta la parte del popolo soggetto alle leggi della Natura (i.e. il sovrano) e
l’unica cosa che può fare è cercare di intuire e capire i suoi meccanismi e la sue regole ma con
l’idea base che mai arriverà a conoscere le sue carte in quanto questo richiederebbe al fisico di
esser Natura ... ma ciò è ovviamente impensabile !!!
Con questo non voglio fare propaganda alla questione che lassù ci sia un Dio o un’Entità
Soprannaturale, se ci sia un Dio Onnipotente o il Nulla assoluto non posso (e non voglio) dirlo, so
solo che noi siamo “popolo” e “popolo” rimarremo .
L’umiltà che si deve avere nei confronti della Natura è qualcosa di essenziale, in modo da evitare
paradossi metafisici e/o manie di onnipotenza.
Celebre è il racconto di San Agostino riguardo all’umiltà che la ragione umana deve avere nei
confronti della Natura o, se si e credenti, di un ipotetico Dio. Egli raccontò che una notte sognò di
camminare da solo su una spiaggia e mentre camminava ragionava di Dio e dei Dogmi della Fede.
Durante il suo cammino incontrò un bambino che versava acqua di mare, raccolta in un piccolo
secchio, in una buca scavata nella sabbia.
Si fermò ad osservare il continuo “andar al mare e versar acqua nella buca” del bambino fino a che,
colto da curiosità, gli si avvicinò e gli domandò cosa stesse facendo. Il bimbo rispose che voleva
mettere tutta l’acqua del mare in quella buca che lui stesso aveva scavato. Al sentire questo, San
Agostino, sorridendo, disse al fanciullo che era un progetto impossibile da fare ed era matto se
credeva nella sua realizzabilità. Il bambino lo guardò e rispose: “Ah, io sarei il matto ? E tu allora,
che vuoi comprendere i Misteri di Dio ? ”.
Con queste premesse possiamo dare una risposta alla domanda che da il titolo a questo lavoro ?
Assolutamente no !!! Ognuno avrà una visione soggettiva del Mondo e delle sue leggi: c’è chi si
schiererà alla difesa del determinismo assoluto e chi, contrariamente, vedrà nell’indeterminazione e
nella caoticità l’unica scelta possibile, ma forse nessuna di queste ideologie è e sarà quella scelta
dalla natura ... sempre che non abbia scelto entrambi questi aspetti e si diverta sadicamente a veder
noi, stupidi presuntuosi, sbatter la testa di qua e di là alla ricerca di una spiegazione “logica” che
forse non c’è. Comunque, questi “conflitti ideologici” sono fonte di ispirazione e stimoli per
affrontare nuove ricerche ed evitare così di adagiarsi in un ozioso autocompiacimento.
La mia speranza è che si arrivi un giorno alla formulazione di una super-teoria che possa spiegare
ogni fenomeno naturale senza dubbi ed ambiguità; sebbene non possa negare il fatto di essere
affascinato sia da una visione “continua” che da una “discreta” del Mondo e che pertanto, dal mio
punto di vista, una teoria come la relatività generale (visione continua) e una come la meccanica
quantistica (visione discreta) possono tranquillamente esistere perché sono l’una il completamento
dell’altra ... una fisica moderna senza relatività generale (o senza meccanica quantistica) sarebbe
paragonabile ad una chitarra a cui hanno tolto la 1°, la 3° e la 5° corda: ogni accordo, melodia o
composizione risulterebbero labili, “vuoti” ... totalmente privi di significato.
La stessa metafora può essere estesa al dilemma : determinismo o caos, e vedere così le due
filosofie come l’una il completamento dell’altra ... estremamente differenti ma entrambe
indispensabili per cercare di capire il Mondo ed i suoi meccanismi, e dare così un senso a quella
farsa chiamata VITA !
Bibliografia
•
•
•
•
•
•
•
•
•
J. Gleick - Caos
G. M. Zaslavsky - Weak chaos and quasi-regular patterns
G. M. Zaslavsky - Physics of caos in Hamiltonian systems
R. Serra , G. Zanarini - Tra ordine e caos
D. Ruelle - Caso e caos
G. Benettin , L. Galgani , A. Giorgilli - Appunti di meccanica razionale (edizioni CUSL)
G. Benettin - Introduzione ai sistemi dinamici (appunti corso fisica-matematica a.a.1995/96)
D. Halliday , R. Resnick , K. S. Krane - Fisica I (4° edizione)
Articoli a tema tratti da “Le scienze”
Scarica