Sintesi e considerazioni personali sugli argomenti svolti a lezione

annuncio pubblicitario
METODOLOGIE DELLE SCIENZE SPERIMENTALI
lezioni del prof. Carlo Tarsitani
Sintesi e considerazioni personali
sugli argomenti svolti a lezione
CAROSELLI STEFANO
1. Il ruolo della matematica
In genere si considera la matematica una scienza che si occupa delle verità di ragione, e si
distingue per questo dalle scienze sperimentali, che si occupano delle verità di fatto. La matematica
applicata si occupa di descrivere le scienze sperimentali. Johann Herschel, nella sua parabola
dell'uomo solo, ipotizza che un uomo, isolato dal mondo, ragionando sarebbe in grado di ricostruire
tutti i teoremi della matematica.
Ma anche la matematica si può considerare una scienza sperimentale, in quanto vi è un forte
legame tra la matematica e le scoperte scientifiche; ricordiamo che Galileo afferma che “...il libro
della natura è scritto in caratteri matematici...”; non si può parlare di matematica applicata senza
parlare di matematica, ed è incorretto affermare che una scienza sperimentale non è altro che una
matematica applicata.
Nell'antichità la matematica era studiata, assieme alle altre scienze, dai filosofi: ad esempio
secondo la tradizione pitagorico-platonica il numero è l'essenza delle cose. Studiando la storia della
matematica possiamo osservare che:
•
Gli scienziati studiano le leggi matematiche dai fenomeni e ne ricavano modelli matematici.
•
La matematica della realtà viene scoperta attraverso l'osservazione, la misura, l'esperimento.
•
Una scoperta scientifica può tradursi in una scoperta matematica.
Secondo uno schema di Herschel, in cui descrive il circolo delle conoscenze fisiche, ci sono due
processi che si alternano: quello induttivo, che dagli esperimenti porta alle nuove teorie, e quello
deduttivo, che dalle teorie porta a nuove leggi; la base dello studio sono gli esperimenti, dai quali
segue la creazione di una teoria; dalla teoria si propongono quindi nuove leggi, che dovranno esser
verificate con nuovi esperimenti. Quando la teoria inizia a maturare lo studio del mondo dei
fenomeni diviene secondario, ma si continuano a studiare le stesse leggi e le stesse formule prodotte
in precedenza.
2. Leggi e modelli
Da questi ragionamento seguono alcune questioni classiche: viene prima la teoria o
l'esperimento? Si possono fare osservazioni senza una teoria? Cosa succede se cambiamo teoria?
Ecco alcune osservazioni che emergono:
1. Teoria ed esperimenti sono necessari in egual misura: il saper osservare e il saper sperimentare
sono due capacità che si acquisiscono col tempo, formando un'educazione culturale. Questa
educazione culturale rappresenta le osservazioni a cui abbiamo dato più rilevanza, e dipendono
quindi dal contesto socio-culturale in cui viviamo; ad esempio per un eschimese non esiste solo la
neve, ma ci sono ben nove diversi tipi di neve.
2. Le teorie vengono ridiscusse ogni qual volta vi è un'innovazione scientifica che porta nuovi
criteri di lettura, e nuovi modi di ragionare.
3. Il nostro linguaggio si articola in funzione dei problemi di sopravvivenza o di adattamento che
si hanno; come ha detto il filosofo moderno Wittgenstein: “il mio mondo coincide con i limiti del
mio linguaggio”; quindi anche un fisico non può andare oltre il suo linguaggio, la matematica.
4. Nello schema proposto da Herschel non sono descritti gli oggetti e gli enti fisici, con i loro
processi.
La descrizione di oggetti e processi utilizza modelli. I modelli non fanno parte della teoria e delle
leggi, essendo la rappresentazione di qualcosa di particolare, ma un modello è creato partendo da
una determinata legge: una legge ha valore universale, un modello è un caso particolare.
Ma nella realtà una legge non è applicabile, in quanto descrive casi ideali, astratti. Il modello è
1
una rappresentazione reale di qualcosa di astratto.
Vi sono dei casi particolari, in cui si può parlare sia di modello che di legge. Il gas perfetto è un
modello, ma è creato partendo dalla legge: PV = nRT, detta per l'appunto legge dei gas perfetti;
tale legge identifica e descrive il modello. Ma allora si deve parlare di legge o modello?
Questo esempio sottolinea una caratteristica comune alle leggi e ai modelli: entrambi servono a
schematizzare un concetto.
3. La rivoluzione scientifica
In Italia la fisica è spesso insegnata insieme alla matematica (dallo stesso insegnante), al
contrario di molti paesi europei, in cui la fisica è insegnata insieme alla chimica o la biologia.
Matematica e fisica sono state da sempre molto legate, e scoperte in un campo portarono spesso ad
innovazioni anche nell'altro; al tempo della rivoluzione scientifica, in età moderna, si ebbe come
risultato la matematizzazione della realtà, e come applicazione diretta la nascita della nuova fisica.
Partiamo descrivendo un aspetto che frequentemente a scuola è trascurato: lo sfondo scientifico
in cui la fisica si sviluppa nella storia.
La fisica del passato si rivolge alla natura e a tutto ciò che avviene sulla terra, trascurando spesso
quello che avviene nel cielo; questa fisica nasce con la filosofia aristotelica, che si basa sulla
qualità degli elementi primari: Fuoco, Terra, Acqua e Aria. Secondo lo schema aristotelico,
Fuoco e Acqua sono opposti, così come Terra e Aria; ogni altro accoppiamento è caratterizzato da
una qualità in comune tra i due elementi: Fuoco e Terra sono secchi, Terra e Aria sono freddi,
Acqua e Aria sono umidi, Aria e Fuoco sono caldi.
Anche il moto locale è descritto in modo qualitativo: Acqua e Terra si muovono verso il centro
della terra, Fuoco e Aria verso l'esterno. Il quinto elemento, l'Etere, possiede un moto perfetto,
quello circolare.
I movimenti, come tutti i cambiamenti, hanno una caratteristica comune: vanno dalla potenza
all'atto, e si dividono in naturali o violenti.
Infine il ragionamento causale divide la causa in 4 tipi possibili: causa materiale, causa formale,
causa finale e causa efficiente.
Con la rivoluzione scientifica (da Galileo in poi) si sostituisce la qualità con la quantità.
Le proprietà degli oggetti non sono più viste come contrapposizione di qualità contrarie; ad
esempio la temperatura non è più il risultato di un determinato dosaggio di caldo e di freddo, ma
viene descritta come più calda o meno calda.
Si deve quindi ridefinire il moto locale, un concetto che ha applicazioni in fenomeni diversi:
dalla circonferenza si passa all'ellisse, dalla direzione all'accelerazione, si formula il principio
d'inerzia; le cause del movimento sono di natura meccanica.
Nasce il problema dell'azione a distanza: come si può muovere una calamita, se nessuno la
tocca? Come mai un corpo cade a terra? Una risposta fu data solo nel XIX secolo, con
l'introduzione del concetto di campo di forze (inizialmente pensato come un campo fatto di etere,
quindi con le proprietà dei fluidi).
Ma il cambiamento fondamentale si ha con la ridefinizione di spazio e tempo, come concetti
strettamente matematici, grandezze omogenee ed isotrope: la posizione è esprimibile con
un'adeguata quantità di numeri (le coordinate).
Le proprietà matematiche del moto non sono più statiche, ma in continuo fluire (problema
dell'analisi del moto); questo porta Leibniz a parlare di variazione infinitesime e di differenziale. Il
moto rettilineo è naturale; la velocità per Newton è una flussione, l'accelerazione è una flussione di
una flussione.
Si introduce l'equazione fondamentale della dinamica:
F = m(d²s/dt²)
2
e si formalizza il problema fondamentale della dinamica: se conosciamo la forza impressa ad un
corpo, quale sarà la sua traiettoria nello spazio? Nascono quindi le equazioni differenziali e un
modello deterministico di risoluzione: stabilita la legge e fissate le condizioni iniziali (o al
contorno) il problema è univocamente determinato, senza possibilità di scelta (causalità
deterministica). Da qui la teoria che l'evoluzione dell'universo è univocamente determinata.
Infine un'ultima importante innovazione fu quella che toccò la teoria sulla materia: la materia è
quantità. Una teoria atomica si ebbe anche in passato (Eraclito) ma considerava gli atomi come
“pezzetti” di materia: era un atomismo geometrico-qualitativo.
Con la rivoluzione scientifica si ha un atomismo matematico; per Galileo l'atomo è un elemento
discreto, con una dinamica continua: una dicotomia superata identificando l'atomo con un punto
materiale, ossia un punto geometrico, dotato di un'unità elementare di massa.
Gli atomi sono per Newton tutti uguali fra loro, e si aggregano in modo diverso per formare
molecole diverse; la massa è quindi quantizzata. Parlare di massa vuol dire parlare della quantità di
materia (di atomi) di un corpo. Grazia a questa definizione di atomo come punto materiale, è
possibile studiare anche grandezze continue, come fluidi e campi elettrici.
4. L'importanza dei modelli
Cos'è un modello? Consideriamo come esempio il pendolo.
Per Aristotele è un grave a cui si impedisce con la violenza di effettuare il suo moto naturale; per
Galileo è un grave che effettua oscillazioni isocrone; per Newton è un corpo vincolato soggetto alla
forza di gravità; noi consideriamo un pendolo come un punto materiale di massa m che oscilla su un
piano, vincolato ad un punto fisso per mezzo di un filo inestensibile e primo di massa.
Questa è una rappresentazione di un pendolo, utile per fare calcoli matematici; ma possiamo
distinguere più tipi di pendolo: semplice o composto, piano o sferico, ideale o reale. Un oggetto
reale approssima il comportamento di un oggetto ideale, e tale approssimazione migliora
utilizzando alcuni accorgimenti tecnici.
Come si costruisce un modello di pendolo? Partiamo da un'osservazione: il pendolo è un oggetto
puramente meccanico, non ci interessa studiare il suo colore, il suo odore o altre proprietà simili.
Dalla teoria sappiamo le caratteristiche da considerare e quelle da ignorare (“...difalcando gli
impedimenti...”), cosa dobbiamo osservare, cosa dobbiamo costruire, e come farlo.
I modelli entrano in gioco quando dal generale si passa al particolare: dobbiamo creare un caso
concreto, simile il più possibile al caso ideale: consideriamo un punto materiale, legato ad un filo di
massa trascurabile rispetto alla massa del punto; il punto è vincolato a muoversi in archi di
circonferenza, ed è soggetto alla forza peso (assunta costante).
Studiamo il caso ideale: dalla II legge della dinamica ricaviamo:
(d²/dt²)α = -g sen(α)
da cui, con l'approssimazione delle piccole oscillazioni [sen(α)≈α = x/L] otteniamo che
l'arco di circonferenza diventa un segmento:
(d²/dt²)x = -(g/L)x,
ossia l'equazione delle oscillazioni armoniche.
Il modello fisico è diventato un modello fisico-matematico, ed è applicabile a tutti gli oscillatori
armonici; grazie all'astrazione matematica possiamo generalizzare l'equazione:
A(d²/dt²)q + Cq = 0
dove A è il termine inerziale, C è il termine reattivo.
Successivamente possiamo complicare lo studio, passando al pendolo composto: un corpo rigido
fissato tramite un suo punto ad un vincolo. In questo modello entrano in gioco altri fattori, come ad
3
esempio il momento d'inerzia.
Il pendolo reale quindi si deve comportare in modo simile a questo modello ideale; si può
discutere su quale aspetto del fenomeno sia meglio approssimare.
Osserviamo che un pendolo reale tende a diminuire l'ampiezza delle proprie oscillazioni a causa
della forza d'attrito, Fa = -kv, che dovrà essere aggiunta al nostro studio. Anche con questo
elemento l'equazione resta lineare ed omogenea, del tipo:
A(d²/dt²)q + B(d/dt)q + Cq = 0
dove B è il termine dissipativo; questa equazione descrive il modello matematico dell'oscillatore
armonico smorzato. Da bravi matematici possiamo provare a risolvere l'equazione, e il risultato è:
q(t) = Aetφ .
Una tipica applicazione di questo modello è il circuito RLC, dove i termini A, B, C dipendono
dalle caratteristiche delle tre variabili del circuito: condensatore, resistenza, solenoide.
Personalmente ho trovato molto interessante la descrizione dei modelli presente nel libro di G.
Israel, La visione matematica della realtà; in particolar modo mi ha incuriosito molto la descrizione
del modello per il battito cardiaco ideato da Van der Pool, partendo dallo studio dei fenomeni
oscillatori: il tema delle oscillazioni era già da molto tempo oggetto di studio, soprattutto applicato
al pendolo; egli spostò il problema sui circuiti, creando un modello costituito da una serie di circuiti
elettrici in cui l'intensità di corrente subiva oscillazioni forzate a ciclo limite, in quanto le
oscillazioni tendevano ad standardizzarsi con il passare del tempo; collegò i vari circuiti in modo
che le diverse oscillazioni tendessero a sincronizzarsi, creando un modello di “oscillazioni con
rilassamento”.
Dopo aver creato questo modello, si accorse che le sue applicazioni potevano essere molteplici;
in particolare questo modello, opportunamente configurato, poteva essere utilizzato per simulare il
comportamento del muscolo cardiaco: il cuore si contrae e si rilassa secondo una precisa sequenza,
stabilita da impulsi elettrici provenienti da tre zone distinte dell'organo; gli impulsi provenienti da
tali zone possono essere simulati con un modello di tre circuiti elettrici che si controllano tra loro,
secondo un'opportuna gerarchia. Facendo numerose prove, e numerosi tentativi, Van der Pool poté
osservare che il risultato delle oscillazioni combinate era molto simile ai dati sul battito cardiaco
posseduti.
Osserviamo che quando nelle scienze sperimentali ci si riferisce ad un processo fisico
particolare, la teoria fisica non può fare altro che schematizzarlo, e quindi crearne un modello; e i
modelli sono molto diversi tra loro: ovviamente c'è differenza tra il modello di un oggetto
macroscopico e quello di un oggetto microscopico (un atomo); infatti ad esempio nel modello
microscopico scompare l'effetto dell'attrito, tuttavia si può avere perdita di energia per
irraggiamento.
Ricordiamo che per creare un modello ci si basa su leggi fisiche note, e che un modello deve far
riferimento a conoscenze scientifiche, applicazioni pratiche; se vogliamo studiare la realtà non ci
basta un semplice schema matematico astratto. Tuttavia un modello fisico deve usare schemi
matematici per poter essere rappresentato: un modello deve essere fisico-matematico.
5. Il modello cinetico dei Gas
Il concetto di gas perfetto fu introdotto all'inizio del XIX secolo, per mezzo della legge:
PV = nRT
(1)
Lo studio del modello cinetico dei gas fu motivato da una serie di innovazioni scientifiche, le cui
teorie si combinarono tra loro. Le principali furono:
4
1. Il principio di conservazione dell'energia (I legge della termodinamica); si passa quindi dalla
dinamica alla termodinamica: l'energia non si perde con l'attrito, ma è convertita in calore. Tale
scoperta fu definita metafisica, in quanto andava contro l'evidenza.
2. II legge della termodinamica, per la quale non è possibile recuperare tutta l'energia spesa:
l'energia non è perduta, ma non più utilizzabile (dissipazione dell'energia).
3. Nascita (...o sviluppo?) della statistica, intesa come scienza dello stato: il comportamento di
un numero molto grande di persone necessita di leggi fisiche; la popolazione è considerata come
un singolo individuo.
Tali scoperte ebbero molte ripercussioni su varie teorie scientifiche. In particolare dalla I legge si
arriva a comprendere che esiste un grado microscopico che non possiamo vedere, nel quale si
trasferisce l'energia (considerata ora una variabile estensiva); l'energia non si perde, si trasferisce a
gradi microscopici, e il calore non è energia, ma una forma di movimento.
Dalla II legge segue che non è possibile recuperare integralmente l'energia trasferita al livello
microscopico, e dalla statistica si ricava che un numero molto alto di elementi presenta una
straordinaria regolarità e stabilità, se le differenze tra gli elementi sono di natura casuale.
Ma qual è la natura del sistema dei gas perfetti? Per rispondere a questa domanda si sviluppa il
programma cinetico-atomistico. Nasce un processo di creazione di un modello sulla base della legge
(1), che porta al legame tra entropia S e probabilità W, con il principio di Boltzmann:
S = k ln(W)
Il desiderio di creare un modello per i gas perfetti sorge come “esercizio” tra i fisici, come
passatempo, ma in seguito diviene uno studio serio e approfondito, riguardante la costituzione della
materia. Il primo passo di questo programma è mostrare che (1) è una legge statistica.
6. I modelli di Krönig, Clausius e Maxwell
Nel 1856 Krönig afferma che il moto di una particella, se pur irregolare, si può ricondurre con
ipotesi probabilistiche ad un moto regolare. La molecola, essendo sferica, fa urti elastici con altre
molecole, quindi in linea teorica la traiettoria può esser calcolata; ma il numero di urti è
elevatissimo, quindi è impossibile fare un calcolo simile. Krönig propone un modello secondo il
quale le molecole si muovono di moto rettilineo uniforme, con egual velocità.
Nel 1857 Clausius fa alcune correzioni al modello di Krönig, affermando che le velocità delle
molecole sono equiprobabili, e che la dispersione intorno alla velocità media è molto bassa. A
livello atomico dobbiamo considerare anche le pareti del recipiente, irregolari, ma che “in media”
possiamo considerare regolari. Clausius ha calcolato che la velocità media di una particella è di
400m/s, ma osserva che nella vita quotidiana un gas si muove molto lentamente. Nel suo modello
quindi Clausius introduce il cammino libero medio, all'interno di una sfera d'azione della particella:
il percorso di una particella è una spezzata, in quanto la direzione varia ad ogni urto, in modo
praticamente imprevedibile. Le ipotesi del modello sono le seguenti:
C1. densità uniforme (se aumenta il recipiente, aumenta il numero di molecole del gas)
C2. distribuzione uniforme della velocità (non dipende dal volume o dalla forma del recipiente)
C3. le velocità sono equiprobabili, in condizioni di volume sufficientemente grande
(gleichberechtigt)
C4. il numero di molecole all'interno della sfera d'azione di una molecola è sempre lo stesso
C5. il numero di urti è uniforme nello spazio e nel tempo
Nel 1859 Maxwell propone un nuovo modello, in cui le molecole non sono particelle dure, bensì
centri di forza, ed in cui la distribuzione della velocità è variabile, ma tendente comunque ad un
equilibrio: ad ogni urto la velocità di ogni particella si ridistribuisce con le altre particelle. Introduce
quindi una funzione di distribuzione ƒ(v), chiamata per l'appunto Maxwelliana, definita come il
5
numero medio di particelle x con velocità vx∈[v, v+dv); ƒ ha il comportamento di una
gaussiana. Le ipotesi base di tale modello sono:
M1. La densità ha distribuzione uniforme
M2. La velocità ha distribuzione ƒ(v)
M3. ƒ(v) = ƒ(v²) (non dipende dal segno)
M4. ƒ(v²) = ƒ(vx²)ƒ(vy²)ƒ(vz²) (le componenti di v sono indipendenti tra loro)
M5. ƒ(vx² + vy² + vz²) = ƒ(vx²)ƒ(vy²)ƒ(vz²) da cui:
ƒ(v) =
C exp(-v²/kt)
7. Il modello di Boltzmann
I modelli di Clausius e Maxwell sono modelli meccanici, ma non necessariamente deterministici.
Nel 1875 fu fondamentale il contributo di Boltzmann, atomista matematico, il quale per mezzo
dei seguenti postulati, fissa una nuova teoria, la meccanica statistica:
B1. La funzione di distribuzione diventa:
ƒMB(E) = C exp(-E/kt)
B2. Teorema H: Se H = H(ƒ) è un funzionale di una funzione di distribuzione ƒ, allora:
a. dH/dt ≤ 0
b. se H = Hmin allora ƒ = ƒMB
B3. La teoria spiega non solo il comportamento dei gas, ma l'intera termodinamica, ed in
particolare la tendenza irreversibile all'equilibrio.
La funzione H introdotta da Boltzmann si comporta come l'opposto dell'entropia: -H ≃ S.
Questa teoria porta nel 1876 al paradosso dell'irreversibilità, che si può articolare in questo
modo:
A) Supponiamo di trovarci in uno stato micro X* a cui corrisponde una funzione di
distribuzione ƒ di non equilibrio; si arriverà all'equilibrio, in uno stato Xe* con funzione ƒMB.
B) Ad ogni stato Xe* corrisponde uno stato -Xe*, con la stessa ƒMB (per M3 non dipende dal
segno)
C) Per le leggi della meccanica -Xe* tende allo stato -X*, con funzione ƒ, che non è di
equilibrio!
Dopo alcuni mesi di lavoro, Boltzmann risolve il paradosso, affermando che un sistemo lasciato
a se stesso per lungo tempo tende all'equilibrio; di conseguenza gli stati del tipo di X* sono casi
particolari, o meglio eccezionali, tra gli stati possibili di un sistema; l'insieme degli stati micro ±X*
e ±Xe* è di dimensioni trascurabili rispetto all'insieme di tutti gli stati micro ±Xe.
Il modello generale introduce una ƒ discreta: suddividiamo l'energia in intervalli finiti, di
lunghezza a; la funzione ƒ studierà il numero di particelle che si trovano nei vari livelli energetici.
Osserviamo che uno stato micro Xe individua una ƒ, ma non è vero il viceversa, infatti se
scambiamo di posizione tra loro due molecole, la ƒ rimane uguale; il numero totale di permutazioni
tra le molecole ci da la probabilità della ƒ, espressa dal funzionale H.
H è quindi una funzione costante a tratti, tale che:
 assume quasi sempre il valore minimo Hmin
 se H ≠ Hmin allora H = Hmax
In conclusione, lo studio di un modello atomico ha portato alla formazione di una teoria atomica;
in generale i modelli hanno un rapporto dialettico con le teorie: i modelli generano nuove teorie e le
teorie generano nuovi modelli; questa struttura astratta possiede delle proprie regole e un proprio
riferimento alla realtà (i modelli approssimano la realtà, fanno da ponte tra la teoria e la realtà).
6
Scarica