METODOLOGIE DELLE SCIENZE SPERIMENTALI lezioni del prof. Carlo Tarsitani Sintesi e considerazioni personali sugli argomenti svolti a lezione CAROSELLI STEFANO 1. Il ruolo della matematica In genere si considera la matematica una scienza che si occupa delle verità di ragione, e si distingue per questo dalle scienze sperimentali, che si occupano delle verità di fatto. La matematica applicata si occupa di descrivere le scienze sperimentali. Johann Herschel, nella sua parabola dell'uomo solo, ipotizza che un uomo, isolato dal mondo, ragionando sarebbe in grado di ricostruire tutti i teoremi della matematica. Ma anche la matematica si può considerare una scienza sperimentale, in quanto vi è un forte legame tra la matematica e le scoperte scientifiche; ricordiamo che Galileo afferma che “...il libro della natura è scritto in caratteri matematici...”; non si può parlare di matematica applicata senza parlare di matematica, ed è incorretto affermare che una scienza sperimentale non è altro che una matematica applicata. Nell'antichità la matematica era studiata, assieme alle altre scienze, dai filosofi: ad esempio secondo la tradizione pitagorico-platonica il numero è l'essenza delle cose. Studiando la storia della matematica possiamo osservare che: • Gli scienziati studiano le leggi matematiche dai fenomeni e ne ricavano modelli matematici. • La matematica della realtà viene scoperta attraverso l'osservazione, la misura, l'esperimento. • Una scoperta scientifica può tradursi in una scoperta matematica. Secondo uno schema di Herschel, in cui descrive il circolo delle conoscenze fisiche, ci sono due processi che si alternano: quello induttivo, che dagli esperimenti porta alle nuove teorie, e quello deduttivo, che dalle teorie porta a nuove leggi; la base dello studio sono gli esperimenti, dai quali segue la creazione di una teoria; dalla teoria si propongono quindi nuove leggi, che dovranno esser verificate con nuovi esperimenti. Quando la teoria inizia a maturare lo studio del mondo dei fenomeni diviene secondario, ma si continuano a studiare le stesse leggi e le stesse formule prodotte in precedenza. 2. Leggi e modelli Da questi ragionamento seguono alcune questioni classiche: viene prima la teoria o l'esperimento? Si possono fare osservazioni senza una teoria? Cosa succede se cambiamo teoria? Ecco alcune osservazioni che emergono: 1. Teoria ed esperimenti sono necessari in egual misura: il saper osservare e il saper sperimentare sono due capacità che si acquisiscono col tempo, formando un'educazione culturale. Questa educazione culturale rappresenta le osservazioni a cui abbiamo dato più rilevanza, e dipendono quindi dal contesto socio-culturale in cui viviamo; ad esempio per un eschimese non esiste solo la neve, ma ci sono ben nove diversi tipi di neve. 2. Le teorie vengono ridiscusse ogni qual volta vi è un'innovazione scientifica che porta nuovi criteri di lettura, e nuovi modi di ragionare. 3. Il nostro linguaggio si articola in funzione dei problemi di sopravvivenza o di adattamento che si hanno; come ha detto il filosofo moderno Wittgenstein: “il mio mondo coincide con i limiti del mio linguaggio”; quindi anche un fisico non può andare oltre il suo linguaggio, la matematica. 4. Nello schema proposto da Herschel non sono descritti gli oggetti e gli enti fisici, con i loro processi. La descrizione di oggetti e processi utilizza modelli. I modelli non fanno parte della teoria e delle leggi, essendo la rappresentazione di qualcosa di particolare, ma un modello è creato partendo da una determinata legge: una legge ha valore universale, un modello è un caso particolare. Ma nella realtà una legge non è applicabile, in quanto descrive casi ideali, astratti. Il modello è 1 una rappresentazione reale di qualcosa di astratto. Vi sono dei casi particolari, in cui si può parlare sia di modello che di legge. Il gas perfetto è un modello, ma è creato partendo dalla legge: PV = nRT, detta per l'appunto legge dei gas perfetti; tale legge identifica e descrive il modello. Ma allora si deve parlare di legge o modello? Questo esempio sottolinea una caratteristica comune alle leggi e ai modelli: entrambi servono a schematizzare un concetto. 3. La rivoluzione scientifica In Italia la fisica è spesso insegnata insieme alla matematica (dallo stesso insegnante), al contrario di molti paesi europei, in cui la fisica è insegnata insieme alla chimica o la biologia. Matematica e fisica sono state da sempre molto legate, e scoperte in un campo portarono spesso ad innovazioni anche nell'altro; al tempo della rivoluzione scientifica, in età moderna, si ebbe come risultato la matematizzazione della realtà, e come applicazione diretta la nascita della nuova fisica. Partiamo descrivendo un aspetto che frequentemente a scuola è trascurato: lo sfondo scientifico in cui la fisica si sviluppa nella storia. La fisica del passato si rivolge alla natura e a tutto ciò che avviene sulla terra, trascurando spesso quello che avviene nel cielo; questa fisica nasce con la filosofia aristotelica, che si basa sulla qualità degli elementi primari: Fuoco, Terra, Acqua e Aria. Secondo lo schema aristotelico, Fuoco e Acqua sono opposti, così come Terra e Aria; ogni altro accoppiamento è caratterizzato da una qualità in comune tra i due elementi: Fuoco e Terra sono secchi, Terra e Aria sono freddi, Acqua e Aria sono umidi, Aria e Fuoco sono caldi. Anche il moto locale è descritto in modo qualitativo: Acqua e Terra si muovono verso il centro della terra, Fuoco e Aria verso l'esterno. Il quinto elemento, l'Etere, possiede un moto perfetto, quello circolare. I movimenti, come tutti i cambiamenti, hanno una caratteristica comune: vanno dalla potenza all'atto, e si dividono in naturali o violenti. Infine il ragionamento causale divide la causa in 4 tipi possibili: causa materiale, causa formale, causa finale e causa efficiente. Con la rivoluzione scientifica (da Galileo in poi) si sostituisce la qualità con la quantità. Le proprietà degli oggetti non sono più viste come contrapposizione di qualità contrarie; ad esempio la temperatura non è più il risultato di un determinato dosaggio di caldo e di freddo, ma viene descritta come più calda o meno calda. Si deve quindi ridefinire il moto locale, un concetto che ha applicazioni in fenomeni diversi: dalla circonferenza si passa all'ellisse, dalla direzione all'accelerazione, si formula il principio d'inerzia; le cause del movimento sono di natura meccanica. Nasce il problema dell'azione a distanza: come si può muovere una calamita, se nessuno la tocca? Come mai un corpo cade a terra? Una risposta fu data solo nel XIX secolo, con l'introduzione del concetto di campo di forze (inizialmente pensato come un campo fatto di etere, quindi con le proprietà dei fluidi). Ma il cambiamento fondamentale si ha con la ridefinizione di spazio e tempo, come concetti strettamente matematici, grandezze omogenee ed isotrope: la posizione è esprimibile con un'adeguata quantità di numeri (le coordinate). Le proprietà matematiche del moto non sono più statiche, ma in continuo fluire (problema dell'analisi del moto); questo porta Leibniz a parlare di variazione infinitesime e di differenziale. Il moto rettilineo è naturale; la velocità per Newton è una flussione, l'accelerazione è una flussione di una flussione. Si introduce l'equazione fondamentale della dinamica: F = m(d²s/dt²) 2 e si formalizza il problema fondamentale della dinamica: se conosciamo la forza impressa ad un corpo, quale sarà la sua traiettoria nello spazio? Nascono quindi le equazioni differenziali e un modello deterministico di risoluzione: stabilita la legge e fissate le condizioni iniziali (o al contorno) il problema è univocamente determinato, senza possibilità di scelta (causalità deterministica). Da qui la teoria che l'evoluzione dell'universo è univocamente determinata. Infine un'ultima importante innovazione fu quella che toccò la teoria sulla materia: la materia è quantità. Una teoria atomica si ebbe anche in passato (Eraclito) ma considerava gli atomi come “pezzetti” di materia: era un atomismo geometrico-qualitativo. Con la rivoluzione scientifica si ha un atomismo matematico; per Galileo l'atomo è un elemento discreto, con una dinamica continua: una dicotomia superata identificando l'atomo con un punto materiale, ossia un punto geometrico, dotato di un'unità elementare di massa. Gli atomi sono per Newton tutti uguali fra loro, e si aggregano in modo diverso per formare molecole diverse; la massa è quindi quantizzata. Parlare di massa vuol dire parlare della quantità di materia (di atomi) di un corpo. Grazia a questa definizione di atomo come punto materiale, è possibile studiare anche grandezze continue, come fluidi e campi elettrici. 4. L'importanza dei modelli Cos'è un modello? Consideriamo come esempio il pendolo. Per Aristotele è un grave a cui si impedisce con la violenza di effettuare il suo moto naturale; per Galileo è un grave che effettua oscillazioni isocrone; per Newton è un corpo vincolato soggetto alla forza di gravità; noi consideriamo un pendolo come un punto materiale di massa m che oscilla su un piano, vincolato ad un punto fisso per mezzo di un filo inestensibile e primo di massa. Questa è una rappresentazione di un pendolo, utile per fare calcoli matematici; ma possiamo distinguere più tipi di pendolo: semplice o composto, piano o sferico, ideale o reale. Un oggetto reale approssima il comportamento di un oggetto ideale, e tale approssimazione migliora utilizzando alcuni accorgimenti tecnici. Come si costruisce un modello di pendolo? Partiamo da un'osservazione: il pendolo è un oggetto puramente meccanico, non ci interessa studiare il suo colore, il suo odore o altre proprietà simili. Dalla teoria sappiamo le caratteristiche da considerare e quelle da ignorare (“...difalcando gli impedimenti...”), cosa dobbiamo osservare, cosa dobbiamo costruire, e come farlo. I modelli entrano in gioco quando dal generale si passa al particolare: dobbiamo creare un caso concreto, simile il più possibile al caso ideale: consideriamo un punto materiale, legato ad un filo di massa trascurabile rispetto alla massa del punto; il punto è vincolato a muoversi in archi di circonferenza, ed è soggetto alla forza peso (assunta costante). Studiamo il caso ideale: dalla II legge della dinamica ricaviamo: (d²/dt²)α = -g sen(α) da cui, con l'approssimazione delle piccole oscillazioni [sen(α)≈α = x/L] otteniamo che l'arco di circonferenza diventa un segmento: (d²/dt²)x = -(g/L)x, ossia l'equazione delle oscillazioni armoniche. Il modello fisico è diventato un modello fisico-matematico, ed è applicabile a tutti gli oscillatori armonici; grazie all'astrazione matematica possiamo generalizzare l'equazione: A(d²/dt²)q + Cq = 0 dove A è il termine inerziale, C è il termine reattivo. Successivamente possiamo complicare lo studio, passando al pendolo composto: un corpo rigido fissato tramite un suo punto ad un vincolo. In questo modello entrano in gioco altri fattori, come ad 3 esempio il momento d'inerzia. Il pendolo reale quindi si deve comportare in modo simile a questo modello ideale; si può discutere su quale aspetto del fenomeno sia meglio approssimare. Osserviamo che un pendolo reale tende a diminuire l'ampiezza delle proprie oscillazioni a causa della forza d'attrito, Fa = -kv, che dovrà essere aggiunta al nostro studio. Anche con questo elemento l'equazione resta lineare ed omogenea, del tipo: A(d²/dt²)q + B(d/dt)q + Cq = 0 dove B è il termine dissipativo; questa equazione descrive il modello matematico dell'oscillatore armonico smorzato. Da bravi matematici possiamo provare a risolvere l'equazione, e il risultato è: q(t) = Aetφ . Una tipica applicazione di questo modello è il circuito RLC, dove i termini A, B, C dipendono dalle caratteristiche delle tre variabili del circuito: condensatore, resistenza, solenoide. Personalmente ho trovato molto interessante la descrizione dei modelli presente nel libro di G. Israel, La visione matematica della realtà; in particolar modo mi ha incuriosito molto la descrizione del modello per il battito cardiaco ideato da Van der Pool, partendo dallo studio dei fenomeni oscillatori: il tema delle oscillazioni era già da molto tempo oggetto di studio, soprattutto applicato al pendolo; egli spostò il problema sui circuiti, creando un modello costituito da una serie di circuiti elettrici in cui l'intensità di corrente subiva oscillazioni forzate a ciclo limite, in quanto le oscillazioni tendevano ad standardizzarsi con il passare del tempo; collegò i vari circuiti in modo che le diverse oscillazioni tendessero a sincronizzarsi, creando un modello di “oscillazioni con rilassamento”. Dopo aver creato questo modello, si accorse che le sue applicazioni potevano essere molteplici; in particolare questo modello, opportunamente configurato, poteva essere utilizzato per simulare il comportamento del muscolo cardiaco: il cuore si contrae e si rilassa secondo una precisa sequenza, stabilita da impulsi elettrici provenienti da tre zone distinte dell'organo; gli impulsi provenienti da tali zone possono essere simulati con un modello di tre circuiti elettrici che si controllano tra loro, secondo un'opportuna gerarchia. Facendo numerose prove, e numerosi tentativi, Van der Pool poté osservare che il risultato delle oscillazioni combinate era molto simile ai dati sul battito cardiaco posseduti. Osserviamo che quando nelle scienze sperimentali ci si riferisce ad un processo fisico particolare, la teoria fisica non può fare altro che schematizzarlo, e quindi crearne un modello; e i modelli sono molto diversi tra loro: ovviamente c'è differenza tra il modello di un oggetto macroscopico e quello di un oggetto microscopico (un atomo); infatti ad esempio nel modello microscopico scompare l'effetto dell'attrito, tuttavia si può avere perdita di energia per irraggiamento. Ricordiamo che per creare un modello ci si basa su leggi fisiche note, e che un modello deve far riferimento a conoscenze scientifiche, applicazioni pratiche; se vogliamo studiare la realtà non ci basta un semplice schema matematico astratto. Tuttavia un modello fisico deve usare schemi matematici per poter essere rappresentato: un modello deve essere fisico-matematico. 5. Il modello cinetico dei Gas Il concetto di gas perfetto fu introdotto all'inizio del XIX secolo, per mezzo della legge: PV = nRT (1) Lo studio del modello cinetico dei gas fu motivato da una serie di innovazioni scientifiche, le cui teorie si combinarono tra loro. Le principali furono: 4 1. Il principio di conservazione dell'energia (I legge della termodinamica); si passa quindi dalla dinamica alla termodinamica: l'energia non si perde con l'attrito, ma è convertita in calore. Tale scoperta fu definita metafisica, in quanto andava contro l'evidenza. 2. II legge della termodinamica, per la quale non è possibile recuperare tutta l'energia spesa: l'energia non è perduta, ma non più utilizzabile (dissipazione dell'energia). 3. Nascita (...o sviluppo?) della statistica, intesa come scienza dello stato: il comportamento di un numero molto grande di persone necessita di leggi fisiche; la popolazione è considerata come un singolo individuo. Tali scoperte ebbero molte ripercussioni su varie teorie scientifiche. In particolare dalla I legge si arriva a comprendere che esiste un grado microscopico che non possiamo vedere, nel quale si trasferisce l'energia (considerata ora una variabile estensiva); l'energia non si perde, si trasferisce a gradi microscopici, e il calore non è energia, ma una forma di movimento. Dalla II legge segue che non è possibile recuperare integralmente l'energia trasferita al livello microscopico, e dalla statistica si ricava che un numero molto alto di elementi presenta una straordinaria regolarità e stabilità, se le differenze tra gli elementi sono di natura casuale. Ma qual è la natura del sistema dei gas perfetti? Per rispondere a questa domanda si sviluppa il programma cinetico-atomistico. Nasce un processo di creazione di un modello sulla base della legge (1), che porta al legame tra entropia S e probabilità W, con il principio di Boltzmann: S = k ln(W) Il desiderio di creare un modello per i gas perfetti sorge come “esercizio” tra i fisici, come passatempo, ma in seguito diviene uno studio serio e approfondito, riguardante la costituzione della materia. Il primo passo di questo programma è mostrare che (1) è una legge statistica. 6. I modelli di Krönig, Clausius e Maxwell Nel 1856 Krönig afferma che il moto di una particella, se pur irregolare, si può ricondurre con ipotesi probabilistiche ad un moto regolare. La molecola, essendo sferica, fa urti elastici con altre molecole, quindi in linea teorica la traiettoria può esser calcolata; ma il numero di urti è elevatissimo, quindi è impossibile fare un calcolo simile. Krönig propone un modello secondo il quale le molecole si muovono di moto rettilineo uniforme, con egual velocità. Nel 1857 Clausius fa alcune correzioni al modello di Krönig, affermando che le velocità delle molecole sono equiprobabili, e che la dispersione intorno alla velocità media è molto bassa. A livello atomico dobbiamo considerare anche le pareti del recipiente, irregolari, ma che “in media” possiamo considerare regolari. Clausius ha calcolato che la velocità media di una particella è di 400m/s, ma osserva che nella vita quotidiana un gas si muove molto lentamente. Nel suo modello quindi Clausius introduce il cammino libero medio, all'interno di una sfera d'azione della particella: il percorso di una particella è una spezzata, in quanto la direzione varia ad ogni urto, in modo praticamente imprevedibile. Le ipotesi del modello sono le seguenti: C1. densità uniforme (se aumenta il recipiente, aumenta il numero di molecole del gas) C2. distribuzione uniforme della velocità (non dipende dal volume o dalla forma del recipiente) C3. le velocità sono equiprobabili, in condizioni di volume sufficientemente grande (gleichberechtigt) C4. il numero di molecole all'interno della sfera d'azione di una molecola è sempre lo stesso C5. il numero di urti è uniforme nello spazio e nel tempo Nel 1859 Maxwell propone un nuovo modello, in cui le molecole non sono particelle dure, bensì centri di forza, ed in cui la distribuzione della velocità è variabile, ma tendente comunque ad un equilibrio: ad ogni urto la velocità di ogni particella si ridistribuisce con le altre particelle. Introduce quindi una funzione di distribuzione ƒ(v), chiamata per l'appunto Maxwelliana, definita come il 5 numero medio di particelle x con velocità vx∈[v, v+dv); ƒ ha il comportamento di una gaussiana. Le ipotesi base di tale modello sono: M1. La densità ha distribuzione uniforme M2. La velocità ha distribuzione ƒ(v) M3. ƒ(v) = ƒ(v²) (non dipende dal segno) M4. ƒ(v²) = ƒ(vx²)ƒ(vy²)ƒ(vz²) (le componenti di v sono indipendenti tra loro) M5. ƒ(vx² + vy² + vz²) = ƒ(vx²)ƒ(vy²)ƒ(vz²) da cui: ƒ(v) = C exp(-v²/kt) 7. Il modello di Boltzmann I modelli di Clausius e Maxwell sono modelli meccanici, ma non necessariamente deterministici. Nel 1875 fu fondamentale il contributo di Boltzmann, atomista matematico, il quale per mezzo dei seguenti postulati, fissa una nuova teoria, la meccanica statistica: B1. La funzione di distribuzione diventa: ƒMB(E) = C exp(-E/kt) B2. Teorema H: Se H = H(ƒ) è un funzionale di una funzione di distribuzione ƒ, allora: a. dH/dt ≤ 0 b. se H = Hmin allora ƒ = ƒMB B3. La teoria spiega non solo il comportamento dei gas, ma l'intera termodinamica, ed in particolare la tendenza irreversibile all'equilibrio. La funzione H introdotta da Boltzmann si comporta come l'opposto dell'entropia: -H ≃ S. Questa teoria porta nel 1876 al paradosso dell'irreversibilità, che si può articolare in questo modo: A) Supponiamo di trovarci in uno stato micro X* a cui corrisponde una funzione di distribuzione ƒ di non equilibrio; si arriverà all'equilibrio, in uno stato Xe* con funzione ƒMB. B) Ad ogni stato Xe* corrisponde uno stato -Xe*, con la stessa ƒMB (per M3 non dipende dal segno) C) Per le leggi della meccanica -Xe* tende allo stato -X*, con funzione ƒ, che non è di equilibrio! Dopo alcuni mesi di lavoro, Boltzmann risolve il paradosso, affermando che un sistemo lasciato a se stesso per lungo tempo tende all'equilibrio; di conseguenza gli stati del tipo di X* sono casi particolari, o meglio eccezionali, tra gli stati possibili di un sistema; l'insieme degli stati micro ±X* e ±Xe* è di dimensioni trascurabili rispetto all'insieme di tutti gli stati micro ±Xe. Il modello generale introduce una ƒ discreta: suddividiamo l'energia in intervalli finiti, di lunghezza a; la funzione ƒ studierà il numero di particelle che si trovano nei vari livelli energetici. Osserviamo che uno stato micro Xe individua una ƒ, ma non è vero il viceversa, infatti se scambiamo di posizione tra loro due molecole, la ƒ rimane uguale; il numero totale di permutazioni tra le molecole ci da la probabilità della ƒ, espressa dal funzionale H. H è quindi una funzione costante a tratti, tale che: assume quasi sempre il valore minimo Hmin se H ≠ Hmin allora H = Hmax In conclusione, lo studio di un modello atomico ha portato alla formazione di una teoria atomica; in generale i modelli hanno un rapporto dialettico con le teorie: i modelli generano nuove teorie e le teorie generano nuovi modelli; questa struttura astratta possiede delle proprie regole e un proprio riferimento alla realtà (i modelli approssimano la realtà, fanno da ponte tra la teoria e la realtà). 6