LICEO SCIENTIFICO G. PEANO – TORTONA Anno scolastico 2011/2012 DETERMINISMO – INDETERMINISMO a cura di Daniela Depaoli Il laboratorio muove dal modello “deterministico” e “meccanicistico” del ‘700 di Laplace e vuole chiarire le ragioni della sua crisi dentro l’evoluzione della scienza tra ‘800-‘900. Questi i materiali-base che proponiamo: 1. Libro di testo: Filosofia e cultura vol.3 A. La scienza dell’800: geometrie non euclidee; dall’immagine meccanicistica del mondo alla sua crisi nella termodinamica, nella teoria cinetica dei gas e nell’elettromagnetismo. Pp.376-381 2. Ivi, pp. 414-15 le “cause della variazione” in Darwin (v. anche p.420 aspetto anti-deterministico del concetto di “variazione naturale” in Darwin) 3. A cura di D. De Paoli, Determinismo-indeterminismo (dispensa sia in cartaceo che on line) 4. I.Licata, Complessità. Un’introduzione semplice (la crisi del riduzionismo determinista) (dispensa cartacea) 5. B.Bryson, Breve storia di quasi tutto (dispensa cartacea) Affinchè una spiegazione sia efficace lo scienziato non deve chiamare in causa ogni volta una ragione diversa: la scienza si ridurrebbe allora a una sterile raccolta di fatti. I fenomeni, invece, devono essere ricondotti a un numero ristretto di cause e discendere da queste ultime secondo una logica ferrea e necessaria, cioè matematica. Secondo Laplace se si conoscessero le posizioni e le velocità di tutti gli oggetti dell’Universo nonché tutte le forze a cui sono sottoposti in un dato istante, sarebbe possibile calcolare esattamente queste grandezze per ogni tempo successivo: l’Universo e tutto ciò che contiene sarebbero quindi completamente determinati. Sul finire dell’Ottocento la scienza e la tecnologia erano trionfanti. L’Esposiziome mondiale di Parigi del 1889, anno del centenario della Rivoluzione francese, fu una straordinaria mostra di nuove tecnologie. Tanto per fare l’esempio più celebre fu inaugurata la torre Eiffel, all’epoca la struttura artificiale più alta del mondo. Per competere con Parigi, nel 1893, l’anno successivo al quattrocentenario della scoperta dell’America, gli americani organizzarono a Chicago la grande esposizione colombiana illuminando con luce artificiale un’enorme area in cui il pubblico poteva ballare tutta la notte. Negli stessi anni si iniziarono a produrre ascensori, condizionatori, automobili. La scienza aveva fatto un buon lavoro e molti pensavano che avesse realizzato ogni suo possibile compito. I coloranti artificiali in chimica, la teoria di Maxwell, la teoria di Newton facevano pensare che non ci fosse più nulla da scoprire. MA LA SCIENZA CAMBIA ROTTA…. Negli ultimi anni del secolo XIX furono compiute alcune scoperte sensazionali, tra cui ricordiamo: la scoperta dei raggi X la scoperta della radioattività la scoperta dell’elettrone All’alba del Novecento stavano per scoppiare due grandi rivoluzioni: la nascita e lo sviluppo della meccanica quantistica (derivante dalla consapevolezza dell’incapacità della meccanica di Newton di spiegare il comportamento di oggetti molto piccoli come gli atomi) e la teoria speciale della relatività di Einstein (che rivelò come la meccanica di Newton non fosse adeguata per spiegare il moto degli oggetti molto veloci). Quindi per gli oggetti molto piccoli o molto veloci occorrevano nuove teorie. Nel dicembre del 1900 Max Planck, fisico tedesco, scoprì che l’energia non è una quantità continua: è confezionata in pacchetti, o quanti, determinati da un numero che oggi è chiamato costante di Planck. Egli introdusse il concetto di quanto di energia soltanto come una finzione per riuscire a risolvere tecnicamente un problema legato alla cosiddetta radiazione del corpo nero. Per qualche anno il quanto di energia rimase come sospeso nell’aria fino a quando nel 1905 Albert Einstein pubblicò dei lavori che cambiarono la storia della fisica. In uno di questi articoli propose l’idea che la luce fosse fatta di piccole particelle, oggi chiamate fotoni. All’epoca Einstein le chiamò quanti di luce e li immaginò come proiettili di una scarica di mitragliatrice. Già Newton aveva proposto una teoria analoga, detta teoria corpuscolare, ma all’inizio dell’Ottocento Thomas Young aveva compiuto un esperimento, detto della doppia fenditura, facendo passare la luce attraverso due fori. E si accorse che, dopo essere passata dai due fori, la luce formava figure tipiche dell’interferenza: esattamente le stesse figure prodotte dalle onde del mare, quando si ricompongono dopo essere passate attraverso due aperture. Questo esperimento aveva dimostrato che la luce era composta da onde,e la teoria corpuscolare di Newton era stata archiviata come un errore del grande fisico inglese. Einstein, dopo più di un secolo, decise che la luce non era composta da onde, ma che era fatta di particelle. Lo decise perché per spiegare l’effetto fotoelettrico (emissione di elettroni da parte di un metallo colpito dalla luce), era dovuto ricorrere al concetto di quanto di energia. La teoria si diffuse con successo fino a diventare una delle due grandi conquiste della fisica del Novecento, a fianco della teoria della relatività. Paradossalmente esperimenti diversi sembravano confermare due diverse teorie della luce: quella ondulatoria e quella corpuscolare. A lungo si pensò che c’era qualcosa che non andava e che si sarebbe arrivati a dover scegliere fra l’una e l’altra. Ma fu ancora Einstein a capire, nel 1917, che in realtà non c’era bisogno di scegliere: si poteva dire che la luce era allo stesso tempo fatta di onde e di corpuscoli, così come le onde del mare sono onde, ma fatte anche di piccole gocce d’acqua. Questa idea, che oggi viene chiamata complementarità, sostiene che la natura della luce è duale, allo stesso tempo sia corpuscolo che onda. È un’idea che va contro la metafisica quotidiana alla quale siamo abituati e costituisce il contributo filosofico più duraturo della teoria dei quanti. Esattamente come l’idea dello spazio-tempo che sostiene che lo spazio e il tempo non sono entità separate, costituisce il contributo filosofico più duraturo della relatività. Linea del tempo circa 1632 Galileo elabora le trasformazioni per la caduta dei corpi 1687 I Principia di Newton descrivono le leggi classiche del moto 1881 Michelson misura con grande accuratezza la velocità della luce 1905 Einstein pubblica l’articolo Sull’elettrodinamic a dei corpi in movimento che descrive la relatività ristretta 1915 Einstein pubblica Le equazioni di campo per la gravitazione, presentando la relatività generale La meccanica quantistica fu portata a compimento da vari scienziati, oggi considerati i padri della fisica moderna. Niels Bohr perfeziona il modello planetario dell’atomo elaborato da Rutherford con l’ipotesi che il momento angolare dell’elettrone dovesse essere uguale a un multiplo intero della costante di Planck. Werner Heisenberg, formula il principio di indeterminazione, ossia che un esperimento, per quanto preciso, non può misurare allo stesso tempo la posizione e la velocità ( o meglio la quantità di moto) di una particella. La sua spiegazione è la seguente: supponiamo di usare un microscopio per osservare la posizione di un qualcosa di minuscolo. Il microscopio usa la luce visibile di una certa lunghezza d’onda, e perciò non è possibile localizzare nulla che sia più piccolo della lunghezza d’onda della luce. Per andare oltre bisogna usare la luce ultravioletta che ha una lunghezza d’onda minore della luce visibile; se non basta possiamo usare i raggi X, che hanno una lunghezza d’onda ancora più piccola. Pertanto usando onde elettromagnetiche di lunghezza sempre minore è possibile misurare la posizione di un oggetto con il grado di precisione desiderato. Per ottenere informazioni sul minuscolo oggetto occorre colpirlo con almeno una particella di luce, e se lo colpiamo con una particella di luce ne modifichiamo la velocità. Anche questo non è un problema: possiamo colpirlo in modo sempre più delicato con una lunghezza d’onda maggiore. Di conseguenza maggiore è la precisione con cui si misura la posizione, minore è la precisione con cui possiamo misurare la velocità e viceversa. In conclusione non possiamo misurare con precisione la posizione e la velocità contemporaneamente. Questo fatto cambia completamente le regole della fisica perché secondo la meccanica newtoniana se misuriamo la posizione e la velocità sappiamo come si svolgerà il moto da quel momento in poi. Con il principio do indeterminazione si scopre che non è possibile prevedere cosa farà l’oggetto da quel momento in poi. Heisenberg, Bohr e Einstein discussero a lungo per stabilire se ciò fosse realmente vero, se esistesse davvero un limite fondamentale alla possibile precisione delle misure. Nel 1926 Heisenberg inventò uno schema nuovo, che chiamò meccanica delle matrici, per dare un fondamento teorico alle nuove idee. Questa nuova meccanica comprendeva le regole arbitrarie di Bohr ma era molto più precisa e specifica, oltre ad essere matematicamente coerente. Era davvero una teoria, poi denominata la teoria della meccanica quantistica. Erwin Schrödinger, fisico austriaco, creò la meccanica ondulatoria, un’altra forma della meccanica quantistica che incorporava tutte le regole di Niels Bohr, consistente in un’equazione differenziale simile all’equazione che descrive i campi elettrici. Max Born, ebreo tedesco costretto ad abbandonare la Germania durante la seconda guerra mondiale, analizzò i risultati di Heisenberg e di Schrödinger, trovandoli entrambi coerenti e validi, e rendendosi conto che le due teorie erano equivalenti. Ciò che Schrödinger aveva elaborato con il linguaggio del calcolo differenziale era equivalente a quanto fatto da Heisenberg in linguaggio algebrico: si trattava semplicemente di formulazioni matematiche diverse della stessa teoria. Max Born capì inoltre cosa erano le onde materiali descritte da Schrödinger. In realtà non erano onde materiali, ma avevano a che fare con la probabilità: dove il valore della funzione d’onda è grande è più probabile trovare la particella, dove il valore è piccolo è meno probabile. Questa è l’interpretazione probabilistica della meccanica quantistica, oggi universalmente ritenuta corretta. Paul Dirac concepì un’equazione relativistica, detta appunto equazione di Dirac, che descrive completamente il comportamento di un elettrone in un campo elettromagnetico. Questa equazione, che funzionava così bene, aveva due tipi di soluzioni: a energia positiva, che descriveva gli elettroni, ma anche una soluzione a energia negativa a cui, all’epoca, non si sapeva dare un’interpretazione fisica. Dirac pensò che la sua equazione potesse descrivere due tipi di particelle, ma i due tipi allora conosciuti (elettroni e protoni) non potevano soddisfare l’equazione. Capì che dovevano esistere particelle con le stessa massa dell’elettrone ma con carica positiva. Tali particelle furono chiamate positroni, ma non ci fu alcuna prova della loro esistenza fino a quando un fisico americano, Carl Anderson, lì scoprì per caso nei raggi cosmici (ignorando persino che Dirac ne avesse predetto l’esistenza). Oggi queste particelle sono utilizzate in campo medico per l’analisi dell’interno del corpo umano ( diagnostica PET) basato proprio sui positroni, le prime particelle di antimateria ad essere state scoperte. Le verità matematiche, a qualsiasi livello, sono spesso apparse in un ampio orizzonte dapprima in forma appena percepibile e, gradatamente, in modo sempre più chiaro e distinto. Ad esprimerlo con bella metafora è il matematico Bolyai al proprio e più famoso figlio Janos : ” molte cose hanno un’epoca nella quale esse sono trovate nello stesso tempo da molte parti, proprio come le violette nascono dappertutto in primavera”. Ottant’anni fa, nel 1931, Kurt Gödel pubblicava l’articolo Sulle proposizioni formalmente indecidibili dei Principia Mathematica e di sistemi affini, la cui proposizione VI tutte le assiomatizzazioni coerenti dell’aritmetica contengono proposizioni indecidibili è passata alla storia come il teorema di incompletezza di Gödel. Un risultato che ha avuto così tante conseguenze da renderlo punto di riferimento in ogni settore del sapere e segnato, così, la storia del pensiero. Il risultato di Gödel segna la fine di un sogno, quello che fu di Leibniz, del grande Hilbert, e di tanti altri autori, di dominio assoluto della conoscenza; in questo senso il teorema comporta un non so che di negativo perché pone un limite alle possibilità dell’uomo anche se ne prova l’inesuaribilità del compito. Infatti uno dei significati più eccitanti del teorema di Gödel è che la matematica non finirà mai. Gödel fa un ragionamento molto semplice ispirato ai vecchi paradossi dell’antichità: in particolare il paradosso del mentitore. Questo fu scoperto da Eubilide di Mileto intorno al IV secolo a.C. e sostiene che ci sono dei problemi a dire: “io mento”. Il problema sta nel fatto che tale frase dovrebbe essere vera o falsa. Ma se è vera, è vero che io mento e dunque sto dicendo il falso. Se è falsa, allora è falso che io mento e dunque sto dicendo il vero. E questo è un paradosso: se la frase è vera, allora è falsa, se è falsa allora è vera. Gödel prese una frase analoga: “io non sono dimostrabile”. La frase dice di se stessa di non essere dimostrabile. Tale affermazione è vera, ma non dimostrabile: dunque un esempio di incompletezza del sistema. La dimostrazione di Gödel consiste nel far vedere che questa frase si può rendere precisa trascrivendola in linguaggio matematico, attraverso un meccanismo che si chiama gödelizzazione. Questo è un modo di trascrivere frasi del linguaggio in formule aritmetiche, e dunque matematiche. Ed è così che questo ragionamento linguistico e filosofico diventa un ragionamento matematico. Però per poter fare la trascrizione c’è bisogno di avere almeno i numeri. Non lo si può fare nella sola logica, che è troppo debole. Ma questa debolezza risulta essere una forza, perché diventa la difesa contro l’incompletezza: è per questo motivo che Gödel ha potuto dimostrare nel 1930 il teorema di completezza per la logica Ma non appena c’è un minimo di matematica, allora si può riprodurre questo nuovo teorema di Gödel del 1931 ed ecco che la matematica risulta invece essere incompleta. Linea del tempo circa 335 a.C. Aristotele formalizza la logica del sillogismo 1847 Boole pubblica L’analisi matematica della logica 1910 Russell e Whitehead cercano di ridurre la matematica alla logica 1965 Lofti Zadeh sviluppa la logica fuzzy 1987 Il sistema di frenata di una metropolitana giapponese si basa sulla logica fuzzy La logica fuzzy (sfumata) è un ampliamento dei confini tradizionali della logica. La logica tradizionale si basa sugli insiemi, o collezioni di elementi; esiste allora l’insieme dei cani, l’insieme degli oggetti marroni, o l’insieme dei cocker e non c’è dubbio riguardo all’appartenenza o meno di un elemento a un certo insieme. La teoria degli insiemi fuzzy si occupa di insiemi definiti in modo vago. Se esistesse l’insieme dei cocker pesanti, quanto dovrebbe pesare un cocker per farne parte? Nel caso degli insiemi fuzzy esiste un valore di appartenenza e il confine che separa ciò che è incluso nell’insieme da ciò che ne è escluso è sfumato. La matematica, comunque, consente di precisare anche le sfumature. La logica, rispetto ai tempi di Aristotele, ha subito una notevole evoluzione e oggi è una branca della matematica estremamente dinamica sia dal punto di vista scientifico che applicativo. per arrivare ai giorni nostri…. EFFETTO FARFALLA Nella realtà non si possono conoscere esattamente tutte le posizioni, le velocità e le forze, ma il corollario dell’idea di Laplace è che, se conoscessimo i valori approssimati di queste grandezze in un certo istante, l’Universo non sarebbe poi molto diverso. Si tratta di un’assunzione ragionevole, perché è indubbio che, se un velocista partisse con un decimo di secondo di ritardo, taglierebbe il traguardo un decimo di secondo dopo. Il presupposto si cui si basava la teoria di Laplace era che a piccole differenze nelle condizioni iniziali dovessero corrispondere piccole variazioni nei risultati finali. La teoria del caos distrusse questa convinzione poichè il mondo è di gran lunga più complesso. Con l’espressione effetto farfalla si fa riferimento al concetto che una piccola variazione nelle condizioni iniziali possa tradursi in un risultato completamente diverso da quello atteso. Il battito d’ali di una farfalla in Sud America potrebbe scatenare un uragano in Europa, dove inizialmente era previsto bel tempo, perché l’infinitesima variazione di pressione prodotta dal movimento delle ali potrebbe generare uno schema meteorologico completamente diverso. L’effetto farfalla fu scoperto casualmente nel 1961 da Edward Lorenz, un meteorologo del MIT (Massachusetts Institute of Technology). Mentre il suo computer stampava dei grafici, Lorenz andò a prendere un caffé, ma al suo ritorno trovò un risultato inatteso: invece delle mappe meteorologiche che voleva ripetere aveva ottenuto dei grafici completamente diversi. La cosa lo stupì profondamente, perché aveva inserito gli stessi dati iniziali e quindi si aspettava di ottenere le stesse immagini. Ripensandoci, si rese conto che in realtà esisteva una differenza tra i valori iniziali inseriti nei due casi: la prima volta aveva usato 6 cifre decimali, la seconda ne aveva riportate solo 3. Per indicare l’effetto prodotto da questa piccola differenza coniò appunto l’espressione effetto farfalla. Linea del tempo 1812 1889 Laplace pubblica il Saggio in cui espone la sua visione deterministica del mondo Poincaré si imbatte nel caos durante lo studio del problema dei tre corpi per cui riceve un premio dal re di Svezia IDEA CHIAVE: 1961 Il meteorologo Lorenz osserva l’effetto farfalla 1971 Robert May studia il caos a proposito della dinamica di popolazione 2004 La teoria del caos diventa nota al grande pubblico grazie al film The butterfly effect UN’IMPREVEDILE REGOLARITÀ Secondo le teorie più recenti la caratteristica del caos è che il comportamento casuale sembra scaturire da un sistema deterministico, ossia il caos non è caotico, ma segue certe regolarità. Quindi niente è perduto! L’idea di proprietà emergenti in fisica “Il comportamento emergente di un sistema è dovuto alla non-linearità. Le proprietà di un sistema lineare sono infatti additive: l’effetto di un insieme di elementi è la somma degli effetti considerati separatamente, e nell’insieme non appaiono nuove proprietà che non siano già presenti nei singoli elementi. Ma se vi sono termini/elementi combinati, che dipendono gli uni dagli altri, allora il complesso è diverso dalla somma delle parti e compaiono effetti nuovi”. P.Bridgman, The Logic of Modern Physics, The MacMillan Company, New York 1927