L’epistemologia è quella branca della filosofia che si occupa dei metodi per raggiungere la conoscenza scientifica. Per Ferrier, studioso inglese dell’800, l’epistemologia è sinonimo di teoria della conoscenza scientifica. In Inghilterra è considerata come una disciplina che si occupa della natura e degli scopi della conoscenza. I quesiti nella tradizione anglosassone sono i seguenti: 1- la conoscenza è credenza vera e giustificata; 2- i filosofi si occupano delle regola da seguire per arrivare alla conoscenza; 3- gli psicologi stabiliscono il modo in cui le persone si comportano per arrivare a delle conoscenze. In Italia e in Francia invece è vista come teoria della scienza che si occupa della natura, dei fondamenti e della validità del sapere scientifico e ne analizza metodi e strutture. Che cos’è la conoscenza? Come ci arriviamo? L’epistemologia tradizionale risponde a queste domande senza l’aiuto della scienza. È quindi una disciplina normativa con base fondazionalistica che fornisce alla scienza una base sicura di credenze indubitabili sulle quali costruire l’intera conoscenza scientifica facendo ricordo alla filosofia in quanto filosofia. Coloro che invece associano l’epistemologia alla filosofia della scienza intendono proprio la filosofia della scienza una disciplina autonoma rispetto alla gnoseologia e alla teoria della conoscenza, con un suo preciso compito: ricostruire in modo razionale i metodi impiegati dalla scienza, descrivere le scienze dal punto di vista metodologico e critico. Questa autonomia dell’epistemologia rispetto alla gnoseologia o teoria della conoscenza è stata rivendicata a partire dal 19° secolo. È con il Circolo di Vienna nel 1929 che la filosofia della scienza acquisisce una sua autonomia. Si tende a vedere nell’epistemologia non lo studio della conoscenza in generale, ma della scienza. La differenza che in passato era netta tra filosofia e scienza si allenta. I filosofi prendono in considerazione i risultati scientifici e gli scienziati i risultati filosofici, poiché da sole le discipline sono considerate incomplete. L’epistemologia nel neopositivismo si libera di quei connotati che appartengono alla vecchia epistemologia. Si distingue nettamente la scienza dalla metafisica, poichè quest’ultima esamina le cose al di là della materia. Ci si pone su di un piano di analisi alternativo a quello vecchio. L’epistemologia odierna vuole descrivere i fondamenti sicuri della conoscenza, diversamente dalla gnoseologia o teoria della conoscenza. Intesa proprio come filosofia della scienza. Il modo in cui noi conosciamo è diverso dal modo in cui dovremmo conoscere. Ognuno ha il suo modo personale di interpretare un testo sacro, per esempio, ma per la conoscenza fisica e razionale non bastano questi modi di conoscere perché non sono universalmente condivisi. Le basi sicure devono essere o dati razionali o fonti empiriche, questo è l’approccio antifondazionalista, trovando delle basi certe per la conoscenza. Ad aver influito sulla nascita della filosofia della scienza sono state le rivoluzioni concettuali tra 800 e 900 e la nascita della logica matematica. In questo clima vi era l’esigenza di rifondare la filosofia per renderla scientifica. In questo clima di interesse verso la scienza e l’esigenza di rendere scientifica la filosofia, dal 1907 cominciano a riunirsi un gruppo di amici che avevano in comune lo stesso modo di vedere la filosofia e la scienza. L’unico problema era quello di evitare le ambiguità della filosofia e su come realizzare questo accostamento tra filosofia e scienza. Questo gruppo di amici era interessato a dare una nuova immagine di scienza che stava nascendo. 1 Questa è la stessa esigenza espressa da Brentano, che ottenne la cattedra di filosofia a Vienna. Egli voleva rendere scientifica la filosofia e dal 1907 riunì un gruppo di amici uniti dallo stesso modo di vedere la filosofia e la scienza, non solo scienze naturali ma anche sociali e umanistiche. Nel Circolo di Vienna emerge l’esigenza di discutere di problemi scientifici anche con chi fosse maggiormente fornito di competenza filosofica. Il progetto verrà realizzato dopo la guerra con Shlick che nel 1929 fonderà il Circolo di Vienna. La 1° guerra mondiale incise profondamente sullo sviluppo della filosofia scientifica. Gli studiosi del Circolo di Vienna, ma nella sua configurazione matura, anche se condividevano il programma di Brentano, lo trasformarono, a favore di una concezione della filosofia intesa come metascienza, cioè trasformata in filosofia della scienza. È proprio ora che avviene il passaggio dalla conoscenza tradizionale alla filosofia della scienza. Decisivo fu l’insegnamento di Wittgenstein. Grazie a lui, la filosofia non viene intesa come una scienza, ma come un’attività che ha lo scopo di chiarire il senso degli enunciati. Non esiste perciò una filosofia come scienza e il filosofo non è detentore di un particolare tipo conoscenza. La logica è lo strumento che la filosofia utilizza. Per Shlick la filosofia non è conoscenza e quindi è assurdo pensare di scientifizzarla. La filosofia scientifica è ormai ritenuta impossibile. Non resta che praticare, al suo posto, una più modesta filosofia della scienza. La filosofia della scienza da della scienza l’oggetto della filosofia. Le trasformazioni della scienza tra 800 e 900 Nel corso dell’ottocento la teoria era quella di Laplace, fisico francese, il quale coltivò sempre l’idea di scienza come conoscenza per eccellenza. Laplace ha una concezione e visione della realtà molto particolare: di unitarietà, semplicità dell’universo, meccanicismo, determinismo. Quindi, di unitarietà del sistema dell’universo, governato sempre dalle stesse leggi, semplicità dell’universo composto da parti strettamente interconnesse, di natura meccanica con i corpi che entrano in contatto l’uno con l’altro, e deterministica che siamo in grado di prevedere tutto ciò che accadrà. Laplace afferma che la nostra conoscenza della natura ha caratteristiche probabilistiche. Abbiamo conoscenze imprecise che possono distribuirsi in ambito probabilistico. Di fatto, la nostra conoscenza è incerta e approssimativa, essa è di natura probabilistica. L’uomo non può avere una conoscenza esatta come Dio. Laplace espone una visione del mondo come semplice, determinata, dall’altra c’è una inevitabile ignoranza umana colmata dal calcolo probabilistico. Quindi, siamo in grado di placare la nostra ignoranza applicando il calcolo delle probabilità. Determinismo e probabilismo non si escludono, ma si completano a vicenda. La probabilità viene intesa come rimedio per la nostra ignoranza e per la nostra limitatezza. Quindi, l’impossibilità a conoscere con esattezza lo stato di un sistema fisico non ci conduce all’ignoranza, ma il calcolo delle probabilità ci porta ad una conoscenza approssimativa. Ma l’ideale della perfetta conoscenza non è per nulla realistico: l’uomo, lo scienziato, non potrà mai ottenere questa infinita precisione delle misure. Pur essendo fiducioso nella illimitata possibilità di estendere la nostra conoscenza, in modo da avvicinare progressivamente il mondo fisico – descritto dalle nostre teorie – al mondo obiettivo, ovvero la realtà fatta di atomi e forze, tuttavia Laplace sapeva che l’avvicinarsi al vero è un processo infinito e l’uomo resterà sempre lontano dalla conoscenza completa, pur allontanandosi sempre più dall’ignoranza. Questo scarto tra la nostra conoscenza e la verità, giustifica l’introduzione del calcolo delle probabilità. 2 Esempio: Alla roulette non siamo in grado di calcolare dove la pallina andrà a finire, in quanto per fare ciò dovremmo conoscere con infinita precisione tutte le particolarità del tavolo, la sua inclinazione, la forza esatta con cui la pallina è stata gettata e così via. Conoscendo tutto ciò saremmo in grado di calcolare la posizione finale della pallina. Ma non siamo in grado di avere una tale conoscenza. Ecco allora che viene in soccorso della nostra ignoranza il calcolo delle probabilità, permettendoci di prevedere che, ad es. il rosso ha una certa probabilità di uscire, che sulla base delle precedenti uscite dobbiamo aspettarci certi risultati, e così via. In breve esso ci mette in grado di effettuare delle scelte razionali in situazioni di incertezza, che permettono di porre, per così dire, una pezza alla nostra ignoranza. La probabilità viene dunque intesa come rimedio per la nostra ignoranza. Il calore e la termodinamica Nel campo dei fenomeni termici era stato già proposto l’esempio di un modo non laplaciano di intendere la scienza. Fourier aveva infatti dimostrato come fosse possibile edificare una scienza dei fenomeni termici prescindendo da una visione meccanicistica. La teoria del calore di Fourier metteva in crisi la fisica laplaciana in quanto, spezzandone l’unità, si veniva a porre come capitolo indipendente dal resto della fisica e dalla meccanica . In tal modo la termodinamica si costituiva come scienza autonoma, indipendente dalla meccanica. I fenomeni termici e la freccia del tempo Costituisce una evidenza empirica il fatto che il calore si trasmette secondo una direzione: esso va sempre dal corpo più caldo a quello più freddo. Questo comportamento metteva in luce che certi fenomeni naturali seguono spontaneamente una direzione, diversamente dai fenomeni descritti dalla meccanica, che invece possono svolgersi in un senso o in un altro. Al mondo senza tempo della meccanica sembra contrapporsi un mondo che segue la cosiddetta freccia del tempo. Il calore si trasmette da una direzione all’altra, dal corpo più caldo a quello più freddo. Una goccia d’inchiostro che si espande nell’acqua è un processo irreversibile, non succede mai il contrario. Per natura tutti i fenomeni accadono in maniera irreversibile, come una pianta che cresce o un essere umano che invecchia. L’irreversibilità è il modo in cui si comporta la natura e in cui avvengono i cambiamenti. In natura vi è l’irreversibilità, in meccanica c’è la reversibilità, ovvero quei fenomeni che sono indifferenti al tempo e possono svolgersi in un senso o nell’altro. Il secondo principio della termodinamica e l’entropia Perché i fenomeni in natura sono irreversibili? Perché c’è il concetto di entropia, per cui ogni sistema fisico tende ad evolvere verso un livello di entropia sempre più alto creando disordine. Se noi abbiamo un ambiente freddo e un ambiente caldo abbiamo un ambiente disordinato. Man mano che il sistema evolve diventa sempre più disordinato, per esempio se abbiamo tante carte messe in ordine e le mescoliamo creiamo disordine, e più le mescoliamo più il disordine cresce. Diminuendo il numero delle carte la probabilità di riordinarle cresce (per esempio con 10 carte) è probabile che ciò succeda. Più il sistema è complesso, più c’è disordine, più molecole ci sono, più probabilità ci sono che vi sia un ambiente disordinato. Questa nuova scoperta stava ad indicare il fatto che, in un sistema chiuso, i corpi prima o poi finiscono per assumere la medesima temperatura, qualunque sia la loro differenza iniziale. 3 È questo un processo irreversibile, che contrasta con la meccanica, che viene descritta sempre come reversibile. L’entropia giunge al suo massimo quando tutte le parti hanno la stessa temperatura. La morte termica dell’universo e le sue implicazioni filosofiche Da questa prospettiva le conseguenze sono quelle in cui si arriverà alla morte termica, perché prima o poi si arriverà ad un momento in cui nell’universo ci sarà la stessa temperatura, ci sarà un equilibrio termico. In questo modo la vita delle piante, degli animali e degli uomini cesserebbe e l’universo non sarà più popolato. Questa prospettiva contrasta con la tesi sostenuta dai meccanicisti e dai materialisti, secondo cui ogni cosa fosse infinita ed eterna. La loro tesi si basava sull’idea della conservazione dell’energia formulata dal primo principio della termodinamica che afferma che in nessun caso l’energia viene creata o distrutta, ma viene continuamente scambiata fra i vari sistemi fisici sotto forma di calore o lavoro. Invece, se tutti i corpi raggiungono la stessa temperatura, se non c’è più un equilibrio termico non c’è più vita, l’universo morirebbe, se il sole è più caldo della terra ciò permette la vita, al contrario non ci sarebbe più vita. Non tutti accettano questa tesi secondo cui l’universo è un sistema non eterno e finito. C’è infatti una discrepanza tra il primo e il secondo principio della termodinamica. Il primo principio della termodinamica sostiene la conservazione dell’energia e la persistente capacità di lavoro; il secondo principio della termodinamica afferma il degrado dell’energia e il raggiungimento dell’equilibrio termico. Il primo è in linea con la visione meccanicistica della natura, il secondo introduce il concetto di freccia del tempo e di irreversibilità, in contrasto con la dinamica classica. La teoria cinetica permette di superare il contrasto tra primo e secondo principio della termodinamica La teoria cinetica permette di superare il contrasto tra primo e secondo principio. L’energia, secondo il primo principio, si conserva, ma per il secondo si disperde, perché tale energia non è più utilizzabile per l’uomo, non si annulla, non scompare, ma non è utilizzabile, cioè non è in grado di produrre lavoro, il quale può essere ottenuto solo se si hanno sistemi fisici a diversa temperatura. La spiegazione dell’entropia su base statistica: il diavoletto di Maxell Maxwell è in grado di fornire un’interpretazione della termodinamica che permette di superare il contrasto tra 1° e 2° principio, cioè l’energia non si annulla ma si distribuisce in modo da risultare inutilizzabile, cioè non più in grado di produrre lavoro. Egli sostiene che la irreversibilità riguarda il fenomeno nel suo complesso, ma che, da un punto di vista molecolare sarebbe possibile una reversibilità della conduzione del calore. Infatti la seconda legge della termodinamica è il risultato a livello macroscopico di un comportamento statistico delle molecole che ubbidiscono alle normali leggi della meccanica. Esempio del diavoletto: in un sistema chiuso, come un recipiente in cui temperatura e pressione sono uguali, e non cambia di volume, non è possibile nessun lavoro, e per il secondo principio della termodinamica, non può essere che parte del calore si trasferisca spontaneamente in una unità del recipiente, lasciando l’altra metà più fredda. Maxwell dice che ovviamente in un recipiente pieno d’aria a temperatura uniforme le molecole non si muovono per niente a velocità uniforme. Supponiamo allora che questo recipiente sia diviso in due parti, a e b, mediante un divisorio, e poi si fa un piccolo foro, in modo da far passare solo le molecole più veloci da a e b, e le più lente da b ad a. in questo 4 modo aumenterà la temperatura di b e diminuirà quella di a, in contrasto con la seconda legge della termodinamica. Questo esempio ci dice che la seconda legge della termodinamica è il risultato di un comportamento statistico medio delle molecole che compongono il gas, e che ubbidiscono alle leggi della meccanica. La seconda legge ha solo una certezza statistica come dimostra l’esempio. Boltzmann: l’entropia come evoluzione verso il disordine La strada intrapresa da Maxwell fu in seguito perfezionata da Ludwig Boltzmann, fondatore con Gibbs della meccanica statistica. Egli interpretò l’entropia come lo stato macroscopico più probabile verso il quale evolve il sistema. Stabilì poi una stretta connessione tra probabilità ed ordine, nel senso che la condizione di maggiore probabilità era identificata con la condizione di maggior disordine del sistema, così l’aumento dell’entropia poteva essere considerato l’evoluzione dall’ordine al disordine. Per illustrare tali caratteristiche dell’entropia si riporta il seguente esempio: si consideri un thermos contenente del gas e sia questo gas separato all’interno per mezzo di una parete che lo divida in due porzioni, una più calda e l’altra più fredda. Questo gas ha una determinata misura di “ordine”, in quanto una molecola più veloce si troverà più probabilmente nel lato caldo piuttosto che nel lato freddo e viceversa. Eliminiamo ora la parete interna: dopo un certo periodo il sistema evolverà verso una situazione di equilibrio, ora il sistema è più disordinato, in quanto le molecole di gas, qualunque sia la loro velocità, si sono uniformemente mescolate in modo casuale in tutto il recipiente. Diventa ancora più evidente in tal modo la natura non assoluta, ma semplicemente probabilistica, della seconda legge della termodinamica: nulla può escludere che il processo che porta al “mescolamento” delle molecole calde e fredde non possa essere invertito nonostante la probabilità che ciò possa accadere sia bassissima. Fisica cartesiana del continuo contro fisica newtoniana del discontinuo La distinzione tra continuità e discontinuità risale ai tempi di Cartesio e Newton e della loro contrapposizione. Per Cartesio l’universo non può ammettere vuoti, ma deve essere colmato da materia, anche se i corpi sembrano separati da una distanza priva di materia, come fra la terra e il sole è necessario ammettere l’esistenza di un mezzo continuo, un fluido etereo nel quale nuotano i corpi celesti. Questo fluido etereo spiega la reciproca azione tra i corpi celesti, inammissibile con l’idea del vuoto. Nell’approccio meccanicistico come quello di Cartesio, la reciproca interazione è possibile solo attraverso il contatto tra materia, appunto grazie a questo fluido etereo. Per Newton, invece, l’azione a distanza tra i corpi celesti, avviene senza il contatto diretto, senza contatto meccanico tra materia , ma a distanza, come avviene nei fenomeni gravitazionali, tramite attrazione a distanza tra particelle. Nel corso del ‘700 si è potuto dimostrare che Newton aveva più attendibilità rispetto a Cartesio, visto i numerosi dati sperimentali che lo confermavano. La legge di Coulomb formula che i corpi sono elettricamente carichi di dipendenza tra loro, come per la legge gravitazionale universale provata da Newton. Molti scienziati, tuttavia, rimasero perplessi da queste scoperte, specialmente quelli di orientamento meccanicista, poiché sembrava si volesse trovare una spiegazione dei fenomeni naturali facendo ricorso a spiegazioni legate all’immaginario medievale, come l’occulto, le virtù attrattive, ecc. Per questo Newton era stato molto criticato dai suoi contemporanei. L’idea di “campo” e le linee di forza 5 Faraday per spiegare i fenomeni di induzione elettromagnetica faceva uso di linee di forza e di azioni per contatto, che potevano essere ammesse solo se si ipotizzava un continuo materiale, contraddicendo la teoria di Newton. Per Faraday la materia era ovunque, era nell’intero spazio e permetteva di spiegare i fenomeni elettrici, magnetici, chimici e gravitazionali. Sarà poi Maxwell a dare un rigore scientifico a queste idee. Egli sviluppa una teoria matematica dei fenomeni elettromagnetici, una teoria dinamica e di impronta meccanicistica, poiché ritiene che in quello spazio vi sia materia in movimento dalla quale vengono prodotti i fenomeni elettromagnetici osservati. Maxwell non abbandonò mai la sua fede nel meccanicismo, ovvero di far ricorso ai modelli meccanici nella spiegazione dei fenomeni. Quindi, l’azione istantanea a distanza viene definitivamente respinta a favore dell’azione per contiguità anche nei fenomeni gravitazionali. L’etere quale punto di unificazione tra meccanica ed elettromagnetismo Questo etere cosmico svolge la funzione di unificare due settori della scienza fisica, che altrimenti sono inconciliabili, e sono: la teoria meccanica e il concetto di campo. L’etere è quindi il mezzo elastico, fatto di particelle in moto e di forze agenti su di esse, le cui vibrazioni assicurano la trasmissione del moto ondulatorio della luce, del magnetismo e della elettricità. L’esistenza dell’etere era accettata da tutti i fisici del tempo, come una delle sostanze che componeva l’universo. La teoria della relatività Einstein elaborò la teoria della relatività, la teoria scientifica più importante insieme a quella copernicana. Egli parte dalla riflessione sul principio di relatività galileiana, valido nella meccanica classica. Questo principio è anche noto come principio di relatività meccanica. Il principio di relatività formulato da Galileo era stato formulato per sostenere la mobilità della terra. Una delle obiezioni effettuate dai tolemaici (popolo di re Tolomeo) consisteva nell’osservare che qualora la terra fosse in moto, un peso lasciato cadere, per esempio da una torre dall’alto, doveva giungere al suolo, ma non alla sua base, perché nel frattempo c’è stato un movimento, uno spostamento effettuato dalla terra, quindi, dovrebbe cadere in corrispondenza dello spazio effettuato dalla terra in quel frangente. Galileo aveva concepito un esperimento ideale: l’esempio della nave. Immaginiamo di essere rinchiusi dentro la stiva di una nave, sul pavimento c’è un vaso con una piccola apertura in alto e sopra questo vaso c’è un secchio dal quale cadono delle gocce d’acqua dentro questo vaso. Se la nave è ferma tutte le gocce che cadono verticalmente si versano dentro il vaso posto a terra. Se facciamo muovere la nave a qualsiasi velocità, ma con moto uniforme e non fluttuante qua e là, allora non c’è nessun cambiamento, non c’è nessuna differenza nel comportamento delle gocce, poiché queste cadranno sempre nel vaso, come se la nave fosse ferma. E’ uguale per qualsiasi altro fenomeno fisico, a patto che il moto sia rettilineo e uniforme, senza oscillazioni e fluttuazioni. Lo stesso vale per quanto riguarda l’aereo o il treno, che si muovono sempre alla stessa velocità, senza effettuare però deviazioni o vibrazioni. Ogni evento fisico che accada in esso, avverrà nello stesso modo che se avvenisse in un sistema fermo. Ovviamente le differenze sono avvertite se l’aereo vira o il treno è in curva, in questo caso subiremo una forza che ci spinge nella direzione contraria alla direzione che il mezzo sta assumendo. Applicando il principio di relatività alla teoria di Copernico, Galileo sostiene che non è possibile con esperienze di tipo meccanico affermare che la terra è ferma, quindi l’argomento della torre cade. 6 I sistemi inerziali Chi sta all’interno della stiva della nave di Galileo o in qualsiasi sistema fisico in quiete o in moto rettilineo e uniforme, non può capire in nessun modo se questo sia in moto o in quiete, a meno che non abbia la possibilità di misurarne la velocità facendo riferimento ad un sistema di riferimento che permette di misurare la velocità del sistema in cui si trova l’osservatore. Nel caso della nave, del treno, dell’aereo, questo sistema di riferimento è la terra. Quando il sistema di riferimento in cui si trova l’osservatore si muove di moto rettilineo uniforme o sta in quiete si dice che è un sistema inerziale. La terra non è un sistema inerziale, perché compie un movimento rotatorio intorno al sole e ruota sul proprio asse, perciò dovrebbe in teoria comportarsi come un treno in curva. Ovviamente l’influenza del moto è talmente piccola da non essere avvertita. Newton assunse come sistema di riferimento per eccellenza lo spazio assoluto, considerato il contenitore immobile di tutti i corpi, cioè quel sistema inerziale di riferimento privilegiato nel quale valgono tutte le leggi della meccanica e al quale devono essere riferite tutte le nostre misure. Equivalenza dei sistemi inerziali per le leggi della meccanica e trasformazioni galileiane I fenomeni meccanici avvengono in modo identico sia in un sistema in moto rettilineo uniforme, sia in un sistema in quiete rispetto allo spazio assoluto. Tra i sistemi in moto rettilineo uniforme, cioè inerziali, non ci sono sistemi di riferimento privilegiati. La conseguenza è che due osservatori, uno in quiete e l’altro in moto rettilineo uniforme, vedono un qualsiasi fenomeno meccanico dei corpi nello stesso identico modo. Le trasformazioni galileiana, invece, ci dicono che un osservatore immobile e uno in movimento, vedono i fenomeni in modo diverso. Esempio del treno e applicazione delle trasformazioni galileiana: consideriamo un treno che si muove in moto rettilineo uniforme alla velocità di 10km/h rispetto al sistema di riferimento costituito dal marciapiede della stazione. Sul treno il passeggero cammina nella stessa direzione del treno alla velocità di 5 km/h. l’osservatore che sta sul marciapiede della stazione vedrà il passeggero sul treno muoversi alla velocità di 15 km/h, che è la somma della velocità del treno + quella del passeggero (legge della somma delle velocità). Le trasformazioni galileiana ci permettono di conoscere la posizione del passeggero rispetto al sistema di riferimento, in questo caso il marciapiede. L’esempio del treno e la contraddizione tra teoria elettromagnetica e meccanica: in base alla teoria della relatività galileiana, se dal centro di un treno in moto rettilineo uniforme che viaggia a 150 km/h, si fa partire un raggio di luce, questo possiede per il viaggiatore che sta sul treno la stessa velocità della luce, qualunque direzione esso prenda, in aventi o indietro. Invece, per la persona che osserva dal marciapiede, il raggio di luce che va nella stessa direzione del treno dovrebbe possedere la velocità della luce + quella del treno, quello che invece va nella direzione opposta del treno, dovrebbe avere la velocità della luce meno quella del treno. Ma questo viene negato dalla teoria elettromagnetica, per la quale il raggio di luce ha la stessa velocità sia per il passeggero sia per l’osservatore sul marciapiede della stazione: è come se la luce dentro il treno si muovesse ignorando l’esistenza del treno e del suo moto e percorresse comunque 300.000 km/h al secondo rispetto a qualsiasi sistema di riferimento inerziale. La luce gode di proprietà particolari, ovviamente, l’elettromagnetismo ci dice in questo caso, che la meccanica non si applica, ci dice che le cose non vanno così, l’elettromagnetismo smentisce la meccanica, nel senso che la luce gode di proprietà particolari, la luce si sottrae alla quantificazione perché non è un corpo come gli altri. 7 Due scienziati, Michelson e Marley, fecero degli esperimenti e si accorsero che l’etere non esisteva e le proprietà della luce dipendevano dalla luce stessa. Non c’era nulla che portava la luce da un posto all’altro, la luce è una particolare onda elettromagnetica. A questo punto con Einstein l’etere non viene più considerato come una forza contrapposta alla luce, ma era una cosa che avevano aggiunto in tutte le esperienze. Einstein formula la prima parte che si riferisce alla teoria della relatività ristretta o speciale. Egli abbandona il sistema di riferimento privilegiato o assoluto dell’etere, accetta la validità generale del principio di relatività galileiana che si applica ai fenomeni meccanici ed elettromagnetici: non è possibile fare nessuna distinzione tra due sistemi in moto rettilineo uniforme e in quiete. Rigetta il vecchio sistema di misurare le cose in base alla somma delle velocità. Il secondo postulato della teoria della relatività Einstein dice che la velocità della luce è sempre la stessa, uguale in tutti i sistemi di riferimento inerziali, sia in quiete o in moto. Quindi, quello che diceva la meccanica classica, cioè sulla legge della somma delle velocità, non può più essere accettata. Si impone la necessità di riformulare le trasformazioni galileiana. La legge valida nell’ambito della meccanica classica non è più valida nell’ambito della teoria della relatività speciale di Einstein. Questa nuova teoria porta anche a cambiare il concetto di tempo, cioè il tempo non è più concepito come qualcosa di uniforme, cioè non scorre in maniera costante, ma dipende dal sistema di riferimento e in particolar modo dipende dalla velocità rispetto alla luce del sistema di riferimento, significa che quanto più un sistema di riferimento si muove ad una velocità vicino alla luce, tanto più il tempo tende a rallentare, è come se scorresse più lentamente. Tanto è vero che si ha il cosiddetto paradosso dei gemelli: ci sono due gemelli ipotetici, uno parte per un viaggio spaziale con un’astronave che viaggia alla velocità vicino a quella della luce, l’altro gemello rimane sulla terra. Quando il fratello ritorna, troverà il suo gemello sulla terra molto più vecchio di lui. Questo significa che il tempo per lui è trascorso meno velocemente, mentre per il fratello che è rimasto sulla terra è passato più velocemente. Questo significa che il tempo non è più una costante ma una variabile, mentre è invece una costante la velocità della luce. Quindi, oltre allo spazio, ora nemmeno il tempo è assoluto, non scorre uniformemente. Ecco perchè si parla di un continuo quadridimensionale, cioè lo spazio-tempo è qualcosa di unitario, cioè non possiamo dividere, come si faceva nella meccanica classica, lo spazio dal tempo, come se fossero due cose diverse, il tempo non scorre in maniera autonoma rispetto allo spazio, essi sono dipendenti l’uno dall’altro. Spazio e tempo non sono assoluti, non si possono dividere, non scorrono in maniera autonoma ma hanno una dipendenza reciproca. Questo comporta che non sono più valide le trasformazioni di Galileo, che si basavano sull’ipotesi che il tempo fosse indifferente rispetto al movimento. D’ora in poi dobbiamo prendere in considerazione le trasformazioni di Lorenz che sostituiscono quelle di Galileo e che permettono di passare da un sistema di riferimento a un altro sistema di riferimento caratterizzato non soltanto dalla dimensione temporale ma anche da quella spaziale. L’esempio è quello della persona che sta sul treno, se il treno cammina a 10 km/h, dopo un secondo so troverà spostato rispetto al marciapiedi di 10 metri, dopo un’ora di 10 km, se viaggia a 100 km/h dopo un’ora si troverà spostato rispetto al sistema di riferimento della stazione di partenza di 100 km. Nelle trasformazioni di Galilei il tempo è uguale, invece nelle trasformazioni di Lorenz la cosa cambia, perché l’equazione tiene conto della velocità della luce. Quello che c’è di nuovo rispetto a quelle galileiana è la presenza della velocità della luce. 8 Teoricamente, se noi viaggiassimo alla velocità della luce saremmo immortali, perché il tempo si annullerebbe. Ma viaggia alla velocità della luce è difficile perché un’altra legge di Einstein che provò all’interno della teoria della relatività ci impedisce questo. Egli mette in relazione l’energia con la massa, la massa era la quantità di materia che c’era in un corpo, che noi misuriamo attraverso il peso e l’energia è la forza che noi imprimiamo ad un corpo. Einstein comprese che energia e massa non sono due cose diverse, sono due modi di manifestarsi della stessa realtà. La massa non sarebbe altro che energia concentrata, come una sorte di raggrumarsi di energia, e l’energia non è altro che massa dispersa, diluita nello spazio. La massa non la possiamo misurare, si misura con il peso per la velocità della luce che sappiamo che è costante. Anche una piccolissima massa possiede una grande energia. Significa che l’energia ha una massa piccolissima, ci vuole tantissima energia per dar luogo ad una piccola massa. La massa tende ad aumentare, man mano che la velocità aumenta, perché questa acquisisce energia e quindi aumenta. Man mano che la massa si avvicina alla velocità della luce, diventa sempre più grande, fino a diventare una massa che si avvicina quasi all’infinito. Per cui, man mano che noi ci avviciniamo alla velocità della luce, per alimentare ulteriormente questa velocità, sarebbe necessaria un’energia sempre più grande, cioè un’energia infinita, per poter consentire alla massa di arrivare alla velocità della luce. Ma noi l’energia infinita non ce l’abbiamo, ecco perché non possiamo mai arrivare alla velocità della luce, perché è un limite irraggiungibile, infatti, per essere possibile un’ulteriore accelerazione è necessaria maggiore energia, energia che noi non possediamo, poiché l’energia di cui disponiamo è molto limitata, e deriva dai sistemi di propulsione a idrogeno ed elio che vengono utilizzati per il lancio degli shuttle o per i sistemi satellitari. Questi sistemi di propulsione che noi conosciamo possono sviluppare una certa energia, e possono aumentare la velocità di una massa fino a un certo punto, non di più. Noi non abbiamo energia per poter suscitare ulteriormente questa velocità. Ecco perché l’illusione di poter diventare immortali, raggiungendo la velocità della luce è solo un’illusione, perché questa è irraggiungibile, infatti questa viene raggiunta per esempio dai fotoni, perché la loro massa è talmente piccola che permette un’accelerazione fino ad arrivare alla velocità della luce. Perciò, per poter raggiungere la velocità della luce non bisogna avere massa o masse minime. (questa è la relatività speciale). Oltre alla relatività speciale Einstein elaborò la relatività generale. Qual è la differenza tra relatività generale e speciale? La relatività speciale, abbiamo visto, vale all’interno dei sistemi inerziali, cioè sistemi che non sono accelerati, che non sono soggetti a forza. Ma cosa succede invece quando noi abbiamo a che vedere con sistemi sottoposti a forza? Ad esempio con sistemi che sono sottoposti ad un campo gravitazionale o che sono sottoposti ad accelerazione? Einstein per rispondere a questa domanda elaborò la teoria della relatività generale. La teoria della relatività generale consiste nel sostenere non più che le leggi della dinamica sono uguali per ogni sistema di riferimento, ma che le leggi della fisica sono tali e devono essere tali da potersi applicare ai sistemi di riferimento comunque in moto, non è importante quale sia questo moto. Il cuore della relatività speciale è il cosiddetto principio di equivalenza. Esempio: immaginiamo un ascensore, quando siamo fermi e premiamo un pulsante l’ascensore comincia a salire e per pochi secondi ci sentiamo più pesanti. Nel momento in cui l’ascensore accelera ci sentiamo tirare all’indietro, come quando una macchina accelera. Dopo che finisce di accelerare il nostro peso ritorna come prima. Se improvvisamente si rompessero le corde dell’ascensore e questo cominciasse a precipitare, ci troveremmo improvvisamente senza peso. Se precipitasse all’infinito volteggeremmo all’interno della cabina. Non siamo attratti in questo caso da un campo gravitazionale. Cosa ci dice questo? Che se noi siamo all’interno dell’ascensore non riusciamo a capire se noi sentiamo il nostro peso perché c’è un campo gravitazionale o perché c’è un’accelerazione dell’ascensore. Fino a quando noi siamo all’interno di un sistema non 9 riusciamo a capire se questo sistema è in accelerazione o è semplicemente fermo, perché noi lo avvertiamo sempre allo stesso modo, sentiamo che pesiamo e basta. La curvatura dello spazio-tempo Einstein propose un’interpretazione geometrica della gravitazione, per la quale lo spazio non è piatto, bensì curvo. È come se lo spazio fosse distorto dalla presenza di masse, cioè lo spazio non è più qualcosa di amorfo, di vuoto, ma è qualcosa che è sensibile alla massa. Lo spazio si piega e fa si che i corpi che si spostano nello spazio seguano queste ripiegature. Come se fosse un materasso, se ci mettiamo sopra una palla si viene a creare un avvallamento, cioè lo spazio si curva. Se noi lanciamo una pallina verso quella palla, ma non esattamente a ridosso della palla, cosa succede? Se la pallina ha una velocità sufficiente ma non troppo, allora questa comincia ad accelerare intorno alla palla, fino a quando pian piano non cade e finisce per fermarsi sulla prima palla. Ora pensiamo che la palla sia un pianeta e i tempi non siano uguali ma dilatati. I pianeti sono come palline che girano intorno alle stelle perché c’è lo spazio curvo, cioè loro vengono imprigionate da questo spazio curvo. Il fatto che lo spazio sia curvo, porta come conseguenza il fatto che la distanza tra due punti non è più una linea retta ma una linea curva, cioè la luce segue la curvatura dello spazio. E questo è stato dimostrato dal fatto che durante l’eclissi di sole, quando questo p oscurato dalla interposizione della luna, noi possiamo osservare delle stelle che stanno dall’altra parte. Noi siamo in grado di vedere le stelle perché la loro luce non ha una traiettoria dritta, ma curva, e quindi per questo siamo in grado di vederle. Nello spazio euclideo vale il postulato delle parallele, cioè che la distanza tra due punti sia una retta. Invece, nello spazio di Einstein, non vale più il postulato delle parallele e la distanza tra due punti non è una retta, vale una geometria diversa, non euclidea ma iperbolica. Per cui, se disegnassimo un triangolo nello spazio, tra plutone, la terra e il sole, ci accorgeremmo che il triangolo non è di 180° perché lo spazio è curvo. La geometria euclidea non è più valida. La relatività di Einstein non significa relativismo, ma relativismo filosofico e relatività fisica sono due cose diverse. Però è indubbio che la teoria di Einstein ha un profondo impatto filosofico, perché cambia il nostro modo di vedere lo spazio e il tempo, che non sono lo spazio e il tempo universali di cui parava Kant e Euclide. Possiamo parlare di cose misurabili ed osservabili da questo momento. La rivoluzione quantistica La meccanica quantistica è una teoria della fisica moderna, detta anche teoria dei quanti, perché basata sul concetto di “quanto”. Diversamente dalla relatività, che riguarda principalmente i fenomeni che avvengono su scala superiore a quella della nostra vita quotidiana, come la velocità e le distanze galattiche, la teoria dei quanti ha a che vedere con oggetti piccoli come gli atomi e le particelle che li compongono. Si passa quindi dal macro al micro o anche microfisica. 10 Max Planck ipotizzò che l’energia venga emessa o assorbita dalla materia sottoforma di piccole unità indivisibili, chiamati appunto quanti. Le radiazioni sono trasmesse o assorbite da parte di un corpo non in maniera continua, ma per quantità discrete, multiple di quantità minima, detta quanto di Planck, al di sotto della quale non è possibile scendere. L’energia di Planck è un’energia estremamente piccola, la minima che si possa trovare, di essa si possono avere solo multipli interi (2e, 3e, 4e ecc) mai per esempio 1/2e, non cioè 3 volte e ½ e si trasmette per quanti discreti (10, 20, 30). Planck non era soddisfatto di questa formula, si mostrò scettico nei confronti della propria scoperta e cadde nel vuoto. Fino a quando Einstein non li ripropose per spiegare alcuni nuovi fenomeni. Einstein, 5 anni dopo la scoperta di Planck utilizza il quanto per spiegare l’effetto fotoelettrico, un fenomeno che non era compreso nella fisica classica. Einstein ribalta la concezione della luce che si era affermata con Maxwell (intesa come fenomeno ondulatorio) e facendo ricorso alla quantizzazione, ipotizza che la radiazione, e quindi anche la luce, fosse quantizzata non solo quando interagisce con la materia , come proposto da Planck ma anche quando viaggia nel vuoto. E’ evidente che la materia può assorbire o cedere energia solo in quantità discrete. Unificazione di due teorie: in certi casi la luce si comportava in maniera ondulatoria e in altri in modo corpuscolare. La luce p composta da fotoni, ma non seguono una linea retta ma ondulatoria. Questi fotoni sono determinati in base alla costante di Planck. Per dare una prova dell’utilità dell’ipotesi di Planck, spiega perché in certi casi si comporta come corpuscolare e altre in maniera ondulatoria. Se l’energia è più elevata prevale quella ondulatoria, se più bassa prevale quella corpuscolare. Einstein fa una sorta di unificazione tra teoria corpuscolare e ondulatoria. Cioè la luce è composta da particelle che sono i fotoni, però queste particelle si spostano in maniera ondulatoria, non seguono cioè una linea retta, ma una linea ondulatoria, come l’acqua che segue le onde del mare. Questo dipende dalla quantità di energia coinvolta. Questi fotoni sono determinati in base alla costante di Planck. La costante di Planck serve ad Einstein per dare prova dell’utilità di questa ipotesi. Il fatto che la luce, i fotoni, seguissero la regola della quantizzazione dell’energia, spiegava perché in certi casi la luce si comportasse come corpuscolare e in altri casi ondulatoria. Il fotone non è altro che una quantità di luce. Nel frattempo, anche Bohr utilizza questa idea di Planck per quanto riguarda la struttura dell’atomo. Anche in questo caso vengono formulate diverse teorie, quella più affermata è che l’atomo è composto da un nucleo formato da protoni e neutroni + elettroni che girano intorno al nucleo. Quindi, ispirandosi ancora una volta all’ipotesi dei quanti, propose di abbandonare la fisica classica per la spiegazione dei fenomeni atomici in favore di una nuova teoria. Allo scopo di spiegare il rapporto tra la nuova meccanica e la fisica classica, Bohr propose il principio di corrispondenza. In questo modo cercava di garantire una certa continuità tra vecchia teoria e nuova teoria. Ma l’incapacità di ottenere ulteriori successi sperimentali, fece sentire ai fisici l’esigenza di procedere al completamento della teoria quantica in maniera autonoma, con regole proprie di calcolo e postulati, senza derivare da formule classiche. Non si trattava di abbandonare il principio di corrispondenza, ma di cercare l’accordo tra le due teorie, classica e quantistica, attraverso il confronto tra le due teorie nella loro interezza. Alla costruzione della nuova teoria si giunge attraverso l’edificazione di due concezioni alternative dei fenomeni microscopici: la prima di De Broglie e Schrodinger, prende il nome di meccanica ondulatoria; la seconda di Heisenberg, Born e Jordan è la meccanica delle matrici. La meccanica ondulatoria 11 Punto di partenza della prima impostazione è l’idea di De Broglie che anche la materia possiede sia natura corpuscolare, sia natura ondulatoria. Egli disse che i corpi hanno, e non soltanto la luce, una duplice natura: corpuscolare e ondulatoria, sia una massa che un’onda. Per cui il doppio aspetto corpuscolare e ondulatorio non è peculiare delle sole radiazioni elettromagnetiche, ma vale per ogni fenomeno. Ogni cosa ha natura corpuscolare, cioè una massa, ma emette anche un’onda. Per i corpi grandi con una massa grande e grande velocità quando si spostano, il risultato sarà un’onda più piccola. Quando la massa diventa piccola, allora la lunghezza d’onda cresce e quindi rispetto alla massa comincia a farsi notare. Ecco perché nel caso della luce, dove il fotone è quasi privo di massa, cioè la massa è vicina allo zero, abbiamo una lunghezza d’onda che si nota. Nel 1927 la concezione di De Broglie viene confermata sperimentalmente. . La meccanica ondulatoria segnava sì un progresso rispetto a quella classica, ma rispettandone il principio di continuità e privilegiando il carattere ondulatorio della materia, a discapito di quello corpuscolare. La meccanica delle matrici Nel contempo Heisenberg fece uso del “calcolo matriciale”. Diversamente dalla meccanica ondulatoria, privilegiava il carattere corpuscolare dell’elettrone. Nel 1926 lo stesso Schrodinger mostrò che la meccanica delle matrici e quella ondulatoria, pur essendo diverse nella forma, erano matematicamente equivalenti. E siccome la meccanica ondulatoria era di gran lunga più semplice e familiare ai fisici del tempo, preferirono servirsi dell’equazione ondulatoria. Siamo in presenza di teorie diverse, entrambe in grado di spiegare correttamente i dati sperimentali, che si contendono un riconoscimento definitivo da parte della comunità dei fisici. Born e l’interpretazione probabilistica della funzione d’onda Nel contempo Max Born si era posto il problema di capire cosa esattamente descrivesse la funzione d’onda introdotta da Schrodinger. Il cardine dell’interpretazione di Born sta nella interpretazione probabilistica della funzione d’onda U, per cui questa fornisce soltanto la probabilità che, ad es. un elettrone, si trovi durante un certo intervallo di tempo in un determinato volume. In tal modo il movimento dell’elettrone non è descrivibile con precisione, ma solo probabilisticamente: è una chiara sfida all’interpretazione della funzione d’onda U come una entità fisica reale. Essa diventa una mera probabilità. Ne segue che l’elettrone si muove non in base a leggi deterministiche, ma a leggi indeterministiche. Una frattura si apriva tra il mondo come concepito dalla fisica classica e quello descritto dalla meccanica quantistica. Heisenberg e il principio di indeterminazione Heisenberg giunse alla formulazione del principio di indeterminazione. Questo stabilisce l’impossibilità di conoscere esattamente la posizione e la velocità di una particella atomica. Grazie alle relazioni di indeterminazione di Heisenberg si è constatato che non è possibile indicare simultaneamente la posizione e la velocità di una particella elementare. Bohr e il principio di complementarità 12 Bohr cerca di capire la duplice natura corpuscolare ed ondulatoria che caratterizza sia le radiazioni elettromagnetiche sia la materia. Bohr introduce la complementarità. La complementarità afferma che la complessità del reale non può essere colta con un solo sistema di concetti. Il principio di complementarità ammette che esistano aspetti della realtà fisica che sono tra loro complementari e ad un tempo incompatibili, ovvero non presenti simultaneamente, Per Bohr la fisica ondulatoria e la fisica delle particelle non erano, come si era finora supposto e discusso giuste o sbagliate, bensì complementari. Heisenberg, dopo una iniziale resistenza, finì per accettare questa prospettiva: nasceva così l’interpretazione di Copenaghen. L’interpretazione della scuola di Copenaghen La scuola di Copenaghen costituisce il tentativo più riuscito di conciliare l’aspetto corpuscolare con quello ondulatorio dei fenomeni. L’accettazione dell’interpretazione di Copenaghen implica la messa in dubbio di principi che avevano retto ogni indagine fisica e scientifica del reale: il principio di causalità e il carattere deterministico della natura. Mediante la meccanica quantistica viene stabilita definitivamente la non validità della legge di causalità. Non tutti i fisici furono disposti ad accettare le concezioni della scuola di Copenaghen. L’incidenza filosofica della meccanica quantistica Già la discussione sulla meccanica quantistica dimostra come sia divenuta stretta la connessione tra scienza e filosofia. Ad emergere vigorosamente è l’esigenza tra i fisici di un’apertura verso la filosofia, perché la fisica moderna non può essere compresa adeguatamente senza filosofia. Il bisogno di un ripensamento filosofico delle teorie scientifiche nasce dunque all’interno della scienza. Ogni lavoro scientifico si sviluppa (consciamente o inconsciamente) a partire da un’impostazione filosofica, da una determinata struttura mentale. Vi era dunque un clima nuovo nella comunità degli scienziati. L’interesse per i problemi filosofici da parte degli scienziati che cominciavano a scrivere di logica, di metodologia, in modo originale rispetto alla filosofia dava vita ad una nuova disciplina, la “filosofia della scienza”. Ma la filosofia di cui ha bisogno la nuova fisica non può essere quella tradizionale ancorata a concetti ormai superati. E del resto i concetti elaborati dalle nuove teorie scientifiche non possono lasciare indifferenti i filosofi. L’esigenza di una filosofia rinnovata si era già espressa tra 800 e 900 con il programma della “filosofia scientifica”. Se la scienza richiedeva la filosofia, a sua volta la filosofia non poteva non tenere conto dei risultati della scienza, anche perché molti dei suoi problemi trovano soluzione in questa. La scienza ci ha messi a confronto con un mondo nuovo, con metodi nuovi che l’esperienza ha dimostrato fruttuosi laddove i vecchi concetti si erano dimostrati sterili. È questa la situazione che hanno di fronte i fondatori del circolo di Vienna e i filosofi della scienza del 900. La nascita della nuova logica La logica classica era la logica di Aristotele. Tramonta perché aveva avuto la sua grande fortuna nel periodo classico e nel medioevo. Era stata utilizzata per l’argomentazione filosofica all’interno del discorso teologico, per quelli che erano i problemi fondamentali del cristianesimo. Era tutta incentrata sul tentativo di risolvere quelli che erano i rapporti tra la fede e la ragione, ecc. la logica che veniva utilizzata era funzionale a questo tipo di argomentazioni. Quando nasce la nuova scienza con Galileo, questa logica si rivela del tutto inadeguata, perché la nuova scienza si basava sulla matematica che sembrava che con la 13 logica non avesse niente a che vedere. Tanto è vero che Galileo dice che i logici sono coloro che studiano la matematica, che la applicano. Egli rispose a coloro che affermavano che bisognasse insegnare la logica per abituare i fanciulli al ragionamento attraverso la logica di Aristotele, che la vera arte del ragionare la si apprende nei libri di matematica, con i vari teoremi, deduzioni, dimostrazioni, ecc. Da quello che dice Galileo si capisce come nasce la contrapposizione tra la logica e la matematica. Cioè la logica viene coltivata soltanto dai filosofi, i quali proseguono sulla strada intrapresa da Aristotele, la matematica è invece lo strumento della nuova scienza, la quale non ha più bisogno della vecchia logica. È una contrapposizione che segnerà tutto il periodo moderno, dal 500 all’800, che sarà caratterizzato da questa diffidenza nella logica da parte di coloro che sono dei logici pratici, i matematici. Ci furono tentativi di superare questo dissidio tra logica e matematica, il più importante è quello di Leibiniz, che era un filosofo ma anche un matematico, era stato il primo ad inventare il calcolo infinitesimale. Leibiniz nelle sue opere di logica non pubblicate, ebbe un’intuizione, di potere applicare una logica, basata sulla matematica, al pensiero filosofico, a rendere scientifico, rigoroso il pensiero filosofico, attraverso la creazione di un apposito vocabolario in cui tutti i concetti venivano tradotti in simboli che potessero evitare l’ambiguità dei termini, attraverso una lingua universale, artificiale, simbolica, non più naturale, che potesse permettere di combinare questi concetti, per ricavare dei nuovi concetti, dalla combinazione di concetti già esistenti. Questa è l’idea di scientifizzazione della filosofia, e fu un’idea che ebbe un grande successo, specialmente nel corso dell’800, perché si pensava che la filosofia, con l’applicazione della matematica, potesse arrivare allo stesso grado di precisione ed esattezza applicando ad essa la logica. Questa è un’idea di Leibiniz, idea che non realizzò, cioè gettò le fondamenta di questa idea, fece alcuni tentativi di simbolizzazione, però le sue opere non furono riconosciute. Egli lanciò semplicemente l’idea di un programma che tuttavia non portò a termine. Ci furono anche altri filosofi che nel corso del 600 cercarono di ispirarsi alla matematica. L’idea del rigore matematico è un’idea estremamente diffusa. Ci sono molti filosofi che pensano che anche in filosofia si debba applicare lo stesso rigore ed esattezza del discorso matematico. Uno di questi fu Spinoza, altro grande filosofo del 600, anche lui razionalista come Leibiniz, il quale scrisse la sua opera principale che si intitola “ l’etica, ordine geometrico dimostrata”, cioè l’etica dimostrata secondo il metodo geometrico. Il metodo di Spinoza ispirato alla geometria, era qualcosa che affascinava i filosofi e si pensava che la logica potesse essere lo strumento adatto, ma non la logica aristotelica, che aveva i suoi limiti, poiché non era sufficiente da sola per portare a quel rigore che si voleva dare al pensiero filosofico. Questo tentativo di scientifizzazione e sviluppo della logica prosegue in due direzioni diverse: da una parte c’è la vecchia direzione dei vecchi filosofi che continuano ad insistere sulla logica aristotelica, dall’altra c’è la strada seguita dai matematici che non si interessano alla vecchia logica, ma cercano di studiare quelli che sono i procedimenti della matematica. Questo porta sempre più a chiarire cosa si intende per deduzione, per dimostrazione, per teorema, ecc. Tutto questo porta ad una serie di sviluppi fecondi che saranno poi messi a frutto da quella che si chiama La scuola di Cambrige, ma che seguono un distacco profondo tra logici e matematici. Questo distacco profondo tra logici e matematici viene sancito da quella che è appunto la scuola di Cambrige. Cosa succede? Mentre la logica coltiva sempre di più le proprie figure sillogistiche, senza fare reali passi in avanti, la matematica si libera progressivamente da quella che era stata la sua camicia di forza iniziale, cioè il suo essere legata ai numeri. La matematica si trasforma sempre più in una scienza del ragionamento astratto, non più la scienza dei numeri ma della deduzione, è la scienza della struttura formale del 14 ragionamento, che dà la possibilità di combinare in maniera rigorosa ogni tipo di simbolo che poi può essere interpretato in maniera diversa. La scuola di Cambrige libera quindi la matematica dalla necessità di riferirsi ai numeri. Non abbiamo più bisogno di parlare di numeri ma di concetti generici. Se dico che Angelina Jolie più bella di Julia Roberts e la Roberts è più bella di Meg Ryan, allora dico che la Jolie è più bella di Meg Ryan. È sempre una conseguenza logica che deriva dal modo in cui io intendo il concetto di relazione transitiva, la conseguenza logica della frase è quella. Questa relazione transitiva è un tipo di relazione in cui metto in relazione degli enti qualsiasi, che ha un suo rigore logico, che è indipendente dal fatto che io parlo di numeri o parlo di bellezza, intelligenza o altro. La scuola di Cambrige ha il merito di capire che la matematica non è qualcosa che parla di numeri ma di relazioni di questo tipo. Quando noi applichiamo, per esempio, la proprietà commutativa che riguarda la somma di 3+2 = a 2+3 non vale semplicemente per i numeri, ma anche per le altre cose. La commutatività vale se io parlo sia di numeri che di persone, animali, cose, ecc. Una persona che è bella e intelligente è la stessa persona che è intelligente e bella. Questo tipo di matematica priva di numeri ma che si riferiva a oggetti fu quella che venne creata dalla scuola di Cambrige. Con Boole Si realizza il programma annunciato da Leibniz: la logica diventa una disciplina matematica. L’idea di Boole, che costituisce anche la continuazione del progetto intuito da Leibniz è che sia possibile matematizzare il ragionamento. Per Boole la logica non è che una parte della matematica e può quindi essere resa scientifica. Il progetto di Boole ha il nome di algebra della logica. Boole diversamente da Leibniz, non si limitò ad enunciare un programma, ma si sforzò di darne una esecuzione. fu quello che comprese l’enorme potenziale di questo tipo di matematica, capì che la matematica in questo modo poteva essere qualcosa di più che un ragionamento sui numeri. Egli scrisse nel 1847 un’opera con cui si fonda la nuova logica che è appunto “l’analisi matematica del pensiero”. Questa consiste nell’idea che è possibile applicare il formalismo algebrico non per esprimere numeri ma per esprimere operazioni di tipo logico, tutto quello che era stata la logica di Aristotele. Esprimendo un linguaggio più rigoroso e senza gli inconvenienti di in conclusione e complicatezza che aveva la logica classica di Aristotele. Boole lo fa facendo diventare la logica una parte della matematica, e così Boole fa questo tentativo reinterpretando la logica classica. A tal scopo Boole analizza alcuni esempi di argomentazione, tratti dalle opere di Clarke e Spinoza. Di queste effettua una ricostruzione analitica, esplicitando le premesse, esprimendole nel linguaggio dei simboli, impiegando i metodi esposti nella sua opera. La manchevolezza di tali opere si scorge subito, in esse sono confuse diverse concatenazioni di ragionamenti, e argomentazioni considerate dal punto di vista delle leggi rigorose del ragionamento formale, sono scorrette o inconcludenti. Clarke voleva dimostrare le prove dell’esistenza di Dio facendo delle dimostrazioni di tipo logico-matematico. In particolare, facendo l’analisi delle opere di Spinoza, Boole va a vedere come quel rigore apparente nelle opere di Spinoza nascondesse delle gravi carenze di natura logica. Lui faceva vedere come e quali erano gli errori di logica di Spinoza. In cosa consiste la logica di Boole? Egli fa una logica utilizzando la stessa simbologia della matematica, cioè utilizza x, y, z, e a b c che sono simboli algebrici che vengono da lui ripresi e utilizzati dando loro un significato diverso. A e b a questo punto non significano numeri come avviene nell’algebra, ma A e B raggruppano le classi che possono comprendere entità di qualsiasi tipo: A può essere la classe di tutto ciò che è mortale; B può essere la classe di tutto ciò che è uomo; C può essere la classe di tutto ciò che è quadrato, ecc. Possiamo mettere qualsiasi significato. Queste lettere possono indicare delle qualità, delle persone e altre cose concrete. 15 La classe A rappresenta le donne bionde, la classe B rappresenta le donne belle. A+B (+ rappresenta la congiunzione e-o) significa che classe delle bionde o belle. AxB indica che devono essere bionde e belle, devono essere contemporaneamente entrambe le cose. A-B dice che le donne che sono belle non sono bionde. AvB dice che soltanto alcune A sono B (poiché il simbolo v serve a selezionare di una classe solo una parte dei suoi membri). Boole introduce anche due simboli particolari, 1 e 0 che significano: 1 la classe totaleuniversale, la classe che comprende tutte le cose; 0 è invece la classe del nulla, che non contiene niente. È un concetto un po’ strano, perché la classe è definita dalla cose che comprende, se non c’è niente allora non dovrebbe esistere nemmeno la classe, eppure la classe c’è, è un concetto astratto che comunque esiste. Poi introduce il simbolo di identità = che indica la relazione tra due classi x=y significa che la classe x ha gli stessi elementi della classe y. A=B significa che gli elementi A sono gli stessi degli elementi B. Grazie all’opera di Boole fu edificata l’algebra della logica. La logica si libera dalla sua subordinazione al formalismo algebrico, raggiungendo con Schroder la sua definitiva sistematizzazione e perfezionamento. I limiti dell’algebra della logica: Nonostante i perfezionamenti apportati da Schroder, la complicatezza del suo simbolismo ed una eccessiva rigidezza di impostazione, fece sentire l’esigenza di una logica rinnovata, svincolata dalla matematica e che si ponesse direttamente il problema della comprensione delle leggi che stanno alla base del ragionamento, compreso quello matematico. Il limite è che si assumeva la matematica come modello di logica e l’algebra come modello di logica, e quindi si assumevano tutte le operazioni dell’aritmetica e dell’algebra come operazioni logiche. Questo funzionava fino a un certo punto, però per le altre cose no. Si dava all’espressione delle preposizioni logiche un qualcosa di artificioso che rendeva difficile la loro utilizzazione, ovvero non erano immediatamente intuitive. Ci sono delle operazioni algebriche come ad esempio la divisione che hanno un senso in algebra ma non hanno senso in logica. Quindi diventa impossibile attraverso delle proposizioni algebriche esprimere delle proposizioni logiche. Questo ha fatto pensare che vi era un’altra via per formalizzare il pensiero argomentativo e quest’altra via viene fuori da quella che era stata l’evoluzione stessa della matematica, cioè dal fatto che da un certo momento in poi nell’800 si avvia questa riflessione sui fondamenti della matematica, che consiste nel tentativo di trovare quelle che sono le basi della matematica, cioè quei mattoni originali, indubitabili su cui l’edificio matematico può essere edificato senza equivoci, in maniera solida. La nuova impostazione del rapporto tra logica e matematica, nasce dalla necessità di dare maggiore rigore all’analisi, riesaminandone criticamente i fondamenti. I matematici più attenti alle questioni metodologiche cominciarono a rendersi conto che anche i teoremi fondamentali mancavano di una base rigorosa. In questo periodo ha luogo quel “ripensamento di tutta la matematica” che porterà alla concezione dei sistemi matematici come puri sistemi formali, staccati da ogni interpretazione. Si voleva insomma, liberare la matematica dalla tradizionale sottomissione alla geometria. La nascita delle geometrie non euclidee e la crisi della concezione kantiana La crisi del ruolo privilegiato dell’intuizione avviene proprio nel terreno della geometria con la progressiva affermazione delle geometrie non euclidee. 16 Il significato di tali geometrie va visto nella crisi della concezione “intuitiva” della geometria che era alla base dell’approccio kantiano. Il filosofo tedesco riteneva che la geometria, edificata da Euclide, fosse fondata sulla “intuizione pura”. Essa costituiva un esempio di conoscenza sintetica a priori: sintetica, in quanto i suoi teoremi ci descrivono la struttura dello spazio fisico nel quale viviamo; a priori in quanto assolutamente certa e non bisognosa di essere giustificata facendo ricorso all’esperienza. Sembrava pertanto accoppiare certezza intuitiva e rilevanza empirica: questa era la concezione che sin dall’antichità era stata tramandata delle geometria. I tentativi infruttuosi di dimostrare il quinto postulato di Euclide, quello delle parallele, avevano condotto gli studiosi ad ipotizzare geometrie che ne facessero a meno. Ci si avvide, così, che la negazione del postulato non conduceva ad una contraddizione, che ne avrebbe dimostrato l’indispensabilità, ma portava all’ammissione di due nuove geometrie (quella iperbolica e quella ellittica). Non era quindi necessario accettare il quinto postulato di Euclide. Sono ammissibili, insomma, diverse geometrie che, per quanto lontane dalla nostra comune intuizione dello spazio, sono coerenti. Ci furono molti scienziati, tra cui Girolamo Saccheri che nel 600 arrivò a questa conclusione: che negando il postulato delle parallele non si introduceva nessuna contraddizione alla geometria di Euclide, cioè si costruiva una geometria che non ammetteva il postulato delle parallele, ma che era altrettanto legittima e coerente con la geometria di Euclide. Era una geometria non intuitiva, che si riferisce a uno spazio, quello che noi non vediamo nella nostra vita quotidiana nei quali ci sono i corpi che seguono la geometria euclidea. Nella nostra vita quotidiana noi vediamo che la distanza più vicina tra due corpi è una retta. Nella geometria euclidea la somma degli angoli interni di un triangolo è uguale a 180°, ma se immaginiamo una superficie curva, se vi disegniamo un triangolo, la somma degli angoli non sarà 180° ma sarà di più. E se noi mettiamo due punti su questa superficie curva, la retta più breve che congiunge questi due punti sarà una linea curva, non più una linea retta. Quindi, quello che scoprì Saccheri, era che in effetti la nostra intuizione ci inganna, cioè noi abbiamo l’intuizione della geometria euclidea che ci sembra evidente perché noi siamo degli esseri dotati di corpo che viviamo in uno spazio che ha certe dimensioni, che è lo spazio della nostra vita quotidiana. Ma siamo sicuri che lo spazio abbia sempre queste caratteristiche? No! Tanto è vero che ci furono degli scienziati che tentarono di fare questa esperienza, dicevano che poteva darsi che per le grandi distanze la geometria euclidea non valga più, per esempio la luce non segna una traiettoria lineare. Allora ci fu un geometra, Gauss, il quale fece queste esperienze, triangolò tre vette delle montagne in Germania molto lontane, per avere un triangolo molto grande, e misurò gli angoli interni di questo triangolo e si accorse che era 180°, quindi arrivò alla conclusione che lo spazio fisico fosse euclideo, però questo non toglieva il fatto che una geometria non euclidea poteva esistere e che tuttavia non era contraddittoria. Quindi, l’accento venne posto non tanto sulla intuizione della geometria, ma sul fatto che la geometria è un sistema formale deduttivo non contraddittorio, questo è ciò che importa nella geometria e allora se importa questo, il fatto che lo spazio fisico in cui viviamo sia euclideo è qualcosa di accidentale, perché così si è evoluto lo spazio, la terra. Ma nulla esclude che poteva essere diversamente. Tanto è vero che poi con la teoria della relatività generale si arrivò alla conclusione che lo spazio non è euclideo ma curvo. Quindi, Einstein disse che se noi andiamo a vedere lo spazio, vediamo che non è euclideo. Allora, a questo punto, per i matematici, se effettivamente esistono le geometrie euclidee e ci sono delle geometrie coerenti anche se non sono euclidee, allora non possiamo più fidarci delle intuizioni geometriche, che non ci fanno cogliere una verità, un solo sistema coerente che è l’unico possibile. L’intuizione ci fa semplicemente cogliere uno dei sistemi coerenti possibili, ma non l’unico. 17 Allora possiamo fondare l’analisi matematica sulla geometria? No! Dobbiamo fondare la matematica su qualcos’altro, non più sulla geometria, ma su se stessa. Dobbiamo cioè trovare alla base della matematica quei concetti fondamentali che sono indipendenti dalla geometria. Allora comincia il processo di aritmetizzazione della matematica, cioè quel processo che via via riduce tutte le operazioni dell’analisi matematica all’aritmetica, cioè alle 4 operazioni fondamentali: + - x : Si riesce a dimostrare che è possibile aritmetizzare l’analisi, e questo qui lo fa Giuseppe Peano. Per lui i numeri naturali stavano alla base di tutta la matematica. La matematica si riferiva ai numeri reali e alle 4 operazioni dell’aritmetica. L’esigenza di introdurre nuovi numeri nasce dall’esigenza di dare significato a quelle che erano delle operazioni dell’aritmetica, perché se faccio 6:4 non ottengo un numero intero ma con la virgola, quindi esco fuori dai numeri interi, ma entro nel campo dei numeri razionali. Si capisce che il concetto di numero è qualcosa di molto più profondo di ciò che si pensava, il numero ha un’essenza immateriale, non si tocca. E per capire cos’è un numero dobbiamo capire come funziona. Approccio logicista Frege, per capire i numeri e comprendere la logica che sta dietro ai numeri, il modo di ragionare, come funzionano ecc ebbe una grande intuizione. Egli capovolge il progetto di Boole, cioè non è la logica che dev’essere fondata sulla matematica, ma il contrario, dobbiamo cioè ritrovare i fondamenti della matematica nella logica. Perché la logica è qualcosa di più generale che riguarda il modo in cui noi pensiamo, il modo in cui ci relazioniamo agli oggetti, enti di qualsiasi natura, qualunque essi siano. Ecco allora che con Frege nasce il cosiddetto Approccio logicista. L’approccio logicista consiste nel sostenere che il fondamento della matematica sta nella logica e questo è il logicismo, che è un programma nettamente opposto all’algebra di Boole. Questo logicismo di Frege parte proprio da questa assunzione della necessità di dare un’oggettività al pensiero matematico che fosse indipendente dai modi in cui noi pensiamo. Cioè lui capì che la matematica deve avere una oggettività che è indipendente dai pensieri dell’uomo. La matematica sarebbe esistita anche se nessuno l’avesse mai pensata, un teorema ha una sua indipendenza, indipendentemente da chi lo pensa. Non è vero che lo ha inventato Pitagora, ma sarebbe esistito lo stesso. L’idea di Frege è che le entità logiche hanno una esistenza autonoma dall’uomo, come se stessero in un mondo trascendente. Per cui, non è che noi inventiamo la matematica, nel senso che la creiamo, noi siamo come degli esploratori che scoprono qualcosa che esiste già. Per esempio, una montagna scoperta solo dopo dall’uomo, è sempre stata là, ancora prima che l’uomo la scoprisse, ha una sua oggettività e la sua esistenza è indipendente dall’uomo. E così la logica ha una sua oggettività, che è indipendente anch’essa dal modo in cui l’uomo la pensa, e noi dobbiamo andare a cogliere proprio questa oggettività, quindi, dice Frege, dobbiamo distinguere quelli che sono i nostri modi soggettivi di pensare, da quella che è la verità oggettiva. Frege, per fare questo critica quelle che sono le forme in cui veniva pensata la matematica ai suoi tempi, cioè critica l’approccio trascendentale di Kant, critica l’empirismo per cui la matematica deriva dall’esperienza. Invece, per Frege dall’esperienza ci deriva semplicemente il modo contingente in cui noi abbiamo utilizzato il linguaggio della matematica, cioè una certa popolazione ha utilizzato un certo sistema numerico, un’altra popolazione un altro. 18 Quando si parla di legge logica, sostiene Frege, si intende qualcosa di totalmente diverso da una legge psicologica: quest’ultima enuncia ciò che è, descrive il comportamento tenuto dagli uomini. Invece la legge logica enuncia ciò che deve essere, stabilisce come si debba pensare. Alla base dell’impostazione fregeana vi è una visione oggettivistica della verità: essa non è ciò che viene comunemente accettato. L’essere vero è qualcosa di completamente diverso dall’essere ritenuto vero. Per leggi logiche io non intendo le leggi del ritenere vero, ma le leggi dell’essere vero. Pertanto la verità è per Frege qualcosa di oggettivo e di indipendente da chi giudica, in quanto un pensiero vero è già vero prima di venire afferrato da un essere umano. La distinzione tra senso e denotazione La difesa dell’oggettività viene da Frege perseguita anche mediante la distinzione tra senso e denotazione dei termini singolari. (Denotazione tradotta anche con “significato”, “designazione”) Facciamo l’esempio di Frege: quando usiamo l’espressione “la stella del mattino” indichiamo il pianeta Venere, analogamente quando utilizziamo l’altra espressione “la stella della sera” denotiamo sempre Venere. E tuttavia abbiamo usato due “descrizioni definite” il cui senso è diverso, pertanto quando stabiliamo l’eguaglianza “la stella del mattino”=“la stella della sera” abbiamo indicato che due espressioni diverse fanno riferimento al medesimo oggetto. Quindi le due espressioni hanno sensi diversi ma identica denotazione. Egli differenzia dal senso e dalla denotazione la rappresentazione, costituita dalla immagine interna che ciascuno si fa, di un dato oggetto. Il senso non è soggettivo come la rappresentazione, ma non è neppure l’oggetto stesso. Delle esperienze soggettive connesse alla rappresentazione si occupa la psicologia, non la logica o la scienza. Per dar corpo a tale concezione oggettivistica della logica Frege vuole creare un simbolismo logico in grado di fornire una rigorosa espressione del pensiero, evitando così le trappole causate dalle ambiguità del linguaggio naturale. La logica non ha niente a che vedere con quello che noi pensiamo con la nostra mente, con la nostra soggettività, è qualcosa che prescinde dalla nostra soggettività, va oltre, ed è quella che può garantire autenticamente il rigore della matematica. Su queste intuizioni Frege costruisce la nuova logica, una nuova logica che deve avere un linguaggio autonomo rispetto a quello della matematica, perché deve esprimere quanto meglio possibile il denotato. Noi in quanto esseri umani non possiamo esprimere oggettività, se non attraverso la soggettività, possiamo trovare una forma di espressione che sia quanto più universale possibile, che è quello che vuole fare Frege. Ma dobbiamo tenere presente che l’autentica forma di oggettività che noi possiamo avere e a cui possiamo arrivare è la forma della traducibilità intersoggettiva. L’unico modo con cui possiamo garantire l’oggettività non è tanto il fatto che noi riusciamo a cogliere in maniera diretta il denotato, quanto che noi sappiamo esprimere questo denotato in un linguaggio quanto più rigoroso possibile e che sia traducibile negli altri linguaggi e quindi può dirsi universale. Ecco allora l’idea della logica come strumento universale di comunicazione. Frege ci arrivò in parte. Se il modo in cui noi esprimiamo l’oggettività permette la traducibilità intersoggettiva, cioè da un linguaggio all’altro, allora noi siamo in grado di avere una certa oggettività. L’oggettività non è altro che intersoggettività, come la capacità di tradurre da un linguaggio all’altro. Ecco perchè in certi campi del sapere non si può avere oggettività, per esempio nell’ambito della religione, altrimenti questa non sarebbe più religione ma scienza se fosse oggettiva. 19 Frege parla di argomento e funzione. L’argomento è una qualunque variabile, un oggetto, un ente. La funzione è ciò che si dice dell’ente, esempio, se l’argomento è il tavolo allora la funzione è essere quadrato. L’argomento può ovviamente variare. Questo argomento funzione ci esprime una funzione proposizionale, che diventa una proposizione nel momento in cui noi diamo un valore di verità. La proposizione è qualunque espressione linguistica che può essere vera o falsa. La logica di Frege è basata sul concetto di proposizione, cioè il procedimento del calcolo proposizionale che è indicato in genere con p q simboli che verranno introdotti da Russell, una formulazione che lui riprese da Peano. p può essere o vero o falso e non può essere formato soltanto da un verbo, per esempio “correre”, e non può nemmeno essere un termine, per esempio “Socrate”, se noi non diciamo cosa da non possiamo dire neanche se è vero o falso. Se diciamo “Socrate è un filosofo” allora a questo punto p o è vero o è falso. p può essere anche un assetto che non è una proposizione, per esempio se io dico “prendimi un caffé” è una proposizione linguistica che è dotata di significato ma che non è né vera né falsa, è un comando, che si esegue oppure no. Non ogni assetto linguistico è una proposizione, ma questo è un assetto linguistico dichiarativo, che ci dice come stanno le cose. Da questo Frege elabora e introduce i cosiddetti quantificatori che sono universali ed esistenziali, cioè sono particolari simboli che servono a capire se una proposizione ha un carattere universale, del tipo “tutti gli uomini sono mortali”, oppure ha carattere particolare come ad esempio “alcuni uomini sono mortali”. Nel primo caso ci riferiamo a tutti gli enti di un certo universo, nel secondo rasoci riferiamo soltanto ad alcuni di questi enti. Tutto questo viene espresso attraverso due simboli che sono il simbolo del quantificatore universale e del quantificatore esistenziale. Ne “i fondamenti dell’aritmetica”, che doveva essere pubblicato in 2 volumi, al completamento del 2° volume, Frege riceve una lettera da Russell che ha un effetto disastroso su Frege. Russell comunica a Frege che lui ha scoperto un paradosso che sta all’interno dei concetti che sono alla base dei fondamenti dell’aritmetica di Frege. Questa cosa ebbe su Frege un effetto disastroso, cioè Frege vide crollare improvvisamente e con una semplice lettera, l’opera di tutta la sua vita. Tanto è vero che il 3° volume che prospettava di scrivere non verrà mai alla luce. Frege non si riprende più da questo duro colpo e cercò di risolvere per tutta la vita questo problema dell’antinomia scoperta da Russell, ma non ci riesce. Per cui arriva alla conclusione finale che in fin dei conti forse è opportuno ritornare a quello che era il programma iniziale, cioè che è meglio affidarsi alla geometria. Ritorna il suo discorso a quella che era la situazione di partenza, di riammettere di nuovo quella geometria da cui ci si era voluti allontanare per dare un fondamento rigoroso all’aritmetica. È una conclusione paradossale, cioè si era intrapresa una grande strada e un grande progetto per potersi liberare dalla geometria e si finisce per riconoscere che dalla geometria non ci si può liberare. Nella sua lettera a Frege, Russell gli comunicava di aver trovato un’antinomia logica. L’antinomia di Russell può essere espressa, nei termini seguenti: "In un villaggio c'è un unico barbiere. Il barbiere rade tutti (e solo) gli uomini che non si radono da sé. Chi rade il barbiere?". Si possono fare due ipotesi: il barbiere rade sé stesso, ma ciò non è possibile in quanto, secondo la definizione, il barbiere rade solo coloro che non si radono da sé; il barbiere non rade sé stesso, ma anche ciò è contrario alla definizione, dato che questa vuole che il barbiere rada tutti e solo quelli che non si radono da sé, quindi in questa ipotesi il barbiere deve radere anche sé stesso. In entrambi i casi si giunge ad una contraddizione. 20 Frege si rese conto che trovare una fondazione logica alla matematica era impossibile. Lasciò cosi incompleta la sua opera “principi dell’aritmetica”. Frege non si riprese più da questo colpo e non pubblicò più nulla per 20 anni. Non riusciva a trovare una soluzione all’antinomia di Russell. Così Frege ritornò alla geometria come fondamento della matematica ritornando alla tesi kantiana del carattere sintetico delle proposizioni matematiche restaurando la frattura tra logica e matematica. Il tentativo di salvezza fu tentato da Russell stesso con la “teoria dei tipi”. Gli strumenti della logistica. Al contrario della logica tradizionale basata sulla dottrina dei termini dai quali si formano i giudizi veri o falsi, la nuova logica, con Frege in particolare, si basa sul calcolo proposizionale fondato sulla proposizione. Questa è un’espressione dichiarativa che afferma che qualcosa è vera o falsa (escluso enunciati interrogativi e imperativi). Frege era convinto che fosse impossibile spiegare un’espressione isolandola dal contesto. Partendo dai giudizi si ricava il significato dei termini: è il principio del contesto. Quindi ecco che al calcolo proposizionale interessa il valore di verità, ha quindi un carattere ambivalente perché interessa che una proposizione sia vera o falsa (e non entrambe). Una proposizione si dice composta quando è formata da due o più proposizioni semplici. Il valore di verità della preposizione complessa dipende dai valori delle proposizioni semplici che la compongono. A una o più proposizione sono quindi applicabili i funtori di verità dal carattere estensionale, grazie ai quali si ottengono proposizioni dal valore di verità dipeso dal tipo di funtore applicato. La negazione è un esempio di funtore di verità. La negazione della proposizione p sarà ךp (nonp), per cui se p è vera, ךp è falsa; se p è falsa, ךp è vera. La tavola di verità corrispondente è: p V F ךp F V Altri funtori importanti sono quelli biargomentali quali: disgiunzione “o” (^); condizionale “se…allora” (→); congiunzione “e” (ν). Da questi si possono costruire le proposizioni più complesse. Esistono anche le forme proposizionali sempre vere dette tautologie, indipendenti quindi dai valori di verità che vengono assegnati alle variabili. La proposizione è vera indipendentemente da quello che accade. Perché è vera? Perché è stata costruita secondo una certa formula logica. Cioè la sua verità è una verità a priori, che non dipende dall’esperienza. L’opposto di tautologia è contraddizione le cui proposizioni sono sempre false. Basta negare una tautologia per ottenere una contraddizione e viceversa. Sono false a priori, qualunque sia il valore di verità delle proposizioni che la compongono. Le proposizioni devono essere in forma dichiarativa o descrittiva, cioè devo dire come stanno le cose, così posso dire di avere una proposizione, e questa può essere o vera o falsa. 21 Ci sono anche le operazioni binarie che avvengono tra due proposizioni, cioè tra la proposizione p e la proposizione q, tra queste due proposizioni posso creare un’operazione. p e q possono essere o vere o false. Le possibili combinazioni sono: p q _____ V V V F F V F F Bisogna mettere le proposizioni in un discorso compiuto, quando io dico “oggi è una bella giornata e vado a fare una passeggiata”. La caratteristica di queste proposizioni è quella di essere unite insieme dalla congiunzione “e”. allora possiamo vedere qual è il risultato di p e q. Se le due proposizioni sono vere allora la conclusione è vera. Se una è vera e l’altra è falsa diventa falsa se parte da una proposizione vera. Il risultato è falso se entrambe sono false. a maggior ragione il risultato è una proposizione falsa. Si deve fare attenzione al modo in cui vengono fatte certe affermazioni, esempio: “saranno promossi coloro che avranno studiato questo manuale e saranno venuti ad uno dei seminari”, significa che sarà promosso chi avrà studiato il manuale e avrà partecipato ad un seminario. Quindi, per essere promossi si deve fare l’uno e l’altro. Se non avranno fatto una delle due cose saranno bocciati. Devono fare entrambe le cose. La e dice che devono essere entrambe vere per produrre un risultato vero. p q p^ q ____________ V V V V F F F V F F F F Ma io posso dire anche: “saranno promossi coloro che avranno studiato il manuale o saranno venuti ad uno dei seminari”. In questo caso coloro i quali hanno fatto entrambe le cose saranno promossi, ma anche coloro i quali hanno fatto una delle due cose. Sarà invece bocciato chi non ha fatto nessuna delle due cose. O è questa o è quella. p q pν q ____________ V V V V F V F V V F F F Se io dico: “ se voi studierete sarete promossi” se…. Allora, io stabilisco nesso causale, ma il fautore logico non necessariamente ha il senso del se…. Allora, ma può anche avere significati strani, senza senso apparente, allora dobbiamo assegnare valori di verità che siano plausibili. Allora, se il primo è vero il risultato è vero, anche nell’ultimo caso se la prima è falsa e la seconda è falsa il risultato è vero. Esempio: “se lei è la regina d’Inghilterra io 22 sono l’imperatore della Cina” è un’asserzione falsa, paradossale, ma il risultato, anche se è paradossale è comunque vero. p q p→q ____________ V V F F V F V F V F V V * * Restano I due casi in mezzo. A questo punto dovrebbero sembrare entrambe false ma non è così. Perché se io dico “se piove è bagnato” non necessariamente implica che sia bagnato se ha piovuto. Potrebbe essere invece falso che ha piovuto ed è invece vero che è bagnato L’alternativa sarebbe nel dire che entrambi sono falsi. Dire che siano entrambe false esprime un altro concetto, il concetto del se e solo se…. →, cioè “se e solo se tu studi sarai promossa”, significa che se studi sarai promossa, se non sarai promossa non hai studiato, significa che non è possibile che hai studiato se non sei stata promossa, o viceversa che non hai studiato e sei stata promossa. Questo è il funtore del se e solo se. In questo caso il conseguente implica l’antecedente e viceversa. Teoria delle relazioni di Morgan La relazione di tipo logico o matematico, per esempio maggiore o minore, più o meno (x+y) una particolare relazione che è un tipo di operazione. La relazione può essere riflessiva, simmetrica o transitiva. Una relazione è riflessiva quando un dato elemento è uguale a se stesso; Una relazione è transitiva se xy è xz allora sarà anche xz: se Mario è fratello gi Giovanni e Giovanni è fratello di Alberto, allora Mario è fratello di Alberto; Una relazione è simmetrica se xy allora yx: se Giovanni è fratello di Alberto, Alberto è fratello di Giovanni. Gli elementi hanno tra di loro delle relazioni che possono presentare delle caratteristiche di riflessività, simmetricità, transitività. Su questa base vengono introdotti i quantificatori, che servono a quantificare la variabile della proposizione. Nel calcolo proposizionale noi abbiamo p e q, noi non scendiamo all’interno di come è fatta la proposizione, è tutto un assetto linguistico che può essere o vero o falso, quindi p può significare “il sole splende oggi”, oppure “ gli animali sono erbivori” e quindi distinguo il soggetto dal predicato, lo prendo come un tutto unitario. Invece, il calcolo dei predicati entra più nello specifico, ci dice che p la possiamo intendere come funzione proposizionale come qualcosa fatta di variabile e predicato. p esprime un predicato che è appunto una proprietà, ad esempio “è padre”, “è quadrato”, “è rotondo”, “è bello”, ecc. cioè esprimo un predicato che è la seconda parte di una proposizione. In logica può avere 2 valori: o vera o falsa. È vera se x è vero che ha proprietà p, cioè se io dico p=a è bianco e x=a che è la neve, allora la neve è bianca è vero.. Se invece p=a è bianco e a è il corvo, il corvo è bianco è falso. Questa è un’operazione monoargomentale poiché p di x ha soltanto un argomento, che è x. 23 Io posso avere non soltanto un predicato ma posso avere una relazione come spiegato sopra. Induzione, probabilità e conferma L’induzione è considerata la caratteristica fondamentale della scienza contemporanea. Se la logica è una scienza deduttiva, le scienze empiriche come la fisica, la chimica, la biologia, sono delle scienze induttive, che non partono da assunzioni generali per derivarne conseguenze, ma partono dall’esperienza per arrivare a delle leggi generali. La scienza ha carattere induttivo là dove per carattere induttivo si intendono tante cose. In generale le differenze tra deduzione e induzione sono le seguenti: 24 Deduzione: in un argomento deduttivo valido tutto il contenuto della conclusione è già contenuto nelle premesse, cioè noi deduciamo ciò che deduciamo in base a ciò che c’è nelle premesse e in base a delle regole logiche, non aggiungiamo nulla di nuovo che non sia già nelle premesse. Esempio di deduzione: “Tutti gli sono mortali. Socrate è un uomo. Socrate è mortale”. Induzione: a differenza della deduzione, nell’induzione la conclusione contiene sempre qualcosa in più delle premesse. nella conclusione, per esempio, che A è bianco, B è bianco e C è bianco, quindi ne ricavo fuori che sono cigni. La deduzione non aggiunge niente alle premesse, l’induzione si. Inoltre, mentre nella deduzione, se le premesse sono vere la conclusione deve essere vera. Una deduzione valida conserva necessariamente la verità. Mentre l’induzione dice che un argomento induttivo corretto può avere premesse vere e conclusioni false. l’induzione non necessariamente conserva la verità. Posso per esempio aver analizzato un miopie di cigni, e ne trovo uno in qualche parte del mondo che è nero, è quindi falsa. Nella deduzione, se ad un argomento deduttivo valido sono aggiunte nuove premesse, allora esso rimane valido. Ovviamente la nuova premessa non deve essere contraddittoria, non deve cioè contraddire le altre premesse. in questo caso la deduzione è a prova di erosione. Invece, l’induzione non è a prova di erosione. Una premessa che può erodere la conclusione è questa: “tutti i cigni sono bianchi…. (aggiungo) “gli animali malati tendono a diventare scuri” a questo punto la mia conclusione sarà meno certa. Quindi, in questo caso aggiungere una nuova premessa può erodere, può rendere meno certa la conclusione. Nella deduzione la validità deduttiva è del tipo tutto o nulla, la validità non presenta gradi. Un argomento o è totalmente valido o non è valido. Non è che la conclusione è più o meno vera, o è vera o è falsa, non ci sono vie di mezzo. Nell’induzione la conclusione può essere più o meno forte, cioè ha gradi di verità. Il fatto che abbia gradi di verità, ci porta ad un discorso sulla probabilità, cioè in base a quanti cigni che ho osservato io posso dire che questa conclusione sia più o meno probabile. Se io considero la probabilità come rapporto tra 1 e 0, cioè l’1 è la certezza, la verità, lo 0 è la falsità, allora una proposizione di questo genere può avere un grado di probabilità di 0,8. come faccio a misurare questo grado di probabilità? E questo è il problema della conferma della misura del grado di probabilità. Non sempre l’induzione è il passaggio dal particolare all’universale-generale, ma anche dal generale al generale. Esempio: “tutte le mucche sono mammiferi e hanno i polmoni, tutte le balene sono mammiferi e hanno i polmoni, tutti gli uomini sono mammiferi e hanno i polmoni”. In questo caso abbiamo 3 proposizioni generali, non singole, quindi l’induzione può portare da una proposizione generale ad una ancora più generale. C’è un passaggio dal generale al generale. L’inferenza induttiva L’inferenza induttiva si può intendere in due modi diversi, o la si intende come inferenza che permette di procedere dall’esperienza concreta alla generalizzazione, come una procedura che ci permette di risalire dal dato empirico alla legge, alla legge, alla sua formulazione. E questo è il modo tradizionale con cui viene intesa. 25 Per esempio Bacone sostiene il metodo della nuova scienza, in contrapposizione all’impostazione aristotelica. Lui diceva che Aristotele ha il difetto di saltare immediatamente alle conclusioni, di partire da premesse generali e di trarre delle conseguenze che siano valide per l’esperienza, e questo è il metodo sbagliato, perché noi non possiamo costruire la nostra ipotesi generale così. Induzione come logica della scoperta e induzione metodologica Bacone ipotizzava che ci fosse una procedura particolare che attraverso una serie di strumenti fosse possibile pervenire a soluzioni di carattere generale, cioè a fare ipotesi di carattere scientifico. Questa è l’induzione come logica della scoperta, come logica che ci permette di trovare delle ipotesi che va dal particolare al generale. Un altro modi di intendere l’induzione è quello metodologico. Tale concetto di induzione, intuito da Leibniz, vuole porre l’accento sul fatto che le teorie scientifiche non sono inferite meccanicamente dai fatti osservati, bensì “inventate”. In questo caso, il modo in cui una teoria viene elaborata, inventata, non ha importanza, si potrebbe dire che una teoria potrebbe essere frutto dell’immaginazione dello scienziato, ma non è importante sapere come una teoria gli è venuta in testa, perché la cosa più importante è controllare, valutare una teoria. Questi due modi di intendere l’induzione pongono due problemi diversi; il primo modo di intendere l’induzione pone il problema di chiederci: ma siamo legittimati a passare dall’osservazione di fatti particolari alla formulazione di una legge generale? E chi ci garantisce che questa formulazione di leggi generali corrisponda effettivamente ad una regolarità della natura e non semplicemente una nostra postulazione? È la classica domanda che si pone Hume. Chi ci garantisce che il sole sorgerà anche domani? Il fatto che noi abbiamo osservato che il sole è sorto ogni giorno è una base sufficiente per poter affermare che il sole sorgerà anche domani? Nel secondo caso ci si pone una domanda diversa: come facciamo noi a misurare il grado di sicurezza empirica che ha una certa teoria? Quali strumenti abbiamo per fare questa misura? Questi due argomenti vengono analizzati separatamente. L’induzione come logica per la scoperta e l’induzione come metodologia e probabilità sono due modi separati per poter analizzare. Induzione come logica della scoperta Chi ci assicura che le cose che fino ad ora sono andate in un modo andranno ancora in questo modo? Mill filosofo dell’Ottocento, diceva che in fin dei conti a garantirci che ciò che è stato, ancora sarà è la nostra fiducia nella regolarità della natura, cioè noi crediamo che la natura non sia capricciosa, che non abbia una sorta di libero arbitrio in cui una volta decide di comportarsi in un modo e poi in un altro. E quindi vi è una regolarità della natura che permette di affermare che esiste una causalità in essa, che esiste un nesso causale tra i fenomeni per cui un evento causa necessariamente un altro evento. Ma questa causalità della natura come facciamo a sapere che esiste? Per via induttiva, perché abbiamo visto che le cose sono andate sempre in questo modo. Questa assunzione della regolarità della natura diventa una sorta di fede metafisica, se non avessimo questa fiducia saremmo incapaci di fare la benché minima azione. Tutto potrebbe tramutarsi sotto le nostre mani, il pane che mangiamo essere acido, la pasta che cuciniamo può non cuocere più ma diventare sempre più dura. Tutto potrebbe essere suscettibile. Invece questo a noi non succede, ognuno di noi continuerà a fare le cose che ogni giorno facciamo, perché crediamo che queste cose continueranno a verificarsi. Ecco allora l’obiezione di Hume, che diceva che noi non abbiamo nessun motivo per credere che esista una causalità in natura, ciò che noi sappiamo è semplicemente la 26 successione tra eventi, cioè noi vediamo che c’è un evento A e che poi c’è un evento B. nessuno ci dice che l’evento B è avvenuto dopo l’evento A. E’ come se noi vedessimo alla stazione il treno dopo che abbiamo sentito suonare la campanella. Noi potremmo dire che il suono del campanello è la causa della venuta del treno, perché senza campanello non può arrivare il treno? No! Non è la causa, l’arrivo del treno è preceduto dal suono del campanello, non è il suono del campanello che causa l’arrivo del treno. Hume dice: noi vediamo le cose che succedono nella natura, vediamo che prima c’è A e poi c’è B, e noi siamo portati a dire che la prima è la causa della seconda. Hume ci dice che è semplicemente frutto di un’abitudine, la natura umana è fatta in modo da vincere i dubbi sulla ragione, perché se noi dovessimo per ogni evento e per ogni nostro comportamento i dubbi che ci pone la nostra ragione, non potremmo più vivere. Meno male che la natura umana è più forte della nostra ragione, per cui la nostra vita biologica, le nostre abitudini ecc ci permettono di superare i dubbi scettici della ragione. Nessuno e niente ci assicura che la natura sia fatta in quel modo. Kant aveva capito che con questa critica, Hume legittimava quelle che erano le leggi della natura che descrivono non un odo oggettivo di vedere la realtà ma un nostro modo di vedere la realtà, frutto delle nostre abitudini, cioè la realtà si comportava in quel modo perché eravamo noi a vederla così. La vita umana è molto breve, noi ci ricordiamo delle cose che riguardano un tempo in cui la razza umana ha cominciato a scrivere, a trasmettere notizie, a conoscere quello che faceva parte di generazioni precedenti. Ma le cose nel mondo potrebbero cambiare, niente e nessuno può escludere, per esempio, il decadimento delle molecole dell’acqua, per cui dopo un certo tempo l’acqua diventa improvvisamente non più adatta ad essere bevuta. Chi può escludere questo? Noi crediamo che essendo breve la nostra vita e gli eventi della natura seguono scale e tempi lunghissimi, allora siamo portati a pensare che siccome in quel lasso di tempo la natura si è comportata in un certo modo, allora continuerà ad essere sempre così, dalle origini dell’uomo fino alla fine dell’universo. Kant, che aveva capito che questo tipo di critica di Hume era devastante per la fisica, la quale pretendeva, invece, di conoscere le leggi universali e necessarie. Kant disse che non è una questione di abitudini, ma al modo in cui l’uomo si rapporta con la realtà. Cioè l’uomo non può pensare alla realtà se non all’interno della teoria della causalità. L’uomo non si abitua in maniera accidentale agli eventi naturali, ma la natura è costituita nella sua ordinazione sistematica, nella sua struttura legale conforme a delle regole, a delle leggi, è costruita dall’uomo, vi è l’intervento umano. Per cui, non possiamo essere sicuri che la natura è quella che è, che è immutabile. Questo qui è un modo per salvare l’oggettività delle scienze della natura ma a costo di dare all’essere umano una funzione molto importante. La posizione di Kant non fu accettata dalla filosofia della scienza, perché Kant doveva ammettere l’esistenza del cosiddetto giudizio sintetico a priori, mentre nell’ambito della filosofia del 900 il giudizio o era analitico o sintetico, non c’erano giudizi che fossero a metà tra l’analitico e il sintetico. O erano analitici gli esercizi della matematica, della logica, o erano sintetici (di fatto). Russell era consapevole di questo fatto, e si pone il problema dell’induzione. Egli rigetta la proposta kantiana e riprende quella di Hume, affermando che l’argomento di Hume è del tutto valido. Per fare questo fa l’esempio del pollo induttivista, nel senso che la nostra credenza nell’induzione è come quella di un pollo, il quale, siccome crede che ogni giorno il suo padrone gli ha portato da mangiare, non pensa che un giorno, prima o poi lo mangerà. Cioè lui proiettando verso il futuro la sua esperienza passata, non può immaginare che andrà a finire così la sua vita. È così anche noi esseri umani, in base alla nostra esperienza passata, pensiamo che quello che avverrà in futuro sarà lo stesso del passato. In effetti, lui dice che noi non dobbiamo commettere l’errore del pollo. Ma allora noi non dobbiamo avere fiducia nell’induzione? No! Noi dobbiamo avere fiducia nell’induzione, ma l’induzione non è né una regola empirica che 27 noi possiamo trarre dall’esperienza, né possiamo confutarla con l’esperienza. È un principio logico, così come accettiamo i principi della logica e della matematica. Proiettando verso il futuro la propria esperienza passata l’uomo sa ciò che avverrà. Dobbiamo avere fiducia nell’induzione. Ma non è una regola empirica, è un principio logico che noi accettiamo per poter emettere i nostri giudizi. Se c’è una regolarità nel mondo allora lo scopriremo. Nel Circolo di Vienna fu presente una consistente corrente di sostenitori dell’opportunità di servirsi dell’induzione come metodologia della scoperta, anche se in tutti era presente la consapevolezza della sua impossibile giustificazione. Si dà in sostanza ragione a Hume, in quanto si ammette che ogni qualvolta si applica il principio di causalità e l’induzione, si fa ricorso ad una credenza psicologica, ad un istinto. Tra i seguaci del Circolo, colui che diede maggiori contributi al problema dell’induzione fu Reichenbach, principale esponente del Circolo di Berlino. Egli considera per la scienza imprescindibile il “principio di induzione”, poiché esso permette di concludere dai fatti a una legge. Se non si facesse uso del principio di induzione, non sarebbe certamente possibile ricavare dalle osservazioni, delle leggi generali. Ammessa l’indispensabilità del principio di induzione, Reichenbach (una delle menti più importanti per quanto riguarda l’induzione) si pone il problema di motivarlo razionalmente, piuttosto che affidarlo alla natura o all’istinto. A tale proposito elabora il cosiddetto approccio pragmatico all’induzione. Egli fa la differenza tra giustificazione e legittimazione: Giustificare una cosa significa poterla dedurre da principi più saldi, in maniera tale che la sua verità sia indiscussa; Legittimare significa invece che noi riteniamo utile l’utilizzo di una certa norma, di un certo principio, perché ci fa raggiungere dei risultati efficaci. Io giustifico una norma morale se la faccio derivare da principi di carattere generale, per esempio, se è vero che bisogna rispettare la vita umana, allora ne deriva che io non posso uccidere una persona. In questo caso il mio comportamento è giustificato in base a un principio generale di carattere universale da cui deriva l’impossibilità e l’immortalità di una certa azione. La legittimazione no! Io non legittimo qualcosa in questo modo, legittimare significa che ritengo una certa azione utile perché mi fa raggiungere qualcosa che a me interessa. È chiaro che da un punto di vista morale mentire è un comportamento immorale, ma se io devo dire a un bambino che la medicina è dolce per fargliela prendere, in quanto così salvo questo da una malattia, allora la mia azione non è giustificata moralmente ma è legittimata, perché il risultato che io voglio ottenere giustifica il mio gesto. Allora dice Herbert Feigl nei confronti dell’induzione, che questa non può essere giustificata ma legittimata, cioè se c’è una regolarità in natura, se il mondo obbedisce a certe regole, allora l’unico modo per saperlo è utilizzare l’induzione. Quali altri strumenti, dice Feigl, ho io per accertarmi di una regolarità in natura? Posso provare a indovinare? Posso leggere nella sfera di cristallo? Devo andare da un chiromante? No! L’unico strumento, per quanto imperfetto, è quello di utilizzare i procedimenti appresi dall’empirismo. Oppure è come dice Reichenbach quando fa il paragone del pescatore. Il pescatore non sa se in un dato mare c’è del pesce oppure no, ma sa una cosa, che se non getta la rete non lo saprà mai. La cosa più concreta e più facile da fare è utilizzare l’atteggiamento pragmatico. Non so se c’è del pesce, ma butto la rete, se la rete prende i pesci, vuol dire che i pesci ci sono, se non li prendo vuol dire che non ci sono. Così è l’induzione, è come questa rete che buttiamo sull’esperienza. Se c’è una regolarità del mondo, allora grazie all’induzione noi lo scopriremo. Se non c’è nessuna regolarità nel mondo, se nel mondo tutto va a caso, qualunque metodo utilizziamo risulterà inefficace. Ci dovremmo rassegnare a vivere in un mondo caotico, ma in effetti non è così. Noi abbiamo visto che abbiamo più volte gettato questa rete nella realtà empirica e questa rete ci ha procurato pesci, ci ha procurato regolarità. Noi ci dobbiamo affidare al fatto che ci 28 sono queste regolarità. Noi non le possiamo giustificare queste regolarità, però siamo legittimati a credere in esse. Questo è quello che dice Reichenbach. Il problema dell’induzione non viene risolto, nel senso di dire che si riesce a trovare al massimo una legittimazione pragmatica dell’induzione. Si viene a trovare una motivazione per potere continuare a usarla, nell’incertezza che essa possa avere sempre. Cioè non possiamo escludere che ci possa essere un settore dell’esperienza umana in cui i risultati che abbiamo raggiunto tramite l’induzione ci portano ad errare. Di fatto l’induzione rimane uno dei grandi problemi della filosofia della scienza e dell’epistemologia che non viene risolto del tutto. Perché anche le soluzioni di Feigl e Reichenbach sono state criticate da diversi filosofi. Il problema dell’induzione rimane, ci fidiamo dell’induzione perché la vediamo nella regolarità della natura. C’è un altro aspetto dell’induzione, che consiste in una particolare dottrina, che trovò una larga accoglienza tra tutti i filosofi della scienza: la distinzione tra “contesto della scoperta” e “contesto della giustificazione”. Tale dottrina costituisce uno dei punti caratterizzanti di tutto il movimento neopositivista. Essa sottolinea il fatto che nella scienza non hanno tanto importanza le questioni di origine, quanto quelle di validità, per mezzo del controllo empirico. Afferma Popper, la questione: come accada che a un uomo venga in mente un’idea nuova, può rivestire interesse per la psicologia ma è irrilevante per l’analisi logica della conoscenza scientifica. Prende in considerazione non già questioni di fatto, ma soltanto questioni di giustificazione o validità. Perché un’asserzione possa essere esaminata logicamente qualcuno deve averla formulata e sottoposta ad esame logico. Non esiste nessun metodo logico per avere nuove idee, ogni scoperta contiene un “elemento irrazionale” o “un’intuizione creativa”. Tale distinzione è stata introdotta allo scopo di distinguere il campo dell’epistemologia (intesa quale filosofia della scienza) da quello della psicologia. L’atto creativo dello scienziato è un processo psicologico che ha ben poco a che fare con la logica, e non può essere in alcun modo giustificata in quanto è di esclusiva pertinenza della psicologia del soggetto, così come aveva già indicato Hume. Dunque, tutte le questioni che hanno portato lo scienziato alla scoperta di una teoria sono del tutti irrilevanti, appartengono alla psicologia, alla sociologia o alla storia. Noi quando vogliamo sapere se una teoria è valida o meno, non andiamo a vedere chi l’ha creata, dove è nata, quale popolazione ecc. Chiunque può avere una buona teoria. Diciamo se una teoria è scientifica o meno se la possiamo controllare, se la possiamo sottoporre a test di valutazione, allora noi diciamo che la teoria è scientifica. Se noi la sottoponiamo a test di valutazione ed essa li supera, allora noi riteniamo questa teoria scientifica. Quindi, una cosa è la scoperta, una cosa è la giustificazione, che appunto riguarda il secondo aspetto di cui si è parlato. Siccome si riteneva che la cosa più importante del filosofo della scienza o dell’epistemologo fosse quella di dare una misura del grado di conferma di una teoria, questa misura può essere data solo in termini di probabilità, perché nessuna teoria è vera in assoluto, nessuna teoria è stata confermata in modo da non poter essere smentita. Noi possiamo dire che una teoria è più o meno probabile, che ha avuto un grado di conferma di una certa percentuale. Ma come facciamo noi a valutare questo grado di conferma? La valutiamo, appunto, facendo stime probabilistiche, cioè dicendo: questa teoria è stata probabilisticamente confermata al 70%. In genere si usa un valore tra 0 e 1 (0,7- 0,8) ecc. 0 è il falso mentre 1 è il vero. 0,5 significa che la teoria ha una conferma del 50%, cioè per il 50% delle volte non è stata confermata. Al 50% non sappiamo se una teoria è vera o falsa. 29 Una teoria dovrebbe avere un grado di conferma superiore a 0,5, se noi vogliamo fidarci di una teoria. Il grado di conferma dipende dal controllo che noi facciamo, teoricamente, più controlli facciamo più la teoria è confermata. Ma non possiamo fare controlli infiniti, a un certo punto dobbiamo smettere, altrimenti non finiremo mai. Come si fa a controllare e a valutare? C’è la possibilità di dare un indice numerico a questi controlli? C’è la ricerca del grado di conferma che si fa su base probabilistica. Ciò significa che entra in gioco il concetto di probabilità. Che cos’è la probabilità? Noi spesso la usiamo nel nostro linguaggio quotidiano, quando per esempio diciamo: domani pioverà? È probabile! Ci sarà il sole domani? È improbabile! Cosa vogliamo dire quando noi diciamo è probabile o improbabile? Che siamo in una situazione di incertezza, cioè non sappiamo se domani pioverà oppure no, in base alle informazioni che abbiamo diciamo che è più probabile che piove oppure no. Ma come facciamo a misurare la probabilità? Questa è associata a un concetto statistico, cioè valutiamo sulla base della statistica, che è uno strumento fondamentale per studiare soprattutto i fenomeni sociali che accadono con una certa probabilità, ma non in altre cose. Nelle scienze sociali non possiamo dire che se una persona ha avuto un trauma infantile di conseguenza è diventato un serial killer. Spesso succede, però non possiamo affermarlo perché altrimenti ce ne sarebbero moltissimi. Nelle scienze sociali andiamo a fare studi statistici e diventa fondamentale il concetto di probabilità. Una persona che fuma probabilmente avrà un cancro ai polmoni. Come facciamo a dire quante probabilità ha questa persona di sviluppare un cancro? È si più soggetta, ma come si fa ad avere delle misure precise? C’è un modo di valutare la probabilità che è il più semplice, ed è quello che noi utilizziamo quando facciamo i giochi d’azzardo, i giochi che sono basati non sull’abilità ma sul caso, e sono solitamente i giochi in cui ha un ruolo fondamentale il concetto di probabilità, che si può calcolare sugli eventi aleatori, da “alea” che significa in latino “dado”, ovvero calcolare gli eventi come quando si gioca a dadi. Che esca una faccia o un’altra è del tutto casuale. Se noi andiamo a calcolare gli eventi aleatori tipo il lancio del dado, vediamo che c’è un sistema molto semplice per calcolare la probabilità. Basta semplicemente fare rapporto tra casi favorevoli e casi possibili. La misura della probabilità di un evento è il rapporto tra il numero dei casi possibili. Se noi puntiamo nel lancio dei dati sui pari, i casi favorevoli che noi vinciamo sono 3 su 6, cioè un mezzo, quindi, abbiamo il 50% di probabilità che vinciamo. È chiaro che i casi devono essere tutti possibili, se il dado è truccato non tutti i casi sono possibili. Nella roulette quante possibilità abbiamo che esca quel numero che noi puntiamo? I numeri sono 90, quindi, 1 possibilità su 90. anche in questo caso la roulette non deve essere truccata, perché altrimenti non vale più questo discorso. Come facciamo a sapere che tutte le possibilità siano egualmente possibili? Come facciamo a sapere cioè che il dado non è truccato? C’è un sistema pratico, cioè quello di aprire il dado, ma c’è anche un altro sistema. Se noi facciamo 6000 lanci del dado, allora di questi 6000 lanci dovrebbe uscire circa 1000 volte l’uno, 1000 volte il due, 1000 volte il tre, ecc. Se noi vediamo che su 6000 lanci esce 4000 volte il due e poi gli altri escono in maniera sporadica, allora ci viene il sospetto che qualcosa non và. Il concetto di possibilità si basa su quello di probabilità. La probabilità viene assunta in due accezioni diverse: Nel primo caso è una probabilità a priori (teoria classica) perché si basa semplicemente sulla considerazione astratta del rapporto fra casi favorevoli e casi possibili. Questo tipo di probabilità classica ha però un limite, se io prevedo già quello che uscirà, non è molto utile, è una conoscenza aggiuntiva. Allora, la teoria della probabilità classica o laplaciana, è stata corretta da una seconda forma di probabilità, la cosiddetta probabilità frequentista. 30 Nel secondo caso la probabilità è a posteriori, (teoria frequentista della probabilità), cioè viene calcolata la frequenza. Perché molto spesso non siamo in grado di dire a priori quante sono le possibilità che succeda una determinata cosa? Per esempio se una persona che fuma si ammali di cancro ai polmoni? O una persona si ammala oppure no. Le possibilità sono due. Quindi, se noi calcolassimo questa probabilità dobbiamo dire che ha il 50% di possibilità che non si ammali. Il fatto che si ammali oppure no, non dipende dal fatto che fumi, dipende da altri fattori, dalla sua costituzione fisica, se è debole di polmoni, da quante sigarette fu,ma, se poi ha una vita sana, se è geneticamente predisposto alla malattia, ecc. Noi non possiamo fare un discorso semplicemente astratto, casi favorevoli su casi possibili. Allora dobbiamo fare una valutazione a posteriori, cioè dobbiamo vedere quante persone che sono nelle stesse circostanze, con stesse caratteristiche fisiche, ecc, si ammalano. se io dico: “quante probabilità ci sono che uscendo di casa io incontri una certa persona? Non posso saperlo a priori. Dipende da quante volte è successo di incontrare quella persona. Se non l’ho mai incontrata, allora avrò lo 0,1% di probabilità di incontrarla. Faccio questo calcolo in base a quello che è successo in passato, grazie all’induzione probabilistica. La frequenza ha bisogno dell’induzione. Nell’esempio del tiro al bersaglio, la possibilità di colpire il centro dipende da me, dalla mia abilità, non posso dire quante probabilità io ho rispetto a un’altra persona, perché l’abilità può appartenere ad una persona ma non all’altra. Posso parlare per me, in base ad una serie di tentativi capisco quanto sono abile. Se su 200 tiri colpirò il bersaglio 65 volte, avrò un’idea più specifica delle mie abilità. Con l’aumentare dei tiri si arriva ad un numero che si stabilizza. Allora, sulla base della frequenza, in base alle mie capacità e al fatto che migliori queste capacità, si vede statisticamente quali sono i risultati. E questo è il concetto di probabilità statistica. Cosa dice il concetto di probabilità statistica? Dice che all’aumentare dei casi il valore statistico tende a convergere su un valore costante. Nel caso della teoria frequentista, questa può essere utilizzata soltanto quando noi abbiamo a che fare con eventi ripetitivi. Se non abbiamo eventi ripetitivi o abbiamo a che fare con eventi la cui struttura cambia di volta in volta, per esempio due squadre di calcio a confronto: quante probabilità ha il Catania di vincere contro l’inter? Chi lo sa? Certo, noi diremmo, facendo delle considerazioni più personali, come il fatto che l’inter è più forte, l’altra squadra ha un certo giocatore che è molto bravo, ecc. cioè facciamo una serie di considerazioni e infine arriviamo a dire che il Catania ha il 20% di probabilità. Ma questo non è un evento che noi possiamo stabilire. Perciò dobbiamo mettere in campo tutta una serie di valutazioni che esprimono risultati oggettivi. Teoria soggettivistica della probabilità Ecco allora la teoria soggettivistica della probabilità. In assenza della possibilità di creare campioni sufficientemente numerosi e statisticamente significativi di eventi, allora cosa dobbiamo fare? Possiamo valutare la probabilità da un punto di vista soggettivo, cioè come nostra credenza che un certo evento accada. È chiaro che noi facciamo una serie di stime che possono essere del tutto personali, cioè tifiamo per una certa squadra e siamo portati ad aumentare le possibilità che questa vinca. Quindi, nel momento in cui supponiamo una credenza sull’avvenimento di un evento che in genere viene definito come evento unico, come una partita di calcio, o altri eventi simili, possiamo dire personalmente quante probabilità ci sono in base a delle credenze soggettive. Significa che la probabilità è qualcosa di assolutamente arbitrario? Per certi aspetti si. Non possiamo, cioè, andare a capire il modo in cui noi formuliamo una valutazione probabilistica. 31 De Finetti dice che c’è un modo per poter dare stime soggettive, però che siano coerenti. Bisogna cioè rispettare il principio di coerenza. Cosa ci dice questo principio? Ci dice che noi dobbiamo essere in grado di scommettere in maniera tale che non dobbiamo perdere in ogni caso. Perché in fin dei conti com’è che si misura la nostra credenza? Se noi, per esempio, crediamo che una cosa non avvenga o siamo assolutamente sfiduciati che una cosa avvenga, saremo disposti a scommettere molto poco. Se noi invece siamo sicuri che la cosa avvenga, allora saremo disposti a scommettere tanto. Ciò che noi siamo disposti a scommettere è la misura della nostra credenza. Però, dice De Finetti, l’importante è che noi rispettiamo il principio di coerenza, che dice che se noi pensiamo che ci sia una certa possibilità che il Catania vinca contro l’inter e quindi siamo disposti a scommettere 100 euro sul Catania, allora per coerenza dobbiamo pensare che abbia 2/3 di possibilità che vinca l’inter, quindi, sul fatto che vinca l’inter dobbiamo essere in grado di scommettere il doppio, cioè 200 euro. Perché se noi scommettiamo 100 euro sul Catania e 100 euro sull’inter, perderemo sempre a lungo andare. Perché quando noi vinciamo perché vince l’inter, noi non recupereremo i soldi scommessi sul Catania. Questo sistema è incoerente. Quindi, è importante questo principio di coerenza. Ecco perché si fanno le scommesse. Se io scommetto sulla vittoria del Catania per 15 a 1 significa che io scommetto 1 e mi danno 15+1. per cui, se scommetto 100 euro e incasso 400 euro allora la probabilità da me assegnata all’evento sarà di ¼. Questo è il modo soggettivo o anche teoria della probabilità personale. Si vogliono introdurre qui delle componenti soggettive e psicologiche del soggetto, cioè si pensa di incentrare i modelli di credenza non tanto oggettivandoli, piuttosto rendendoli soggettivi. Se io propendo per un tipo di probabilità lo faccio in base a delle credenze soggettive. Facciamo un altro esempio: se so che durante la lezione c’è un gruppo di persone che sistematicamente arriva con 3 quarti d’ora di ritardo e ascolta solo l’ultimo quarto d’ora di lezione, io sarò in grado di prevedere quando queste persone stanno per arrivare, sapendo che a quella determinata ora succede sempre. La causalità, in questo caso è basta su dei fattori di natura conoscitiva. Teoria logicistica della probabilità Ci sono altri concetti di probabilità, uno è il concetto di probabilità logica realizzato da Carnap. Carnap riprende la teoria soggettivistica, però, invece di parlare delle credenze del singolo individuo parla delle credenze razionali di un essere umano idealizzato, cioè dispone delle informazioni necessarie per poter dare delle attribuzioni probabilistiche. A questo modello manca l’esperienza concreta. Ad esempio, nel caso del tumore causato dal fumo, sa che quella persona è di sana e robusta costituzione fisica, che la sua famiglia non ha predisposizioni genetiche, che consuma poche sigarette al giorno, ecc. In base a tutte queste valutazioni razionali, che lui sa che hanno un’incidenza sullo sviluppo della malattia, allora è in grado di fare una previsione probabilistica. Quindi, in Carnap l’idea della valutazione logica della probabilità è legata al possesso di informazioni che hanno forma proposizionale e che permettono di dare una misura del grado di probabilità che avvengano certi eventi. Per Carnap le teorie della scienza non sono vere, ma solo confermate in misura maggiore o minore, e questa è una evoluzione del criterio adottato nel Circolo di Vienna, che invece insisteva sulla verifica delle teorie. Fu così che Carnap suggerì di abbandonare il concetto di verificazione per introdurre il concetto quantitativo di grado di conferma o probabilità logica. In sostanza per Carnap la conferma di un’ipotesi si riduce al confronto tra essa ed una serie di risultati sperimentali che la verificano: tanto più elevato il numero di casi che la verificano, tanto più alto il grado di conferma che essa possiede. Noi dovremmo costruire un sistema di logica induttiva tale, che a ogni coppia di enunciati, di cui uno formula una certa evidenza e e 32 l’altro, una ipotesi h, sia possibile assegnare un numero che dà la probabilità logica di h rispetto a e. Naturalmente, se il sistema di logica induttiva dovrà essere di qualche valore reale per la scienza, dovrà risultare applicabile a un linguaggio quantitativo tipo quello della fisica. Questo scriveva Carnap con evidente ottimismo. Ma i fatti non gli hanno dato ragione: risultò quanto mai difficile estendere la logica induttiva a linguaggi di una complessità almeno comparabile a quello della fisica, ma già nelle sue formulazioni più semplici la proposta logicista portava ad una conseguenza sorprendente: la probabilità di un’ipotesi universale, è sempre eguale a 0, non importa quante siano le conferme sperimentali positive. Come affermano Costantini e Popper, questa posizione è in completo disaccordo col quotidiano lavoro degli scienziati. Infatti nessuno scienziato dubita della validità relativa delle leggi che formula e certamente non assegnerebbe loro probabilità pari a zero. Le proposte di Carnap sono lontane dall’obiettivo: il logico induttivo non chiarisce affatto il lavoro scientifico e la natura delle asserzioni scientifiche, ma pretende di imporre loro una logica induttiva, meramente inventata sulla base di considerazioni a priori. Il sistema di Carnap non funziona e infatti viene abbandonato. La teoria della propensità La teoria della propensità di Popper cerca di dare un carattere oggettivistico alla probabilità, cioè dice che la probabilità non è una misura soggettivistica, ma è piuttosto la tendenza della natura a comportarsi in un certo modo. I bambini diventeranno adulti un giorno, questo fatto non è una probabilità. La tendenza a diventare adulti è una conseguenza dell’essere bambini, è una conseguenza necessaria. Così, la probabilità è la tendenza della natura a comportarsi in un certo modo, come se la natura avesse delle potenzialità. È ovvio che poi, questa concezione di Popper finisce per tradursi in frequenza, perché come facciamo noi a misurare le potenzialità della natura? Soltanto analizzando le frequenze con cui la conosciamo. Per cui, Popper, nel concreto finisce per accettare la concezione frequentista della probabilità. Il teorema di Bayes Infine, Tomas Bayes, che è un matematico dell’800, elaborò un teorema che si chiama teorema di Bayes. L’idea di Bayes riguarda la fiducia nutrita da un soggetto, sulle sue conoscenze iniziali, le sue attese, nei confronti di un evento, possano aumentare in seguito ad una valutazione razionale di nuovi dati che egli acquisisce successivamente attraverso l’esperienza concreta, man mano che vengono introdotti elementi nuovi di supporto. Il grado di probabilità iniziale del soggetto si fonda sul possesso di una serie di cose che sa e che pensa. Il teorema di Byes non misura direttamente se e come l’evento si verificherà, misura piuttosto la possibilità di dimostrarmi come il valore di probabilità personale che io ripongo nel verificarsi di un evento si modifica man mano che io introduco nuovi elementi. Mi dice se il mio grado di probabilità si rafforza oppure no, nel momento in cui introduco elementi di conoscenza nuovi. Per esempio, io o che in un’urna ci sono palline rosse e palline bianche, ma non so quante di rosse e quante di bianche. Allora assumo che vi siano 50 palline rosse e 50palline bianche in base ad una stima iniziale effettuata, faccio semplicemente un’ipotesi. A questo punto mi accerto che questa mia ipotesi sia valida, infilo la mano dentro l’urna ed estraggo una pallina, esce una pallina bianca, questa nuova esperienza non contribuisce in maniera significativa la mia fiducia nella mia ipotesi, ma se infilo la mano 10 volte e 10 volte su 10 prendo sempre le palline bianche, allora a questo punto mi viene il dubbio che le palline siano 50 bianche e 50 rosse. Può darsi che quelle bianche siano 70 e ce ne siano soltanto 30 di rosse. La formula di Bayes permette di calcolare, in base a quelle che sono le mie 33 conoscenze iniziali, la probabilità di un’ipotesi, in base alle esperienze da me effettuate e in base alle conoscenze di sfondo che avevo. I punti cruciali di questa formula riguardano la necessità di avere delle probabilità iniziali, cioè la prima ipotesi che faccio deve avere delle probabilità iniziali, ovvero che la mia ipotesi abbia un qualche grado di probabilità (conoscenza di sfondo). Dato questo, con il teorema di Bayes io ho la possibilità di valutare, attraverso nuove esperienze se le mie probabilità iniziali aumentano o diminuiscono. Il vantaggio della teoria di Bayes è che non si parte da zero, si parte da una probabilità. Le nuove esperienze servono a modificare questa mia stima iniziale. Le esperienze mi danno una misura concreta di quello che io apprendo dall’esperienza, e mi danno la possibilità di calcolare questo valore. Il teorema di Bayes non ci permette di prevedere la certezza dell’evento, ma come si arriva ad un determinato evento, ci dice, a partire dal dato certo, come, passando da altri dati, si arriva a formulare un risultato diverso da quello iniziale. Il teorema di Bayes ci dice che la probabilità a posteriori è superiore alla probabilità a priori. Quindi, c’è un elemento soggettivista nel teorema di Bayes, ma c’è anche questa capacitò di valutare l’incidenza delle cose. Insomma, è il modo migliore per poter esplicitare matematicamente l’idea di come apprendiamo dall’esperienza, poiché noi apprendiamo dall’esperienza in base a quelle che sono già delle convinzioni che abbiamo e che ci danno già una valutazione probabilistica iniziale. Non apprendiamo mai da zero. Esempio: se io credo che quel professore è uno che boccia tutti, ed è cattivo, ma poi faccio esami e vedo che non ha bocciato nessuno, a questo punto la mia valutazione ipotetica, cioè la mia conoscenza di sfondo cambia, nel senso che ridurrà la percentuale delle persone che il professore boccia. Io apprendo dall’esperienza, a partire da quella che era una mia ipotesi iniziale. Bocciava inizialmente nel 9% dei casi, poi vado a fare esami e vedo che l’80% delle persone ha superato gli esami. Allora la mia ipotesi iniziale è cambiata, grazie all’esperienza. Non sarà più del 90% ma tra il 50%-60%. Il paradosso dei corvi o della conferma Il teorema di Bayes riguarda l’ipotesi su un evento, non riguarda direttamente l’evento. Cosa dovrei fare per conoscere correttamente ciò che devo conoscere? E come conosco realmente? E come dovrei conoscere? Quello che io sto conoscendo, lo sto conoscendo in maniera scientificamente esatta? Sto facendo degli errori? Di fatto io conosco le cose in un certo modo, e invece ci sono delle regole ideali per conoscere. Questo è il problema centrale dell’epistemologia. Di fatto io conosco, ma per avere una conoscenza basata su una credenza vera e giustificata, questa deve essere sostenuta da argomentazioni razionali capaci di difendere la mia tesi ovunque e comunque. Quali passi devo muovere affinché abbia una conoscenza scientifica? Di come realmente conosco non se ne occupa l’epistemologia, ma la psicologia, di come io invece in maniera normativa stabilisco le regole per ottenere una buona conoscenza se ne occupa l’epistemologia. Si pone il problema della conferma qualitativa. Cioè, questa conferma di che qualità è? È di buona qualità o di pessima qualità? La qualità dipende dal tipo di percorso che io faccio per avere la conferma. Se io costruisco un diverso tipo di percorso, ottengo un altro tipo di conferma. Se io dico “tutti i mammiferi sono quadrupedi” allora ho un problema di osservazione, per esempio qualitativo, perché di fatto i mammiferi non sono quadrupedi. Allora dove sta il problema della conferma? Sono io che sto seguendo una strada sbagliata oppure sono io che faccio lo scienziato ma ho un problema agli occhi. Quindi, dobbiamo distinguere tra l’aspetto qualitativo e l’aspetto quantitativo. Quando noi parliamo di conferma quantitativa ci riferiamo non a quante volte facciamo osservazioni, ma come conduciamo le osservazioni. L’ approccio di natura quantitativa 34 era tipico del circolo di Vienna, perché loro erano convinti che più esperienze si fanno, quindi, più testo una cosa, più essa è vera. Confermare più volte escludendo quindi ogni dubbio. Questa era un po’ la tecnica del positivismo. Popper poi dice che non è così. Non è vero che facendo una cosa 7.000 volte ottieni più conoscenza, perché basta un tentativo falso che la teoria si considera fallimentare. Il paradosso della conferma dimostra esattamente come noi ragioniamo e che mentre noi ragioniamo possiamo incappare in ostacoli belli grossi e problemi altrettanto gravi. Questo paradosso è stato identificato da Hempel attraverso l’esempio paradigmatico che è il paradosso dei corvi. Hempel ci dice che l’approccio quantitativo è fallimentare, allora ne utilizza uno di natura qualitativo, che dipende dal tipo di percorso che noi facciamo, non da quante esperienze facciamo, ma dipende da come ci arriviamo, dal modo in cui arriviamo alla conferma di quell’evento. Quando noi parliamo di conferma qualitativa e dei suoi paradossi intendiamo riferirci al fatto che se un essere razionale in una condizione ideale persegue il quid-luis cioè segue le buone formule, i passaggi giusti per ottenere una credenza vera e giustificata, arriverà ad ottenere certi risultati. Se non ci arriva noi diciamo è perché ha sbagliato percorso. L’esempio giusto è quello del paradosso dei corvi, ma affinché si possa fare questo tipo di paradosso noi dobbiamo presentarci attraverso un criterio: “principio di generalizzazione”, che ci dice: se questo oggetto è marrone allora è legno. Cioè, se una cosa è in un certo modo allora deve avere quelle proprietà. Se assumo che il colore marrone è una caratteristica essenziale di un certo legno, allora dirò: “ marrone, allora legno”. Questo è il principio di generalizzazione. È un principio molto elementare sul quale si basano le nostre analogie mentali. Certo non posso dire per esempio: “se rimbomba allora è legno”, perché anche il ferro rimbomba, ecc. il rimbombo non è legato al tipo di materiale che lo costituisce. Il principio di generalizzazione noi lo utilizziamo moltissimo. Il secondo elemento che dobbiamo assumere prima di addentrarci nel paradosso dei corvi è “il principio di equivalenza”. Questo principio ci dice che un’ipotesi ben confermata può automaticamente confermare un’altra ipotesi. Questa ipotesi ben confermata che io possiedo, mi può tranquillamente giustificare e confermare un’altra ipotesi che deve essere conseguente. “tutti i corvi sono neri”: se è corvo è anche nero (equivalenza), cioè la proprietà dell’essere nero e il fatto di essere un corvo sono equivalenti tra di loro. Si equivalgono. Il principio di generalizzazione e di equivalenza ottiene il seguente risultato: consideriamo la proposizione “tutti i corvi sono neri” dal punto di vista logico: Se per ogni X cioè elemento, se X possiede la proprietà C, allora X possiede la proprietà N. Se ha una proprietà ne deve avere anche un’altra, cioè se un gruppo di corvi ben confermato mi dice che tutti i corvi osservati sono neri, allora posso dire chiaramente che un’ipotesi ben confermata me ne dice un’altra. Possiedo l’ipotesi confermata sui corvi e sul fatto che sono neri. Il principio di generalizzazione (o di Nicod) dice che se tutti gli F allora tutti G. se tutti questi allora hanno tutti la stessa cosa. Se tutti gli uomini, allora tutti mortali. Se l’insieme uomo è uomini, allora tutti quelli che sono uomini avranno sicuramente la stessa caratteristiche, cioè sono mortali. Il paradosso della conferma di Goodman o paradosso dei blerdi È un paradosso che concerne il problema della predizione, cioè la possibilità di fare delle previsioni che riguardano il futuro sulla base di quelle che sono state le esperienze del passato. Diciamo che se in passato le cose sono andate in un certo modo, in futuro dovrebbero andare in un certo modo. 35 Se in passato abbiamo osservato che un certo smeraldo è verde, anche in futuro diremo che lo smeraldo è verde. Tutti gli smeraldi che noi abbiamo esaminato fino a un certo momento sono verdi, abbiamo avuto quindi conferma del fatto che tutti gli smeraldi sono verdi. Questa ipotesi è stata fino ad ora confermata. Goodman dice: ammettiamo di introdurre un nuovo predicato “blerde”. È un particolare colore che è verde fino a un certo momento e poi diventa blu (blerde). Per cui abbiamo un secondo enunciato che afferma: “tutti gli smeraldi sono blerdi”. Abbiamo l’affermazione a che è già confermata, che gli smeraldi sono verdi, e l’affermazione b che dice che tutti gli smeraldi sono blerdi. Sono confermate entrambe, sia la a che la b. Cioè, fino al tempo t tutti gli smeraldi sono verdi e dopo il tempo t diventeranno blu. Queste due affermazioni che dicono cose completamente diverse sono egualmente confermate. E sono tuttavia incompatibili, perché sono due ipotesi che dicono due cose diverse rispetto alla stessa cosa, però sono egualmente confermate. Goodman dice che quando noi facciamo una previsione concernente il futuro, non ci possiamo basare su quella che è la quantità delle osservazioni che abbiamo fatto in passato. Perché la mera quantità delle osservazioni fatte in passato non ci dice nulla su quello che accadrà in futuro. Egli dice: perché è più plausibile l’ipotesi che tutti gli smeraldi sono verdi rispetto all’ipotesi che tutti gli smeraldi sono blerdi? Noi siamo disposti ad accettare la prima ipotesi ma non siamo disposti ad accettare la seconda. Qualunque persona sana di mente, dice Goodman, non accetterebbe mai che tutti gli smeraldi sono blerdi ma verdi. Mentre da un punto di vista logico entrambe le due ipotesi sono equivalenti, dal punto di vista pratico non è accettabile una cosa del genere. Perché? Perché in fin dei conti il termine “verde” fa parte del nostro linguaggio, è ormai radicato in noi. Noi siamo abituati ad avere a che fare con le cose verdi, le conosciamo, ma non abbiamo mai avuto a che fare con cose blerdi. Questo predicato lo abbiamo introdotto in maniera artificiosa, è stata una nostra creazione, non è un termine che fa parte del nostro linguaggio ordinario. Allora, il fatto che noi preferiamo un’ipotesi piuttosto che un’altra, non deriva dal fatto che un’ipotesi è supportata logicamente meglio dell’altra, dipende piuttosto dal fatto che noi siamo abituati ad avere a che fare con i termini del linguaggio che noi accettiamo. È una questione meramente pragmatica. In fin dei conti è quello che diceva Hume, cioè noi crediamo nell’induzione che il sole domani sorgerà perché siamo sempre stati abituati a vedere il sole che sorge. Mentre il fatto che domani il sole possa non sorgere è qualcosa a cui non siamo mai stati abituati e diventa una cosa eccezionale e quindi tendiamo a scartare tale ipotesi. Goodman, quindi, sostiene che i motivi per cui noi accettiamo una certa generalizzazione e accettiamo di fare previsioni per il futuro, sono motivazioni che non hanno a che fare con la logica, ma sono delle motivazioni di carattere pragmatico, storico e non logico-razionale. Il paradosso dei corvi di Hempel Più complicato è il paradosso dei corvi di Hempel. Egli, di fronte allo scontro di quella che è la logica e quelle che sono le nostre induzioni psicologiche, preferisce la logica. Noi dobbiamo imparare a pensare in maniera logica, non in base a quelli che sono i nostri pregiudizi psicologici. Sembra un paradosso perché c’è “tutti i corvi” cioè c’è l’universale. Non solo. L’universo dei non corvi e dei non neri è infinito rispetto a tutti i corvi. Mettiamo il caso che io avessi soltanto 4 oggetti: 2 libri bianchi e due libri neri. Allora tutto il mio universo è fatto da questi 4 libri. I due libri bianchi sono di filosofia e i due libri neri sono di magia nera. Allora, a questo punto dico: “tutti i libri di filosofia sono bianchi”, tenendo conto che il mio universo è fatto di 4 oggetti in tutto. Allora, se io faccio la seguente osservazione: “ il libro di magia nera è nero”, secondo il paradosso dei corvi conferma che tutti i libri di filosofia sono bianchi. E in effetti è vero, perché se gli oggetti sono 4, il fatto che 36 io escludo quell’oggetto che non è corvo, che non è nero, lo escludo indirettamente. Per cui, se io dico “il libro di magia è nero” a questo punto mi risulta che i libri di filosofica sono bianchi, perché ho esaurito il mio universo. L’affermazione di due affermazioni contrarie: “tutti i libri di occultismo sono neri e tutti i libri di botanica sono neri” di fatto conferma che tutti quelli di filosofia sono bianchi, perché in questo caso abbiamo a che fare con un universo limitato. Quindi, da un punto di vista logico è chiaro che quando un universo è infinito le cose si complicano, perché prima che uno esaurisca tutto l’universo per confermare l’ipotesi ce ne vuole. Ecco il carattere di paradossalità. Però da un punto di vista logico, ed ha ragione qui Hempel, non è paradossale, perché man mano che io escludo elementi, confermo il suo contrario. Cioè, man mano che io affermo: “esiste un elefante rosa” elimino un possibile oggetto che è un corvo nero. Se io riuscissi a esaminare tutti gli oggetti non corvi e non neri, verrebbe confermata l’ipotesi “i corvi sono neri”. Logicamente verrebbe confermata. Quindi non sarebbe più un paradosso, pragmaticamente non lo posso confermare. In Goodman ha la prevalenza la pragmatica e l’esperienza passata viene privilegiata, cioè che i concetti sono radicati in noi. Invece, per Hempel è il contrario. Viene privilegiato l’aspetto logico a discapito di quello pragmatico. Cioè, pragmaticamente sembra un paradosso, ma logicamente non lo è. Il rifiuto dell’induzione: Karl Popper Uno dei critici più forti nei confronti dell’induzione è stato Popper, uno dei maggiori esponenti della scienza contemporanea. I critici come lui dicono che dell’induzione non posiamo fidarci, che non serve a nulla e deve essere eliminata. Per Popper, la strada dell’induzione è percorsa da innumerevoli problemi. Perché allora non rassegnarsi all’inevitabile, e cioè al fatto che non esiste possibilità alcuna di risolvere il problema dell’induzione? Popper in particolare critica l’induzione perché vede nell’induzione il supporto della verificazione. Il concetto di conferma si basa sul principio dell’induzione probabilistica. Lui dice che comunque concepiamo le regole per avere un’induzione probabilistica, in ogni caso, la conferma che noi possiamo dare alle ipotesi universali è prossima allo zero. La probabilità che H sulla base dell’esperienza E sia uguale ad un certo valore probabilistico è sempre prossima allo zero. Allora dice, se noi arriviamo a questa conclusione che qualunque cosa sia universale, che venga valutata su base probabilistica, viene ritenuta assai poco probabile, evidentemente noi di questo concetto non possiamo farne uso. Allora, Popper propone il concetto di falsificazione, e dice: noi possiamo essere sicuri di una cosa, del fatto che se noi facciamo una certa ipotesi e da questa ipotesi traiamo fuori delle conseguenze, empiriche che devono derivare da queste ipotesi, e poi vediamo che queste conseguenze empiriche non si realizzano, non accadono, allora possiamo essere certi che viene falsificata l’ipotesi. È il cosiddetto modus tollens. Se abbiamo una certa teoria e da questa traiamo un’esperienza, se T allora E, E non accade allora sarà falsa la teoria. T allora e, non e allora non t. A differenza delle conferme, dove non sono sufficienti numerosissime conferme per poter avere una certezza di alta probabilità di una teoria, invece basta una semplice sconferma, falsificazione, per essere sicuri che quella teoria deve essere rigettata. Questo ha un vantaggio rispetto alla conferma. Significa che noi dobbiamo avere un atteggiamento diverso, non dobbiamo andare alla ricerca delle conferme, noi dobbiamo invece andare alla ricerca delle falsificazioni, cercando di mettere alla prova la teoria nelle circostanze più difficili. Per esempio, non posso mettere la teoria per la quale tutti gli uomini si amano e si rispettano reciprocamente, andando a verificare questa teoria prendendo tra le persone che si amano e 37 rispettano i miei parenti, perché è troppo banale. Devo prendere il mio nemico, una persona lontana, ecc. a questo punto farò un serio tentativo di falsificazione, cioè non andrò in cerca della conferma, ma andrò in cerca della falsificazione. Se la mia teoria che tutti gli uomini si amano e rispettano supera questo tentativo di falsificazione, allora posso dire che è una teoria solida. Popper dice che la cosa importante è questa, la scienza è ciò che può essere falsificato e non confermato. Le cose confermate sono tantissime, ma non fanno parte della scienza, è confermato che se piove è umido ma non è questo che fa la scienza. Le conferme sono cose banali, dice Popper. Il problema è tentare di fare delle falsificazioni. Per fare ciò le teorie devono essere falsificabili. Cioè non posso creare delle teorie che non sono falsificabili, perché non è una scienza una teoria non falsificabile, ma, è scienza una teoria che abbia dei falsificatori potenziali, che possano contraddire la mia teoria. Se io faccio la teoria che i metalli sono buoni conduttori di elettricità, allora io so quale potrebbe essere l’esperienza che mi può falsificare questa legge. Ad esempio collego una presa dove c’è l’elettricità, prendo un metallo, lo collego alla presa, dall’altro capo del metallo ci metto la lampadina. Se la lampadina si accende, la teoria non è stata falsificata, possiamo dire che è stata corroborata (confermata). Significa che ha superato un serio tentativo di falsificazione. Quindi, Popper introduce, al posto della verificazione la falsificazione, e al posto della conferma la corroborazione. La corroborazione non può essere misurata, dipende soltanto dalla serietà e onestà con cui vengono effettuati i controlli. Si basa anche su un’etica che consiste nel fatto che lo scienziato non cerchi di sfuggire alla falsificazione inventandosi stratagemmi particolari, e non cerchi per esempio di dire: “sostengo che tutti gli islamici sono razzisti e se vedo un islamico che non lo è sostengo che non è un islamico o che è stato educato in maniera cristiana. Questi sono dei tentativi di evitare la falsificazione creando delle giustificazioni, delle modifiche che cambiano i termini della questione e ne facciano comunque salvare la teoria. Dice Popper che ciò si deve evitare, perché questo è un elemento di scorrettezza scientifica. Popper sostiene che per valutare se quella è effettivamente una scienza, dobbiamo essere in grado di confrontare più teorie. Mettendo a confronto due teorie possiamo scoprire che c’è una teoria che supera meglio i controlli rispetto all’altra. Per Popper, la cosa importante è vedere come cresce la scienza, come si sviluppa. Secondo lui la scienza si sviluppa attraverso il metodo della “riduzione”, cioè quando una teoria successiva incorpora in sé le teorie precedenti, le quali diventano dei casi più particolari della teoria generale. Un’altra conseguenza dell’impostazione di Popper è che il concetto di falsificazione non è un criterio di significato ma di “demarcazione”, cioè i positivisti utilizzavano la verità per distinguere il senso dal non senso, se io faccio un’affermazione e dico: “ tutti i cani sono gavagai”, io posso dire che significa “gavagai” se sono in grado di specificare quando un cane è gavagai, perché per esempio i cani scodinzolano sempre quando vedono il cibo. Allora io do un significato a questa parola dicendo concretamente cosa succede. L’idea neopositivisti era questa, che i significati dei termini fossero legati alla verifica, cioè al modo in cui io mi accerto quello che quel termine significa. Popper dice che non è vero. A volte ci sono delle teorie e dei concetti che non possono essere verificati, come per esempio le teorie filosofiche, metafisiche. Noi diciamo che una cosa è priva di significato perché non capiamo bene cosa voglia dire. Il criterio di significato è così ristretto che ci farebbe escludere spesso le teorie che possono avere una grande funzione nella scienza, e che possono essere suggeritrici di nuove idee e nuovi sviluppi. Invece, il criterio di falsificazione non è che distingue il significato dal non significato, ma distingue piuttosto la scienza dalla non scienza. La rivalutazione della metafisica, intesa come euristica rispetto alla scienza 38 Nel neopositivismo, c’è da una parte la metafisica e dall’altra la scienza. La conoscenza scientifica è quella del regno del significato (la scienza empirica) matematica e logica. Invece, per Popper la metafisica e scienze empiriche sono all’interno del significato, non vengono distinte. Mentre nel neopositivismo la metafisica è all’esterno della conoscenza scientifica e all’esterno del significato, per Popper è all’interno del significato. Il problema, dice Popper, non è del significato, ma è un problema di demarcazione, cioè capacità di distinguere scienza empirica da metafisica, anche se la metafisica è importante per la scienza, ha una funzione euristica (importante per la ricerca). Perciò, da questo punto di vista, Popper rivaluta l’importanza della filosofia. Mentre per il neopositivismo la filosofica metafisica aveva una funzione negativa, bisognava cercare di eliminare la metafisica dalla scienza, perché essa avrebbe avuto una funzione negativa, di raffreddamento, freno nei confronti dello sviluppo scientifico; invece, per Popper la metafisica non ha questa funzione di freno, o comunque non ce l’ha sempre, ma ci sono momenti in cui la metafisica ha una funzione positiva, quella di sviluppare nuove idee e aprire nuove strade (funzione euristica). Dunque, la metafisica è accettabile solo nella misura in cui porta alla scienza. Resta ben saldo, quindi, il fatto che la scienza non si fonda sulla metafisica, che fino a quando la metafisica resta tale, essa non è scienza. Ovviamente è impossibile eliminare tutti gli elementi metafisici dalla scienza, in quanto essi sono troppo strettamente intrecciati col resto. La spiegazione scientifica: leggi e teorie Lo scopo della scienza è quello di trovare spiegazioni soddisfacenti. La spiegazione scientifica si caratterizza per il fatto di rispondere ad un perché. Il concetto di spiegazione ha suscitato una certa diffidenza sul neopositivismo delle origini. 39 Oggi l’atmosfera filosofica è cambiata dal momento che, quando ora qualcuno chiede “perché”, noi riteniamo che egli lo intenda in senso scientifico, non metafisico: ci chiede semplicemente di spiegare qualcosa collocandola in un contesto di leggi empiriche. Questo modo nuovo di intendere la spiegazione venne per prima proposto da Campbell e poi esposto nel manuale di Cohen, cioè che l’evento si vuole spiegare sotto qualche legge generale. Il risultato di tale progressiva spiegazione è quello di rivelare la interconnessione di molte proposizioni apparentemente isolate. Tale approccio viene fatto proprio da Popper, che in seguito, perfezionato da Hempel e Oppenheim nel 1948, sarà noto come modello Popper-Hempel o anche concezione nomologico-deduttiva o per leggi copertura della spiegazione scientifica. Dare una spiegazione casuale di un evento significa dedurre un’asserzione che lo descrive, usando come premesse della deduzione una o più leggi universali, insieme con alcune asserzione singolari dette condizioni iniziali. Della spiegazione fanno così parte due tipi di asserti: quelli universali, che costituiscono le leggi di natura e quelli singolari, che si riferiscono all’evento specifico in questione. Dalla congiunzione di questi due assorti viene dedotto l’asserto che descrive l’evento. La problematica della spiegazione scientifica raggiunge la sua maturità nel 1948, col saggio di Hempel e Oppenheim che segna il punto in cui la preistoria delle discussioni sulla spiegazione scientifica cede il passo alla storia; in seguito divenne una pietra miliare della filosofia della scienza. Il modello nomologico-deduttivo Se lo scopo della scienza è quello di capire il mondo, è importante che questa comprensione non dipenda dalle disposizioni soggettive del singolo individuo. Hempel introduce, innanzitutto, allo scopo di distinguere la spiegazione scientifica dalle pseudo spiegazioni che possono soddisfare solo i bisogni psicologici dell’uomo. Vi sono due requisiti essenziali di ogni spiegazione: 1) rilevanza esplicativa 2) controllabilità Per chiarire il primo, Hempel porta un esempio: l’astronomo Sizi, allo scopo di mostrare perché non potevano esservi satelliti ruotanti intorno a Giove, faceva osservare che, come nella testa dell’uomo vi sono 7 aperture, così nei cieli vi sono 7 stelle. Basandosi su altri analoghi fenomeni naturali, come l’esistenza dei 7 metalli, concludeva che il numero dei pianeti era necessariamente di 7. Per Hempel è evidente che i fatti citati da Sizi sono del tutto irrilevanti per il punto di discussione, cioè per la tesi che Giove non ha satelliti. Il requisito della controllabilità richiede che le asserzioni che costituiscono una spiegazione scientifica siano suscettibili di controllo empirico. Hempel e Oppenheim richiedono inoltre che tale modello di spiegazione debba possedere 4 condizioni di adeguatezza, 3 logiche e 1 empirica. Le condizioni di adeguatezza logica sono: 1. il fenomeno da spiegare (explanandum) deve essere logicamente deducibile dall’informazione contenuta nella premessa (explanans). 2. L’explanans deve contenere delle leggi generali. 3. L’explanans deve avere contenuto empirico, cioè deve essere capace di essere controllato con esperimenti o osservazioni. A queste 3 condizioni di natura logica si aggiunge quella empirica: 1. Le proposizioni che costituiscono l’explanans devono essere vere. 40 Per evitare il ricorso alle ipotesi ad hoc, si è sostenuto in particolare che una spiegazione soddisfacente deve avere anche potere predittivo, essa deve, cioè, essere in grado di prevedere altri eventi simili attualmente sconosciuti. Nel caso della spiegazione si conosce l’evento e le premesse che lo implicano; nel caso della previsione, viceversa, si conoscono le leggi universali e si richiede di trarne le conclusioni. Le difficoltà del modello e i controesempi vennero proposti alcuni controesempi, dei quali ne illustriamo 2, quello sull’ombra dell’asta della bandiera e quello della macchina di inchiostro. 1) Il contro esempio dell’asta della bandiera: il problema della causalità. Il primo contro esempio consiste nel supporre che sia piantata in una giornata di sole sul terreno pianeggiante un’asta di bandiera. L’asta proietta un’ombra la cui lunghezza può essere spiegata facendo ricorso all’elevazione del sole, all’altezza della bandiera e alle leggi di propagazione della luce. Così abbiamo una spiegazione D-N che soddisfa le condizioni imposte da Hempel e Oppenheim. Analogamente se qualcuno ci domanda perché la bandiera è alta un metro, possiamo dedurre l’altezza della bandiera dalla lunghezza della sua ombra. Anche in questo caso la spiegazione sarebbe formalmente valida e tuttavia intuitivamente non diremmo che l’asta è lunga una certa misura in virtù della lunghezza della sua ombra. Quale è la morale dell’esempio? Che le condizioni poste da Hempel perché una spiegazione D-N sia valida non sono sufficienti. In realtà la differenza tra le due spiegazioni è data dal fatto che in un caso possiamo legittimamente dire che un’asta causa un’ombra di una certa lunghezza; nell’altro invece, non è possibile affermare che un ombra di una certa lunghezza è causa della data altezza dell’asta. Sembra dunque che sia necessario far ricorso al concetto di causalità. 2) Il contro esempio della macchia di inchiostro: possibilità di assenza di leggi universali nella spiegazione. Il secondo esempio consiste nel supporre che sul tappeto vicino alla scrivania del Prof. Jones vi sia una macchia di inchiostro. Come possiamo spiegarla? Vi era un calamaio aperto sull’angolo della scrivania e il Prof. Jones l’ha urtato inavvertitamente. Questa sembra essere una spiegazione adeguata del perché vi è la macchia e tuttavia non comprende alcuna legge universale. Si devono quindi ammettere delle spiegazioni perfettamente adeguate che non obbediscono al modello nomologico-deduttivo; ne scaturirebbe la conclusione che questo non è affatto un modello di spiegazione universalmente applicabile. Questi controesempi sollevano problemi concernenti la natura della spiegazione scientifica. Oltre alla spiegazione nomologico-deduttiva, Hempel e Oppenheim ammisero anche l’esistenza di altri tipi di spiegazione che hanno carattere probabilistico o statistico. In essi vengono presentati due tipi di spiegazioni aventi carattere statistico e probabilistico: le spiegazioni statistico-deduttive(D-S) e quelle statistico- induttive (I-S). Le spiegazioni statistico-deduttive consistono per Hempel nel dedurre una legge statistica da altre di più ampio raggio. La deduzione è effettuata per mezzo della teoria matematica della probabilità statistica. Le leggi scientifiche. Fondamentalità del concetto di legge nella scienza 41 La legge scientifica è lo strumento indispensabile che permette di pervenire alla spiegazione scientifica: senza di essa non sarebbe possibile spiegare alcunché della realtà naturale. Ed è appunto compito fondamentale della scienza il ricercare le leggi che governano la natura. E così Popper afferma che, se vogliamo conoscere, dobbiamo andare alla ricerca di leggi di natura. Le leggi della quali qui ci occuperemo sono quelle che si riferiscono al mondo naturale e non, il mondo della vita o la realtà storico-sociale e psicologica dell’uomo. Quando una legge rappresenta dei fatti possiamo dire che è di tipo fattuale, cioè riscontrabile empiricamente. La legge di natura fa riferimento a un comportamento oggettivo, esistente in natura, invece la legge della scienza indica un enunciato che descrive un comportamento oggettivo, quindi essa appartiene al piano linguistico. Realismo e antirealismo nella concezione delle leggi scientifiche In generale gli scienziati presuppongono che le leggi scientifiche da loro scoperte riproducano le leggi esistenti in natura. È questa la filosofia realista che afferma che le ricerche scoprono qualcosa che effettivamente esiste e che esisterebbe anche se nessun uomo fosse mai esistito. La formulazione delle leggi scientifiche è quindi considerata come una ricostruzione concettuale di leggi obiettivamente esistenti. Ci sarà sempre una certa distanza tra legge scientifica e legge di natura, ma questa continuamente diminuisce con l’avanzare della ricerca scientifica. La posizione opposta ritiene le leggi scientifiche una costruzione puramente umana a cui non corrisponde alcuna legge di natura, in quanto è l’uomo a fornire un ordine alla realtà. La legge scientifica e le teorie sono solo strumenti utili di orientamento nel reale. Leggi universali e generalizzazioni vere accidentalmente: la universalità nomica L’enunciato generale esprime una condizione necessaria ma non sufficiente affinché si abbia una legge genuina. Ad esempio, “tutte le rocce di questa scatola contengono ferro”: questa possiede, da un punto di vista formale, le caratteristiche di una legge, ma difficilmente si sarebbe disposti ad ammetterla come legge genuina. Si direbbe semmai che è una generalizzazione vera accidentalmente. Gli esponenti del neopositivismo si chiedevano proprio questo, distinguere l’accidentalità di una generalizzazione dalla sua nomo-logicità. La proposta della standard view: il regolarismo classico La posizione elaborata all’interno del neopositivismo o concezione standard, si basa sull’accettazione di Hume. In base a questo, non è possibile parlare di una struttura casuale del mondo, per cui le leggi scientifiche descrivono solo delle regolarità osservate; l’unico problema è distinguere le regolarità nomologiche da quelle accidentali. Affinché un enunciato generale possa essere considerato un’autentica legge di natura, esso deve possedere due requisiti essenziali: permettere di effettuare previsioni di eventi futuri; essere altamente confermato per via induttiva. Quindi, un enunciato universale è considerato una legge quando è deducibile da una generalizzazione di carattere più ampio che sia stata direttamente confermata, e quindi esso è induttivamente sostenuto da tutti gli esempi che hanno confermato l’enunciato più generale; analogamente, l’enunciato universale è considerato una legge quando è possibile dedurre da esso dei casi che lo confermano. 42 Controfattualità e leggi di natura Consideriamo le due asserzioni: 1) Tutte le persone sedute in questa stanza sono studenti. 2) Tutti i corpi metallici riscaldati si dilatano. Facilmente si è d’accordo a considerare a una generalizzazione accidentale (non sempre accade che le persone sedute siano studenti) e b una legge di natura. Ciò perché, mentre dalla prima non si evince affatto che se una persona sedesse in questa sala sarebbe uno studente, ne potremmo spiegare che una persona è studente perché siede in questa sala, tuttavia, nel caso b sappiamo che se un corpo metallico fosse riscaldato si dilaterebbe e quindi che un corpo riscaldato che si dilata è un metallo. Per questa ragione si è sostenuto che una legge di natura autentica deve, a differenza di una generalizzazione accidentale, essere in grado di sostenere condizionali contro fattuali (se si verificasse F allora si verificherebbe G). L’esistenza dei contro fattuali all’interno della standard view di origine neopositivista è stata osservata con un atteggiamento riduttivista. Chisholm pone il problema in relazione alla distinzione tra le leggi di natura e i condizionali accidentali: Non si può dire che una legge di natura è semplicemente ciò che viene espresso da un condizionale universale sintetico. Dobbiamo trovare la differenza che ci consente di escludere i condizionali accidentali. Il problema non è facile, anzi costituisce il problema fondamentale della logica della scienza. I contro fattuali e il paradosso dell’implicazione Questa difficoltà sta nel fatto che i condizionali contro fattuali non possono essere trattati adeguatamente con gli strumenti della logica classica. In particolare, l’applicazione ad essi del condizionale materiale, porta a risultati contro intuitivi: avendo ogni condizionale contro fattuale l’antecedente falso (in quanto descrive un fatto che non si è verificato) avremmo un asserto sempre vero. Così ad esempio i due asserti: a) Se un corpo fosse metallico, allora si dilaterebbe se riscaldato. b) Se un corpo fosse metallico, allora non si dilaterebbe se riscaldato. Sarebbero entrambi controfattualmente veri, è questo il cosiddetto paradosso dell’implicazione. Le varie soluzioni esaminate hanno l’inconveniente di incappare in un circolo vizioso. Il problema dei controfattuali non può che rimanere irrisolto. Il problema dei condizionali controfattuali è che non esistono soluzioni universalmente condivise su come valutare la loro verità. Il problema della proiettabilità della legge di natura Una via d’uscita viene indicata dallo stesso Goodman, quando sostiene che una legge di natura si caratterizza per il fatto di essere accettata come vera anche se non sono stati determinati tutti i suoi esempi ma si prevede che quelli esaminati in futuro saranno conformi ad essa; invece una generalizzazione accidentale avrebbe la caratteristica di essere vera solo per i casi esaminati (gli studenti di questa scuola), senza costituire una base adeguata per la previsione di nuovi casi. Ma tale soluzione di Goodman ci riporta al problema dell’induzione: cosa ci garantisce, infatti, la proiettabilità della legge? 43 Tentativi non standard di fuoriuscire dalle difficoltà generate dal paradosso dell’implicazione Eppure l’esistenza dei contro fattuali è una realtà non eludibile della ricerca scientifica, sicché epistemologi meno legati all’eredità neopositivista hanno cercato di percorrere strade alternative che vanno o in direzione di un abbandono della logica classica, oppure concepiscono la legge scientifica in modo non-standard, cioè come un asserto che non verte sul reale, bensì su modelli idealizzati. Le leggi scientifiche: la concezione idealizzazionale Un approccio del tutto nuovo alle leggi scientifiche viene da questa seconda impostazione all’interno di una visione della scienza che valorizza il suo carattere ideale. La concezione idealizzazionale della scienza della scuola poznaniese Una proposta epistemologica, in grado di competere con la filosofia della scienza contemporanea viene dalla Polonia. Tale nuovo approccio alla scienza si è incarnato nella scuola metodologica di Poznan, che ha fatto del concetto di idealizzazione il centro della propria riflessione. La crisi della concezione standard delle teoria scientifiche e la dissoluzione del programma popperiano aveva portato molti filosofi della scienza a cercare vie diverse, mettendo in discussione i cardini teorici su cui era stata edificata l’immagine di scienza. Le nuove prospettive che ne sono emerse hanno comportato una vera rivoluzione epistemologica. Grazie alla scuola di Poznan la questione del carattere idealizzazionale della scienza è stata posta all’attenzione del pensiero epistemologico contemporaneo. È nel Capitale di Marx che viene ritrovato un modo nuovo di intendere l’astrazione e che, per distinguerla dal modo classico ed empiristico viene chiamata “idealizzazione”. I costrutti dei quali fa uso Marx non sono empiricamente dati, né provengono dall’esperienza, ma sono costrutti che nella realtà non corrispondono a nulla. Pertanto la teoria scientifica non è la descrizione dei fenomeni che ci circondano, ma è formulata mediante assunzioni idealizzanti. Per rendere chiaro tale concetto di idealizzazione Nowak lo paragona alla caricatura: un disegnatore prende alcuni dettagli da una data persona e sottolinea quelli che gli sembrano importanti. Non raffigura ogni cosa ma altera una persona o una situazione col trascurarne alcune caratteristiche che ritiene di minore importanza. La scienza fa lo stesso. Pertanto un ente ideale designa solo dei costrutti concettuali definiti mediante delle proprietà, la cui estensione è vuota. 44