L’epistemologia è quella branca della filosofia che si occupa dei metodi per raggiungere la
conoscenza scientifica.
Per Ferrier, studioso inglese dell’800, l’epistemologia è sinonimo di teoria della conoscenza
scientifica.
In Inghilterra è considerata come una disciplina che si occupa della natura e degli scopi
della conoscenza. I quesiti nella tradizione anglosassone sono i seguenti:
1- la conoscenza è credenza vera e giustificata;
2- i filosofi si occupano delle regola da seguire per arrivare alla conoscenza;
3- gli psicologi stabiliscono il modo in cui le persone si comportano per arrivare a delle
conoscenze.
In Italia e in Francia invece è vista come teoria della scienza che si occupa della natura, dei
fondamenti e della validità del sapere scientifico e ne analizza metodi e strutture.
Che cos’è la conoscenza? Come ci arriviamo?
L’epistemologia tradizionale risponde a queste domande senza l’aiuto della scienza.
È quindi una disciplina normativa con base fondazionalistica che fornisce alla scienza una
base sicura di credenze indubitabili sulle quali costruire l’intera conoscenza scientifica
facendo ricordo alla filosofia in quanto filosofia.
Coloro che invece associano l’epistemologia alla filosofia della scienza intendono
proprio la filosofia della scienza una disciplina autonoma rispetto alla gnoseologia e alla
teoria della conoscenza, con un suo preciso compito: ricostruire in modo razionale i metodi
impiegati dalla scienza, descrivere le scienze dal punto di vista metodologico e critico.
Questa autonomia dell’epistemologia rispetto alla gnoseologia o teoria della conoscenza
è stata rivendicata a partire dal 19° secolo. È con il Circolo di Vienna nel 1929 che la
filosofia della scienza acquisisce una sua autonomia.
Si tende a vedere nell’epistemologia non lo studio della conoscenza in generale, ma della
scienza.
La differenza che in passato era netta tra filosofia e scienza si allenta. I filosofi prendono in
considerazione i risultati scientifici e gli scienziati i risultati filosofici, poiché da sole le
discipline sono considerate incomplete.
L’epistemologia nel neopositivismo si libera di quei connotati che appartengono alla
vecchia epistemologia. Si distingue nettamente la scienza dalla metafisica, poichè
quest’ultima esamina le cose al di là della materia. Ci si pone su di un piano di analisi
alternativo a quello vecchio.
L’epistemologia odierna vuole descrivere i fondamenti sicuri della conoscenza, diversamente
dalla gnoseologia o teoria della conoscenza. Intesa proprio come filosofia della scienza. Il
modo in cui noi conosciamo è diverso dal modo in cui dovremmo conoscere. Ognuno ha il
suo modo personale di interpretare un testo sacro, per esempio, ma per la conoscenza fisica
e razionale non bastano questi modi di conoscere perché non sono universalmente
condivisi.
Le basi sicure devono essere o dati razionali o fonti empiriche, questo è l’approccio
antifondazionalista, trovando delle basi certe per la conoscenza.
Ad aver influito sulla nascita della filosofia della scienza sono state le rivoluzioni
concettuali tra 800 e 900 e la nascita della logica matematica. In questo clima vi era
l’esigenza di rifondare la filosofia per renderla scientifica. In questo clima di interesse verso
la scienza e l’esigenza di rendere scientifica la filosofia, dal 1907 cominciano a riunirsi un
gruppo di amici che avevano in comune lo stesso modo di vedere la filosofia e la
scienza.
L’unico problema era quello di evitare le ambiguità della filosofia e su come realizzare
questo accostamento tra filosofia e scienza.
Questo gruppo di amici era interessato a dare una nuova immagine di scienza che stava
nascendo.
1
Questa è la stessa esigenza espressa da Brentano, che ottenne la cattedra di filosofia a
Vienna. Egli voleva rendere scientifica la filosofia e dal 1907 riunì un gruppo di amici uniti
dallo stesso modo di vedere la filosofia e la scienza, non solo scienze naturali ma anche
sociali e umanistiche.
Nel Circolo di Vienna emerge l’esigenza di discutere di problemi scientifici anche con chi
fosse maggiormente fornito di competenza filosofica. Il progetto verrà realizzato dopo la
guerra con Shlick che nel 1929 fonderà il Circolo di Vienna.
La 1° guerra mondiale incise profondamente sullo sviluppo della filosofia scientifica.
Gli studiosi del Circolo di Vienna, ma nella sua configurazione matura, anche se
condividevano il programma di Brentano, lo trasformarono, a favore di una concezione
della filosofia intesa come metascienza, cioè trasformata in filosofia della scienza.
È proprio ora che avviene il passaggio dalla conoscenza tradizionale alla filosofia della
scienza. Decisivo fu l’insegnamento di Wittgenstein. Grazie a lui, la filosofia non viene
intesa come una scienza, ma come un’attività che ha lo scopo di chiarire il senso degli
enunciati.
Non esiste perciò una filosofia come scienza e il filosofo non è detentore di un particolare
tipo conoscenza. La logica è lo strumento che la filosofia utilizza.
Per Shlick la filosofia non è conoscenza e quindi è assurdo pensare di scientifizzarla.
La filosofia scientifica è ormai ritenuta impossibile.
Non resta che praticare, al suo posto, una più modesta filosofia della scienza.
La filosofia della scienza da della scienza l’oggetto della filosofia.
Le trasformazioni della scienza tra 800 e 900
Nel corso dell’ottocento la teoria era quella di Laplace, fisico francese, il quale coltivò
sempre l’idea di scienza come conoscenza per eccellenza. Laplace ha una concezione e
visione della realtà molto particolare: di unitarietà, semplicità dell’universo,
meccanicismo, determinismo. Quindi, di unitarietà del sistema dell’universo, governato
sempre dalle stesse leggi, semplicità dell’universo composto da parti strettamente
interconnesse, di natura meccanica con i corpi che entrano in contatto l’uno con l’altro, e
deterministica che siamo in grado di prevedere tutto ciò che accadrà.
Laplace afferma che la nostra conoscenza della natura ha caratteristiche probabilistiche.
Abbiamo conoscenze imprecise che possono distribuirsi in ambito probabilistico.
Di fatto, la nostra conoscenza è incerta e approssimativa, essa è di natura probabilistica.
L’uomo non può avere una conoscenza esatta come Dio. Laplace espone una visione del
mondo come semplice, determinata, dall’altra c’è una inevitabile ignoranza umana colmata
dal calcolo probabilistico. Quindi, siamo in grado di placare la nostra ignoranza applicando il
calcolo delle probabilità.
Determinismo e probabilismo non si escludono, ma si completano a vicenda. La probabilità
viene intesa come rimedio per la nostra ignoranza e per la nostra limitatezza. Quindi,
l’impossibilità a conoscere con esattezza lo stato di un sistema fisico non ci conduce
all’ignoranza, ma il calcolo delle probabilità ci porta ad una conoscenza approssimativa.
Ma l’ideale della perfetta conoscenza non è per nulla realistico: l’uomo, lo scienziato, non
potrà mai ottenere questa infinita precisione delle misure.
Pur essendo fiducioso nella illimitata possibilità di estendere la nostra conoscenza, in modo
da avvicinare progressivamente il mondo fisico – descritto dalle nostre teorie – al mondo
obiettivo, ovvero la realtà fatta di atomi e forze, tuttavia Laplace sapeva che l’avvicinarsi al
vero è un processo infinito e l’uomo resterà sempre lontano dalla conoscenza completa, pur
allontanandosi sempre più dall’ignoranza. Questo scarto tra la nostra conoscenza e la verità,
giustifica l’introduzione del calcolo delle probabilità.
2
Esempio: Alla roulette non siamo in grado di calcolare dove la pallina andrà a finire, in
quanto per fare ciò dovremmo conoscere con infinita precisione tutte le particolarità del
tavolo, la sua inclinazione, la forza esatta con cui la pallina è stata gettata e così via.
Conoscendo tutto ciò saremmo in grado di calcolare la posizione finale della pallina. Ma non
siamo in grado di avere una tale conoscenza.
Ecco allora che viene in soccorso della nostra ignoranza il calcolo delle probabilità,
permettendoci di prevedere che, ad es. il rosso ha una certa probabilità di uscire, che sulla
base delle precedenti uscite dobbiamo aspettarci certi risultati, e così via. In breve esso ci
mette in grado di effettuare delle scelte razionali in situazioni di incertezza, che permettono
di porre, per così dire, una pezza alla nostra ignoranza. La probabilità viene dunque intesa
come rimedio per la nostra ignoranza.
Il calore e la termodinamica
Nel campo dei fenomeni termici era stato già proposto l’esempio di un modo non laplaciano
di intendere la scienza.
Fourier aveva infatti dimostrato come fosse possibile edificare una scienza dei fenomeni
termici prescindendo da una visione meccanicistica.
La teoria del calore di Fourier metteva in crisi la fisica laplaciana in quanto, spezzandone
l’unità, si veniva a porre come capitolo indipendente dal resto della fisica e dalla meccanica .
In tal modo la termodinamica si costituiva come scienza autonoma, indipendente dalla
meccanica.
I fenomeni termici e la freccia del tempo
Costituisce una evidenza empirica il fatto che il calore si trasmette secondo una direzione:
esso va sempre dal corpo più caldo a quello più freddo.
Questo comportamento metteva in luce che certi fenomeni naturali seguono
spontaneamente una direzione, diversamente dai fenomeni descritti dalla meccanica, che
invece possono svolgersi in un senso o in un altro. Al mondo senza tempo della meccanica
sembra contrapporsi un mondo che segue la cosiddetta freccia del tempo.
Il calore si trasmette da una direzione all’altra, dal corpo più caldo a quello più freddo. Una
goccia d’inchiostro che si espande nell’acqua è un processo irreversibile, non succede mai il
contrario. Per natura tutti i fenomeni accadono in maniera irreversibile, come una pianta che
cresce o un essere umano che invecchia.
L’irreversibilità è il modo in cui si comporta la natura e in cui avvengono i cambiamenti.
In natura vi è l’irreversibilità, in meccanica c’è la reversibilità, ovvero quei fenomeni che sono
indifferenti al tempo e possono svolgersi in un senso o nell’altro.
Il secondo principio della termodinamica e l’entropia
Perché i fenomeni in natura sono irreversibili? Perché c’è il concetto di entropia, per cui ogni
sistema fisico tende ad evolvere verso un livello di entropia sempre più alto creando
disordine. Se noi abbiamo un ambiente freddo e un ambiente caldo abbiamo un ambiente
disordinato. Man mano che il sistema evolve diventa sempre più disordinato, per esempio se
abbiamo tante carte messe in ordine e le mescoliamo creiamo disordine, e più le
mescoliamo più il disordine cresce. Diminuendo il numero delle carte la probabilità di
riordinarle cresce (per esempio con 10 carte) è probabile che ciò succeda. Più il sistema è
complesso, più c’è disordine, più molecole ci sono, più probabilità ci sono che vi sia un
ambiente disordinato.
Questa nuova scoperta stava ad indicare il fatto che, in un sistema chiuso, i corpi prima o poi
finiscono per assumere la medesima temperatura, qualunque sia la loro differenza iniziale.
3
È questo un processo irreversibile, che contrasta con la meccanica, che viene descritta
sempre come reversibile. L’entropia giunge al suo massimo quando tutte le parti hanno la
stessa temperatura.
La morte termica dell’universo e le sue implicazioni filosofiche
Da questa prospettiva le conseguenze sono quelle in cui si arriverà alla morte termica,
perché prima o poi si arriverà ad un momento in cui nell’universo ci sarà la stessa
temperatura, ci sarà un equilibrio termico. In questo modo la vita delle piante, degli animali e
degli uomini cesserebbe e l’universo non sarà più popolato.
Questa prospettiva contrasta con la tesi sostenuta dai meccanicisti e dai materialisti,
secondo cui ogni cosa fosse infinita ed eterna. La loro tesi si basava sull’idea della
conservazione dell’energia formulata dal primo principio della termodinamica che afferma
che in nessun caso l’energia viene creata o distrutta, ma viene continuamente scambiata fra
i vari sistemi fisici sotto forma di calore o lavoro.
Invece, se tutti i corpi raggiungono la stessa temperatura, se non c’è più un equilibrio termico
non c’è più vita, l’universo morirebbe, se il sole è più caldo della terra ciò permette la vita, al
contrario non ci sarebbe più vita.
Non tutti accettano questa tesi secondo cui l’universo è un sistema non eterno e finito. C’è
infatti una discrepanza tra il primo e il secondo principio della termodinamica.
Il primo principio della termodinamica sostiene la conservazione dell’energia e la
persistente capacità di lavoro;
il secondo principio della termodinamica afferma il degrado dell’energia e il
raggiungimento dell’equilibrio termico.
Il primo è in linea con la visione meccanicistica della natura, il secondo introduce il concetto
di freccia del tempo e di irreversibilità, in contrasto con la dinamica classica.
La teoria cinetica permette di superare il contrasto tra primo e secondo principio della
termodinamica
La teoria cinetica permette di superare il contrasto tra primo e secondo principio. L’energia,
secondo il primo principio, si conserva, ma per il secondo si disperde, perché tale energia
non è più utilizzabile per l’uomo, non si annulla, non scompare, ma non è utilizzabile, cioè
non è in grado di produrre lavoro, il quale può essere ottenuto solo se si hanno sistemi fisici
a diversa temperatura.
La spiegazione dell’entropia su base statistica: il diavoletto di Maxell
Maxwell è in grado di fornire un’interpretazione della termodinamica che permette di
superare il contrasto tra 1° e 2° principio, cioè l’energia non si annulla ma si distribuisce in
modo da risultare inutilizzabile, cioè non più in grado di produrre lavoro. Egli sostiene che la
irreversibilità riguarda il fenomeno nel suo complesso, ma che, da un punto di vista
molecolare sarebbe possibile una reversibilità della conduzione del calore.
Infatti la seconda legge della termodinamica è il risultato a livello macroscopico di un
comportamento statistico delle molecole che ubbidiscono alle normali leggi della meccanica.
Esempio del diavoletto: in un sistema chiuso, come un recipiente in cui temperatura e
pressione sono uguali, e non cambia di volume, non è possibile nessun lavoro, e per il
secondo principio della termodinamica, non può essere che parte del calore si trasferisca
spontaneamente in una unità del recipiente, lasciando l’altra metà più fredda.
Maxwell dice che ovviamente in un recipiente pieno d’aria a temperatura uniforme le
molecole non si muovono per niente a velocità uniforme. Supponiamo allora che questo
recipiente sia diviso in due parti, a e b, mediante un divisorio, e poi si fa un piccolo foro, in
modo da far passare solo le molecole più veloci da a e b, e le più lente da b ad a. in questo
4
modo aumenterà la temperatura di b e diminuirà quella di a, in contrasto con la seconda
legge della termodinamica.
Questo esempio ci dice che la seconda legge della termodinamica è il risultato di un
comportamento statistico medio delle molecole che compongono il gas, e che ubbidiscono
alle leggi della meccanica. La seconda legge ha solo una certezza statistica come dimostra
l’esempio.
Boltzmann: l’entropia come evoluzione verso il disordine
La strada intrapresa da Maxwell fu in seguito perfezionata da Ludwig Boltzmann, fondatore
con Gibbs della meccanica statistica. Egli interpretò l’entropia come lo stato macroscopico
più probabile verso il quale evolve il sistema. Stabilì poi una stretta connessione tra
probabilità ed ordine, nel senso che la condizione di maggiore probabilità era identificata con
la condizione di maggior disordine del sistema, così l’aumento dell’entropia poteva essere
considerato l’evoluzione dall’ordine al disordine.
Per illustrare tali caratteristiche dell’entropia si riporta il seguente esempio: si consideri un
thermos contenente del gas e sia questo gas separato all’interno per mezzo di una parete
che lo divida in due porzioni, una più calda e l’altra più fredda. Questo gas ha una
determinata misura di “ordine”, in quanto una molecola più veloce si troverà più
probabilmente nel lato caldo piuttosto che nel lato freddo e viceversa.
Eliminiamo ora la parete interna: dopo un certo periodo il sistema evolverà verso una
situazione di equilibrio, ora il sistema è più disordinato, in quanto le molecole di gas,
qualunque sia la loro velocità, si sono uniformemente mescolate in modo casuale in tutto il
recipiente.
Diventa ancora più evidente in tal modo la natura non assoluta, ma semplicemente
probabilistica, della seconda legge della termodinamica: nulla può escludere che il
processo che porta al “mescolamento” delle molecole calde e fredde non possa essere
invertito nonostante la probabilità che ciò possa accadere sia bassissima.
Fisica cartesiana del continuo contro fisica newtoniana del discontinuo
La distinzione tra continuità e discontinuità risale ai tempi di Cartesio e Newton e della loro
contrapposizione.
Per Cartesio l’universo non può ammettere vuoti, ma deve essere colmato da materia,
anche se i corpi sembrano separati da una distanza priva di materia, come fra la terra e il
sole è necessario ammettere l’esistenza di un mezzo continuo, un fluido etereo nel quale
nuotano i corpi celesti. Questo fluido etereo spiega la reciproca azione tra i corpi celesti,
inammissibile con l’idea del vuoto. Nell’approccio meccanicistico come quello di Cartesio,
la reciproca interazione è possibile solo attraverso il contatto tra materia, appunto grazie a
questo fluido etereo.
Per Newton, invece, l’azione a distanza tra i corpi celesti, avviene senza il contatto diretto,
senza contatto meccanico tra materia , ma a distanza, come avviene nei fenomeni
gravitazionali, tramite attrazione a distanza tra particelle.
Nel corso del ‘700 si è potuto dimostrare che Newton aveva più attendibilità rispetto a
Cartesio, visto i numerosi dati sperimentali che lo confermavano.
La legge di Coulomb formula che i corpi sono elettricamente carichi di dipendenza tra loro,
come per la legge gravitazionale universale provata da Newton.
Molti scienziati, tuttavia, rimasero perplessi da queste scoperte, specialmente quelli di
orientamento meccanicista, poiché sembrava si volesse trovare una spiegazione dei
fenomeni naturali facendo ricorso a spiegazioni legate all’immaginario medievale, come
l’occulto, le virtù attrattive, ecc. Per questo Newton era stato molto criticato dai suoi
contemporanei.
L’idea di “campo” e le linee di forza
5
Faraday per spiegare i fenomeni di induzione elettromagnetica faceva uso di linee di forza
e di azioni per contatto, che potevano essere ammesse solo se si ipotizzava un continuo
materiale, contraddicendo la teoria di Newton.
Per Faraday la materia era ovunque, era nell’intero spazio e permetteva di spiegare i
fenomeni elettrici, magnetici, chimici e gravitazionali.
Sarà poi Maxwell a dare un rigore scientifico a queste idee. Egli sviluppa una teoria
matematica dei fenomeni elettromagnetici, una teoria dinamica e di impronta
meccanicistica, poiché ritiene che in quello spazio vi sia materia in movimento dalla quale
vengono prodotti i fenomeni elettromagnetici osservati. Maxwell non abbandonò mai la sua
fede nel meccanicismo, ovvero di far ricorso ai modelli meccanici nella spiegazione dei
fenomeni.
Quindi, l’azione istantanea a distanza viene definitivamente respinta a favore dell’azione per
contiguità anche nei fenomeni gravitazionali.
L’etere quale punto di unificazione tra meccanica ed elettromagnetismo
Questo etere cosmico svolge la funzione di unificare due settori della scienza fisica, che
altrimenti sono inconciliabili, e sono: la teoria meccanica e il concetto di campo.
L’etere è quindi il mezzo elastico, fatto di particelle in moto e di forze agenti su di esse, le cui
vibrazioni assicurano la trasmissione del moto ondulatorio della luce, del magnetismo e della
elettricità. L’esistenza dell’etere era accettata da tutti i fisici del tempo, come una delle
sostanze che componeva l’universo.
La teoria della relatività
Einstein elaborò la teoria della relatività, la teoria scientifica più importante insieme a quella
copernicana. Egli parte dalla riflessione sul principio di relatività galileiana, valido nella
meccanica classica. Questo principio è anche noto come principio di relatività meccanica.
Il principio di relatività formulato da Galileo era stato formulato per sostenere la mobilità della
terra.
Una delle obiezioni effettuate dai tolemaici (popolo di re Tolomeo) consisteva nell’osservare
che qualora la terra fosse in moto, un peso lasciato cadere, per esempio da una torre
dall’alto, doveva giungere al suolo, ma non alla sua base, perché nel frattempo c’è stato un
movimento, uno spostamento effettuato dalla terra, quindi, dovrebbe cadere in
corrispondenza dello spazio effettuato dalla terra in quel frangente.
Galileo aveva concepito un esperimento ideale: l’esempio della nave. Immaginiamo di
essere rinchiusi dentro la stiva di una nave, sul pavimento c’è un vaso con una piccola
apertura in alto e sopra questo vaso c’è un secchio dal quale cadono delle gocce d’acqua
dentro questo vaso. Se la nave è ferma tutte le gocce che cadono verticalmente si versano
dentro il vaso posto a terra. Se facciamo muovere la nave a qualsiasi velocità, ma con moto
uniforme e non fluttuante qua e là, allora non c’è nessun cambiamento, non c’è nessuna
differenza nel comportamento delle gocce, poiché queste cadranno sempre nel vaso, come
se la nave fosse ferma. E’ uguale per qualsiasi altro fenomeno fisico, a patto che il moto
sia rettilineo e uniforme, senza oscillazioni e fluttuazioni.
Lo stesso vale per quanto riguarda l’aereo o il treno, che si muovono sempre alla stessa
velocità, senza effettuare però deviazioni o vibrazioni. Ogni evento fisico che accada in esso,
avverrà nello stesso modo che se avvenisse in un sistema fermo. Ovviamente le differenze
sono avvertite se l’aereo vira o il treno è in curva, in questo caso subiremo una forza che ci
spinge nella direzione contraria alla direzione che il mezzo sta assumendo.
Applicando il principio di relatività alla teoria di Copernico, Galileo sostiene che non è
possibile con esperienze di tipo meccanico affermare che la terra è ferma, quindi
l’argomento della torre cade.
6
I sistemi inerziali
Chi sta all’interno della stiva della nave di Galileo o in qualsiasi sistema fisico in quiete o in
moto rettilineo e uniforme, non può capire in nessun modo se questo sia in moto o in quiete,
a meno che non abbia la possibilità di misurarne la velocità facendo riferimento ad un
sistema di riferimento che permette di misurare la velocità del sistema in cui si trova
l’osservatore. Nel caso della nave, del treno, dell’aereo, questo sistema di riferimento è la
terra. Quando il sistema di riferimento in cui si trova l’osservatore si muove di moto rettilineo
uniforme o sta in quiete si dice che è un sistema inerziale.
La terra non è un sistema inerziale, perché compie un movimento rotatorio intorno al sole e
ruota sul proprio asse, perciò dovrebbe in teoria comportarsi come un treno in curva.
Ovviamente l’influenza del moto è talmente piccola da non essere avvertita.
Newton assunse come sistema di riferimento per eccellenza lo spazio assoluto,
considerato il contenitore immobile di tutti i corpi, cioè quel sistema inerziale di riferimento
privilegiato nel quale valgono tutte le leggi della meccanica e al quale devono essere riferite
tutte le nostre misure.
Equivalenza dei sistemi inerziali per le leggi della meccanica e trasformazioni
galileiane
I fenomeni meccanici avvengono in modo identico sia in un sistema in moto rettilineo
uniforme, sia in un sistema in quiete rispetto allo spazio assoluto.
Tra i sistemi in moto rettilineo uniforme, cioè inerziali, non ci sono sistemi di riferimento
privilegiati. La conseguenza è che due osservatori, uno in quiete e l’altro in moto rettilineo
uniforme, vedono un qualsiasi fenomeno meccanico dei corpi nello stesso identico modo.
Le trasformazioni galileiana, invece, ci dicono che un osservatore immobile e uno in
movimento, vedono i fenomeni in modo diverso.
Esempio del treno e applicazione delle trasformazioni galileiana: consideriamo un treno
che si muove in moto rettilineo uniforme alla velocità di 10km/h rispetto al sistema di
riferimento costituito dal marciapiede della stazione. Sul treno il passeggero cammina nella
stessa direzione del treno alla velocità di 5 km/h. l’osservatore che sta sul marciapiede della
stazione vedrà il passeggero sul treno muoversi alla velocità di 15 km/h, che è la somma
della velocità del treno + quella del passeggero (legge della somma delle velocità). Le
trasformazioni galileiana ci permettono di conoscere la posizione del passeggero rispetto al
sistema di riferimento, in questo caso il marciapiede.
L’esempio del treno e la contraddizione tra teoria elettromagnetica e meccanica: in
base alla teoria della relatività galileiana, se dal centro di un treno in moto rettilineo uniforme
che viaggia a 150 km/h, si fa partire un raggio di luce, questo possiede per il viaggiatore che
sta sul treno la stessa velocità della luce, qualunque direzione esso prenda, in aventi o
indietro. Invece, per la persona che osserva dal marciapiede, il raggio di luce che va nella
stessa direzione del treno dovrebbe possedere la velocità della luce + quella del treno,
quello che invece va nella direzione opposta del treno, dovrebbe avere la velocità della luce
meno quella del treno.
Ma questo viene negato dalla teoria elettromagnetica, per la quale il raggio di luce ha la
stessa velocità sia per il passeggero sia per l’osservatore sul marciapiede della stazione: è
come se la luce dentro il treno si muovesse ignorando l’esistenza del treno e del suo moto e
percorresse comunque 300.000 km/h al secondo rispetto a qualsiasi sistema di riferimento
inerziale.
La luce gode di proprietà particolari, ovviamente, l’elettromagnetismo ci dice in questo caso,
che la meccanica non si applica, ci dice che le cose non vanno così, l’elettromagnetismo
smentisce la meccanica, nel senso che la luce gode di proprietà particolari, la luce si
sottrae alla quantificazione perché non è un corpo come gli altri.
7
Due scienziati, Michelson e Marley, fecero degli esperimenti e si accorsero che l’etere non
esisteva e le proprietà della luce dipendevano dalla luce stessa. Non c’era nulla che portava
la luce da un posto all’altro, la luce è una particolare onda elettromagnetica.
A questo punto con Einstein l’etere non viene più considerato come una forza contrapposta
alla luce, ma era una cosa che avevano aggiunto in tutte le esperienze.
Einstein formula la prima parte che si riferisce alla teoria della relatività ristretta o
speciale. Egli abbandona il sistema di riferimento privilegiato o assoluto dell’etere, accetta la
validità generale del principio di relatività galileiana che si applica ai fenomeni meccanici ed
elettromagnetici: non è possibile fare nessuna distinzione tra due sistemi in moto rettilineo
uniforme e in quiete. Rigetta il vecchio sistema di misurare le cose in base alla somma
delle velocità.
Il secondo postulato della teoria della relatività
Einstein dice che la velocità della luce è sempre la stessa, uguale in tutti i sistemi di
riferimento inerziali, sia in quiete o in moto. Quindi, quello che diceva la meccanica
classica, cioè sulla legge della somma delle velocità, non può più essere accettata. Si
impone la necessità di riformulare le trasformazioni galileiana.
La legge valida nell’ambito della meccanica classica non è più valida nell’ambito della teoria
della relatività speciale di Einstein.
Questa nuova teoria porta anche a cambiare il concetto di tempo, cioè il tempo non è più
concepito come qualcosa di uniforme, cioè non scorre in maniera costante, ma dipende dal
sistema di riferimento e in particolar modo dipende dalla velocità rispetto alla luce del
sistema di riferimento, significa che quanto più un sistema di riferimento si muove ad una
velocità vicino alla luce, tanto più il tempo tende a rallentare, è come se scorresse più
lentamente. Tanto è vero che si ha il cosiddetto paradosso dei gemelli: ci sono due gemelli
ipotetici, uno parte per un viaggio spaziale con un’astronave che viaggia alla velocità vicino a
quella della luce, l’altro gemello rimane sulla terra. Quando il fratello ritorna, troverà il suo
gemello sulla terra molto più vecchio di lui. Questo significa che il tempo per lui è trascorso
meno velocemente, mentre per il fratello che è rimasto sulla terra è passato più
velocemente.
Questo significa che il tempo non è più una costante ma una variabile, mentre è invece una
costante la velocità della luce. Quindi, oltre allo spazio, ora nemmeno il tempo è assoluto,
non scorre uniformemente. Ecco perchè si parla di un continuo quadridimensionale, cioè
lo spazio-tempo è qualcosa di unitario, cioè non possiamo dividere, come si faceva nella
meccanica classica, lo spazio dal tempo, come se fossero due cose diverse, il tempo non
scorre in maniera autonoma rispetto allo spazio, essi sono dipendenti l’uno dall’altro.
Spazio e tempo non sono assoluti, non si possono dividere, non scorrono in maniera
autonoma ma hanno una dipendenza reciproca.
Questo comporta che non sono più valide le trasformazioni di Galileo, che si basavano
sull’ipotesi che il tempo fosse indifferente rispetto al movimento.
D’ora in poi dobbiamo prendere in considerazione le trasformazioni di Lorenz che
sostituiscono quelle di Galileo e che permettono di passare da un sistema di riferimento a un
altro sistema di riferimento caratterizzato non soltanto dalla dimensione temporale ma anche
da quella spaziale.
L’esempio è quello della persona che sta sul treno, se il treno cammina a 10 km/h, dopo
un secondo so troverà spostato rispetto al marciapiedi di 10 metri, dopo un’ora di 10 km, se
viaggia a 100 km/h dopo un’ora si troverà spostato rispetto al sistema di riferimento della
stazione di partenza di 100 km.
Nelle trasformazioni di Galilei il tempo è uguale, invece nelle trasformazioni di Lorenz la cosa
cambia, perché l’equazione tiene conto della velocità della luce. Quello che c’è di nuovo
rispetto a quelle galileiana è la presenza della velocità della luce.
8
Teoricamente, se noi viaggiassimo alla velocità della luce saremmo immortali, perché il
tempo si annullerebbe. Ma viaggia alla velocità della luce è difficile perché un’altra legge di
Einstein che provò all’interno della teoria della relatività ci impedisce questo. Egli mette in
relazione l’energia con la massa, la massa era la quantità di materia che c’era in un corpo,
che noi misuriamo attraverso il peso e l’energia è la forza che noi imprimiamo ad un corpo.
Einstein comprese che energia e massa non sono due cose diverse, sono due modi di
manifestarsi della stessa realtà. La massa non sarebbe altro che energia concentrata, come
una sorte di raggrumarsi di energia, e l’energia non è altro che massa dispersa, diluita nello
spazio. La massa non la possiamo misurare, si misura con il peso per la velocità della luce
che sappiamo che è costante. Anche una piccolissima massa possiede una grande energia.
Significa che l’energia ha una massa piccolissima, ci vuole tantissima energia per dar luogo
ad una piccola massa.
La massa tende ad aumentare, man mano che la velocità aumenta, perché questa
acquisisce energia e quindi aumenta. Man mano che la massa si avvicina alla velocità della
luce, diventa sempre più grande, fino a diventare una massa che si avvicina quasi all’infinito.
Per cui, man mano che noi ci avviciniamo alla velocità della luce, per alimentare
ulteriormente questa velocità, sarebbe necessaria un’energia sempre più grande, cioè
un’energia infinita, per poter consentire alla massa di arrivare alla velocità della luce. Ma noi
l’energia infinita non ce l’abbiamo, ecco perché non possiamo mai arrivare alla velocità della
luce, perché è un limite irraggiungibile, infatti, per essere possibile un’ulteriore accelerazione
è necessaria maggiore energia, energia che noi non possediamo, poiché l’energia di cui
disponiamo è molto limitata, e deriva dai sistemi di propulsione a idrogeno ed elio che
vengono utilizzati per il lancio degli shuttle o per i sistemi satellitari. Questi sistemi di
propulsione che noi conosciamo possono sviluppare una certa energia, e possono
aumentare la velocità di una massa fino a un certo punto, non di più. Noi non abbiamo
energia per poter suscitare ulteriormente questa velocità.
Ecco perché l’illusione di poter diventare immortali, raggiungendo la velocità della luce è solo
un’illusione, perché questa è irraggiungibile, infatti questa viene raggiunta per esempio dai
fotoni, perché la loro massa è talmente piccola che permette un’accelerazione fino ad
arrivare alla velocità della luce. Perciò, per poter raggiungere la velocità della luce non
bisogna avere massa o masse minime. (questa è la relatività speciale).
Oltre alla relatività speciale Einstein elaborò la relatività generale. Qual è la differenza tra
relatività generale e speciale? La relatività speciale, abbiamo visto, vale all’interno dei
sistemi inerziali, cioè sistemi che non sono accelerati, che non sono soggetti a forza. Ma
cosa succede invece quando noi abbiamo a che vedere con sistemi sottoposti a forza? Ad
esempio con sistemi che sono sottoposti ad un campo gravitazionale o che sono sottoposti
ad accelerazione? Einstein per rispondere a questa domanda elaborò la teoria della relatività
generale.
La teoria della relatività generale consiste nel sostenere non più che le leggi della
dinamica sono uguali per ogni sistema di riferimento, ma che le leggi della fisica sono tali e
devono essere tali da potersi applicare ai sistemi di riferimento comunque in moto, non è
importante quale sia questo moto.
Il cuore della relatività speciale è il cosiddetto principio di equivalenza. Esempio:
immaginiamo un ascensore, quando siamo fermi e premiamo un pulsante l’ascensore
comincia a salire e per pochi secondi ci sentiamo più pesanti. Nel momento in cui
l’ascensore accelera ci sentiamo tirare all’indietro, come quando una macchina accelera.
Dopo che finisce di accelerare il nostro peso ritorna come prima. Se improvvisamente si
rompessero le corde dell’ascensore e questo cominciasse a precipitare, ci troveremmo
improvvisamente senza peso. Se precipitasse all’infinito volteggeremmo all’interno della
cabina. Non siamo attratti in questo caso da un campo gravitazionale.
Cosa ci dice questo? Che se noi siamo all’interno dell’ascensore non riusciamo a capire se
noi sentiamo il nostro peso perché c’è un campo gravitazionale o perché c’è
un’accelerazione dell’ascensore. Fino a quando noi siamo all’interno di un sistema non
9
riusciamo a capire se questo sistema è in accelerazione o è semplicemente fermo, perché
noi lo avvertiamo sempre allo stesso modo, sentiamo che pesiamo e basta.
La curvatura dello spazio-tempo
Einstein propose un’interpretazione geometrica della gravitazione, per la quale lo spazio
non è piatto, bensì curvo. È come se lo spazio fosse distorto dalla presenza di masse, cioè
lo spazio non è più qualcosa di amorfo, di vuoto, ma è qualcosa che è sensibile alla massa.
Lo spazio si piega e fa si che i corpi che si spostano nello spazio seguano queste
ripiegature. Come se fosse un materasso, se ci mettiamo sopra una palla si viene a creare
un avvallamento, cioè lo spazio si curva.
Se noi lanciamo una pallina verso quella palla, ma non esattamente a ridosso della palla,
cosa succede? Se la pallina ha una velocità sufficiente ma non troppo, allora questa
comincia ad accelerare intorno alla palla, fino a quando pian piano non cade e finisce per
fermarsi sulla prima palla.
Ora pensiamo che la palla sia un pianeta e i tempi non siano uguali ma dilatati. I pianeti sono
come palline che girano intorno alle stelle perché c’è lo spazio curvo, cioè loro vengono
imprigionate da questo spazio curvo.
Il fatto che lo spazio sia curvo, porta come conseguenza il fatto che la distanza tra due
punti non è più una linea retta ma una linea curva, cioè la luce segue la curvatura dello
spazio. E questo è stato dimostrato dal fatto che durante l’eclissi di sole, quando questo p
oscurato dalla interposizione della luna, noi possiamo osservare delle stelle che stanno
dall’altra parte. Noi siamo in grado di vedere le stelle perché la loro luce non ha una
traiettoria dritta, ma curva, e quindi per questo siamo in grado di vederle.
Nello spazio euclideo vale il postulato delle parallele, cioè che la distanza tra due punti sia
una retta. Invece, nello spazio di Einstein, non vale più il postulato delle parallele e la
distanza tra due punti non è una retta, vale una geometria diversa, non euclidea ma
iperbolica. Per cui, se disegnassimo un triangolo nello spazio, tra plutone, la terra e il sole,
ci accorgeremmo che il triangolo non è di 180° perché lo spazio è curvo. La geometria
euclidea non è più valida.
La relatività di Einstein non significa relativismo, ma relativismo filosofico e relatività fisica
sono due cose diverse. Però è indubbio che la teoria di Einstein ha un profondo impatto
filosofico, perché cambia il nostro modo di vedere lo spazio e il tempo, che non sono lo
spazio e il tempo universali di cui parava Kant e Euclide. Possiamo parlare di cose misurabili
ed osservabili da questo momento.
La rivoluzione quantistica
La meccanica quantistica è una teoria della fisica moderna, detta anche teoria dei quanti,
perché basata sul concetto di “quanto”. Diversamente dalla relatività, che riguarda
principalmente i fenomeni che avvengono su scala superiore a quella della nostra vita
quotidiana, come la velocità e le distanze galattiche, la teoria dei quanti ha a che vedere con
oggetti piccoli come gli atomi e le particelle che li compongono. Si passa quindi dal macro al
micro o anche microfisica.
10
Max Planck ipotizzò che l’energia venga emessa o assorbita dalla materia sottoforma di
piccole unità indivisibili, chiamati appunto quanti. Le radiazioni sono trasmesse o assorbite
da parte di un corpo non in maniera continua, ma per quantità discrete, multiple di quantità
minima, detta quanto di Planck, al di sotto della quale non è possibile scendere.
L’energia di Planck è un’energia estremamente piccola, la minima che si possa trovare, di
essa si possono avere solo multipli interi (2e, 3e, 4e ecc) mai per esempio 1/2e, non cioè 3
volte e ½ e si trasmette per quanti discreti (10, 20, 30).
Planck non era soddisfatto di questa formula, si mostrò scettico nei confronti della propria
scoperta e cadde nel vuoto.
Fino a quando Einstein non li ripropose per spiegare alcuni nuovi fenomeni. Einstein, 5 anni
dopo la scoperta di Planck utilizza il quanto per spiegare l’effetto fotoelettrico, un
fenomeno che non era compreso nella fisica classica.
Einstein ribalta la concezione della luce che si era affermata con Maxwell (intesa come
fenomeno ondulatorio) e facendo ricorso alla quantizzazione, ipotizza che la radiazione, e
quindi anche la luce, fosse quantizzata non solo quando interagisce con la materia , come
proposto da Planck ma anche quando viaggia nel vuoto. E’ evidente che la materia può
assorbire o cedere energia solo in quantità discrete.
Unificazione di due teorie: in certi casi la luce si comportava in maniera ondulatoria e in
altri in modo corpuscolare. La luce p composta da fotoni, ma non seguono una linea retta ma
ondulatoria. Questi fotoni sono determinati in base alla costante di Planck. Per dare una
prova dell’utilità dell’ipotesi di Planck, spiega perché in certi casi si comporta come
corpuscolare e altre in maniera ondulatoria. Se l’energia è più elevata prevale quella
ondulatoria, se più bassa prevale quella corpuscolare.
Einstein fa una sorta di unificazione tra teoria corpuscolare e ondulatoria. Cioè la luce è
composta da particelle che sono i fotoni, però queste particelle si spostano in maniera
ondulatoria, non seguono cioè una linea retta, ma una linea ondulatoria, come l’acqua che
segue le onde del mare.
Questo dipende dalla quantità di energia coinvolta. Questi fotoni sono determinati in base
alla costante di Planck. La costante di Planck serve ad Einstein per dare prova dell’utilità di
questa ipotesi. Il fatto che la luce, i fotoni, seguissero la regola della quantizzazione
dell’energia, spiegava perché in certi casi la luce si comportasse come corpuscolare e in altri
casi ondulatoria. Il fotone non è altro che una quantità di luce.
Nel frattempo, anche Bohr utilizza questa idea di Planck per quanto riguarda la struttura
dell’atomo. Anche in questo caso vengono formulate diverse teorie, quella più affermata è
che l’atomo è composto da un nucleo formato da protoni e neutroni + elettroni che girano
intorno al nucleo.
Quindi, ispirandosi ancora una volta all’ipotesi dei quanti, propose di abbandonare la fisica
classica per la spiegazione dei fenomeni atomici in favore di una nuova teoria. Allo scopo di
spiegare il rapporto tra la nuova meccanica e la fisica classica, Bohr propose il principio di
corrispondenza. In questo modo cercava di garantire una certa continuità tra vecchia teoria
e nuova teoria.
Ma l’incapacità di ottenere ulteriori successi sperimentali, fece sentire ai fisici l’esigenza di
procedere al completamento della teoria quantica in maniera autonoma, con regole proprie
di calcolo e postulati, senza derivare da formule classiche. Non si trattava di abbandonare il
principio di corrispondenza, ma di cercare l’accordo tra le due teorie, classica e quantistica,
attraverso il confronto tra le due teorie nella loro interezza.
Alla costruzione della nuova teoria si giunge attraverso l’edificazione di due concezioni
alternative dei fenomeni microscopici: la prima di De Broglie e Schrodinger, prende il nome
di meccanica ondulatoria; la seconda di Heisenberg, Born e Jordan è la meccanica
delle matrici.
La meccanica ondulatoria
11
Punto di partenza della prima impostazione è l’idea di De Broglie che anche la materia
possiede sia natura corpuscolare, sia natura ondulatoria. Egli disse che i corpi hanno, e non
soltanto la luce, una duplice natura: corpuscolare e ondulatoria, sia una massa che un’onda.
Per cui il doppio aspetto corpuscolare e ondulatorio non è peculiare delle sole radiazioni
elettromagnetiche, ma vale per ogni fenomeno.
Ogni cosa ha natura corpuscolare, cioè una massa, ma emette anche un’onda. Per i corpi
grandi con una massa grande e grande velocità quando si spostano, il risultato sarà
un’onda più piccola. Quando la massa diventa piccola, allora la lunghezza d’onda cresce
e quindi rispetto alla massa comincia a farsi notare.
Ecco perché nel caso della luce, dove il fotone è quasi privo di massa, cioè la massa è
vicina allo zero, abbiamo una lunghezza d’onda che si nota.
Nel 1927 la concezione di De Broglie viene confermata sperimentalmente. .
La meccanica ondulatoria segnava sì un progresso rispetto a quella classica, ma
rispettandone il principio di continuità e privilegiando il carattere ondulatorio della materia, a
discapito di quello corpuscolare.
La meccanica delle matrici
Nel contempo Heisenberg fece uso del “calcolo matriciale”. Diversamente dalla meccanica
ondulatoria, privilegiava il carattere corpuscolare dell’elettrone.
Nel 1926 lo stesso Schrodinger mostrò che la meccanica delle matrici e quella ondulatoria,
pur essendo diverse nella forma, erano matematicamente equivalenti. E siccome la
meccanica ondulatoria era di gran lunga più semplice e familiare ai fisici del tempo,
preferirono servirsi dell’equazione ondulatoria.
Siamo in presenza di teorie diverse, entrambe in grado di spiegare correttamente i dati
sperimentali, che si contendono un riconoscimento definitivo da parte della comunità dei
fisici.
Born e l’interpretazione probabilistica della funzione d’onda
Nel contempo Max Born si era posto il problema di capire cosa esattamente descrivesse la
funzione d’onda introdotta da Schrodinger.
Il cardine dell’interpretazione di Born sta nella interpretazione probabilistica della funzione
d’onda U, per cui questa fornisce soltanto la probabilità che, ad es. un elettrone, si trovi
durante un certo intervallo di tempo in un determinato volume. In tal modo il movimento
dell’elettrone non è descrivibile con precisione, ma solo probabilisticamente: è una chiara
sfida all’interpretazione della funzione d’onda U come una entità fisica reale. Essa diventa
una mera probabilità.
Ne segue che l’elettrone si muove non in base a leggi deterministiche, ma a leggi
indeterministiche.
Una frattura si apriva tra il mondo come concepito dalla fisica classica e quello descritto dalla
meccanica quantistica.
Heisenberg e il principio di indeterminazione
Heisenberg giunse alla formulazione del principio di indeterminazione. Questo stabilisce
l’impossibilità di conoscere esattamente la posizione e la velocità di una particella atomica.
Grazie alle relazioni di indeterminazione di Heisenberg si è constatato che non è possibile
indicare simultaneamente la posizione e la velocità di una particella elementare.
Bohr e il principio di complementarità
12
Bohr cerca di capire la duplice natura corpuscolare ed ondulatoria che caratterizza sia le
radiazioni elettromagnetiche sia la materia.
Bohr introduce la complementarità. La complementarità afferma che la complessità del reale
non può essere colta con un solo sistema di concetti.
Il principio di complementarità ammette che esistano aspetti della realtà fisica che sono tra
loro complementari e ad un tempo incompatibili, ovvero non presenti simultaneamente,
Per Bohr la fisica ondulatoria e la fisica delle particelle non erano, come si era finora
supposto e discusso giuste o sbagliate, bensì complementari.
Heisenberg, dopo una iniziale resistenza, finì per accettare questa prospettiva: nasceva così
l’interpretazione di Copenaghen.
L’interpretazione della scuola di Copenaghen
La scuola di Copenaghen costituisce il tentativo più riuscito di conciliare l’aspetto
corpuscolare con quello ondulatorio dei fenomeni.
L’accettazione dell’interpretazione di Copenaghen implica la messa in dubbio di principi che
avevano retto ogni indagine fisica e scientifica del reale: il principio di causalità e il
carattere deterministico della natura. Mediante la meccanica quantistica viene stabilita
definitivamente la non validità della legge di causalità.
Non tutti i fisici furono disposti ad accettare le concezioni della scuola di Copenaghen.
L’incidenza filosofica della meccanica quantistica
Già la discussione sulla meccanica quantistica dimostra come sia divenuta stretta la
connessione tra scienza e filosofia.
Ad emergere vigorosamente è l’esigenza tra i fisici di un’apertura verso la filosofia, perché la
fisica moderna non può essere compresa adeguatamente senza filosofia. Il bisogno di un
ripensamento filosofico delle teorie scientifiche nasce dunque all’interno della scienza.
Ogni lavoro scientifico si sviluppa (consciamente o inconsciamente) a partire da
un’impostazione filosofica, da una determinata struttura mentale.
Vi era dunque un clima nuovo nella comunità degli scienziati. L’interesse per i problemi
filosofici da parte degli scienziati che cominciavano a scrivere di logica, di metodologia, in
modo originale rispetto alla filosofia dava vita ad una nuova disciplina, la “filosofia della
scienza”. Ma la filosofia di cui ha bisogno la nuova fisica non può essere quella tradizionale
ancorata a concetti ormai superati.
E del resto i concetti elaborati dalle nuove teorie scientifiche non possono lasciare
indifferenti i filosofi.
L’esigenza di una filosofia rinnovata si era già espressa tra 800 e 900 con il programma
della “filosofia scientifica”. Se la scienza richiedeva la filosofia, a sua volta la filosofia non
poteva non tenere conto dei risultati della scienza, anche perché molti dei suoi problemi
trovano soluzione in questa. La scienza ci ha messi a confronto con un mondo nuovo, con
metodi nuovi che l’esperienza ha dimostrato fruttuosi laddove i vecchi concetti si erano
dimostrati sterili. È questa la situazione che hanno di fronte i fondatori del circolo di Vienna e
i filosofi della scienza del 900.
La nascita della nuova logica
La logica classica era la logica di Aristotele. Tramonta perché aveva avuto la sua grande
fortuna nel periodo classico e nel medioevo. Era stata utilizzata per l’argomentazione
filosofica all’interno del discorso teologico, per quelli che erano i problemi fondamentali del
cristianesimo. Era tutta incentrata sul tentativo di risolvere quelli che erano i rapporti tra la
fede e la ragione, ecc. la logica che veniva utilizzata era funzionale a questo tipo di
argomentazioni. Quando nasce la nuova scienza con Galileo, questa logica si rivela del tutto
inadeguata, perché la nuova scienza si basava sulla matematica che sembrava che con la
13
logica non avesse niente a che vedere. Tanto è vero che Galileo dice che i logici sono
coloro che studiano la matematica, che la applicano. Egli rispose a coloro che affermavano
che bisognasse insegnare la logica per abituare i fanciulli al ragionamento attraverso la
logica di Aristotele, che la vera arte del ragionare la si apprende nei libri di matematica, con i
vari teoremi, deduzioni, dimostrazioni, ecc. Da quello che dice Galileo si capisce come
nasce la contrapposizione tra la logica e la matematica. Cioè la logica viene coltivata
soltanto dai filosofi, i quali proseguono sulla strada intrapresa da Aristotele, la matematica è
invece lo strumento della nuova scienza, la quale non ha più bisogno della vecchia logica.
È una contrapposizione che segnerà tutto il periodo moderno, dal 500 all’800, che sarà
caratterizzato da questa diffidenza nella logica da parte di coloro che sono dei logici pratici, i
matematici.
Ci furono tentativi di superare questo dissidio tra logica e matematica, il più importante è
quello di Leibiniz, che era un filosofo ma anche un matematico, era stato il primo ad
inventare il calcolo infinitesimale. Leibiniz nelle sue opere di logica non pubblicate, ebbe
un’intuizione, di potere applicare una logica, basata sulla matematica, al pensiero filosofico,
a rendere scientifico, rigoroso il pensiero filosofico, attraverso la creazione di un apposito
vocabolario in cui tutti i concetti venivano tradotti in simboli che potessero evitare l’ambiguità
dei termini, attraverso una lingua universale, artificiale, simbolica, non più naturale, che
potesse permettere di combinare questi concetti, per ricavare dei nuovi concetti, dalla
combinazione di concetti già esistenti.
Questa è l’idea di scientifizzazione della filosofia, e fu un’idea che ebbe un grande successo,
specialmente nel corso dell’800, perché si pensava che la filosofia, con l’applicazione della
matematica, potesse arrivare allo stesso grado di precisione ed esattezza applicando ad
essa la logica.
Questa è un’idea di Leibiniz, idea che non realizzò, cioè gettò le fondamenta di questa
idea, fece alcuni tentativi di simbolizzazione, però le sue opere non furono riconosciute. Egli
lanciò semplicemente l’idea di un programma che tuttavia non portò a termine.
Ci furono anche altri filosofi che nel corso del 600 cercarono di ispirarsi alla matematica.
L’idea del rigore matematico è un’idea estremamente diffusa.
Ci sono molti filosofi che pensano che anche in filosofia si debba applicare lo stesso rigore
ed esattezza del discorso matematico. Uno di questi fu Spinoza, altro grande filosofo del
600, anche lui razionalista come Leibiniz, il quale scrisse la sua opera principale che si
intitola “ l’etica, ordine geometrico dimostrata”, cioè l’etica dimostrata secondo il metodo
geometrico.
Il metodo di Spinoza ispirato alla geometria, era qualcosa che affascinava i filosofi e si
pensava che la logica potesse essere lo strumento adatto, ma non la logica aristotelica, che
aveva i suoi limiti, poiché non era sufficiente da sola per portare a quel rigore che si voleva
dare al pensiero filosofico.
Questo tentativo di scientifizzazione e sviluppo della logica prosegue in due direzioni
diverse: da una parte c’è la vecchia direzione dei vecchi filosofi che continuano ad insistere
sulla logica aristotelica, dall’altra c’è la strada seguita dai matematici che non si interessano
alla vecchia logica, ma cercano di studiare quelli che sono i procedimenti della matematica.
Questo porta sempre più a chiarire cosa si intende per deduzione, per dimostrazione, per
teorema, ecc. Tutto questo porta ad una serie di sviluppi fecondi che saranno poi messi a
frutto da quella che si chiama La scuola di Cambrige, ma che seguono un distacco profondo
tra logici e matematici. Questo distacco profondo tra logici e matematici viene sancito da
quella che è appunto la scuola di Cambrige.
Cosa succede? Mentre la logica coltiva sempre di più le proprie figure sillogistiche,
senza fare reali passi in avanti, la matematica si libera progressivamente da quella che
era stata la sua camicia di forza iniziale, cioè il suo essere legata ai numeri.
La matematica si trasforma sempre più in una scienza del ragionamento astratto, non più la
scienza dei numeri ma della deduzione, è la scienza della struttura formale del
14
ragionamento, che dà la possibilità di combinare in maniera rigorosa ogni tipo di simbolo che
poi può essere interpretato in maniera diversa.
La scuola di Cambrige libera quindi la matematica dalla necessità di riferirsi ai numeri. Non
abbiamo più bisogno di parlare di numeri ma di concetti generici. Se dico che Angelina Jolie
più bella di Julia Roberts e la Roberts è più bella di Meg Ryan, allora dico che la Jolie è più
bella di Meg Ryan. È sempre una conseguenza logica che deriva dal modo in cui io intendo
il concetto di relazione transitiva, la conseguenza logica della frase è quella.
Questa relazione transitiva è un tipo di relazione in cui metto in relazione degli enti qualsiasi,
che ha un suo rigore logico, che è indipendente dal fatto che io parlo di numeri o parlo di
bellezza, intelligenza o altro. La scuola di Cambrige ha il merito di capire che la matematica
non è qualcosa che parla di numeri ma di relazioni di questo tipo.
Quando noi applichiamo, per esempio, la proprietà commutativa che riguarda la somma di
3+2 = a 2+3 non vale semplicemente per i numeri, ma anche per le altre cose. La
commutatività vale se io parlo sia di numeri che di persone, animali, cose, ecc. Una persona
che è bella e intelligente è la stessa persona che è intelligente e bella. Questo tipo di
matematica priva di numeri ma che si riferiva a oggetti fu quella che venne creata dalla
scuola di Cambrige.
Con Boole Si realizza il programma annunciato da Leibniz: la logica diventa una disciplina
matematica. L’idea di Boole, che costituisce anche la continuazione del progetto intuito da Leibniz è
che sia possibile matematizzare il ragionamento. Per Boole la logica non è che una parte della
matematica e può quindi essere resa scientifica. Il progetto di Boole ha il nome di algebra della
logica.
Boole diversamente da Leibniz, non si limitò ad enunciare un programma, ma si sforzò di
darne una esecuzione. fu quello che comprese l’enorme potenziale di questo tipo di
matematica, capì che la matematica in questo modo poteva essere qualcosa di più che un
ragionamento sui numeri.
Egli scrisse nel 1847 un’opera con cui si fonda la nuova logica che è appunto “l’analisi
matematica del pensiero”. Questa consiste nell’idea che è possibile applicare il formalismo
algebrico non per esprimere numeri ma per esprimere operazioni di tipo logico, tutto quello
che era stata la logica di Aristotele. Esprimendo un linguaggio più rigoroso e senza gli
inconvenienti di in conclusione e complicatezza che aveva la logica classica di Aristotele.
Boole lo fa facendo diventare la logica una parte della matematica, e così Boole fa questo
tentativo reinterpretando la logica classica.
A tal scopo Boole analizza alcuni esempi di argomentazione, tratti dalle opere di Clarke e
Spinoza. Di queste effettua una ricostruzione analitica, esplicitando le premesse,
esprimendole nel linguaggio dei simboli, impiegando i metodi esposti nella sua opera.
La manchevolezza di tali opere si scorge subito, in esse sono confuse diverse
concatenazioni di ragionamenti, e argomentazioni considerate dal punto di vista delle leggi
rigorose del ragionamento formale, sono scorrette o inconcludenti. Clarke voleva dimostrare
le prove dell’esistenza di Dio facendo delle dimostrazioni di tipo logico-matematico. In
particolare, facendo l’analisi delle opere di Spinoza, Boole va a vedere come quel rigore
apparente nelle opere di Spinoza nascondesse delle gravi carenze di natura logica. Lui
faceva vedere come e quali erano gli errori di logica di Spinoza.
In cosa consiste la logica di Boole? Egli fa una logica utilizzando la stessa simbologia
della matematica, cioè utilizza x, y, z, e a b c che sono simboli algebrici che vengono da lui
ripresi e utilizzati dando loro un significato diverso.
A e b a questo punto non significano numeri come avviene nell’algebra, ma A e B
raggruppano le classi che possono comprendere entità di qualsiasi tipo:
A può essere la classe di tutto ciò che è mortale;
B può essere la classe di tutto ciò che è uomo;
C può essere la classe di tutto ciò che è quadrato, ecc.
Possiamo mettere qualsiasi significato. Queste lettere possono indicare delle qualità, delle
persone e altre cose concrete.
15
La classe A rappresenta le donne bionde, la classe B rappresenta le donne belle.
A+B (+ rappresenta la congiunzione e-o) significa che classe delle bionde o belle.
AxB indica che devono essere bionde e belle, devono essere contemporaneamente
entrambe le cose.
A-B dice che le donne che sono belle non sono bionde.
AvB dice che soltanto alcune A sono B (poiché il simbolo v serve a selezionare di una
classe solo una parte dei suoi membri).
Boole introduce anche due simboli particolari, 1 e 0 che significano: 1 la classe totaleuniversale, la classe che comprende tutte le cose; 0 è invece la classe del nulla, che non
contiene niente. È un concetto un po’ strano, perché la classe è definita dalla cose che
comprende, se non c’è niente allora non dovrebbe esistere nemmeno la classe, eppure la
classe c’è, è un concetto astratto che comunque esiste.
Poi introduce il simbolo di identità = che indica la relazione tra due classi x=y significa che la
classe x ha gli stessi elementi della classe y. A=B significa che gli elementi A sono gli stessi
degli elementi B.
Grazie all’opera di Boole fu edificata l’algebra della logica.
La logica si libera dalla sua subordinazione al formalismo algebrico, raggiungendo con
Schroder la sua definitiva sistematizzazione e perfezionamento.
I limiti dell’algebra della logica:
Nonostante i perfezionamenti apportati da Schroder, la complicatezza del suo simbolismo
ed una eccessiva rigidezza di impostazione, fece sentire l’esigenza di una logica rinnovata,
svincolata dalla matematica e che si ponesse direttamente il problema della comprensione
delle leggi che stanno alla base del ragionamento, compreso quello matematico.
Il limite è che si assumeva la matematica come modello di logica e l’algebra come modello
di logica, e quindi si assumevano tutte le operazioni dell’aritmetica e dell’algebra come
operazioni logiche. Questo funzionava fino a un certo punto, però per le altre cose no. Si
dava all’espressione delle preposizioni logiche un qualcosa di artificioso che rendeva difficile
la loro utilizzazione, ovvero non erano immediatamente intuitive.
Ci sono delle operazioni algebriche come ad esempio la divisione che hanno un senso in
algebra ma non hanno senso in logica. Quindi diventa impossibile attraverso delle
proposizioni algebriche esprimere delle proposizioni logiche.
Questo ha fatto pensare che vi era un’altra via per formalizzare il pensiero argomentativo e
quest’altra via viene fuori da quella che era stata l’evoluzione stessa della matematica, cioè
dal fatto che da un certo momento in poi nell’800 si avvia questa riflessione sui fondamenti
della matematica, che consiste nel tentativo di trovare quelle che sono le basi della
matematica, cioè quei mattoni originali, indubitabili su cui l’edificio matematico può essere
edificato senza equivoci, in maniera solida.
La nuova impostazione del rapporto tra logica e matematica, nasce dalla necessità di
dare maggiore rigore all’analisi, riesaminandone criticamente i fondamenti.
I matematici più attenti alle questioni metodologiche cominciarono a rendersi conto che
anche i teoremi fondamentali mancavano di una base rigorosa.
In questo periodo ha luogo quel “ripensamento di tutta la matematica” che porterà alla
concezione dei sistemi matematici come puri sistemi formali, staccati da ogni
interpretazione.
Si voleva insomma, liberare la matematica dalla tradizionale sottomissione alla geometria.
La nascita delle geometrie non euclidee e la crisi della concezione kantiana
La crisi del ruolo privilegiato dell’intuizione avviene proprio nel terreno della geometria con la
progressiva affermazione delle geometrie non euclidee.
16
Il significato di tali geometrie va visto nella crisi della concezione “intuitiva” della geometria
che era alla base dell’approccio kantiano. Il filosofo tedesco riteneva che la geometria,
edificata da Euclide, fosse fondata sulla “intuizione pura”.
Essa costituiva un esempio di conoscenza sintetica a priori: sintetica, in quanto i suoi
teoremi ci descrivono la struttura dello spazio fisico nel quale viviamo; a priori in quanto
assolutamente certa e non bisognosa di essere giustificata facendo ricorso all’esperienza.
Sembrava pertanto accoppiare certezza intuitiva e rilevanza empirica: questa era la
concezione che sin dall’antichità era stata tramandata delle geometria.
I tentativi infruttuosi di dimostrare il quinto postulato di Euclide, quello delle parallele,
avevano condotto gli studiosi ad ipotizzare geometrie che ne facessero a meno. Ci si avvide,
così, che la negazione del postulato non conduceva ad una contraddizione, che ne avrebbe
dimostrato l’indispensabilità, ma portava all’ammissione di due nuove geometrie (quella
iperbolica e quella ellittica).
Non era quindi necessario accettare il quinto postulato di Euclide. Sono ammissibili,
insomma, diverse geometrie che, per quanto lontane dalla nostra comune intuizione dello
spazio, sono coerenti.
Ci furono molti scienziati, tra cui Girolamo Saccheri che nel 600 arrivò a questa
conclusione: che negando il postulato delle parallele non si introduceva nessuna
contraddizione alla geometria di Euclide, cioè si costruiva una geometria che non ammetteva
il postulato delle parallele, ma che era altrettanto legittima e coerente con la geometria di
Euclide. Era una geometria non intuitiva, che si riferisce a uno spazio, quello che noi non
vediamo nella nostra vita quotidiana nei quali ci sono i corpi che seguono la geometria
euclidea. Nella nostra vita quotidiana noi vediamo che la distanza più vicina tra due corpi è
una retta.
Nella geometria euclidea la somma degli angoli interni di un triangolo è uguale a 180°, ma
se immaginiamo una superficie curva, se vi disegniamo un triangolo, la somma degli angoli
non sarà 180° ma sarà di più. E se noi mettiamo due punti su questa superficie curva, la
retta più breve che congiunge questi due punti sarà una linea curva, non più una linea retta.
Quindi, quello che scoprì Saccheri, era che in effetti la nostra intuizione ci inganna, cioè noi
abbiamo l’intuizione della geometria euclidea che ci sembra evidente perché noi siamo degli
esseri dotati di corpo che viviamo in uno spazio che ha certe dimensioni, che è lo spazio
della nostra vita quotidiana. Ma siamo sicuri che lo spazio abbia sempre queste
caratteristiche? No! Tanto è vero che ci furono degli scienziati che tentarono di fare questa
esperienza, dicevano che poteva darsi che per le grandi distanze la geometria euclidea non
valga più, per esempio la luce non segna una traiettoria lineare.
Allora ci fu un geometra, Gauss, il quale fece queste esperienze, triangolò tre vette delle
montagne in Germania molto lontane, per avere un triangolo molto grande, e misurò gli
angoli interni di questo triangolo e si accorse che era 180°, quindi arrivò alla conclusione che
lo spazio fisico fosse euclideo, però questo non toglieva il fatto che una geometria non
euclidea poteva esistere e che tuttavia non era contraddittoria.
Quindi, l’accento venne posto non tanto sulla intuizione della geometria, ma sul fatto che la
geometria è un sistema formale deduttivo non contraddittorio, questo è ciò che importa nella
geometria e allora se importa questo, il fatto che lo spazio fisico in cui viviamo sia euclideo è
qualcosa di accidentale, perché così si è evoluto lo spazio, la terra. Ma nulla esclude che
poteva essere diversamente.
Tanto è vero che poi con la teoria della relatività generale si arrivò alla conclusione che lo
spazio non è euclideo ma curvo. Quindi, Einstein disse che se noi andiamo a vedere lo
spazio, vediamo che non è euclideo. Allora, a questo punto, per i matematici, se
effettivamente esistono le geometrie euclidee e ci sono delle geometrie coerenti anche se
non sono euclidee, allora non possiamo più fidarci delle intuizioni geometriche, che non ci
fanno cogliere una verità, un solo sistema coerente che è l’unico possibile. L’intuizione ci fa
semplicemente cogliere uno dei sistemi coerenti possibili, ma non l’unico.
17
Allora possiamo fondare l’analisi matematica sulla geometria? No! Dobbiamo fondare la
matematica su qualcos’altro, non più sulla geometria, ma su se stessa. Dobbiamo cioè
trovare alla base della matematica quei concetti fondamentali che sono indipendenti dalla
geometria.
Allora comincia il processo di aritmetizzazione della matematica, cioè quel processo che
via via riduce tutte le operazioni dell’analisi matematica all’aritmetica, cioè alle 4 operazioni
fondamentali: + - x :
Si riesce a dimostrare che è possibile aritmetizzare l’analisi, e questo qui lo fa Giuseppe
Peano. Per lui i numeri naturali stavano alla base di tutta la matematica. La matematica si
riferiva ai numeri reali e alle 4 operazioni dell’aritmetica.
L’esigenza di introdurre nuovi numeri nasce dall’esigenza di dare significato a quelle che
erano delle operazioni dell’aritmetica, perché se faccio 6:4 non ottengo un numero intero ma
con la virgola, quindi esco fuori dai numeri interi, ma entro nel campo dei numeri razionali.
Si capisce che il concetto di numero è qualcosa di molto più profondo di ciò che si pensava,
il numero ha un’essenza immateriale, non si tocca. E per capire cos’è un numero dobbiamo
capire come funziona.
Approccio logicista
Frege, per capire i numeri e comprendere la logica che sta dietro ai numeri, il modo di
ragionare, come funzionano ecc ebbe una grande intuizione. Egli capovolge il progetto di
Boole, cioè non è la logica che dev’essere fondata sulla matematica, ma il contrario,
dobbiamo cioè ritrovare i fondamenti della matematica nella logica. Perché la logica è
qualcosa di più generale che riguarda il modo in cui noi pensiamo, il modo in cui ci
relazioniamo agli oggetti, enti di qualsiasi natura, qualunque essi siano. Ecco allora che con
Frege nasce il cosiddetto Approccio logicista.
L’approccio logicista consiste nel sostenere che il fondamento della matematica sta nella
logica e questo è il logicismo, che è un programma nettamente opposto all’algebra di
Boole.
Questo logicismo di Frege parte proprio da questa assunzione della necessità di dare
un’oggettività al pensiero matematico che fosse indipendente dai modi in cui noi pensiamo.
Cioè lui capì che la matematica deve avere una oggettività che è indipendente dai pensieri
dell’uomo.
La matematica sarebbe esistita anche se nessuno l’avesse mai pensata, un teorema ha una
sua indipendenza, indipendentemente da chi lo pensa. Non è vero che lo ha inventato
Pitagora, ma sarebbe esistito lo stesso.
L’idea di Frege è che le entità logiche hanno una esistenza autonoma dall’uomo, come se
stessero in un mondo trascendente. Per cui, non è che noi inventiamo la matematica, nel
senso che la creiamo, noi siamo come degli esploratori che scoprono qualcosa che esiste
già. Per esempio, una montagna scoperta solo dopo dall’uomo, è sempre stata là, ancora
prima che l’uomo la scoprisse, ha una sua oggettività e la sua esistenza è indipendente
dall’uomo.
E così la logica ha una sua oggettività, che è indipendente anch’essa dal modo in cui l’uomo
la pensa, e noi dobbiamo andare a cogliere proprio questa oggettività, quindi, dice Frege,
dobbiamo distinguere quelli che sono i nostri modi soggettivi di pensare, da quella che è la
verità oggettiva. Frege, per fare questo critica quelle che sono le forme in cui veniva pensata
la matematica ai suoi tempi, cioè critica l’approccio trascendentale di Kant, critica
l’empirismo per cui la matematica deriva dall’esperienza. Invece, per Frege dall’esperienza
ci deriva semplicemente il modo contingente in cui noi abbiamo utilizzato il linguaggio della
matematica, cioè una certa popolazione ha utilizzato un certo sistema numerico, un’altra
popolazione un altro.
18
Quando si parla di legge logica, sostiene Frege, si intende qualcosa di totalmente diverso da
una legge psicologica: quest’ultima enuncia ciò che è, descrive il comportamento tenuto
dagli uomini.
Invece la legge logica enuncia ciò che deve essere, stabilisce come si debba pensare.
Alla base dell’impostazione fregeana vi è una visione oggettivistica della verità: essa non è
ciò che viene comunemente accettato. L’essere vero è qualcosa di completamente diverso
dall’essere ritenuto vero. Per leggi logiche io non intendo le leggi del ritenere vero, ma le
leggi dell’essere vero.
Pertanto la verità è per Frege qualcosa di oggettivo e di indipendente da chi giudica, in
quanto un pensiero vero è già vero prima di venire afferrato da un essere umano.
La distinzione tra senso e denotazione
La difesa dell’oggettività viene da Frege perseguita anche mediante la distinzione tra senso
e denotazione dei termini singolari.
(Denotazione tradotta anche con “significato”, “designazione”)
Facciamo l’esempio di Frege: quando usiamo l’espressione “la stella del mattino” indichiamo
il pianeta Venere, analogamente quando utilizziamo l’altra espressione “la stella della sera”
denotiamo sempre Venere.
E tuttavia abbiamo usato due “descrizioni definite” il cui senso è diverso, pertanto quando
stabiliamo l’eguaglianza “la stella del mattino”=“la stella della sera” abbiamo indicato che due
espressioni diverse fanno riferimento al medesimo oggetto.
Quindi le due espressioni hanno sensi diversi ma identica denotazione.
Egli differenzia dal senso e dalla denotazione la rappresentazione, costituita dalla immagine
interna che ciascuno si fa, di un dato oggetto.
Il senso non è soggettivo come la rappresentazione, ma non è neppure l’oggetto stesso.
Delle esperienze soggettive connesse alla rappresentazione si occupa la psicologia, non la
logica o la scienza.
Per dar corpo a tale concezione oggettivistica della logica Frege vuole creare un simbolismo
logico in grado di fornire una rigorosa espressione del pensiero, evitando così le trappole
causate dalle ambiguità del linguaggio naturale.
La logica non ha niente a che vedere con quello che noi pensiamo con la nostra mente, con
la nostra soggettività, è qualcosa che prescinde dalla nostra soggettività, va oltre, ed è
quella che può garantire autenticamente il rigore della matematica.
Su queste intuizioni Frege costruisce la nuova logica, una nuova logica che deve avere un
linguaggio autonomo rispetto a quello della matematica, perché deve esprimere quanto
meglio possibile il denotato.
Noi in quanto esseri umani non possiamo esprimere oggettività, se non attraverso la
soggettività, possiamo trovare una forma di espressione che sia quanto più universale
possibile, che è quello che vuole fare Frege.
Ma dobbiamo tenere presente che l’autentica forma di oggettività che noi possiamo avere e
a cui possiamo arrivare è la forma della traducibilità intersoggettiva. L’unico modo con cui
possiamo garantire l’oggettività non è tanto il fatto che noi riusciamo a cogliere in maniera
diretta il denotato, quanto che noi sappiamo esprimere questo denotato in un linguaggio
quanto più rigoroso possibile e che sia traducibile negli altri linguaggi e quindi può dirsi
universale.
Ecco allora l’idea della logica come strumento universale di comunicazione. Frege ci
arrivò in parte. Se il modo in cui noi esprimiamo l’oggettività permette la traducibilità
intersoggettiva, cioè da un linguaggio all’altro, allora noi siamo in grado di avere una certa
oggettività. L’oggettività non è altro che intersoggettività, come la capacità di tradurre da un
linguaggio all’altro.
Ecco perchè in certi campi del sapere non si può avere oggettività, per esempio nell’ambito
della religione, altrimenti questa non sarebbe più religione ma scienza se fosse oggettiva.
19
Frege parla di argomento e funzione. L’argomento è una qualunque variabile, un oggetto,
un ente. La funzione è ciò che si dice dell’ente, esempio, se l’argomento è il tavolo allora la
funzione è essere quadrato. L’argomento può ovviamente variare. Questo argomento
funzione ci esprime una funzione proposizionale, che diventa una proposizione nel
momento in cui noi diamo un valore di verità.
La proposizione è qualunque espressione linguistica che può essere vera o falsa. La logica
di Frege è basata sul concetto di proposizione, cioè il procedimento del calcolo
proposizionale che è indicato in genere con p q simboli che verranno introdotti da Russell,
una formulazione che lui riprese da Peano. p può essere o vero o falso e non può essere
formato soltanto da un verbo, per esempio “correre”, e non può nemmeno essere un
termine, per esempio “Socrate”, se noi non diciamo cosa da non possiamo dire neanche se
è vero o falso. Se diciamo “Socrate è un filosofo” allora a questo punto p o è vero o è
falso. p può essere anche un assetto che non è una proposizione, per esempio se io dico
“prendimi un caffé” è una proposizione linguistica che è dotata di significato ma che non è
né vera né falsa, è un comando, che si esegue oppure no. Non ogni assetto linguistico è
una proposizione, ma questo è un assetto linguistico dichiarativo, che ci dice come stanno
le cose.
Da questo Frege elabora e introduce i cosiddetti quantificatori che sono universali ed
esistenziali, cioè sono particolari simboli che servono a capire se una proposizione ha un
carattere universale, del tipo “tutti gli uomini sono mortali”, oppure ha carattere particolare
come ad esempio “alcuni uomini sono mortali”.
Nel primo caso ci riferiamo a tutti gli enti di un certo universo, nel secondo rasoci riferiamo
soltanto ad alcuni di questi enti. Tutto questo viene espresso attraverso due simboli che
sono il simbolo del quantificatore universale e del quantificatore esistenziale.
Ne “i fondamenti dell’aritmetica”, che doveva essere pubblicato in 2 volumi, al
completamento del 2° volume, Frege riceve una lettera da Russell che ha un effetto
disastroso su Frege. Russell comunica a Frege che lui ha scoperto un paradosso che sta
all’interno dei concetti che sono alla base dei fondamenti dell’aritmetica di Frege. Questa
cosa ebbe su Frege un effetto disastroso, cioè Frege vide crollare improvvisamente e con
una semplice lettera, l’opera di tutta la sua vita. Tanto è vero che il 3° volume che
prospettava di scrivere non verrà mai alla luce.
Frege non si riprende più da questo duro colpo e cercò di risolvere per tutta la vita questo
problema dell’antinomia scoperta da Russell, ma non ci riesce. Per cui arriva alla
conclusione finale che in fin dei conti forse è opportuno ritornare a quello che era il
programma iniziale, cioè che è meglio affidarsi alla geometria. Ritorna il suo discorso a
quella che era la situazione di partenza, di riammettere di nuovo quella geometria da cui ci si
era voluti allontanare per dare un fondamento rigoroso all’aritmetica.
È una conclusione paradossale, cioè si era intrapresa una grande strada e un grande
progetto per potersi liberare dalla geometria e si finisce per riconoscere che dalla geometria
non ci si può liberare.
Nella sua lettera a Frege, Russell gli comunicava di aver trovato un’antinomia logica.
L’antinomia di Russell può essere espressa, nei termini seguenti: "In un villaggio c'è un
unico barbiere. Il barbiere rade tutti (e solo) gli uomini che non si radono da sé. Chi rade il
barbiere?". Si possono fare due ipotesi:


il barbiere rade sé stesso, ma ciò non è possibile in quanto, secondo la definizione, il
barbiere rade solo coloro che non si radono da sé;
il barbiere non rade sé stesso, ma anche ciò è contrario alla definizione, dato che
questa vuole che il barbiere rada tutti e solo quelli che non si radono da sé, quindi in
questa ipotesi il barbiere deve radere anche sé stesso.
In entrambi i casi si giunge ad una contraddizione.
20
Frege si rese conto che trovare una fondazione logica alla matematica era impossibile.
Lasciò cosi incompleta la sua opera “principi dell’aritmetica”. Frege non si riprese più da
questo colpo e non pubblicò più nulla per 20 anni. Non riusciva a trovare una soluzione
all’antinomia di Russell. Così Frege ritornò alla geometria come fondamento della
matematica ritornando alla tesi kantiana del carattere sintetico delle proposizioni
matematiche restaurando la frattura tra logica e matematica. Il tentativo di salvezza fu
tentato da Russell stesso con la “teoria dei tipi”. Gli strumenti della logistica. Al contrario
della logica tradizionale basata sulla dottrina dei termini dai quali si formano i giudizi veri o
falsi, la nuova logica, con Frege in particolare, si basa sul calcolo proposizionale fondato
sulla proposizione. Questa è un’espressione dichiarativa che afferma che qualcosa è vera
o falsa (escluso enunciati interrogativi e imperativi). Frege era convinto che fosse impossibile
spiegare un’espressione isolandola dal contesto. Partendo dai giudizi si ricava il significato
dei termini: è il principio del contesto. Quindi ecco che al calcolo proposizionale interessa
il valore di verità, ha quindi un carattere ambivalente perché interessa che una
proposizione sia vera o falsa (e non entrambe). Una proposizione si dice composta
quando è formata da due o più proposizioni semplici. Il valore di verità della preposizione
complessa dipende dai valori delle proposizioni semplici che la compongono. A una o più
proposizione sono quindi applicabili i funtori di verità dal carattere estensionale, grazie ai
quali si ottengono proposizioni dal valore di verità dipeso dal tipo di funtore applicato. La
negazione è un esempio di funtore di verità. La negazione della proposizione p sarà ‫ך‬p (nonp), per cui se p è vera, ‫ך‬p è falsa; se p è falsa, ‫ך‬p è vera. La tavola di verità corrispondente
è:
p
V
F
‫ך‬p
F
V
Altri funtori importanti sono quelli biargomentali quali:
disgiunzione “o” (^); condizionale “se…allora” (→); congiunzione “e” (ν).
Da questi si possono costruire le proposizioni più complesse.
Esistono anche le forme proposizionali sempre vere dette tautologie, indipendenti quindi
dai valori di verità che vengono assegnati alle variabili. La proposizione è vera
indipendentemente da quello che accade. Perché è vera? Perché è stata costruita secondo
una certa formula logica. Cioè la sua verità è una verità a priori, che non dipende
dall’esperienza.
L’opposto di tautologia è contraddizione le cui proposizioni sono sempre false. Basta
negare una tautologia per ottenere una contraddizione e viceversa. Sono false a priori,
qualunque sia il valore di verità delle proposizioni che la compongono.
Le proposizioni devono essere in forma dichiarativa o descrittiva, cioè devo dire come
stanno le cose, così posso dire di avere una proposizione, e questa può essere o vera o
falsa.
21
Ci sono anche le operazioni binarie che avvengono tra due proposizioni, cioè tra la
proposizione p e la proposizione q, tra queste due proposizioni posso creare un’operazione.
p e q possono essere o vere o false. Le possibili combinazioni sono:
p q
_____
V V
V F
F V
F F
Bisogna mettere le proposizioni in un discorso compiuto, quando io dico “oggi è una bella
giornata e vado a fare una passeggiata”.
La caratteristica di queste proposizioni è quella di essere unite insieme dalla
congiunzione “e”. allora possiamo vedere qual è il risultato di p e q. Se le due proposizioni
sono vere allora la conclusione è vera. Se una è vera e l’altra è falsa diventa falsa se parte
da una proposizione vera. Il risultato è falso se entrambe sono false. a maggior ragione il
risultato è una proposizione falsa.
Si deve fare attenzione al modo in cui vengono fatte certe affermazioni, esempio: “saranno
promossi coloro che avranno studiato questo manuale e saranno venuti ad uno dei
seminari”, significa che sarà promosso chi avrà studiato il manuale e avrà partecipato ad un
seminario. Quindi, per essere promossi si deve fare l’uno e l’altro. Se non avranno fatto una
delle due cose saranno bocciati. Devono fare entrambe le cose. La e dice che devono
essere entrambe vere per produrre un risultato vero.
p q
p^ q
____________
V V
V
V F
F
F V
F
F F
F
Ma io posso dire anche: “saranno promossi coloro che avranno studiato il manuale o
saranno venuti ad uno dei seminari”. In questo caso coloro i quali hanno fatto entrambe le
cose saranno promossi, ma anche coloro i quali hanno fatto una delle due cose. Sarà invece
bocciato chi non ha fatto nessuna delle due cose. O è questa o è quella.
p q
pν q
____________
V V
V
V F
V
F V
V
F F
F
Se io dico: “ se voi studierete sarete promossi” se…. Allora, io stabilisco nesso causale, ma il
fautore logico non necessariamente ha il senso del se…. Allora, ma può anche avere
significati strani, senza senso apparente, allora dobbiamo assegnare valori di verità che
siano plausibili. Allora, se il primo è vero il risultato è vero, anche nell’ultimo caso se la prima
è falsa e la seconda è falsa il risultato è vero. Esempio: “se lei è la regina d’Inghilterra io
22
sono l’imperatore della Cina” è un’asserzione falsa, paradossale, ma il risultato, anche
se è paradossale è comunque vero.
p q
p→q
____________
V
V
F
F
V
F
V
F

V
F
V
V
*
*
Restano I due casi in mezzo. A questo punto dovrebbero sembrare entrambe false
ma non è così. Perché se io dico “se piove è bagnato” non necessariamente implica
che sia bagnato se ha piovuto. Potrebbe essere invece falso che ha piovuto ed è
invece vero che è bagnato
L’alternativa sarebbe nel dire che entrambi sono falsi. Dire che siano entrambe false esprime
un altro concetto, il concetto del se e solo se…. →, cioè “se e solo se tu studi sarai
promossa”, significa che se studi sarai promossa, se non sarai promossa non hai studiato,
significa che non è possibile che hai studiato se non sei stata promossa, o viceversa che
non hai studiato e sei stata promossa. Questo è il funtore del se e solo se. In questo caso il
conseguente implica l’antecedente e viceversa.
Teoria delle relazioni di Morgan
La relazione di tipo logico o matematico, per esempio maggiore o minore, più o meno
(x+y) una particolare relazione che è un tipo di operazione.
La relazione può essere riflessiva, simmetrica o transitiva.
Una relazione è riflessiva quando un dato elemento è uguale a se stesso;
Una relazione è transitiva se xy è xz allora sarà anche xz: se Mario è fratello gi Giovanni e
Giovanni è fratello di Alberto, allora Mario è fratello di Alberto;
Una relazione è simmetrica se xy allora yx: se Giovanni è fratello di Alberto, Alberto è
fratello di Giovanni. Gli elementi hanno tra di loro delle relazioni che possono presentare
delle caratteristiche di riflessività, simmetricità, transitività.
Su questa base vengono introdotti i quantificatori, che servono a quantificare la variabile
della proposizione.
Nel calcolo proposizionale noi abbiamo p e q, noi non scendiamo all’interno di come è
fatta la proposizione, è tutto un assetto linguistico che può essere o vero o falso, quindi p
può significare “il sole splende oggi”, oppure “ gli animali sono erbivori” e quindi distinguo il
soggetto dal predicato, lo prendo come un tutto unitario.
Invece, il calcolo dei predicati entra più nello specifico, ci dice che p la possiamo intendere
come funzione proposizionale come qualcosa fatta di variabile e predicato.
p esprime un predicato che è appunto una proprietà, ad esempio “è padre”, “è
quadrato”, “è rotondo”, “è bello”, ecc. cioè esprimo un predicato che è la seconda parte
di una proposizione.
In logica può avere 2 valori: o vera o falsa. È vera se x è vero che ha proprietà p, cioè se io
dico p=a è bianco e x=a che è la neve, allora la neve è bianca è vero..
Se invece p=a è bianco e a è il corvo, il corvo è bianco è falso. Questa è un’operazione
monoargomentale poiché p di x ha soltanto un argomento, che è x.
23
Io posso avere non soltanto un predicato ma posso avere una relazione come spiegato
sopra.
Induzione, probabilità e conferma
L’induzione è considerata la caratteristica fondamentale della scienza contemporanea.
Se la logica è una scienza deduttiva, le scienze empiriche come la fisica, la chimica, la
biologia, sono delle scienze induttive, che non partono da assunzioni generali per
derivarne conseguenze, ma partono dall’esperienza per arrivare a delle leggi generali. La
scienza ha carattere induttivo là dove per carattere induttivo si intendono tante cose.
In generale le differenze tra deduzione e induzione sono le seguenti:
24
Deduzione: in un argomento deduttivo valido tutto il contenuto della conclusione è già
contenuto nelle premesse, cioè noi deduciamo ciò che deduciamo in base a ciò che c’è nelle
premesse e in base a delle regole logiche, non aggiungiamo nulla di nuovo che non sia già
nelle premesse. Esempio di deduzione: “Tutti gli sono mortali. Socrate è un uomo. Socrate è
mortale”.
Induzione: a differenza della deduzione, nell’induzione la conclusione contiene sempre
qualcosa in più delle premesse. nella conclusione, per esempio, che A è bianco, B è bianco
e C è bianco, quindi ne ricavo fuori che sono cigni. La deduzione non aggiunge niente alle
premesse, l’induzione si.
Inoltre, mentre nella deduzione, se le premesse sono vere la conclusione deve essere vera.
Una deduzione valida conserva necessariamente la verità.
Mentre l’induzione dice che un argomento induttivo corretto può avere premesse vere e
conclusioni false. l’induzione non necessariamente conserva la verità. Posso per esempio
aver analizzato un miopie di cigni, e ne trovo uno in qualche parte del mondo che è nero, è
quindi falsa.
Nella deduzione, se ad un argomento deduttivo valido sono aggiunte nuove premesse,
allora esso rimane valido. Ovviamente la nuova premessa non deve essere contraddittoria,
non deve cioè contraddire le altre premesse. in questo caso la deduzione è a prova di
erosione. Invece, l’induzione non è a prova di erosione. Una premessa che può erodere la
conclusione è questa: “tutti i cigni sono bianchi…. (aggiungo) “gli animali malati tendono a
diventare scuri” a questo punto la mia conclusione sarà meno certa. Quindi, in questo caso
aggiungere una nuova premessa può erodere, può rendere meno certa la conclusione.
Nella deduzione la validità deduttiva è del tipo tutto o nulla, la validità non presenta gradi.
Un argomento o è totalmente valido o non è valido. Non è che la conclusione è più o meno
vera, o è vera o è falsa, non ci sono vie di mezzo.
Nell’induzione la conclusione può essere più o meno forte, cioè ha gradi di verità. Il fatto
che abbia gradi di verità, ci porta ad un discorso sulla probabilità, cioè in base a quanti cigni
che ho osservato io posso dire che questa conclusione sia più o meno probabile. Se io
considero la probabilità come rapporto tra 1 e 0, cioè l’1 è la certezza, la verità, lo 0 è la
falsità, allora una proposizione di questo genere può avere un grado di probabilità di 0,8.
come faccio a misurare questo grado di probabilità? E questo è il problema della conferma
della misura del grado di probabilità.
Non sempre l’induzione è il passaggio dal particolare all’universale-generale, ma anche dal
generale al generale. Esempio: “tutte le mucche sono mammiferi e hanno i polmoni, tutte le
balene sono mammiferi e hanno i polmoni, tutti gli uomini sono mammiferi e hanno i
polmoni”. In questo caso abbiamo 3 proposizioni generali, non singole, quindi l’induzione
può portare da una proposizione generale ad una ancora più generale. C’è un passaggio
dal generale al generale.
L’inferenza induttiva
L’inferenza induttiva si può intendere in due modi diversi, o la si intende come inferenza che
permette di procedere dall’esperienza concreta alla generalizzazione, come una procedura
che ci permette di risalire dal dato empirico alla legge, alla legge, alla sua formulazione. E
questo è il modo tradizionale con cui viene intesa.
25
Per esempio Bacone sostiene il metodo della nuova scienza, in contrapposizione
all’impostazione aristotelica. Lui diceva che Aristotele ha il difetto di saltare immediatamente
alle conclusioni, di partire da premesse generali e di trarre delle conseguenze che siano
valide per l’esperienza, e questo è il metodo sbagliato, perché noi non possiamo costruire la
nostra ipotesi generale così.
Induzione come logica della scoperta e induzione metodologica
Bacone ipotizzava che ci fosse una procedura particolare che attraverso una serie di
strumenti fosse possibile pervenire a soluzioni di carattere generale, cioè a fare ipotesi di
carattere scientifico. Questa è l’induzione come logica della scoperta, come logica che ci
permette di trovare delle ipotesi che va dal particolare al generale.
Un altro modi di intendere l’induzione è quello metodologico. Tale concetto di induzione,
intuito da Leibniz, vuole porre l’accento sul fatto che le teorie scientifiche non sono inferite
meccanicamente dai fatti osservati, bensì “inventate”. In questo caso, il modo in cui una
teoria viene elaborata, inventata, non ha importanza, si potrebbe dire che una teoria
potrebbe essere frutto dell’immaginazione dello scienziato, ma non è importante sapere
come una teoria gli è venuta in testa, perché la cosa più importante è controllare, valutare
una teoria.
Questi due modi di intendere l’induzione pongono due problemi diversi;
 il primo modo di intendere l’induzione pone il problema di chiederci: ma siamo
legittimati a passare dall’osservazione di fatti particolari alla formulazione di una legge
generale? E chi ci garantisce che questa formulazione di leggi generali corrisponda
effettivamente ad una regolarità della natura e non semplicemente una nostra
postulazione? È la classica domanda che si pone Hume. Chi ci garantisce che il sole
sorgerà anche domani? Il fatto che noi abbiamo osservato che il sole è sorto ogni
giorno è una base sufficiente per poter affermare che il sole sorgerà anche domani?
 Nel secondo caso ci si pone una domanda diversa: come facciamo noi a misurare il
grado di sicurezza empirica che ha una certa teoria? Quali strumenti abbiamo per fare
questa misura?
Questi due argomenti vengono analizzati separatamente. L’induzione come logica per la
scoperta e l’induzione come metodologia e probabilità sono due modi separati per poter
analizzare.
Induzione come logica della scoperta
Chi ci assicura che le cose che fino ad ora sono andate in un modo andranno ancora in
questo modo? Mill filosofo dell’Ottocento, diceva che in fin dei conti a garantirci che ciò che
è stato, ancora sarà è la nostra fiducia nella regolarità della natura, cioè noi crediamo che la
natura non sia capricciosa, che non abbia una sorta di libero arbitrio in cui una volta decide
di comportarsi in un modo e poi in un altro. E quindi vi è una regolarità della natura che
permette di affermare che esiste una causalità in essa, che esiste un nesso causale tra i
fenomeni per cui un evento causa necessariamente un altro evento.
Ma questa causalità della natura come facciamo a sapere che esiste? Per via induttiva,
perché abbiamo visto che le cose sono andate sempre in questo modo. Questa assunzione
della regolarità della natura diventa una sorta di fede metafisica, se non avessimo questa
fiducia saremmo incapaci di fare la benché minima azione. Tutto potrebbe tramutarsi sotto le
nostre mani, il pane che mangiamo essere acido, la pasta che cuciniamo può non cuocere
più ma diventare sempre più dura. Tutto potrebbe essere suscettibile. Invece questo a noi
non succede, ognuno di noi continuerà a fare le cose che ogni giorno facciamo, perché
crediamo che queste cose continueranno a verificarsi.
Ecco allora l’obiezione di Hume, che diceva che noi non abbiamo nessun motivo per
credere che esista una causalità in natura, ciò che noi sappiamo è semplicemente la
26
successione tra eventi, cioè noi vediamo che c’è un evento A e che poi c’è un evento B.
nessuno ci dice che l’evento B è avvenuto dopo l’evento A. E’ come se noi vedessimo alla
stazione il treno dopo che abbiamo sentito suonare la campanella. Noi potremmo dire che il
suono del campanello è la causa della venuta del treno, perché senza campanello non può
arrivare il treno? No! Non è la causa, l’arrivo del treno è preceduto dal suono del
campanello, non è il suono del campanello che causa l’arrivo del treno.
Hume dice: noi vediamo le cose che succedono nella natura, vediamo che prima c’è A e poi
c’è B, e noi siamo portati a dire che la prima è la causa della seconda. Hume ci dice che è
semplicemente frutto di un’abitudine, la natura umana è fatta in modo da vincere i dubbi
sulla ragione, perché se noi dovessimo per ogni evento e per ogni nostro comportamento i
dubbi che ci pone la nostra ragione, non potremmo più vivere. Meno male che la natura
umana è più forte della nostra ragione, per cui la nostra vita biologica, le nostre abitudini
ecc ci permettono di superare i dubbi scettici della ragione. Nessuno e niente ci assicura che
la natura sia fatta in quel modo.
Kant aveva capito che con questa critica, Hume legittimava quelle che erano le leggi
della natura che descrivono non un odo oggettivo di vedere la realtà ma un nostro modo di
vedere la realtà, frutto delle nostre abitudini, cioè la realtà si comportava in quel modo
perché eravamo noi a vederla così.
La vita umana è molto breve, noi ci ricordiamo delle cose che riguardano un tempo in cui la
razza umana ha cominciato a scrivere, a trasmettere notizie, a conoscere quello che faceva
parte di generazioni precedenti. Ma le cose nel mondo potrebbero cambiare, niente e
nessuno può escludere, per esempio, il decadimento delle molecole dell’acqua, per cui dopo
un certo tempo l’acqua diventa improvvisamente non più adatta ad essere bevuta. Chi può
escludere questo? Noi crediamo che essendo breve la nostra vita e gli eventi della natura
seguono scale e tempi lunghissimi, allora siamo portati a pensare che siccome in quel lasso
di tempo la natura si è comportata in un certo modo, allora continuerà ad essere sempre
così, dalle origini dell’uomo fino alla fine dell’universo.
Kant, che aveva capito che questo tipo di critica di Hume era devastante per la fisica, la
quale pretendeva, invece, di conoscere le leggi universali e necessarie.
Kant disse che non è una questione di abitudini, ma al modo in cui l’uomo si rapporta con la
realtà. Cioè l’uomo non può pensare alla realtà se non all’interno della teoria della causalità.
L’uomo non si abitua in maniera accidentale agli eventi naturali, ma la natura è costituita
nella sua ordinazione sistematica, nella sua struttura legale conforme a delle regole, a delle
leggi, è costruita dall’uomo, vi è l’intervento umano. Per cui, non possiamo essere sicuri che
la natura è quella che è, che è immutabile.
Questo qui è un modo per salvare l’oggettività delle scienze della natura ma a costo di dare
all’essere umano una funzione molto importante.
La posizione di Kant non fu accettata dalla filosofia della scienza, perché Kant doveva
ammettere l’esistenza del cosiddetto giudizio sintetico a priori, mentre nell’ambito della
filosofia del 900 il giudizio o era analitico o sintetico, non c’erano giudizi che fossero a
metà tra l’analitico e il sintetico. O erano analitici gli esercizi della matematica, della logica, o
erano sintetici (di fatto).
Russell era consapevole di questo fatto, e si pone il problema dell’induzione. Egli rigetta la
proposta kantiana e riprende quella di Hume, affermando che l’argomento di Hume è del
tutto valido. Per fare questo fa l’esempio del pollo induttivista, nel senso che la nostra
credenza nell’induzione è come quella di un pollo, il quale, siccome crede che ogni giorno il
suo padrone gli ha portato da mangiare, non pensa che un giorno, prima o poi lo mangerà.
Cioè lui proiettando verso il futuro la sua esperienza passata, non può immaginare che
andrà a finire così la sua vita.
È così anche noi esseri umani, in base alla nostra esperienza passata, pensiamo che quello
che avverrà in futuro sarà lo stesso del passato. In effetti, lui dice che noi non dobbiamo
commettere l’errore del pollo. Ma allora noi non dobbiamo avere fiducia nell’induzione? No!
Noi dobbiamo avere fiducia nell’induzione, ma l’induzione non è né una regola empirica che
27
noi possiamo trarre dall’esperienza, né possiamo confutarla con l’esperienza. È un principio
logico, così come accettiamo i principi della logica e della matematica.
Proiettando verso il futuro la propria esperienza passata l’uomo sa ciò che avverrà.
Dobbiamo avere fiducia nell’induzione. Ma non è una regola empirica, è un principio logico
che noi accettiamo per poter emettere i nostri giudizi. Se c’è una regolarità nel mondo allora
lo scopriremo.
Nel Circolo di Vienna fu presente una consistente corrente di sostenitori dell’opportunità di
servirsi dell’induzione come metodologia della scoperta, anche se in tutti era presente la
consapevolezza della sua impossibile giustificazione.
Si dà in sostanza ragione a Hume, in quanto si ammette che ogni qualvolta si applica il
principio di causalità e l’induzione, si fa ricorso ad una credenza psicologica, ad un istinto.
Tra i seguaci del Circolo, colui che diede maggiori contributi al problema dell’induzione fu
Reichenbach, principale esponente del Circolo di Berlino. Egli considera per la scienza
imprescindibile il “principio di induzione”, poiché esso permette di concludere dai fatti a una
legge. Se non si facesse uso del principio di induzione, non sarebbe certamente possibile
ricavare dalle osservazioni, delle leggi generali.
Ammessa l’indispensabilità del principio di induzione, Reichenbach (una delle menti più
importanti per quanto riguarda l’induzione) si pone il problema di motivarlo razionalmente,
piuttosto che affidarlo alla natura o all’istinto. A tale proposito elabora il cosiddetto approccio
pragmatico all’induzione.
Egli fa la differenza tra giustificazione e legittimazione:
Giustificare una cosa significa poterla dedurre da principi più saldi, in maniera tale che la
sua verità sia indiscussa;
Legittimare significa invece che noi riteniamo utile l’utilizzo di una certa norma, di un certo
principio, perché ci fa raggiungere dei risultati efficaci.
Io giustifico una norma morale se la faccio derivare da principi di carattere generale, per
esempio, se è vero che bisogna rispettare la vita umana, allora ne deriva che io non posso
uccidere una persona. In questo caso il mio comportamento è giustificato in base a un
principio generale di carattere universale da cui deriva l’impossibilità e l’immortalità di una
certa azione.
La legittimazione no! Io non legittimo qualcosa in questo modo, legittimare significa che
ritengo una certa azione utile perché mi fa raggiungere qualcosa che a me interessa. È
chiaro che da un punto di vista morale mentire è un comportamento immorale, ma se io
devo dire a un bambino che la medicina è dolce per fargliela prendere, in quanto così salvo
questo da una malattia, allora la mia azione non è giustificata moralmente ma è legittimata,
perché il risultato che io voglio ottenere giustifica il mio gesto.
Allora dice Herbert Feigl nei confronti dell’induzione, che questa non può essere
giustificata ma legittimata, cioè se c’è una regolarità in natura, se il mondo obbedisce a
certe regole, allora l’unico modo per saperlo è utilizzare l’induzione. Quali altri strumenti, dice
Feigl, ho io per accertarmi di una regolarità in natura? Posso provare a indovinare? Posso
leggere nella sfera di cristallo? Devo andare da un chiromante? No! L’unico strumento, per
quanto imperfetto, è quello di utilizzare i procedimenti appresi dall’empirismo.
Oppure è come dice Reichenbach quando fa il paragone del pescatore. Il pescatore non
sa se in un dato mare c’è del pesce oppure no, ma sa una cosa, che se non getta la rete non
lo saprà mai. La cosa più concreta e più facile da fare è utilizzare l’atteggiamento
pragmatico. Non so se c’è del pesce, ma butto la rete, se la rete prende i pesci, vuol dire che
i pesci ci sono, se non li prendo vuol dire che non ci sono.
Così è l’induzione, è come questa rete che buttiamo sull’esperienza. Se c’è una
regolarità del mondo, allora grazie all’induzione noi lo scopriremo. Se non c’è nessuna
regolarità nel mondo, se nel mondo tutto va a caso, qualunque metodo utilizziamo risulterà
inefficace. Ci dovremmo rassegnare a vivere in un mondo caotico, ma in effetti non è così.
Noi abbiamo visto che abbiamo più volte gettato questa rete nella realtà empirica e questa
rete ci ha procurato pesci, ci ha procurato regolarità. Noi ci dobbiamo affidare al fatto che ci
28
sono queste regolarità. Noi non le possiamo giustificare queste regolarità, però siamo
legittimati a credere in esse. Questo è quello che dice Reichenbach.
Il problema dell’induzione non viene risolto, nel senso di dire che si riesce a trovare al
massimo una legittimazione pragmatica dell’induzione. Si viene a trovare una motivazione
per potere continuare a usarla, nell’incertezza che essa possa avere sempre. Cioè non
possiamo escludere che ci possa essere un settore dell’esperienza umana in cui i risultati
che abbiamo raggiunto tramite l’induzione ci portano ad errare.
Di fatto l’induzione rimane uno dei grandi problemi della filosofia della scienza e
dell’epistemologia che non viene risolto del tutto. Perché anche le soluzioni di Feigl e
Reichenbach sono state criticate da diversi filosofi.
Il problema dell’induzione rimane, ci fidiamo dell’induzione perché la vediamo nella regolarità
della natura.
C’è un altro aspetto dell’induzione, che consiste in una particolare dottrina, che trovò una
larga accoglienza tra tutti i filosofi della scienza: la distinzione tra “contesto della scoperta”
e “contesto della giustificazione”.
Tale dottrina costituisce uno dei punti caratterizzanti di tutto il movimento neopositivista.
Essa sottolinea il fatto che nella scienza non hanno tanto importanza le questioni di origine,
quanto quelle di validità, per mezzo del controllo empirico.
Afferma Popper, la questione: come accada che a un uomo venga in mente un’idea nuova,
può rivestire interesse per la psicologia ma è irrilevante per l’analisi logica della conoscenza
scientifica.
Prende in considerazione non già questioni di fatto, ma soltanto questioni di giustificazione o
validità.
Perché un’asserzione possa essere esaminata logicamente qualcuno deve averla formulata
e sottoposta ad esame logico.
Non esiste nessun metodo logico per avere nuove idee, ogni scoperta contiene un
“elemento irrazionale” o “un’intuizione creativa”.
Tale distinzione è stata introdotta allo scopo di distinguere il campo dell’epistemologia
(intesa quale filosofia della scienza) da quello della psicologia.
L’atto creativo dello scienziato è un processo psicologico che ha ben poco a che fare con la
logica, e non può essere in alcun modo giustificata in quanto è di esclusiva pertinenza della
psicologia del soggetto, così come aveva già indicato Hume.
Dunque, tutte le questioni che hanno portato lo scienziato alla scoperta di una teoria sono
del tutti irrilevanti, appartengono alla psicologia, alla sociologia o alla storia. Noi quando
vogliamo sapere se una teoria è valida o meno, non andiamo a vedere chi l’ha creata, dove
è nata, quale popolazione ecc. Chiunque può avere una buona teoria.
Diciamo se una teoria è scientifica o meno se la possiamo controllare, se la possiamo
sottoporre a test di valutazione, allora noi diciamo che la teoria è scientifica. Se noi la
sottoponiamo a test di valutazione ed essa li supera, allora noi riteniamo questa teoria
scientifica.
Quindi, una cosa è la scoperta, una cosa è la giustificazione, che appunto riguarda il
secondo aspetto di cui si è parlato.
Siccome si riteneva che la cosa più importante del filosofo della scienza o dell’epistemologo
fosse quella di dare una misura del grado di conferma di una teoria, questa misura può
essere data solo in termini di probabilità, perché nessuna teoria è vera in assoluto,
nessuna teoria è stata confermata in modo da non poter essere smentita. Noi possiamo dire
che una teoria è più o meno probabile, che ha avuto un grado di conferma di una certa
percentuale. Ma come facciamo noi a valutare questo grado di conferma? La valutiamo,
appunto, facendo stime probabilistiche, cioè dicendo: questa teoria è stata
probabilisticamente confermata al 70%. In genere si usa un valore tra 0 e 1 (0,7- 0,8) ecc.
0 è il falso mentre 1 è il vero. 0,5 significa che la teoria ha una conferma del 50%, cioè per il
50% delle volte non è stata confermata. Al 50% non sappiamo se una teoria è vera o falsa.
29
Una teoria dovrebbe avere un grado di conferma superiore a 0,5, se noi vogliamo fidarci di
una teoria. Il grado di conferma dipende dal controllo che noi facciamo, teoricamente, più
controlli facciamo più la teoria è confermata. Ma non possiamo fare controlli infiniti, a un
certo punto dobbiamo smettere, altrimenti non finiremo mai.
Come si fa a controllare e a valutare? C’è la possibilità di dare un indice numerico a questi
controlli? C’è la ricerca del grado di conferma che si fa su base probabilistica. Ciò
significa che entra in gioco il concetto di probabilità.
Che cos’è la probabilità? Noi spesso la usiamo nel nostro linguaggio quotidiano, quando
per esempio diciamo: domani pioverà? È probabile! Ci sarà il sole domani? È improbabile!
Cosa vogliamo dire quando noi diciamo è probabile o improbabile? Che siamo in una
situazione di incertezza, cioè non sappiamo se domani pioverà oppure no, in base alle
informazioni che abbiamo diciamo che è più probabile che piove oppure no.
Ma come facciamo a misurare la probabilità? Questa è associata a un concetto statistico,
cioè valutiamo sulla base della statistica, che è uno strumento fondamentale per studiare
soprattutto i fenomeni sociali che accadono con una certa probabilità, ma non in altre cose.
Nelle scienze sociali non possiamo dire che se una persona ha avuto un trauma infantile di
conseguenza è diventato un serial killer. Spesso succede, però non possiamo affermarlo
perché altrimenti ce ne sarebbero moltissimi.
Nelle scienze sociali andiamo a fare studi statistici e diventa fondamentale il concetto di
probabilità.
Una persona che fuma probabilmente avrà un cancro ai polmoni. Come facciamo a dire
quante probabilità ha questa persona di sviluppare un cancro? È si più soggetta, ma come si
fa ad avere delle misure precise?
C’è un modo di valutare la probabilità che è il più semplice, ed è quello che noi utilizziamo
quando facciamo i giochi d’azzardo, i giochi che sono basati non sull’abilità ma sul caso, e
sono solitamente i giochi in cui ha un ruolo fondamentale il concetto di probabilità, che si può
calcolare sugli eventi aleatori, da “alea” che significa in latino “dado”, ovvero calcolare gli
eventi come quando si gioca a dadi. Che esca una faccia o un’altra è del tutto casuale.
Se noi andiamo a calcolare gli eventi aleatori tipo il lancio del dado, vediamo che c’è un
sistema molto semplice per calcolare la probabilità. Basta semplicemente fare rapporto tra
casi favorevoli e casi possibili.
La misura della probabilità di un evento è il rapporto tra il numero dei casi possibili. Se noi
puntiamo nel lancio dei dati sui pari, i casi favorevoli che noi vinciamo sono 3 su 6, cioè un
mezzo, quindi, abbiamo il 50% di probabilità che vinciamo. È chiaro che i casi devono
essere tutti possibili, se il dado è truccato non tutti i casi sono possibili.
Nella roulette quante possibilità abbiamo che esca quel numero che noi puntiamo? I numeri
sono 90, quindi, 1 possibilità su 90. anche in questo caso la roulette non deve essere
truccata, perché altrimenti non vale più questo discorso.
Come facciamo a sapere che tutte le possibilità siano egualmente possibili? Come
facciamo a sapere cioè che il dado non è truccato?
C’è un sistema pratico, cioè quello di aprire il dado, ma c’è anche un altro sistema. Se noi
facciamo 6000 lanci del dado, allora di questi 6000 lanci dovrebbe uscire circa 1000 volte
l’uno, 1000 volte il due, 1000 volte il tre, ecc. Se noi vediamo che su 6000 lanci esce 4000
volte il due e poi gli altri escono in maniera sporadica, allora ci viene il sospetto che qualcosa
non và. Il concetto di possibilità si basa su quello di probabilità.
La probabilità viene assunta in due accezioni diverse:
Nel primo caso è una probabilità a priori (teoria classica) perché si basa semplicemente
sulla considerazione astratta del rapporto fra casi favorevoli e casi possibili. Questo tipo di
probabilità classica ha però un limite, se io prevedo già quello che uscirà, non è molto utile, è
una conoscenza aggiuntiva. Allora, la teoria della probabilità classica o laplaciana, è stata
corretta da una seconda forma di probabilità, la cosiddetta probabilità frequentista.
30
Nel secondo caso la probabilità è a posteriori, (teoria frequentista della probabilità),
cioè viene calcolata la frequenza.
Perché molto spesso non siamo in grado di dire a priori quante sono le possibilità che
succeda una determinata cosa? Per esempio se una persona che fuma si ammali di cancro
ai polmoni? O una persona si ammala oppure no. Le possibilità sono due. Quindi, se noi
calcolassimo questa probabilità dobbiamo dire che ha il 50% di possibilità che non si
ammali. Il fatto che si ammali oppure no, non dipende dal fatto che fumi, dipende da altri
fattori, dalla sua costituzione fisica, se è debole di polmoni, da quante sigarette fu,ma, se poi
ha una vita sana, se è geneticamente predisposto alla malattia, ecc.
Noi non possiamo fare un discorso semplicemente astratto, casi favorevoli su casi possibili.
Allora dobbiamo fare una valutazione a posteriori, cioè dobbiamo vedere quante persone
che sono nelle stesse circostanze, con stesse caratteristiche fisiche, ecc, si ammalano.
se io dico: “quante probabilità ci sono che uscendo di casa io incontri una certa persona?
Non posso saperlo a priori. Dipende da quante volte è successo di incontrare quella
persona. Se non l’ho mai incontrata, allora avrò lo 0,1% di probabilità di incontrarla. Faccio
questo calcolo in base a quello che è successo in passato, grazie all’induzione
probabilistica.
La frequenza ha bisogno dell’induzione. Nell’esempio del tiro al bersaglio, la possibilità
di colpire il centro dipende da me, dalla mia abilità, non posso dire quante probabilità io ho
rispetto a un’altra persona, perché l’abilità può appartenere ad una persona ma non all’altra.
Posso parlare per me, in base ad una serie di tentativi capisco quanto sono abile. Se su 200
tiri colpirò il bersaglio 65 volte, avrò un’idea più specifica delle mie abilità. Con l’aumentare
dei tiri si arriva ad un numero che si stabilizza. Allora, sulla base della frequenza, in base
alle mie capacità e al fatto che migliori queste capacità, si vede statisticamente quali
sono i risultati. E questo è il concetto di probabilità statistica.
Cosa dice il concetto di probabilità statistica? Dice che all’aumentare dei casi il valore
statistico tende a convergere su un valore costante.
Nel caso della teoria frequentista, questa può essere utilizzata soltanto quando noi abbiamo
a che fare con eventi ripetitivi. Se non abbiamo eventi ripetitivi o abbiamo a che fare con
eventi la cui struttura cambia di volta in volta, per esempio due squadre di calcio a confronto:
quante probabilità ha il Catania di vincere contro l’inter? Chi lo sa? Certo, noi diremmo,
facendo delle considerazioni più personali, come il fatto che l’inter è più forte, l’altra squadra
ha un certo giocatore che è molto bravo, ecc. cioè facciamo una serie di considerazioni e
infine arriviamo a dire che il Catania ha il 20% di probabilità. Ma questo non è un evento che
noi possiamo stabilire. Perciò dobbiamo mettere in campo tutta una serie di valutazioni che
esprimono risultati oggettivi.
Teoria soggettivistica della probabilità
Ecco allora la teoria soggettivistica della probabilità. In assenza della possibilità di creare
campioni sufficientemente numerosi e statisticamente significativi di eventi, allora cosa
dobbiamo fare? Possiamo valutare la probabilità da un punto di vista soggettivo, cioè
come nostra credenza che un certo evento accada. È chiaro che noi facciamo una serie di
stime che possono essere del tutto personali, cioè tifiamo per una certa squadra e siamo
portati ad aumentare le possibilità che questa vinca.
Quindi, nel momento in cui supponiamo una credenza sull’avvenimento di un evento che in
genere viene definito come evento unico, come una partita di calcio, o altri eventi simili,
possiamo dire personalmente quante probabilità ci sono in base a delle credenze
soggettive. Significa che la probabilità è qualcosa di assolutamente arbitrario? Per certi
aspetti si. Non possiamo, cioè, andare a capire il modo in cui noi formuliamo una valutazione
probabilistica.
31
De Finetti dice che c’è un modo per poter dare stime soggettive, però che siano coerenti.
Bisogna cioè rispettare il principio di coerenza. Cosa ci dice questo principio? Ci dice che
noi dobbiamo essere in grado di scommettere in maniera tale che non dobbiamo perdere in
ogni caso. Perché in fin dei conti com’è che si misura la nostra credenza? Se noi, per
esempio, crediamo che una cosa non avvenga o siamo assolutamente sfiduciati che una
cosa avvenga, saremo disposti a scommettere molto poco. Se noi invece siamo sicuri che la
cosa avvenga, allora saremo disposti a scommettere tanto. Ciò che noi siamo disposti a
scommettere è la misura della nostra credenza. Però, dice De Finetti, l’importante è che noi
rispettiamo il principio di coerenza, che dice che se noi pensiamo che ci sia una certa
possibilità che il Catania vinca contro l’inter e quindi siamo disposti a scommettere 100 euro
sul Catania, allora per coerenza dobbiamo pensare che abbia 2/3 di possibilità che vinca
l’inter, quindi, sul fatto che vinca l’inter dobbiamo essere in grado di scommettere il doppio,
cioè 200 euro. Perché se noi scommettiamo 100 euro sul Catania e 100 euro sull’inter,
perderemo sempre a lungo andare. Perché quando noi vinciamo perché vince l’inter, noi non
recupereremo i soldi scommessi sul Catania. Questo sistema è incoerente. Quindi, è
importante questo principio di coerenza.
Ecco perché si fanno le scommesse. Se io scommetto sulla vittoria del Catania per 15 a 1
significa che io scommetto 1 e mi danno 15+1. per cui, se scommetto 100 euro e incasso
400 euro allora la probabilità da me assegnata all’evento sarà di ¼. Questo è il modo
soggettivo o anche teoria della probabilità personale.
Si vogliono introdurre qui delle componenti soggettive e psicologiche del soggetto, cioè si
pensa di incentrare i modelli di credenza non tanto oggettivandoli, piuttosto rendendoli
soggettivi. Se io propendo per un tipo di probabilità lo faccio in base a delle credenze
soggettive.
Facciamo un altro esempio: se so che durante la lezione c’è un gruppo di persone che
sistematicamente arriva con 3 quarti d’ora di ritardo e ascolta solo l’ultimo quarto d’ora di
lezione, io sarò in grado di prevedere quando queste persone stanno per arrivare, sapendo
che a quella determinata ora succede sempre. La causalità, in questo caso è basta su dei
fattori di natura conoscitiva.
Teoria logicistica della probabilità
Ci sono altri concetti di probabilità, uno è il concetto di probabilità logica realizzato da
Carnap. Carnap riprende la teoria soggettivistica, però, invece di parlare delle credenze del
singolo individuo parla delle credenze razionali di un essere umano idealizzato, cioè
dispone delle informazioni necessarie per poter dare delle attribuzioni probabilistiche. A
questo modello manca l’esperienza concreta.
Ad esempio, nel caso del tumore causato dal fumo, sa che quella persona è di sana e
robusta costituzione fisica, che la sua famiglia non ha predisposizioni genetiche, che
consuma poche sigarette al giorno, ecc. In base a tutte queste valutazioni razionali, che lui
sa che hanno un’incidenza sullo sviluppo della malattia, allora è in grado di fare una
previsione probabilistica. Quindi, in Carnap l’idea della valutazione logica della probabilità è
legata al possesso di informazioni che hanno forma proposizionale e che permettono di
dare una misura del grado di probabilità che avvengano certi eventi.
Per Carnap le teorie della scienza non sono vere, ma solo confermate in misura maggiore o
minore, e questa è una evoluzione del criterio adottato nel Circolo di Vienna, che invece
insisteva sulla verifica delle teorie. Fu così che Carnap suggerì di abbandonare il concetto di
verificazione per introdurre il concetto quantitativo di grado di conferma o probabilità logica.
In sostanza per Carnap la conferma di un’ipotesi si riduce al confronto tra essa ed una serie
di risultati sperimentali che la verificano: tanto più elevato il numero di casi che la verificano,
tanto più alto il grado di conferma che essa possiede. Noi dovremmo costruire un sistema di
logica induttiva tale, che a ogni coppia di enunciati, di cui uno formula una certa evidenza e e
32
l’altro, una ipotesi h, sia possibile assegnare un numero che dà la probabilità logica di h
rispetto a e.
Naturalmente, se il sistema di logica induttiva dovrà essere di qualche valore reale per la
scienza, dovrà risultare applicabile a un linguaggio quantitativo tipo quello della fisica.
Questo scriveva Carnap con evidente ottimismo. Ma i fatti non gli hanno dato ragione: risultò
quanto mai difficile estendere la logica induttiva a linguaggi di una complessità almeno
comparabile a quello della fisica, ma già nelle sue formulazioni più semplici la proposta
logicista portava ad una conseguenza sorprendente: la probabilità di un’ipotesi universale, è
sempre eguale a 0, non importa quante siano le conferme sperimentali positive.
Come affermano Costantini e Popper, questa posizione è in completo disaccordo col
quotidiano lavoro degli scienziati. Infatti nessuno scienziato dubita della validità relativa delle
leggi che formula e certamente non assegnerebbe loro probabilità pari a zero.
Le proposte di Carnap sono lontane dall’obiettivo: il logico induttivo non chiarisce affatto il
lavoro scientifico e la natura delle asserzioni scientifiche, ma pretende di imporre loro una
logica induttiva, meramente inventata sulla base di considerazioni a priori. Il sistema di
Carnap non funziona e infatti viene abbandonato.
La teoria della propensità
La teoria della propensità di Popper cerca di dare un carattere oggettivistico alla
probabilità, cioè dice che la probabilità non è una misura soggettivistica, ma è piuttosto la
tendenza della natura a comportarsi in un certo modo. I bambini diventeranno adulti un
giorno, questo fatto non è una probabilità. La tendenza a diventare adulti è una
conseguenza dell’essere bambini, è una conseguenza necessaria. Così, la probabilità è la
tendenza della natura a comportarsi in un certo modo, come se la natura avesse delle
potenzialità.
È ovvio che poi, questa concezione di Popper finisce per tradursi in frequenza, perché come
facciamo noi a misurare le potenzialità della natura? Soltanto analizzando le frequenze con
cui la conosciamo. Per cui, Popper, nel concreto finisce per accettare la concezione
frequentista della probabilità.
Il teorema di Bayes
Infine, Tomas Bayes, che è un matematico dell’800, elaborò un teorema che si chiama
teorema di Bayes. L’idea di Bayes riguarda la fiducia nutrita da un soggetto, sulle sue
conoscenze iniziali, le sue attese, nei confronti di un evento, possano aumentare in seguito
ad una valutazione razionale di nuovi dati che egli acquisisce successivamente attraverso
l’esperienza concreta, man mano che vengono introdotti elementi nuovi di supporto. Il grado
di probabilità iniziale del soggetto si fonda sul possesso di una serie di cose che sa e che
pensa. Il teorema di Byes non misura direttamente se e come l’evento si verificherà, misura
piuttosto la possibilità di dimostrarmi come il valore di probabilità personale che io ripongo
nel verificarsi di un evento si modifica man mano che io introduco nuovi elementi. Mi dice se
il mio grado di probabilità si rafforza oppure no, nel momento in cui introduco elementi di
conoscenza nuovi.
Per esempio, io o che in un’urna ci sono palline rosse e palline bianche, ma non so quante
di rosse e quante di bianche. Allora assumo che vi siano 50 palline rosse e 50palline
bianche in base ad una stima iniziale effettuata, faccio semplicemente un’ipotesi. A questo
punto mi accerto che questa mia ipotesi sia valida, infilo la mano dentro l’urna ed estraggo
una pallina, esce una pallina bianca, questa nuova esperienza non contribuisce in maniera
significativa la mia fiducia nella mia ipotesi, ma se infilo la mano 10 volte e 10 volte su 10
prendo sempre le palline bianche, allora a questo punto mi viene il dubbio che le palline
siano 50 bianche e 50 rosse. Può darsi che quelle bianche siano 70 e ce ne siano soltanto
30 di rosse. La formula di Bayes permette di calcolare, in base a quelle che sono le mie
33
conoscenze iniziali, la probabilità di un’ipotesi, in base alle esperienze da me effettuate e in
base alle conoscenze di sfondo che avevo.
I punti cruciali di questa formula riguardano la necessità di avere delle probabilità iniziali,
cioè la prima ipotesi che faccio deve avere delle probabilità iniziali, ovvero che la mia ipotesi
abbia un qualche grado di probabilità (conoscenza di sfondo). Dato questo, con il teorema di
Bayes io ho la possibilità di valutare, attraverso nuove esperienze se le mie probabilità
iniziali aumentano o diminuiscono.
Il vantaggio della teoria di Bayes è che non si parte da zero, si parte da una probabilità. Le
nuove esperienze servono a modificare questa mia stima iniziale. Le esperienze mi danno
una misura concreta di quello che io apprendo dall’esperienza, e mi danno la possibilità di
calcolare questo valore.
Il teorema di Bayes non ci permette di prevedere la certezza dell’evento, ma come si arriva
ad un determinato evento, ci dice, a partire dal dato certo, come, passando da altri dati, si
arriva a formulare un risultato diverso da quello iniziale. Il teorema di Bayes ci dice che la
probabilità a posteriori è superiore alla probabilità a priori.
Quindi, c’è un elemento soggettivista nel teorema di Bayes, ma c’è anche questa capacitò di
valutare l’incidenza delle cose. Insomma, è il modo migliore per poter esplicitare
matematicamente l’idea di come apprendiamo dall’esperienza, poiché noi apprendiamo
dall’esperienza in base a quelle che sono già delle convinzioni che abbiamo e che ci danno
già una valutazione probabilistica iniziale. Non apprendiamo mai da zero.
Esempio: se io credo che quel professore è uno che boccia tutti, ed è cattivo, ma poi faccio
esami e vedo che non ha bocciato nessuno, a questo punto la mia valutazione ipotetica, cioè
la mia conoscenza di sfondo cambia, nel senso che ridurrà la percentuale delle persone che
il professore boccia. Io apprendo dall’esperienza, a partire da quella che era una mia ipotesi
iniziale. Bocciava inizialmente nel 9% dei casi, poi vado a fare esami e vedo che l’80% delle
persone ha superato gli esami. Allora la mia ipotesi iniziale è cambiata, grazie all’esperienza.
Non sarà più del 90% ma tra il 50%-60%.
Il paradosso dei corvi o della conferma
Il teorema di Bayes riguarda l’ipotesi su un evento, non riguarda direttamente l’evento.
Cosa dovrei fare per conoscere correttamente ciò che devo conoscere? E come conosco
realmente? E come dovrei conoscere?
Quello che io sto conoscendo, lo sto conoscendo in maniera scientificamente esatta? Sto
facendo degli errori? Di fatto io conosco le cose in un certo modo, e invece ci sono delle
regole ideali per conoscere. Questo è il problema centrale dell’epistemologia.
Di fatto io conosco, ma per avere una conoscenza basata su una credenza vera e
giustificata, questa deve essere sostenuta da argomentazioni razionali capaci di difendere la
mia tesi ovunque e comunque.
Quali passi devo muovere affinché abbia una conoscenza scientifica? Di come realmente
conosco non se ne occupa l’epistemologia, ma la psicologia, di come io invece in maniera
normativa stabilisco le regole per ottenere una buona conoscenza se ne occupa
l’epistemologia.
Si pone il problema della conferma qualitativa. Cioè, questa conferma di che qualità è? È di
buona qualità o di pessima qualità? La qualità dipende dal tipo di percorso che io faccio per
avere la conferma. Se io costruisco un diverso tipo di percorso, ottengo un altro tipo di
conferma. Se io dico “tutti i mammiferi sono quadrupedi” allora ho un problema di
osservazione, per esempio qualitativo, perché di fatto i mammiferi non sono quadrupedi.
Allora dove sta il problema della conferma? Sono io che sto seguendo una strada sbagliata
oppure sono io che faccio lo scienziato ma ho un problema agli occhi. Quindi, dobbiamo
distinguere tra l’aspetto qualitativo e l’aspetto quantitativo.
Quando noi parliamo di conferma quantitativa ci riferiamo non a quante volte facciamo
osservazioni, ma come conduciamo le osservazioni. L’ approccio di natura quantitativa
34
era tipico del circolo di Vienna, perché loro erano convinti che più esperienze si fanno,
quindi, più testo una cosa, più essa è vera. Confermare più volte escludendo quindi ogni
dubbio. Questa era un po’ la tecnica del positivismo.
Popper poi dice che non è così. Non è vero che facendo una cosa 7.000 volte ottieni più
conoscenza, perché basta un tentativo falso che la teoria si considera fallimentare.
Il paradosso della conferma dimostra esattamente come noi ragioniamo e che mentre noi
ragioniamo possiamo incappare in ostacoli belli grossi e problemi altrettanto gravi. Questo
paradosso è stato identificato da Hempel attraverso l’esempio paradigmatico che è il
paradosso dei corvi. Hempel ci dice che l’approccio quantitativo è fallimentare, allora ne
utilizza uno di natura qualitativo, che dipende dal tipo di percorso che noi facciamo, non da
quante esperienze facciamo, ma dipende da come ci arriviamo, dal modo in cui arriviamo
alla conferma di quell’evento. Quando noi parliamo di conferma qualitativa e dei suoi
paradossi intendiamo riferirci al fatto che se un essere razionale in una condizione ideale
persegue il quid-luis cioè segue le buone formule, i passaggi giusti per ottenere una
credenza vera e giustificata, arriverà ad ottenere certi risultati. Se non ci arriva noi diciamo è
perché ha sbagliato percorso.
L’esempio giusto è quello del paradosso dei corvi, ma affinché si possa fare questo tipo di
paradosso noi dobbiamo presentarci attraverso un criterio: “principio di generalizzazione”,
che ci dice: se questo oggetto è marrone allora è legno. Cioè, se una cosa è in un certo
modo allora deve avere quelle proprietà. Se assumo che il colore marrone è una
caratteristica essenziale di un certo legno, allora dirò: “ marrone, allora legno”. Questo è il
principio di generalizzazione. È un principio molto elementare sul quale si basano le nostre
analogie mentali. Certo non posso dire per esempio: “se rimbomba allora è legno”, perché
anche il ferro rimbomba, ecc. il rimbombo non è legato al tipo di materiale che lo costituisce.
Il principio di generalizzazione noi lo utilizziamo moltissimo.
Il secondo elemento che dobbiamo assumere prima di addentrarci nel paradosso dei corvi è
“il principio di equivalenza”. Questo principio ci dice che un’ipotesi ben confermata può
automaticamente confermare un’altra ipotesi. Questa ipotesi ben confermata che io
possiedo, mi può tranquillamente giustificare e confermare un’altra ipotesi che deve essere
conseguente. “tutti i corvi sono neri”: se è corvo è anche nero (equivalenza), cioè la proprietà
dell’essere nero e il fatto di essere un corvo sono equivalenti tra di loro. Si equivalgono.
Il principio di generalizzazione e di equivalenza ottiene il seguente risultato: consideriamo la
proposizione “tutti i corvi sono neri” dal punto di vista logico:
Se per ogni X cioè elemento, se X possiede la proprietà C, allora X possiede la proprietà N.
Se ha una proprietà ne deve avere anche un’altra, cioè se un gruppo di corvi ben
confermato mi dice che tutti i corvi osservati sono neri, allora posso dire chiaramente che
un’ipotesi ben confermata me ne dice un’altra.
Possiedo l’ipotesi confermata sui corvi e sul fatto che sono neri. Il principio di
generalizzazione (o di Nicod) dice che se tutti gli F allora tutti G. se tutti questi allora hanno
tutti la stessa cosa.
Se tutti gli uomini, allora tutti mortali. Se l’insieme uomo è uomini, allora tutti quelli che sono
uomini avranno sicuramente la stessa caratteristiche, cioè sono mortali.
Il paradosso della conferma di Goodman o paradosso dei blerdi
È un paradosso che concerne il problema della predizione, cioè la possibilità di fare delle
previsioni che riguardano il futuro sulla base di quelle che sono state le esperienze del
passato. Diciamo che se in passato le cose sono andate in un certo modo, in futuro
dovrebbero andare in un certo modo.
35
Se in passato abbiamo osservato che un certo smeraldo è verde, anche in futuro diremo che
lo smeraldo è verde. Tutti gli smeraldi che noi abbiamo esaminato fino a un certo momento
sono verdi, abbiamo avuto quindi conferma del fatto che tutti gli smeraldi sono verdi. Questa
ipotesi è stata fino ad ora confermata.
Goodman dice: ammettiamo di introdurre un nuovo predicato “blerde”. È un particolare
colore che è verde fino a un certo momento e poi diventa blu (blerde). Per cui abbiamo un
secondo enunciato che afferma: “tutti gli smeraldi sono blerdi”.
Abbiamo l’affermazione a che è già confermata, che gli smeraldi sono verdi, e l’affermazione
b che dice che tutti gli smeraldi sono blerdi. Sono confermate entrambe, sia la a che la b.
Cioè, fino al tempo t tutti gli smeraldi sono verdi e dopo il tempo t diventeranno blu.
Queste due affermazioni che dicono cose completamente diverse sono egualmente
confermate. E sono tuttavia incompatibili, perché sono due ipotesi che dicono due cose
diverse rispetto alla stessa cosa, però sono egualmente confermate.
Goodman dice che quando noi facciamo una previsione concernente il futuro, non ci
possiamo basare su quella che è la quantità delle osservazioni che abbiamo fatto in passato.
Perché la mera quantità delle osservazioni fatte in passato non ci dice nulla su quello che
accadrà in futuro. Egli dice: perché è più plausibile l’ipotesi che tutti gli smeraldi sono verdi
rispetto all’ipotesi che tutti gli smeraldi sono blerdi? Noi siamo disposti ad accettare la prima
ipotesi ma non siamo disposti ad accettare la seconda.
Qualunque persona sana di mente, dice Goodman, non accetterebbe mai che tutti gli
smeraldi sono blerdi ma verdi. Mentre da un punto di vista logico entrambe le due ipotesi
sono equivalenti, dal punto di vista pratico non è accettabile una cosa del genere.
Perché? Perché in fin dei conti il termine “verde” fa parte del nostro linguaggio, è ormai
radicato in noi. Noi siamo abituati ad avere a che fare con le cose verdi, le conosciamo, ma
non abbiamo mai avuto a che fare con cose blerdi. Questo predicato lo abbiamo introdotto in
maniera artificiosa, è stata una nostra creazione, non è un termine che fa parte del nostro
linguaggio ordinario.
Allora, il fatto che noi preferiamo un’ipotesi piuttosto che un’altra, non deriva dal fatto che
un’ipotesi è supportata logicamente meglio dell’altra, dipende piuttosto dal fatto che noi
siamo abituati ad avere a che fare con i termini del linguaggio che noi accettiamo. È una
questione meramente pragmatica.
In fin dei conti è quello che diceva Hume, cioè noi crediamo nell’induzione che il sole domani
sorgerà perché siamo sempre stati abituati a vedere il sole che sorge. Mentre il fatto che
domani il sole possa non sorgere è qualcosa a cui non siamo mai stati abituati e diventa una
cosa eccezionale e quindi tendiamo a scartare tale ipotesi.
Goodman, quindi, sostiene che i motivi per cui noi accettiamo una certa generalizzazione e
accettiamo di fare previsioni per il futuro, sono motivazioni che non hanno a che fare con la
logica, ma sono delle motivazioni di carattere pragmatico, storico e non logico-razionale.
Il paradosso dei corvi di Hempel
Più complicato è il paradosso dei corvi di Hempel. Egli, di fronte allo scontro di quella che è
la logica e quelle che sono le nostre induzioni psicologiche, preferisce la logica. Noi
dobbiamo imparare a pensare in maniera logica, non in base a quelli che sono i nostri
pregiudizi psicologici.
Sembra un paradosso perché c’è “tutti i corvi” cioè c’è l’universale. Non solo. L’universo dei
non corvi e dei non neri è infinito rispetto a tutti i corvi.
Mettiamo il caso che io avessi soltanto 4 oggetti: 2 libri bianchi e due libri neri. Allora tutto il
mio universo è fatto da questi 4 libri. I due libri bianchi sono di filosofia e i due libri neri sono
di magia nera. Allora, a questo punto dico: “tutti i libri di filosofia sono bianchi”, tenendo
conto che il mio universo è fatto di 4 oggetti in tutto. Allora, se io faccio la seguente
osservazione: “ il libro di magia nera è nero”, secondo il paradosso dei corvi conferma che
tutti i libri di filosofia sono bianchi. E in effetti è vero, perché se gli oggetti sono 4, il fatto che
36
io escludo quell’oggetto che non è corvo, che non è nero, lo escludo indirettamente. Per cui,
se io dico “il libro di magia è nero” a questo punto mi risulta che i libri di filosofica sono
bianchi, perché ho esaurito il mio universo.
L’affermazione di due affermazioni contrarie: “tutti i libri di occultismo sono neri e tutti i libri di
botanica sono neri” di fatto conferma che tutti quelli di filosofia sono bianchi, perché in
questo caso abbiamo a che fare con un universo limitato.
Quindi, da un punto di vista logico è chiaro che quando un universo è infinito le cose si
complicano, perché prima che uno esaurisca tutto l’universo per confermare l’ipotesi ce ne
vuole. Ecco il carattere di paradossalità. Però da un punto di vista logico, ed ha ragione
qui Hempel, non è paradossale, perché man mano che io escludo elementi, confermo il suo
contrario. Cioè, man mano che io affermo: “esiste un elefante rosa” elimino un possibile
oggetto che è un corvo nero.
Se io riuscissi a esaminare tutti gli oggetti non corvi e non neri, verrebbe confermata l’ipotesi
“i corvi sono neri”. Logicamente verrebbe confermata. Quindi non sarebbe più un paradosso,
pragmaticamente non lo posso confermare.
In Goodman ha la prevalenza la pragmatica e l’esperienza passata viene privilegiata, cioè
che i concetti sono radicati in noi.
Invece, per Hempel è il contrario. Viene privilegiato l’aspetto logico a discapito di quello
pragmatico. Cioè, pragmaticamente sembra un paradosso, ma logicamente non lo è.
Il rifiuto dell’induzione: Karl Popper
Uno dei critici più forti nei confronti dell’induzione è stato Popper, uno dei maggiori
esponenti della scienza contemporanea. I critici come lui dicono che dell’induzione non posiamo
fidarci, che non serve a nulla e deve essere eliminata.
Per Popper, la strada dell’induzione è percorsa da innumerevoli problemi. Perché allora non
rassegnarsi all’inevitabile, e cioè al fatto che non esiste possibilità alcuna di risolvere il
problema dell’induzione?
Popper in particolare critica l’induzione perché vede nell’induzione il supporto della
verificazione. Il concetto di conferma si basa sul principio dell’induzione probabilistica. Lui
dice che comunque concepiamo le regole per avere un’induzione probabilistica, in ogni
caso, la conferma che noi possiamo dare alle ipotesi universali è prossima allo zero. La
probabilità che H sulla base dell’esperienza E sia uguale ad un certo valore probabilistico è
sempre prossima allo zero.
Allora dice, se noi arriviamo a questa conclusione che qualunque cosa sia universale, che
venga valutata su base probabilistica, viene ritenuta assai poco probabile, evidentemente
noi di questo concetto non possiamo farne uso.
Allora, Popper propone il concetto di falsificazione, e dice: noi possiamo essere sicuri di
una cosa, del fatto che se noi facciamo una certa ipotesi e da questa ipotesi traiamo fuori
delle conseguenze, empiriche che devono derivare da queste ipotesi, e poi vediamo che
queste conseguenze empiriche non si realizzano, non accadono, allora possiamo essere
certi che viene falsificata l’ipotesi. È il cosiddetto modus tollens. Se abbiamo una certa
teoria e da questa traiamo un’esperienza, se T allora E, E non accade allora sarà falsa la
teoria. T allora e, non e allora non t.
A differenza delle conferme, dove non sono sufficienti numerosissime conferme per poter
avere una certezza di alta probabilità di una teoria, invece basta una semplice sconferma,
falsificazione, per essere sicuri che quella teoria deve essere rigettata.
Questo ha un vantaggio rispetto alla conferma. Significa che noi dobbiamo avere un
atteggiamento diverso, non dobbiamo andare alla ricerca delle conferme, noi dobbiamo
invece andare alla ricerca delle falsificazioni, cercando di mettere alla prova la teoria
nelle circostanze più difficili.
Per esempio, non posso mettere la teoria per la quale tutti gli uomini si amano e si rispettano
reciprocamente, andando a verificare questa teoria prendendo tra le persone che si amano e
37
rispettano i miei parenti, perché è troppo banale. Devo prendere il mio nemico, una persona
lontana, ecc. a questo punto farò un serio tentativo di falsificazione, cioè non andrò in cerca
della conferma, ma andrò in cerca della falsificazione.
Se la mia teoria che tutti gli uomini si amano e rispettano supera questo tentativo di
falsificazione, allora posso dire che è una teoria solida.
Popper dice che la cosa importante è questa, la scienza è ciò che può essere falsificato e
non confermato. Le cose confermate sono tantissime, ma non fanno parte della scienza, è
confermato che se piove è umido ma non è questo che fa la scienza. Le conferme sono
cose banali, dice Popper. Il problema è tentare di fare delle falsificazioni. Per fare ciò le
teorie devono essere falsificabili. Cioè non posso creare delle teorie che non sono
falsificabili, perché non è una scienza una teoria non falsificabile, ma, è scienza una
teoria che abbia dei falsificatori potenziali, che possano contraddire la mia teoria.
Se io faccio la teoria che i metalli sono buoni conduttori di elettricità, allora io so quale
potrebbe essere l’esperienza che mi può falsificare questa legge. Ad esempio collego una
presa dove c’è l’elettricità, prendo un metallo, lo collego alla presa, dall’altro capo del metallo
ci metto la lampadina. Se la lampadina si accende, la teoria non è stata falsificata, possiamo
dire che è stata corroborata (confermata). Significa che ha superato un serio tentativo di
falsificazione.
Quindi, Popper introduce, al posto della verificazione la falsificazione, e al posto della
conferma la corroborazione. La corroborazione non può essere misurata, dipende soltanto
dalla serietà e onestà con cui vengono effettuati i controlli. Si basa anche su un’etica che
consiste nel fatto che lo scienziato non cerchi di sfuggire alla falsificazione inventandosi
stratagemmi particolari, e non cerchi per esempio di dire: “sostengo che tutti gli islamici sono
razzisti e se vedo un islamico che non lo è sostengo che non è un islamico o che è stato
educato in maniera cristiana. Questi sono dei tentativi di evitare la falsificazione creando
delle giustificazioni, delle modifiche che cambiano i termini della questione e ne facciano
comunque salvare la teoria. Dice Popper che ciò si deve evitare, perché questo è un
elemento di scorrettezza scientifica.
Popper sostiene che per valutare se quella è effettivamente una scienza, dobbiamo essere
in grado di confrontare più teorie. Mettendo a confronto due teorie possiamo scoprire che c’è
una teoria che supera meglio i controlli rispetto all’altra.
Per Popper, la cosa importante è vedere come cresce la scienza, come si sviluppa.
Secondo lui la scienza si sviluppa attraverso il metodo della “riduzione”, cioè quando una
teoria successiva incorpora in sé le teorie precedenti, le quali diventano dei casi più
particolari della teoria generale.
Un’altra conseguenza dell’impostazione di Popper è che il concetto di falsificazione non è un
criterio di significato ma di “demarcazione”, cioè i positivisti utilizzavano la verità per
distinguere il senso dal non senso, se io faccio un’affermazione e dico: “ tutti i cani sono
gavagai”, io posso dire che significa “gavagai” se sono in grado di specificare quando un
cane è gavagai, perché per esempio i cani scodinzolano sempre quando vedono il cibo.
Allora io do un significato a questa parola dicendo concretamente cosa succede. L’idea
neopositivisti era questa, che i significati dei termini fossero legati alla verifica, cioè al modo
in cui io mi accerto quello che quel termine significa. Popper dice che non è vero. A volte ci
sono delle teorie e dei concetti che non possono essere verificati, come per esempio le
teorie filosofiche, metafisiche. Noi diciamo che una cosa è priva di significato perché non
capiamo bene cosa voglia dire. Il criterio di significato è così ristretto che ci farebbe
escludere spesso le teorie che possono avere una grande funzione nella scienza, e che
possono essere suggeritrici di nuove idee e nuovi sviluppi.
Invece, il criterio di falsificazione non è che distingue il significato dal non significato, ma
distingue piuttosto la scienza dalla non scienza.
La rivalutazione della metafisica, intesa come euristica rispetto alla scienza
38
Nel neopositivismo, c’è da una parte la metafisica e dall’altra la scienza. La conoscenza
scientifica è quella del regno del significato (la scienza empirica) matematica e logica.
Invece, per Popper la metafisica e scienze empiriche sono all’interno del significato, non
vengono distinte.
Mentre nel neopositivismo la metafisica è all’esterno della conoscenza scientifica e
all’esterno del significato, per Popper è all’interno del significato.
Il problema, dice Popper, non è del significato, ma è un problema di demarcazione, cioè
capacità di distinguere scienza empirica da metafisica, anche se la metafisica è importante
per la scienza, ha una funzione euristica (importante per la ricerca).
Perciò, da questo punto di vista, Popper rivaluta l’importanza della filosofia.
Mentre per il neopositivismo la filosofica metafisica aveva una funzione negativa,
bisognava cercare di eliminare la metafisica dalla scienza, perché essa avrebbe avuto una
funzione negativa, di raffreddamento, freno nei confronti dello sviluppo scientifico;
invece, per Popper la metafisica non ha questa funzione di freno, o comunque non ce l’ha
sempre, ma ci sono momenti in cui la metafisica ha una funzione positiva, quella di
sviluppare nuove idee e aprire nuove strade (funzione euristica).
Dunque, la metafisica è accettabile solo nella misura in cui porta alla scienza. Resta ben
saldo, quindi, il fatto che la scienza non si fonda sulla metafisica, che fino a quando la
metafisica resta tale, essa non è scienza.
Ovviamente è impossibile eliminare tutti gli elementi metafisici dalla scienza, in quanto essi
sono troppo strettamente intrecciati col resto.
La spiegazione scientifica: leggi e teorie
Lo scopo della scienza è quello di trovare spiegazioni soddisfacenti. La spiegazione
scientifica si caratterizza per il fatto di rispondere ad un perché. Il concetto di spiegazione ha
suscitato una certa diffidenza sul neopositivismo delle origini.
39
Oggi l’atmosfera filosofica è cambiata dal momento che, quando ora qualcuno chiede
“perché”, noi riteniamo che egli lo intenda in senso scientifico, non metafisico: ci chiede
semplicemente di spiegare qualcosa collocandola in un contesto di leggi empiriche.
Questo modo nuovo di intendere la spiegazione venne per prima proposto da Campbell e
poi esposto nel manuale di Cohen, cioè che l’evento si vuole spiegare sotto qualche legge
generale.
Il risultato di tale progressiva spiegazione è quello di rivelare la interconnessione di molte
proposizioni apparentemente isolate.
Tale approccio viene fatto proprio da Popper, che in seguito, perfezionato da Hempel e
Oppenheim nel 1948, sarà noto come modello Popper-Hempel o anche concezione
nomologico-deduttiva o per leggi copertura della spiegazione scientifica.
Dare una spiegazione casuale di un evento significa dedurre un’asserzione che lo descrive,
usando come premesse della deduzione una o più leggi universali, insieme con alcune
asserzione singolari dette condizioni iniziali.
Della spiegazione fanno così parte due tipi di asserti: quelli universali, che costituiscono le
leggi di natura e quelli singolari, che si riferiscono all’evento specifico in questione. Dalla
congiunzione di questi due assorti viene dedotto l’asserto che descrive l’evento.
La problematica della spiegazione scientifica raggiunge la sua maturità nel 1948, col saggio
di Hempel e Oppenheim che segna il punto in cui la preistoria delle discussioni sulla
spiegazione scientifica cede il passo alla storia; in seguito divenne una pietra miliare della
filosofia della scienza.
Il modello nomologico-deduttivo
Se lo scopo della scienza è quello di capire il mondo, è importante che questa comprensione
non dipenda dalle disposizioni soggettive del singolo individuo.
Hempel introduce, innanzitutto, allo scopo di distinguere la spiegazione scientifica dalle
pseudo spiegazioni che possono soddisfare solo i bisogni psicologici dell’uomo.
Vi sono due requisiti essenziali di ogni spiegazione:
1) rilevanza esplicativa
2) controllabilità
Per chiarire il primo, Hempel porta un esempio: l’astronomo Sizi, allo scopo di mostrare
perché non potevano esservi satelliti ruotanti intorno a Giove, faceva osservare che, come
nella testa dell’uomo vi sono 7 aperture, così nei cieli vi sono 7 stelle. Basandosi su altri
analoghi fenomeni naturali, come l’esistenza dei 7 metalli, concludeva che il numero dei
pianeti era necessariamente di 7.
Per Hempel è evidente che i fatti citati da Sizi sono del tutto irrilevanti per il punto di
discussione, cioè per la tesi che Giove non ha satelliti.
Il requisito della controllabilità richiede che le asserzioni che costituiscono una spiegazione
scientifica siano suscettibili di controllo empirico.
Hempel e Oppenheim richiedono inoltre che tale modello di spiegazione debba possedere
4 condizioni di adeguatezza, 3 logiche e 1 empirica.
Le condizioni di adeguatezza logica sono:
1. il fenomeno da spiegare (explanandum) deve essere logicamente deducibile
dall’informazione contenuta nella premessa (explanans).
2. L’explanans deve contenere delle leggi generali.
3. L’explanans deve avere contenuto empirico, cioè deve essere capace di essere
controllato con esperimenti o osservazioni.
A queste 3 condizioni di natura logica si aggiunge quella empirica:
1. Le proposizioni che costituiscono l’explanans devono essere vere.
40
Per evitare il ricorso alle ipotesi ad hoc, si è sostenuto in particolare che una spiegazione
soddisfacente deve avere anche potere predittivo, essa deve, cioè, essere in grado di
prevedere altri eventi simili attualmente sconosciuti.
Nel caso della spiegazione si conosce l’evento e le premesse che lo implicano; nel caso
della previsione, viceversa, si conoscono le leggi universali e si richiede di trarne le
conclusioni.
Le difficoltà del modello e i controesempi
vennero proposti alcuni controesempi, dei quali ne illustriamo 2, quello sull’ombra dell’asta
della bandiera e quello della macchina di inchiostro.
1) Il contro esempio dell’asta della bandiera: il problema della causalità. Il primo contro
esempio consiste nel supporre che sia piantata in una giornata di sole sul terreno
pianeggiante un’asta di bandiera. L’asta proietta un’ombra la cui lunghezza può essere
spiegata facendo ricorso all’elevazione del sole, all’altezza della bandiera e alle leggi di
propagazione della luce.
Così abbiamo una spiegazione D-N che soddisfa le condizioni imposte da Hempel e
Oppenheim.
Analogamente se qualcuno ci domanda perché la bandiera è alta un metro, possiamo
dedurre l’altezza della bandiera dalla lunghezza della sua ombra. Anche in questo caso la
spiegazione sarebbe formalmente valida e tuttavia intuitivamente non diremmo che l’asta è
lunga una certa misura in virtù della lunghezza della sua ombra. Quale è la morale
dell’esempio? Che le condizioni poste da Hempel perché una spiegazione D-N sia valida
non sono sufficienti.
In realtà la differenza tra le due spiegazioni è data dal fatto che in un caso possiamo
legittimamente dire che un’asta causa un’ombra di una certa lunghezza; nell’altro invece,
non è possibile affermare che un ombra di una certa lunghezza è causa della data altezza
dell’asta. Sembra dunque che sia necessario far ricorso al concetto di causalità.
2) Il contro esempio della macchia di inchiostro: possibilità di assenza di leggi
universali nella spiegazione. Il secondo esempio consiste nel supporre che sul tappeto
vicino alla scrivania del Prof. Jones vi sia una macchia di inchiostro. Come possiamo
spiegarla? Vi era un calamaio aperto sull’angolo della scrivania e il Prof. Jones l’ha urtato
inavvertitamente. Questa sembra essere una spiegazione adeguata del perché vi è la
macchia e tuttavia non comprende alcuna legge universale.
Si devono quindi ammettere delle spiegazioni perfettamente adeguate che non obbediscono
al modello nomologico-deduttivo; ne scaturirebbe la conclusione che questo non è affatto un
modello di spiegazione universalmente applicabile.
Questi controesempi sollevano problemi concernenti la natura della spiegazione scientifica.
Oltre alla spiegazione nomologico-deduttiva, Hempel e Oppenheim ammisero anche
l’esistenza di altri tipi di spiegazione che hanno carattere probabilistico o statistico.
In essi vengono presentati due tipi di spiegazioni aventi carattere statistico e probabilistico:
le spiegazioni statistico-deduttive(D-S) e quelle statistico- induttive (I-S).
Le spiegazioni statistico-deduttive consistono per Hempel nel dedurre una legge statistica da
altre di più ampio raggio.
La deduzione è effettuata per mezzo della teoria matematica della probabilità statistica.
Le leggi scientifiche. Fondamentalità del concetto di legge nella scienza
41
La legge scientifica è lo strumento indispensabile che permette di pervenire alla spiegazione
scientifica: senza di essa non sarebbe possibile spiegare alcunché della realtà naturale. Ed
è appunto compito fondamentale della scienza il ricercare le leggi che governano la natura.
E così Popper afferma che, se vogliamo conoscere, dobbiamo andare alla ricerca di leggi di
natura.
Le leggi della quali qui ci occuperemo sono quelle che si riferiscono al mondo naturale e
non, il mondo della vita o la realtà storico-sociale e psicologica dell’uomo.
Quando una legge rappresenta dei fatti possiamo dire che è di tipo fattuale, cioè
riscontrabile empiricamente.
La legge di natura fa riferimento a un comportamento oggettivo, esistente in natura, invece
la legge della scienza indica un enunciato che descrive un comportamento oggettivo, quindi
essa appartiene al piano linguistico.
Realismo e antirealismo nella concezione delle leggi scientifiche
In generale gli scienziati presuppongono che le leggi scientifiche da loro scoperte
riproducano le leggi esistenti in natura.
È questa la filosofia realista che afferma che le ricerche scoprono qualcosa che
effettivamente esiste e che esisterebbe anche se nessun uomo fosse mai esistito. La
formulazione delle leggi scientifiche è quindi considerata come una ricostruzione concettuale
di leggi obiettivamente esistenti.
Ci sarà sempre una certa distanza tra legge scientifica e legge di natura, ma questa
continuamente diminuisce con l’avanzare della ricerca scientifica.
La posizione opposta ritiene le leggi scientifiche una costruzione puramente umana a cui
non corrisponde alcuna legge di natura, in quanto è l’uomo a fornire un ordine alla realtà.
La legge scientifica e le teorie sono solo strumenti utili di orientamento nel reale.
Leggi universali e generalizzazioni vere accidentalmente: la universalità nomica
L’enunciato generale esprime una condizione necessaria ma non sufficiente affinché si
abbia una legge genuina. Ad esempio, “tutte le rocce di questa scatola contengono ferro”:
questa possiede, da un punto di vista formale, le caratteristiche di una legge, ma
difficilmente si sarebbe disposti ad ammetterla come legge genuina. Si direbbe semmai che
è una generalizzazione vera accidentalmente.
Gli esponenti del neopositivismo si chiedevano proprio questo, distinguere l’accidentalità di
una generalizzazione dalla sua nomo-logicità.
La proposta della standard view: il regolarismo classico
La posizione elaborata all’interno del neopositivismo o concezione standard, si basa
sull’accettazione di Hume. In base a questo, non è possibile parlare di una struttura casuale
del mondo, per cui le leggi scientifiche descrivono solo delle regolarità osservate; l’unico
problema è distinguere le regolarità nomologiche da quelle accidentali.
Affinché un enunciato generale possa essere considerato un’autentica legge di natura, esso
deve possedere due requisiti essenziali:
 permettere di effettuare previsioni di eventi futuri;
 essere altamente confermato per via induttiva.
Quindi, un enunciato universale è considerato una legge quando è deducibile da una
generalizzazione di carattere più ampio che sia stata direttamente confermata, e quindi esso
è induttivamente sostenuto da tutti gli esempi che hanno confermato l’enunciato più
generale; analogamente, l’enunciato universale è considerato una legge quando è possibile
dedurre da esso dei casi che lo confermano.
42
Controfattualità e leggi di natura
Consideriamo le due asserzioni:
1) Tutte le persone sedute in questa stanza sono studenti.
2) Tutti i corpi metallici riscaldati si dilatano.
Facilmente si è d’accordo a considerare a una generalizzazione accidentale (non sempre
accade che le persone sedute siano studenti) e b una legge di natura.
Ciò perché, mentre dalla prima non si evince affatto che se una persona sedesse in questa
sala sarebbe uno studente, ne potremmo spiegare che una persona è studente perché siede
in questa sala, tuttavia, nel caso b sappiamo che se un corpo metallico fosse riscaldato si
dilaterebbe e quindi che un corpo riscaldato che si dilata è un metallo.
Per questa ragione si è sostenuto che una legge di natura autentica deve, a differenza di
una generalizzazione accidentale, essere in grado di sostenere condizionali contro fattuali
(se si verificasse F allora si verificherebbe G).
L’esistenza dei contro fattuali all’interno della standard view di origine neopositivista è stata
osservata con un atteggiamento riduttivista.
Chisholm pone il problema in relazione alla distinzione tra le leggi di natura e i condizionali
accidentali: Non si può dire che una legge di natura è semplicemente ciò che viene espresso
da un condizionale universale sintetico. Dobbiamo trovare la differenza che ci consente di
escludere i condizionali accidentali.
Il problema non è facile, anzi costituisce il problema fondamentale della logica della scienza.
I contro fattuali e il paradosso dell’implicazione
Questa difficoltà sta nel fatto che i condizionali contro fattuali non possono essere trattati
adeguatamente con gli strumenti della logica classica.
In particolare, l’applicazione ad essi del condizionale materiale, porta a risultati contro
intuitivi: avendo ogni condizionale contro fattuale l’antecedente falso (in quanto descrive un
fatto che non si è verificato) avremmo un asserto sempre vero.
Così ad esempio i due asserti:
a) Se un corpo fosse metallico, allora si dilaterebbe se riscaldato.
b) Se un corpo fosse metallico, allora non si dilaterebbe se riscaldato.
Sarebbero entrambi controfattualmente veri, è questo il cosiddetto paradosso
dell’implicazione.
Le varie soluzioni esaminate hanno l’inconveniente di incappare in un circolo vizioso. Il
problema dei controfattuali non può che rimanere irrisolto.
Il problema dei condizionali controfattuali è che non esistono soluzioni universalmente
condivise su come valutare la loro verità.
Il problema della proiettabilità della legge di natura
Una via d’uscita viene indicata dallo stesso Goodman, quando sostiene che una legge di
natura si caratterizza per il fatto di essere accettata come vera anche se non sono stati
determinati tutti i suoi esempi ma si prevede che quelli esaminati in futuro saranno conformi
ad essa; invece una generalizzazione accidentale avrebbe la caratteristica di essere vera
solo per i casi esaminati (gli studenti di questa scuola), senza costituire una base adeguata
per la previsione di nuovi casi.
Ma tale soluzione di Goodman ci riporta al problema dell’induzione: cosa ci garantisce,
infatti, la proiettabilità della legge?
43
Tentativi non standard di fuoriuscire dalle difficoltà generate dal paradosso
dell’implicazione
Eppure l’esistenza dei contro fattuali è una realtà non eludibile della ricerca scientifica,
sicché epistemologi meno legati all’eredità neopositivista hanno cercato di percorrere strade
alternative che vanno o in direzione di un abbandono della logica classica, oppure
concepiscono la legge scientifica in modo non-standard, cioè come un asserto che non verte
sul reale, bensì su modelli idealizzati.
Le leggi scientifiche: la concezione idealizzazionale
Un approccio del tutto nuovo alle leggi scientifiche viene da questa seconda impostazione
all’interno di una visione della scienza che valorizza il suo carattere ideale.
La concezione idealizzazionale della scienza della scuola poznaniese
Una proposta epistemologica, in grado di competere con la filosofia della scienza
contemporanea viene dalla Polonia.
Tale nuovo approccio alla scienza si è incarnato nella scuola metodologica di Poznan, che
ha fatto del concetto di idealizzazione il centro della propria riflessione.
La crisi della concezione standard delle teoria scientifiche e la dissoluzione del programma
popperiano aveva portato molti filosofi della scienza a cercare vie diverse, mettendo in
discussione i cardini teorici su cui era stata edificata l’immagine di scienza.
Le nuove prospettive che ne sono emerse hanno comportato una vera rivoluzione
epistemologica.
Grazie alla scuola di Poznan la questione del carattere idealizzazionale della scienza è stata
posta all’attenzione del pensiero epistemologico contemporaneo.
È nel Capitale di Marx che viene ritrovato un modo nuovo di intendere l’astrazione e che,
per distinguerla dal modo classico ed empiristico viene chiamata “idealizzazione”.
I costrutti dei quali fa uso Marx non sono empiricamente dati, né provengono
dall’esperienza, ma sono costrutti che nella realtà non corrispondono a nulla. Pertanto la
teoria scientifica non è la descrizione dei fenomeni che ci circondano, ma è formulata
mediante assunzioni idealizzanti.
Per rendere chiaro tale concetto di idealizzazione Nowak lo paragona alla caricatura: un
disegnatore prende alcuni dettagli da una data persona e sottolinea quelli che gli sembrano
importanti. Non raffigura ogni cosa ma altera una persona o una situazione col trascurarne
alcune caratteristiche che ritiene di minore importanza. La scienza fa lo stesso.
Pertanto un ente ideale designa solo dei costrutti concettuali definiti mediante delle
proprietà, la cui estensione è vuota.
44