LOGICA, MATEMATICA, FISICA E BIOLOGIA NEL SECOLO XX
GLI SVILUPPI DELLA LOGICA E DELLA MATEMATICA NEL SECOLO XX
La “ricerca sui fondamenti” e la scoperta della “antinomia delle classi”
Nell’Ottocento era iniziato «un programma di rigorizzazione concettuale delle nozioni fondamentali
del calcolo infinitesimale», che portò alla «‘aritmetizzazione dell’analisi’, cioè alla riduzione dei
concetti fondamentali dell’analisi (la matematica che ha come cardine la teoria dei ‘numeri reali’) ai
concetti dell’aritmetica (la matematica che ha come cardine la teoria dei numeri interi positivi, cioè
dei numeri naturali, e, per estensione, dei numeri razionali)». «Ora, dato che era noto che la
geometria poteva venir ricondotta all’analisi (per mezzo delle operazioni costituenti la geometria
analitica), l’aritmetica (a cui appunto veniva ridotta l’analisi) veniva a configurarsi quale ‘base
naturale’ dell’intero edificio matematico». «Siffatto processo di riduzione dell’intera matematica
all’aritmetica trova il suo punto culminante nell’opera di Peano, il quale nel 1899 propose la sua
ormai classica assiomatica dell’aritmetica elementare»
Nello stesso periodo «in cui Peano lavorava al suo progetto, c’erano studiosi come Frege e Cantor
che, non persuasi della ‘naturalità’ della base costituita dall’aritmetica, cercavano di ridurre la stessa
aritmetica ad una base ancor più profonda, riducendo il concetto di numero naturale al concetto
logico di classe, talché la logica delle classi apparve come la teoria maggiormente adeguata per
l’indagine sui fondamenti della matematica» (p. 735), arrivando a dire con «Russel nei Principi
della matematica (1903), che “matematicamente, un numero non è nient’altro che una classe di
equipotenti”». Opera che Russel intraprese «nella persuasione che “la matematica e la logica siano
identiche” e che “tutta la matematica pura tratta esclusivamente di concetti definibili in termini di
un numero piccolissimo di concetti logici fondamentali”». «Nel frattempo, però, e cioè tra il 1901 e
il 1902, Riussel aveva messo in crisi la logica delle classi e con ciò aveva colpito al cuore», questo
programma. «Questo avvenne con la scoperta di un’antinomia che mostrava come una
proposizione, legittima nei fondamenti dell’aritmetica di Frege, era tuttavia autocontraddittoria»,
paradosso che trova un suo «antico prototipo nel paradosso del mentitore: “Epimenide il cretese
dice che tutti i cretesi sono bugiardi”». «Russel comunicò a Frege per lettera questa antinomia.
Frege tentò di porre rimedio ai guai da essa procurati proprio nel cuore del suo sistema, ma in fondo
non fu convinto dai suoi stessi tentativi di salvataggio e visse gli ultimi anni della sua vita sfiduciato
dal valore di tutto il lavoro compiuto». «Dopo la scoperta dell’antinomia di Russel, altre ne vennero
formulate ed esse costrinsero a non accettare in maniera ingenua il concetto di insieme ed ad
impostare in maniera assiomaticamente rigorosa la teoria degli insiemi». Russel invece «persuaso
che l’insorgere delle antinomie fosse dovuto ad un cattivo uso del linguaggio» (p. 736), cercò di far
vedere come «un concetto non può mai occorrere come predicato in una proposizione il cui
soggetto sia di tipo uguale o maggiore di quello del tipo stesso». «Tuttavia, sia le varie
assiomatizzazioni della teoria degli insiemi sia la teoria dei tipi di Russell lasciavano aperti grossi
problemi. Le prime evitavano certo le antinomie note, ma non garantivano contro altre possibili
antinomie. La seconda, poi, mentre anch’essa non garantiva l’insorgere di ulteriori antinomie …
non poteva proibire che si costruissero proposizioni non paradossali e che, però, non rispettavano
affatto la teoria dei tipi».
Il “programma” di Hilbert e i “teoremi” di Gödel
Frege, Peano e Russel «sono, sostanzialmente, dei platonismi: credono ad un mondo ‘oggettivo’,
esistente per sé, di enti e relazioni matematiche che il ricercatore deve scoprire e non inventare».
«La scuola formalista, invece, quella cioè che fa capo a David Hilbert, sostiene che un ente
matematico esiste quando sia stato definito in modo non contraddittorio. Di conseguenza, la
dimostrazione della non-contraddittorietà delle teorie matematiche diventa il problema centrale
della ricerca matematica». «Un modo di provare la non-contraddittorietà di una teoria matematica
era stato quello di trovare un ‘modello’ degli assiomi della teoria entro una teoria già esistente e che
per consenso unanime veniva data per coerente», teoria da lui praticata «nei suoi Fondamenti della
geometria (1899; in quest’opera Hilbert assiomatizza in modo rigoroso la geometria euclidea)». «In
ogni caso, per quanto ingegnosa o utile questa procedura potesse apparire, essa non andava alla
radice della questione: non risolveva il problema, si limitava a spostarlo, giacché, restando sempre
nel caso del nostro esempio, nessuno può garantire che la geometria euclidea (non interpretata su di
un ‘universo’ di oggetti fisici) sia non-contraddittoria». → Dato tutto ciò «Hilbert, con due memorie
del 1922-1923, propone il cosiddetto ‘programma hilbertiano’. Inteso ad offrire una prova non più
‘relativa’ (ad un altro sistema) ma ‘diretta’ o ‘assoluta’ di un sistema assiomatico. E siccome la
matematica ‘classica’, dopo tutto il lavoro precedente, si riduceva a tre grossi sistemi assiomatici:
quello dell’aritmetica, quello dell’analisi e quello degli insiemi; e siccome, inoltre, le ricerche
condotte nell’Ottocento facevano ritenere fondamentale ‘la teoria aritmetica’, era allora naturale che
Hilbert partisse dalla dimostrazione di coerenza dell’aritmetica per poi estendere tale coerenza
all’ambito dell’analisi e a quello degli insiemi». «Naturalmente, assiomatizzando l’aritmetica, si
deve riconoscere (e ciò dopo Frege era ineludibile) la necessità di esplicitare scrupolosamente tutti
gli ingredienti e i meccanismi linguistici e logici attraverso cui si organizza e si sviluppa la teoria …
Ciò porta alla formalizzazione completa della teoria di cui si vuole provare la coerenza. E qui c’è da
badare al fatto che la formalizzazione di una teoria non va confusa con quell’aspetto – per altro non
essenziale – dei sistemi formali che è la simbolizzazione» (p. 737). «Formalizzare una teoria
significa esplicitare i pezzi del linguaggio ammesso, come anche le regole di formazione delle
forme espressive ammissibili e le regole di manipolazione di queste formule ammissibili. In tal
modo, la teoria assume la forma di un puro calcolo che prescinde dai significati associabili ai suoi
simboli e alle sue espressioni». «Dunque: l’assiomatizzazione completa di una teoria comporta la
formalizzazione anche della logica che serve a costruirla. Ma così facendo la metamatematica di
Hilbert con quali mezzi poteva sottoporre ad analisi critica la logica se non con la logica stessa?
Non c’è forse pericolo di un circolo vizioso? Ovvero, per dimostrare la non contraddittorietà di una
teoria, sarà necessario far ricorso all’evidenza, a quell’intuizione che tanti sospetti aveva attirato
attorno a sé? L’idea di Hilbert è che con niente non si fa niente, per cui una certa qual circolarità è
pressoché inevitabile». «Tuttavia Hilbert pensava di avvalersi di procedimenti – i cosiddetti metodi
finitistici – che, pur facendo parte di quell’aritmetica che si vuol fondare, fossero talmente sicuri da
non compromettere gli esiti delle dimostrazioni. … L’intuizione quindi entra nel tentativo che
Hilbert fa di fondare la matematica, ma essa non è che stabilisca – per intuizione, appunto – le
proprietà di determinati enti matematici; essa concerne unicamente l’effettuazione di operazioni
semplicissime e così sicure ed elementari da essere accettate alla base di ogni ricerca teorica».
«Durante gli anni Venti, dopo alcuni successi iniziali, si pensava che il programma di Hilbert
potesse veramente venir condotto in porto».
Però «Nel 1928, Hilbert aveva, nel frattempo, impostato il problema della completezza della teoria
dei numeri, s’era cioè chiesto se gli assiomi di Peano della teoria elementare dei numeri erano o non
erano capaci di dimostrare o di refutare ogni proposizione di quella teoria». → «Ebbene, nel 1931,
Kurt Gödel», dimostra «che non è possibile costruire una teoria assiomatica dei numeri che goda
della completezza voluta da Hilbert». «Ma le cose andarono ben oltre giacché, da questo primo
risultato, Gödel trasse il corollario per cui un calcolo logico, con potenza sufficiente per
formalizzare l’aritmetica elementare, se è coerente, è tale che in esso è indimostrabile la formula
che esprime la sua coerenza. La coerenza dell’aritmetica, quindi, non si può ottenere usando gli
strumenti appartenenti al sistema formale con cui si esprime l’aritmetica. Tale risultato stabilisce a
chiare lettere il fallimento del sistema Hilbertiano». «Gödel fece insomma vedere che era
impossibile una prova puramente sintattica della non-contraddittorietà di un sistema formale almeno
così ricco da esprimere l’aritmetica elementare. Da allora in poi la garanzia della coerenza dei
sistemi formali o calcoli verrà cercata nelle interpretazioni che siano “modelli” di tali calcoli».
La semantica di Tarsi e l’intuizionismo di Brouwer
Alfred Tarski ne «Il concetto di verità nei linguaggi formalizzati (1934) sulla semantica dei sistemi
formali (che in seguito si svilupperà in quella importante branca della logica-matematica costituita
dalla ‘teoria dei modelli’)», precisa «il concetto di ‘verità’ (come accordo con i fatti … non
abbiamo un criterio di verità: possiamo sempre sbagliarci nel dire che una teoria è vera) e quello di
‘conseguenza logica’(che è una nozione semantica e non sintattica come quella di ‘derivabilità’)» e
con esse «indaga le relazioni che si possono stabilire tra i linguaggi formalizzati e gli insiemi di
oggetti sui quali tali linguaggi possono venire interpretati in maniera da dare origine a proposizioni
vere su quegli oggetti … giacché è possibile dimostrare che, se un calcolo ammette un modello, tale
calcolo è allora coerente. Si viene così ad avere una prova di coerenza di tipo semantico» (p. 738s).
Tra i platonismi come Frege e i formalisti come Hilbert si situano «l’olandese Jan Luitzen Egbertus
Brouwer (1881-1966) e i suoi seguaci, tra cui Arend Heyting (nato nel 1898), sostengono che un
ente è da ritenersi matematicamente esistente solo se si riesca a costruirlo, cioè soltanto a patto che
siamo in grado di darne un esempio o di indicare quella procedura che, attraverso un numero finito
di passaggi, ci permette di arrivare ad un simile esempio. Questa concezione, la concezione
intuizionistica, vieta il ricorso all’infinito attuale», cioè «se si parla d’infinito, se ne parla
unicamente non nella maniera in cui se ne parla nella teoria degli insiemi, ma nel senso che, per es.,
ogni punto che sia stato eventualmente raggiunto, può essere superato». Così «l’infinito è potenziale
e mai attuale. L’infinito non è costruibile». «D’altro canto, se esistenza di un ente matematico
significa la sua effettiva costruzione ossia la sua avvenuta costruzione, allora quel tipo di
dimostrazione che è nota come ‘legge del terzo escluso’ (“per ogni proposizione p, o p o non p”)
non può essere accettato». Se negli anni Venti ebbe poca accoglienza «oggi le cose son mutate;
l’intuizionismo ha mostrato tutta la sua fecondità ed è una delle correnti più interessanti della
matematica contemporanea».
LO SVILUPPO DELLA FISICA NEL ‘900
Questioni generali
Sembra che la ricerca fisica del ‘900, finora sia «caratterizzata da un fondamentale dualismo di
programmi. Il primo si è sviluppato nei primi decenni del secolo, a partire dalla crisi della
meccanica nel suo impatto con l’elettromagnetismo e attorno al paradigma relativistico einsteniano.
Mentre alla fine dell’Ottocento, dallo studio dei fenomeni di interazione tra la materia e le
radiazioni, si sviluppava l’altro, quello quantistico». Questi due programmi «in sostanza si
riferiscono a due livelli ben diversi d’osservazione: entrambe le teorie, infatti, ammettono la fisica
classica come ottima approssimazione per valori delle grandezze fisiche entro i limiti della nostra
quotidiana esperienza; ma la quantistica diventa necessaria per fenomeni a livelli microscopici (ad
esempio fenomeni atomici, nucleari o sub-nucleari), e la relatività per velocità e lunghezze molto
grandi, ad esempio su scala astronomica. Di conseguenza, i due programmi vanno studiati
distintamente e un’unificazione tra di essi non pare ancora vicina; mentre un motivo
d’incompatibilità non è stato ancora osservato e neppure ipotizzato» (p. 739)
Einstein e le teorie della relatività
«A cavallo tra i due secoli, molti tentativi erano stati fatti per ricomporre il contrasto tra le teorie di
Maxwell e di Newton», «ma nel 1905, A. Einstein (1879-1955) pubblica i fondamenti della nuova
teoria risolutiva, nota come ‘teoria della relatività ristretta’, nello storico articolo
Sull’elettrodinamica dei corpi in movimento», il cui nucleo è «“le stesse leggi dell’elettrodinamica e
dell’ottica sono valide per tutti i sistemi di riferimento per cui valgono le equazioni della meccanica.
Innalzeremo questa congettura … allo stato di postulato, ed inoltre introdurremo un altro postulato
che è soltanto apparentemente inconciliabile con il primo, e cioè che la luce si propaga sempre nello
spazio vuoto con una velocità definita che è indipendente dallo stato di moto del corpo emittente”.
Il primo postulato elimina l’esistenza dell’etere» e alle trasformazioni di Galileo «Einstein
sostituisce quelle di Lorentz, ricavandole indipendentemente a partire dai due postulati».
«La teoria comporta una riformulazione dei tradizionali concetti di spazio e tempo. Si possono
infatti su questa base dimostrare dei teoremi che risultano in contrasto con la ‘esperienza comune’»:
- «la durata di un fenomeno su un corpo in movimento è maggiore di quella dello stesso su un
corpo in quiete»
- «due fenomeni simultanei rispetto ad un osservatore possono non esserlo rispetto ad un
altro, e viceversa»
- «la lunghezza di un regolo si riduce nella direzione del suo movimento»
- «la massa di un corpo aumenta con la sua velocità»
- «la massa equivale ad una quantità d’energia data dalla formula E=mc^2»
«Tutto ciò ha consentito numerosi ed accuratissimi controlli, che hanno dato alla teoria forti
corroborazioni» che le permette di affermarsi «in breve tempo, superando ostacoli e opposizioni».
«Ma, solo 11 anni dopo, ancora Einstein propone una teoria nuova che supera, generalizzandola, la
precedente. Difatti, rimuovendo la limitazione a moti rettilinei uniformi, egli afferma che le leggi
della fisica sono le stesse se osservate da qualunque sistema di riferimento, anche se accelerato,
purché si tenga conto anche degli effetti del campo gravitazionale eventuale: è il nucleo della
“teoria della relatività generale”». «Per giungere a tale risultato, Einstein parte dalla constatazione
che la massa di un corpo è la stessa se misurata secondo la legge di gravitazione universale o la 2°
legge della dinamica (la massa inerziale è uguale alla massa gravitazionale)». «Per cui, in ultima
analisi, ogni problema fisico va risolto mediante lo studio delle proprietà geometriche dello spazio».
Questa teoria, oltre a conservare le conseguenze della “teoria della relatività ristretta” «ve ne
aggiunge altre che la espongono a controlli sperimentali ulteriori. Tra questi, oltre alle esatte
traiettorie di vari pianeti, ricordiamo la deflessione di un raggio di luce ad opera di un campo
gravitazionale (A. S. Eddington, 1919) e lo spostamento delle righe spettrali della luce emessa da
stelle di grande massa (W. S. Adams, 1924)» (p. 740).
«Si apre qui una via di sviluppo di ‘scienza normale’, consistente da un lato nell’elaborazione della
sempre più ardua parte matematica, e dall’altro nel sottoporre la costruzione teorica a controlli
sperimentali sempre più accurati e, finora, sempre con esito positivo. Tra i numerosi esperimenti
attualmente allo studio, grandi interessi si appuntano sull’eventualità di rilevare le onde
gravitazionali di origine cosmica, così come si rilevano le onde elettromagnetiche».
La teoria dei “quanti”
«‘Quanto’ è il termine coniato da M. Planck (1858-1947) per la soluzione di un problema di
emissione elettromagnetica: il problema del corpo nero», egli infatti nel 1900 propose di «ipotizzare
che l’energia non venga emessa e assorbita sotto forma di radiazione dalla materia con continuità,
cioè per valori qualunque, ma solo per multipli interi di una certa quantità pari al prodotto tra la
frequenza  della radiazione e una certa costante h, la costante di Planck; la quantità h è appunto
chiamata ‘quanto di energia’ e la costante h ‘quanto d’azione’». «Quel che ci interessa dal punto di
vista concettuale è che Planck arriva alla sua scoperta rifiutando di tentare di adattare le teorie
esistenti all’evidenza sperimentale contraria: in questo senso, è paragonabile ad Einstein».
«Proprio da Einstein viene la prima verifica della teoria di Planck. Egli ipotizza che qualunque
radiazione sia quantizzata, e chiama ‘fotone’ la particella corrispondente ad una radiazione di
freeunza , avente energia h e quantità di moto h/c: ciò gli consente d’inquadrare nella teoria
l’effetto fotoelettrico. Nel 1923, gli riuscirà un’analoga operazione nei riguardi della diffusione di
raggi x o  da parte di elettroni (effetto Compton)».
«Si fuse presto con quello sulla quantistica lo studio della struttura dell’atomo … nasceva allora il
problema di quale fosse la situazione degli elettroni attorno al nucleo. La prima risposta (1913)
venne da N.H. Bohr (1885-1962): egli ipotizzò che gli elettroni ruotano secondo orbite circolari ben
precise, calcolabili secondo le leggi della quantizzazione energetica, e che gli atomi assorbissero ed
emettessero energia mediante salti degli elettroni da un’orbita ad un’altra, più alta o più bassa,
rispettivamente. Il modello venne presto (1916) perfezionato da A.J.W. Sommerfeld (1868-1951).
Le prime corroborazioni, ma anche delle parziali falsificazioni, vengono da esperimenti di
spettroscopia: tuttavia la storica esperienza (1921-1922) di O. Stern (1888-1969) e W. Gerlach (nato
nel 1889) dà alla teoria di Bohr, e all’intera quantistica, una delle conferme più sostanziali».
«È chiaro che queste idee per i livelli microscopici contrastano con quelle di Maxwell per i livelli
macroscopici: ma è lo stesso Bohr a superare la potenziale contraddizione, proponendo (1916) di
interpretare la teoria di Maxwell come una descrizione statistica di ciò che avviene per un grande
numero di componenti elementari. È questa la prima enunciazione di quel ‘principio di
corrispondenza’ che rappresenta una delle chiavi per comprendere ed applicare la teoria dei quanti»
(p. 741s). «L’idea si arricchisce ulteriormente per opera di L. V. De Broglie (nato nel 1892). Egli
ipotizza che, come ad ogni onda elettromagnetica corrisponde un corpuscolo, viceversa anche a
qualunque particella, con massa a riposo m0 e velocità n, corrisponde un’onda di lunghezza
=h/m0, ponendo così le basi per un nuovo filone di studio teorico, la cosiddetta meccanica
ondulatoria». «Dalla constatazione, sorretta da una base sperimentale sempre più ampia, che non è
possibile rinunciare nello studio dei fenomeni meccanici ed elettromagnetici né al modello
corpuscolare né a quello ondulatorio, è ancora Bohr a teorizzare che ogni fenomeno presenti in
realtà due aspetti, entrambi veri e reciprocamente complementari ed escludentisi. È questo, in
sostanza, il principio di complementarietà, base della legge quantitativa d’indeterminazione
formulata da W. Heisenberg (1901-1976), che stabilisce dei precisi limiti nella possibile
determinazione simultanea di grandezze che si riferiscono ai due aspetti complementari; ad esempio
è impossibile determinare, ad un dato istante, la posizione e il momento (cioè il prodotto tra velocità
e massa) di una particella con precisioni piccole a piacere: tanto più si determina l’una grandezza,
con precisione tanto minore è possibile determinare l’altra, e viceversa». «La meccanica ondulatoria
trova una sistemazione teorica con E. Schrödinger (1887-1961), che determina l’equazione alla
quale deve obbedire l’onda di De Borglie (1926); M. Born (1882-1960) interpreta tale equazione di
onda come un dato di significato probabilistico». «Siamo così alle basi dell’interpretazione
dell’intera teoria dei quanti in senso indeterministico … ‘l’interpretazione di Copenaghen’».
«La teoria dei quanti trova una prima assiomatizzazione nel 1927 ad opera di Dirac e P. Jordan
(nato nel 1902), ed una seconda, più generale, elaborata verso il 1930 da J. Von Neumann (19031957). Da quei giorni, lo studio della quantistica consisterà, più che altro, nell’estenderne le
applicazioni e nel rivederne la formulazione in modo più accurato, senza alcuna critica ai principi
fondamentali. Come per la relatività, quindi, si apre un periodo di ‘scienza normale’».
«Le ricerche nel settore sono tuttora in corso: ma i numerosi e continui tentativi di costruire una
teoria unificata della natura non hanno a tutt’oggi sortito alcun effetto significativo». «Innovazioni
di fondo successive ne possiamo invece trovare nel settore nel quale l’unico limite che il ricercatore
ha incontrato è stato quello della strumentazione tecnica, peraltro in rapida evoluzione: nel settore
cioè della struttura interna del nucleo» (p. 742).
Fisica atomica, nucleare e sub-nucleare
Nel 1925 «Pauli formula quel principio di esclusione che consente di collocare gli elettroni attorno
al nucleo in modo coerente con le scoperte della chimica, e da quel momento lo studio delle
strutture elettroniche diverrà di competenza dei chimici». «È ancora Bohr a chiamare ‘protoni’ le
particelle cariche positivamente presenti nel nucleo». Da una serie di esperimenti sugli isotopi sorge
«l’esigenza di un terzo tipo di particelle, pesanti ed elettricamente neutre: i “neutroni”, la cui
esistenza viene dimostrata sperimentalmente da J. Chadwick (1891-1974) nel 1932». → Il quadro
però si complica «per la scoperta di un gran numero di nuove particelle elementari, a cominciare
dalla famiglia dei ‘mesoni’ di cui il primo componente era stato teorizzato da Heisenberg e
Majorana, e sperimentalmente rilevato da H. Yukawa (nato nel 1907) nel 1935». → «Notevole è la
storia di un’altra particella elementare: il ‘neutrino’. Essa era stata escogitata da Pauli nel 1930, per
far quadrare i conti relativi a certi fenomeni radioattivi, e la teoria era formulata in un modo tale da
non consentirne la rilevazione in alcun modo con la strumentazione al tempo disponibile. Si trattava
quindi di una teoria che aveva tutto l’aspetto di una ‘ipotesi ad hoc’ per salvare la teoria dei quanti
da evidenze, apparentemente contraddittorie. La prova sperimentale dell’esistenza del neutrino, e
quindi l’effettivo ingresso della teoria nell’ambito della scienza, si poté avere solo circa trent’anni
dopo». → «La scoperta del neutrone ha comportato l’introduzione di un terzo tipo di forza, oltre a
quelle gravitazionale ed elettromagnetica: l’interazione forte; e lo studio del neutrino ne evidenziò
una quarta, la ‘interazione debole’». «Per decenni si sono succeduti dei tentativi di unificare le
teorie delle quattro forze fondamentali della natura», ma con scarso successo.
«È invece più avanzato il processo di semplificazione dei componenti elementari della natura: le
oltre centro particelle che si sono teorizzate e sperimentate dagli anni 30 ad oggi sembra possano
essere ricondotte a combinazioni di poche particelle sub-elementari … dette ‘quarks’, ed ipotizzate
per primo da M. Gell-Mann (nato nel 1924). La prima teoria in tal senso è stata avanzata
recentemente, ed ancor più recenti sono i primi dati sperimentali significativi in proposito».
Parallelamente a tutto ciò, va notato un notevole sviluppo delle applicazioni tecniche, seguendo «la
vi aperta da Rutherford, di sperimentare il bombardamento dei nuclei con particelle più piccole».
Grazie ad esse e a molti sperimentatori si sono fatte varie scoperte che «condurranno Fermi alla pila
atomica (1924) ed altri ala bomba atomica (1945) … La prima è alla base del funzionamento delle
centrali elettronucleari, dei motori a propulsione nucleare e di tante altre applicazioni pacifiche; la
seconda, invece, di micidiali ordigni bellici» (p. 743). Le ricerche anche in questo campo sono vive.
L’interdisciplinarietà e le discipline “di confine”
«Abbiamo seguito, a partire dai primi dell’800, un processo di progressiva specializzazione degli
scienziati, e oggi ne vediamo gli effetti esasperati. Sarebbe però un errore vedere in esso un
carattere distintivo della scienza avanzata: la ripartizione delle conoscenze in discipline è spesso
una pura convenzione, e la specializzazione è un caro prezzo che si è pagato alla vertiginosa
rapidità del progresso». «Vanno quindi intesi come opportuni correttivi della anomala situazione
nella quale versa la ricerca scientifica attuale, dure realtà metodologiche emerse in questo secolo e
che caratterizzano la ricerca attuale. La prima è l’istituzione di équipes formate da studiosi di
culture e formazioni diverse … La seconda realtà è costituita dalla nascita e dallo sviluppo delle
discipline di ‘confine’, a cavallo cioè tra i settori disciplinari tradizionali: tra queste, ricordiamo la
chimica-fisica, l’astrofisica, la biochimica, la biofisica, la geofisica e molte altre. Queste vere e
proprie nuove discipline, anziché contribuire alla settorializzazione ulteriore, costituiscono assieme
alle équipes interdisciplinari, dei canali attraverso i quali le discipline e i ricercatori riprendono a
comunicare dopo circa un secolo e mezzo di separazione». «Ritroviamo così un orientamento verso
quell’unitarietà della ricerca scientifica che si era andata perdendo nel secolo scorso».
LA FILOSOFIA DELLA SCIENZA TRA LE DUE GUERRE
LINEAMENTI GENERALI
«Il principale centro per la filosofia della scienza fu, in quel periodo, l’Università di Vienna, dove
un gruppo di scienziati-filosofi, riuniti attorno a Moritz Schlick, diedero vita al Circolo di Vienna
(Wiener Kreis)». «Il pensiero dei Circolasti va sotto il nome di Neopositivismo o Positivismo logico
ed è caratterizzato da un deciso atteggiamento antimetafisico e da tutta una serie di approfondite
analisi di grande rilievo sul linguaggio, la struttura e i metodi delle scienze naturali e sui fondamenti
della matematica. Il nucleo di fondo della filosofia viennese è il principio di verificazione, stando al
quale hanno senso soltanto le proposizioni che si possono empiricamente verificare attraverso il
ricorso ai fatti d’esperienza. È in base a questo principio che i Neopositivisti decretarono
l’insensatezza di ogni asserto metafisico e teologico affermando, inoltre, la riduzione delle norme
etiche ad un insieme di emozioni».
«L’avvento al potere da parte di Hitler portò con sé anche la fine del Wiener Kreis. Alcuni circolasti
(come Carnap, Feigl, ecc.) emigrarono negli Stati Uniti e qui il loro pensiero entrò in simbiosi con
le correnti empirico-pragmatistiche della filosofia americana. Tale contatto allargò, nella direzione
semantico-pragmatica, le prospettive del Neopositivismo che, con Carnai, fu avviato verso una
maggiore liberalizzazione».
«Mentre questo accadeva in America, Wittgenstein imprimeva alla filosofia inglese una profonda
svolta, respingendo le pretese metafisiche e assolutistiche del principio di verificazione e
indirizzando la filosofia verso l’analisi dei diversi giochi-di-lingua che intessono l’umano
linguaggio il quale è ben più ricco, più articolato e più sensato nelle sue manifestazioni non
scientifiche di quanto non avessero mai immaginato i Neopositivisti».
«E, nel frattempo, Karl R. Popper reimpostava su altra base i problemi dei Neopositivisti, offrendo
per essi soluzioni diverse e maggiormente consistenti, senza affatto negare la sensatezza dei
linguaggi non scientifici, come è il caso delle proposizioni metafisiche».
Vicino ad alcuni nuclei centrali del Neopositivismo c’è poi «l’Operazionismo del fisico americano
Percy William Bridgman il quale sostenne la riduzione del significato dei concetti scientifici ad un
insieme di operazioni», mentre «una filosofia non positivista della scienza veniva elaborando, in
quel periodo, il francese Gaston Bachelard, il cui influsso si è visto a distanza di anni e le cui idee,
quali quelle della ‘rottura epistemologica’ o di ‘ostacolo epistemologico’ e soprattutto la sua
considerazione della storia della scienza come strumento primario nell’analisi della razionalità, si
sono rivelate, ai nostri giorni, sempre più importanti» (p. 750).
IL NEOPOSITIVISMO VIENNESE
Le origini e la formazione del Circolo di Vienna
«Vienna costituiva un terreno particolarmente adatto per lo sviluppo delle idee neopositiviste, a
motivo del fatto che qui, durante la seconda metà del secolo XIX, il Liberalismo (con il suo
patrimonio di idee originato dall’Illuminismo, dall’Empirismo e dall’Utilitarismo) rappresentò
l’orientamento politico preminente». «Per di più, l’Università di Vienna, si era mantenuta – data
l’influenza della Chiesa cattolica – sostanzialmente immune dall’Idealismo; e fu così la mentalità
scolastica, come ricorda uno dei membri più attivi del Circolo e cioè Neurath, che preparò la base
per l’approccio logico alle questioni filosofiche».
Già prima della guerra del ’14-’18 un gruppo di giovani «“si incontravano il giovedì sera, in un
caffè della vecchia Vienna, per discutere soprattutto questioni di filosofia della scienza”», riunioni
che più tardi saranno ricordate «come l’epoca ‘presistorica’ del Neopositivismo, la cui storia vera e
propria inizia nel ’24 quando Herbert Feigl e Friedrich Waismann andarono a parlare a Schlick con
l’idea di formare un gruppo di discussione. Schlick acconsentì e, come risultato, si ebbero i colloqui
del venerdì sera. Tale fu l’inizio del circolo di Vienna». «Nel ’26 anche R. Carnap fu chiamato
all’Università di Vienna. Hahn e Schlick lo preferirono ad Hans Reichenbach che, da pare sua, a
Berlino, aveva formato la Società per la filosofia scientifica», i cui scopi e le attività «erano
analoghi a quelli del Circolo viennese. E stretti legami tra i due gruppi vennero intessuti fin dagli
inizi, anche sulla base dei rapporti personali esistenti tra Carnap e Reichenbach» e altri.
Il manifesto programmatico del Wiener Kreis
«Nel 1929 veniva intanto pubblicato, a firma di Neurath, Hahn e Carnap, il ‘manifesto’ del Circolo
viennese: La concezione scientifica del mondo» (p. 751), a cui seguì nel settembre del ’29 «a Praga,
un convegno, promosso dai gruppi viennese e berlinese sulla ‘Gnoseologia delle scienze esatte’» (e
a cui ne seguirono altri), e l’anno dopo «nel ’30, col titolo “Erkenntnis” (Conoscenza) cominciò ad
apparire la prestigiosa rivista filosofica del movimento, diretta da Carnap e Reichenbach».
«Le linee essenziali del programma neopositivistico … erano le seguenti: 1) la formazione di una
Einheitswissenschaft, cioè di una scienza unificata, comprendente tutte le conoscenze fornite dalla
fisica, dalle scienze naturali, dalla psicologia ecc.; 2) il mezzo per tale fine doveva consistere
nell’uso del metodo logico di analisi elaborato da Peano, Frege, Whitehead e Russel; 3) i risultati
dell’applicazione di tale metodo al materiale delle scienze empiriche venivano prospettati: a)
nell’eliminazione della metafisica; b) nei contributi alla chiarificazione dei concetti e delle teorie
della scienza empirica e alla chiarificazione dei fondamenti della matematica».
Le teorie fondamentali del Neopositivismo
Pur nelle discordanze, essi «hanno affermato: 1) che il principio di verificazione costituisce il
criterio di distinzione tra proposizioni sensate e proposizioni insensate, talché tale principio si
configura come criterio di significanza delimitante la sfera del linguaggio sensato dal linguaggio
senza senso che porta all’espressione il mondo delle nostre emozioni e delle nostre paure; 2) che, in
base a tale principio, hanno senso unicamente le proposizioni passibili di verifica empirica o
fattuale, vale a dire le asserzioni delle scienze empiriche; 3) che la matematica e la logica
costituiscono soltanto complessi di tautologie, convenzionalmente stipulate e incapaci di dire
alcunché sul mondo; 4) che la metafisica, insieme all’etica e alla religione, non essendo costituite da
concetti e proposizioni fattualmente verificabili, sono un insieme di questioni apparenti
(Scheinfragen) che si basano su pseudo-concetti (Scheinbegriffe); 5) che il lavoro che rimane da
fare per il filosofo serio è l’analisi della semantica (rapporto tra linguaggio e realtà cui il linguaggio
si riferisce) e della sintattica (relazioni dei segni di un linguaggio tra di loro) dell’unico discorso
significante, cioè del discorso scientifico; 6) per questo, la filosofia non è dottrina, ma attività:
attività chiarificatrice del linguaggio» (p. 752). Con loro dunque «prese decisiva consistenza la
filosofia della scienza, intesa alla maniera moderna, come disciplina autonoma tendente
all’esplicitazione consapevole e sistematica del metodo e delle condizioni di validità delle
asserzioni fatte proprie dagli scienziati».
L’antimetafisica del Wiener Kreis
Per loro le proposizioni della metafisica sono «“null’altro che alcuni determinati stati d’animo”», o
«“servono solo ad esprimere sentimenti vitali”» e così «per Carnap la metafisica sorge allorché si
accettano come significanti termini che non hanno riferimento nell’esperienza e con tali termini …
si costruiscono frasi che pretendono, senza poterlo, parlarci della realtà». «D’altro canto, per
Neurath costituiva un compito improrogabile quello “di mettere in atto un linguaggio il più
possibile libero dalla metafisica”», abbandono che per Reichenbach era la logica conseguenza della
«sdivinizzazione (Engötterung) della natura».
M. Schlick e il principio di verificazione
«I primi membri del Circolo di Vienna lessero e commentarono il Tractatus logico-philosophicus di
Ludwig Wittgenstein. Questi aveva scritto che “comprendere una proposizione vuol dire sapere
come stiano le cose nel caso che sia vera” (prop. 4024). Ciò per Schlick (si veda il suo saggio
Significato e verificazione) voleva dire che “il significato di una proposizione è il metodo della sua
verifica”» (p. 753) e quindi compito specifico della filosofia «“è quello di cercare e chiarificare il
senso delle asserzioni e delle questioni”. E “il senso di una proposizione consiste unicamente nel
fatto che la proposizione esprime un determinato stato di cose”, che quindi occorre mostrare se si
vuole indicare il senso di una proposizione. Pertanto “qualora vogliamo trovare il senso di una
proposizione, dobbiamo trasformarla attraverso l’introduzione di definizioni successive, finché, da
ultimo, ci troveremo di fronte a parole che non potranno venire ulteriormente definite con parole,
cioè il cui significato potrà soltanto venir direttamente mostrato. Il criterio per la verità o la falsità di
una proposizione consiste dunque nel fatto che, sotto determinate condizioni, alcuni eventi si danno
oppure no. Se si è stabilito ciò, si è stabilito tutto quello di cui nella proposizione si parla, e con ciò
si conosce il suo senso”. È ovvio che la verificabilità in questione non è una verificabilità di fatto
ma di principio, “poiché il senso di una proposizione non dipende naturalmente dal fatto che le
circostanze in cui noi direttamente ci troviamo in un dato tempo, permettono o impediscono la sua
fattuale verificazione”». Questa, grosso modo, era anche la linea di Carnap, per cui «le parole hanno
significato solo quando indicano qualche cosa di fattuale, gli asserti hanno un senso solo se
esprimono un possibile stato di cose».
Neurath e il fisicalismo
«Il principio di verificazione venne ben presto fatto oggetto di severe critiche. Esso apparve subito a
molti come un principio metafisico (o, per essere più esatti, criptometafisico) che in nome della
scienza condannava aprioristicamente il senso di qualsiasi altro discorso». «Ma, a parte ciò, col
principio di verificazione la scienza non pareva trovasse una sistemazione capace di salvarla, dato
che la scienza veniva fondata su esperienze del tutto soggettive o inficiate di solipsismo», «e poi,
formulato il principio di verificazione, ci si trovava immediatamente dinnanzi a questo dilemma: o
il criterio è un’asserzione fattuale, e allora non è più una norma assoluta con cui giudicare il
linguaggio come significante o insignificante; ovvero si afferma come norma e allora si cade in
un’impasse, in quanto la norma, per il suddetto principio, non ha senso».
«Ebbene, nel tentativo di superare questa situazione difficoltosa della prima fase del Circolo (la
cosiddetta fase ‘semantica’), Neurath ne capovolge l’orientamento semantico nella direzione
sintattica, o, come si dice, fisicalista» e «in Scienza unificata e psicologia (1933), afferma la
necessità di porsi in un linguaggio dove tutte le proposizioni debbano già dall’inizio risultare
intersoggettive. E, per questo, non bisogna partire dalla concezione irrimediabilmente viziata di
metafisica, secondo cui si assume il linguaggio nella sua funzione di rappresentazione proiettiva dei
fatti. Il linguaggio deve essere preso come un fatto fisico, come un insieme di suoni e di segni. La
scienza è la totalità delle asserzioni empiriche pronunciate o scritte ed esse – tracce d’inchiostro o
sistemi di onde aeree – sono allo stesso tempo ciò di cui la scienza parla e ciò con cui essa si
esprime … noi aumentiamo la scienza aumentando la qualità delle sue proposizioni, confrontando
le nuove proposizioni con quelle già in uso e creando un sistema privo di contraddizioni adatto a
fare con successo delle predizioni», così l’unica cosa che si può affermare è che «“oggi operiamo
con il sistema spazio-temporale che corrisponde alla fisica». Tutto ciò, porta «a un mutamento
radicale nel criterio di accettabilità», infatti «la teoria della verità come corrispondenza tra una
proposizione e un fatto è sostituita da quella della verità come coerenza tra proposizioni …
Dunque, una proposizione è ‘non corretta’ se essa non si accorda con le altre proposizioni
riconosciute e accettate nel corpus delle scienze, altrimenti è ‘corretta’». «Questo è l’unico criterio
con cui progettare una enciclopedia delle scienze unificata, utilizzando l’unico linguaggio sensato
che è quello delle scienze fisiche»: Neurath preferisce enciclopedia e non sistema «per l’apertura e
l’incompletezza che contraddistinguono la prima» e perché così «evitano di diventare un mausoleo
e rimangono una forza intellettuale viva ed utile all’umanità».
Carnap e il linguaggio fisicalistico come linguaggio universale della scienza
Queste idee «portarono nel circolo potentissimi germi di discussione», e chi le accolse più di tutti fu
Carnap, che però ne tentò «un ripensamento per una più adatta fondazione del fisicalismo». Ora due
erano i suoi nuclei «la concezione del linguaggio come atto fisico … l’esigenza della scienza
unificata su base fiscalista» e «Carnap accetta senz’altro la tesi dell’universalità della lingua
fisicalista, senza però insistere sulla riduzione del linguaggio a fatto fisico e quindi senza rigettare la
funzione simbolica dei segni» ed «il linguaggio fisico deve essere assunto come linguaggio della
scienza unificata … perché ha le tra caratteristiche dell’intersensualità, dell’intersoggettività e
dell’universalità» (p. 755s). Ma «come possiamo determinare il rapporto linguaggio-realtà? Su
questo rapporto è divampata la polemica Schlick-Neurath», e se a Carnap interessava poco, «era
scottante per Schlick, il quale non si poteva rassegnare alla proposta dei ‘convenzionalisti’ di
considerare valido ogni linguaggio non contraddittorio», che «non è sufficiente a rendere ragione
della scienza: anche una favola ben congegnata può essere non contraddittoria, ma senza che per
questo sia ritenuta scientifica». Schlick così «ha avuto nel Circolo la funzione dialettica del
continuo richiamo ai fatti, richiamo che come dice Russel, fa vera ogni asserzione. Ciò contro i
convenzionalisti» che, «preoccupati da un supposto e temuto infiltrarsi della metafisica …, finivano
quasi per abbandonare l’empirismo», dimenticando «che lo scopo della parole è di occuparsi di cose
diverse dalle parole». Così se per i convenzionalisti la scienza «si tratta sempre di giochi di segni»,
per Schlick pure lo è «ma è un gioco che viene giocato sulla scacchiera della natura».
Il trapianto del Neopositivismo in America
«Dal 1930 circa sino al 1938, anno in cui ha luogo l’annessione nazista dell’Austria, si assiste alla
fase del decollo internazionale del Circolo di Vienna». «Questa fase è contraddistinta da autorevoli
riconoscimenti e da rilevanti acquisizioni dottrinali» e da una «progressiva diaspora del gruppo
originario, con conseguente ‘trapianto’ del movimento di pensiero, ormai noto come
‘Neopositivismo’ o ‘Positivismo logico’ o ‘Empirismo logico’, soprattutto oltre Atlantico, cioè
negli Stati Uniti». «L’ingresso del Neopositivismo in America per un verso consentì ai filosofi
statunitensi di affinare analiticamente il proprio orientamento scientifico, concentrandosi su
problemi metodologici ben circoscritti, per l’altro indusse i pensatori d’origine europea ad
arricchire, con considerazioni di carattere semantico-pragmatico, la loro prospettiva filosofica,
smorzandone l’iniziale enfasi formalistica in materia di linguaggio» (p. 757s)
Liberalizzazione e superamento delle tesi neopositivistiche
«Le difficoltà in cui si erano imbattute le tesi neopositivistiche, e soprattutto il principio di
verificazione, non vennero affatto protette. Anzi, esse furono formulate con tutta chiarezza e lo
sforzo per superarle condusse, da una parte alla nuova filosofia di Wittgenstein (alla filosofia del
cosiddetto ‘secondo’ Wittgenstein), dall’altra all’epistemologia falsificazionista di Karl Popper, e
dall’altra ancora alla liberalizzazione del Neopositivismo operata da Rudolf Carnap».
Dalle note scritte dal gennaio 1929 al settembre 1930, Wittgenstein, raccolte nel suo Osservazioni
filosofiche, si evince come «se la filosofia del primo Wittgenstein aveva spronato i Circolisti a
costruire un linguaggio perfetto, ora l’introduzione, da parte dello stesso Wittgenstein del principio
d’uso (secondo cui il significato di una parola è il suo uso nella lingua) spinge i seguaci del
Neopositivismo a riesaminare il loro atteggiamento intransigente e soprattutto il loro programma di
costruzione di un linguaggio privilegiato».
K. Popper invece «a partire dalla Logica della scoperta scientifica del ’34», muoveva forti critiche
«al principio di verificazione. Questo gli appariva auto-contraddittorio, cripto-metafisico e incapace
di render conto delle leggi universali delle scienze empiriche»
«Chi più e prima degli altri Circolasti avviò comunque la liberalizzazione dell’Empirismo fu R.
Carnap, a partire dagli anni ’30, mentre insegnava a Praga» e questo «“per rendere giustizia al
carattere aperto e all’inevitabile mancanza di certezza di ogni conoscenza fattuale”». → Stando
infatti «alla concezione originaria del Wiener Kreis, il sistema di conoscenza, pur divenendo
costantemente più comprensivo, era considerato un sistema chiuso nel senso seguente: secondo i
Circolisti – almeno all’inizio del lavoro – vi era un minimo di conoscenza, la conoscenza
dell’immediatamente dato, che era indubitabile; supponevano che ogni altro tipo di conoscenza
poggiasse saldamente su questa base e che si potesse perciò stabilire con altrettanta certezza» (p.
758); concezione che «strettamente legata al principio wittgensteiniano della verificabilità,
implicava simultaneamente una (non molto sostenibile) immagine giustificazionista della scienza».
«Difatti, il principio di verificazione almeno come era stato formulato nei primi tempi del Circolo) è
incapace di tener conto della scienza per due ragioni fondamentali: in primo luogo gli asserti
protocollari (o di base o di osservazione) non sono affatto incontrovertibili, e poi – la questione è
centrale – una serie quantunque numerosa di osservazioni analoghe reiterate non riesce a fondare
logicamente le leggi universali della scienza». → «Per tutto ciò, Carnap, in Controllabilità e
significato (1936), invece che di verificabilità parlerà di controllabilità e di confermabilità:
“Diremo che una proposizione è controllabile, se, di fatto, conosciamo un metodo per procedere alla
sua eventuale conferma; mentre diremo che è confermabile, se sappiamo sotto quali condizioni essa
in linea di principio sarebbe confermata”. Carnao distingue, inoltre, tra confermabilità completa e
confermabilità incompleta: la prima si ha quando una proposizione è riducibile ad una classe finita
di proposizioni contenenti predicati osservabili … mentre una proposizione è confermabile
incompletamente se c’è una classe infinita di proposizioni che contengono predicati osservabili e
sono conseguenze della proposizione data». «E la richiesta di confermabilità incompleta è, per
Carnap, una formulazione sufficiente del principio dell’empirismo: una formulazione capace di
render conto della conoscenza scientifica, in grado di distinguere questa dalle asserzioni metafisiche
e priva dei difetti di cui era carico il principio di verificazione».
L’OPERAZIONISMO DI P.W. BRIDGMAN
I concetti ridotti ad operazioni
Operazionismo dovuto «al fisico (e premio Nobel) americano Percy William Bridgman (18821961), il quale l’ha elaborata in due volumi (La logica della fisica moderna, 1927, e La natura della
teoria fisica, 1936) e poi via via specificata in una serie di saggi scritti dal 1934 al 1959 (ora raccolti
in italiano in La critica della scienza)». «Di fronte ai rivoluzionari sconvolgimenti della fisica
contemporanea, Bridgman sostiene nella Logica della fisica moderna che … “quando l’indagine
sperimentale tocca campi nuovi, dobbiamo attenderci fatti nuovi, di un carattere totalmente diverso
dai fatti già a noi noti … Fino ad un certo punto, naturalmente il riconoscimento di tutto ciò non
comporta un cambiamento di atteggiamento: il fatto è sempre stato per il fisico l’argomento
decisivo contro cui non v’è appello, e di fronte al quale l’unico atteggiamento possibile è un’umiltà
quasi religiosa. La nuova caratteristica della situazione attuale è una più profonda convinzione nella
reale esistenza di nuovi generi di esperienze e nella possibilità di incontrarne continuamente”. E nel
riconoscere questo è implicito che “nessun elemento di una situazione fisica, comunque irrilevante
o banale, può venir trascurato come privo di effetti sul risultato finale, fino a che gli esperimenti
non proveranno effettivamente questa mancanza di effetti”. Per tutto ciò, “l’atteggiamento del fisico
deve … essere un atteggiamento di puro empirismo. Egli non deve ammettere nessun principio a
priori che determini o limiti le possibilità di nuove esperienze. L’esperienza è determinata soltanto
dell’esperienza. Questo praticamente significa che noi dobbiamo rinunciare alla pretesa che tutta la
natura venga abbracciata in una formula, semplice o complicata”» (p. 759s). «E perché solo
l’esperienza sia guida di se stessa, Bridgman sostiene che occorre … ridurre il significato dei
concetti scientifici ad una operazione empirica o ad un insieme di operazioni». Nel caso della
lunghezza ad esempio, questo concetto risulta «“fissato quando sono fissate le operazioni mediante
cui la lunghezza si misura; vale a dire, il concetto di lunghezza implica né più né meno che il
gruppo di operazioni con cui la lunghezza si determina”». Se invece «il concetto è mentale, come
nel caso della continuità matematica, le operazioni sono operazioni mentali, cioè quelle mediante
cui determiniamo se un dato insieme di grandezze è continuo o no».
Guardare a quanto la teoria fa
Così «“L’aspetto più importante di una teoria è quello che questa teoria effettivamente fa, non
quello che dice di fare né quello che il suo autore ritiene che essa faccia … Dal punto di vista critico
la tecnica più importante consiste nel capire chiaramente e nel riferire altrettanto chiaramente quello
che uno effettivamente fa e quello che effettivamente avviene in una determinata situazione, e si
tratta di una tecnica che non si acquista tanto facilmente e in cui si diventa esperti solo praticandola
di continuo”». «Se noi definiamo un concetto non in termini di proprietà ma in termini di operazioni
effettive, allora “evitiamo il pericolo di dover rivedere il nostro atteggiamento verso la natura»,
perché «vi sarà sempre corrispondenza fra l’esperienza e la nostra decisione di essa» (p. 760).
Una prima ed immediata conseguenza dell’adozione dell’operazionismo, è che «tutta una serie di
problemi e di concetti risulterebbero privi di significato», problemi anche sociali e filosofici.
La discussione sull’Operazionismo
Accusato di solipsismo disse «“La scienza è soltanto la mia scienza privata”, anche se “nel decidere
quello che deve essere la mia scienza privata trovo utile considerare solo quegli aspetti della mia
esperienza in cui i miei simili agiscono in un particolare modo”, ed anche se “tutta la storia
linguistica della razza umana è una storia della deliberata soppressione delle evidenti differenze
operazionali fra le mie sensazioni e le tue sensazioni, fra il mio pensiero e il tuo pensiero”».
Altro punto discusso è che se «si afferma che un concetto è equivalente ad un corrispondente
gruppo di operazioni, allora occorre essere conseguenti nel senso che, “se abbiamo più di un gruppo
di operazioni, abbiamo più di un concetto e a rigore dovremmo dare un nome distinto ad ogni
differente gruppo di operazioni”. Per cui, se noi misuriamo una distanza prima con aste rigide e poi
con triangolazioni ottiche, noi avremo due concetti». «In questo modo, fa notare C. G. Hempel in
Filosofia delle scienze naturali, “la massima operativa … ci obbligherebbe a favorire una
proliferazione di concetti di lunghezza, di temperatura e di tutti gli altri concetti scientifici, che non
sarebbe soltanto poco maneggevole in pratica, ma teoricamente senza un termine”» (p. 761). Quindi
«non bisogna essere troppo sbrigativi con le questioni e i concetti supposti privi di senso, poiché
non pare esservi sinonimia tra ‘ambito del vero’ e ‘ambito dell’operativamente accettabile’: una
teoria può essere vera anche se non lo possiamo accertare, talché ‘ non accertabile operativamente’
non equivale a ‘privo di senso’».
«Non va, infine, dimenticato l’influsso che l’Operativismo ha avuto, soprattutto in America, sulla
metodologia delle scienze sociali e psicologiche».
L’EPISTEMOLOGIA DI GASTON BACHELARD
La scienza non ha la filosofia che si merita
Gaston Bachelard (1884-1962), laureato in matematica e filosofia, insegnante di fisica e scienze
naturali e di filosofia. Le sue opere epistemologiche, tutte tra il ’32 e il ’40, appaiono in un periodo
in cui la filosofia della scienza «si presenta come una concezione antimetafisica da una parte e
sostanzialmente astorica dall’altra» e così egli propone «un non-positivismo radicale e deliberato».
I tratti di fondo del suo pensiero «possono ridursi ai seguenti quattro: 1) il filosofo deve essere
‘contemporaneo’ alla scienza del proprio tempo; 2) sia l’Empirismo di tradizione baconiana sia il
Razionalismo idealistico sono incapaci di rendere conto della reale ed effettiva pratica scientifica;
3) la scienza è un evento essenzialmente storico; 4) la scienza possiede un ineluttabile carattere
sociale» (p. 762). Egli così nota che «la filosofia è sempre in ritardo di una mutazione sul sapere
scientifico. E alla ‘filosofia dei filosofi’ Bachelard cerca di opporre “la filosofia prodotta dalla
scienza”». Se ciò che caratterizza la prima «sono attributi come l’unità, la chiusura e l’immobilità»,
i tratti distintivi della seconda sono «mancanza di un’unità o di un centro, l’apertura e la storicità»,
una filosofia dunque «dispersiva, distribuita:“si dovrebbe fondare una filosofia del dettaglio
epistemologico, una filosofia differenziale da contrapporre alla filosofia integrale dei filosofi.
Sarebbe questa filosofia differenziale ad essere incaricata di misurare il divenire del pensiero”»,
perché «“ogni altra filosofia si gloria della sua chiusura”».
È la scienza che istruisce la ragione
Per tutto ciò occorre «che il filosofo abbia fiducia dello scienziato, che sia egli stesso scienziato
(savant) prima che philosophe», inoltre «Bachelard non accetta un criterio a priori che abbia la
presunzione di cogliere l’essenza della scientificità. Non è la Ragione filosofica che ammaestra la
scienza, quanto piuttosto è “la scienza che istruisce la ragione”». Così «“lo spirito ha una struttura
variabile dal momento che la conoscenza ha una storia”. E se la conoscenza ha una storia, allora lo
strumento privilegiato per le indagini di filosofia della scienza non è, come per i Neopositivisti, la
logica, bensì la storia della scienza, concepita come l’individuazione delle fasi effettive attraversate
dallo sviluppo del sapere scientifico». Pur combattendo la filosofia dei filosofi poi, egli non reputa
«la metafisica come insensata o indifferente per la scienza stessa», perché «se è vero che “un po’ di
metafisica ci allontana dalla natura, molta metafisica ce ne avvicina”».
Bachelard dunque «non nutre pregiudizi antifilosofici o antimetafisici in nome della scienza. Egli
avversa la filosofia che non è contemporanea alla scienza; schernisce i filosofi che “pensano prima
di studiare”, e sotto la cui penna “la relatività degenera in relativismo, l’ipotesi in supposizione,
l’assioma in verità prima”» (p. 763).
Le “rotture epistemologiche”
Empirismo tradizionale e Razionalismo idealistico sbagliano, «“Ragione assoluta – sentenzia
Bachelard – e reale assoluto sono due concetti filosoficamente inutili”. La realtà è, per Bachelard,
che non possiamo considerare la scienza indipendentemente dal suo divenire. E il ‘reale scientifico’
non è immediato e primario: “esso ha bisogno di ricevere un valore convenzionale. Bisogna che
esso sia ripreso in un sistema teorico. Qui, come dappertutto, è l’oggettivazione che domina
l’oggettività”. Il ‘dato scientifico’ , pertanto, è sempre relativo a sistemi teorici. Lo scienziato non
parte mai dall’esperienza pura. A tal proposito, in La formazione dello spirito scientifico, Bachelard
scrive che: “si conosce contro una conoscenza anteriore, distruggendo conoscenze mal fatte,
superando ciò che, all’interno dello stesso spirito fa ostacolo alla spiritualizzazione” … “Quando si
presenta alla cultura scientifica, lo spirito non è mai giovane. È anzi molto vecchio, perché ha l’età
dei suoi pregiudizi. Accedere alla scienza vuol dire, spiritualmente, ringiovanire, vuol dire accettare
una brusca mutazione che deve contraddire un passato”».
«Queste successive contraddizioni del ‘passato’ sono, secondo Bachelard, delle autentiche rotture
(coupures) epistemologiche le quali comportano, di volta in volta, la negazione di qualcosa di
fondamentale (presupposti, categorie centrali, metodi) su cui si reggeva la ricerca della precedente
fase: e la teoria della relatività e la teoria quantistica, col loro mettere in discussione i concetti di
spazio, tempo e causalità, rappresenterebbero alcune tra le più clamorose conferme dell’idea di
rottura epistemologica. La storia della scienza avanza, dunque, per successive rotture
epistemologiche». Ma c’è rottura «anche tra sapere comune e conoscenza scientifica», perché «per
uno spirito scientifico, ogni teoria è la risposta ad una domanda. E il senso e la costruzione del
problema sono le caratteristiche prime dello spirito scientifico: la conoscenza volgare è fatta di
risposte, la conoscenza scientifica vive nell’agitazione dei problemi. “L’io scientifico è programma
d’esperienze, il non-io scientifico invece è problematica già costruita”».
Non c’è verità senza errore rettificato
«Poiché, diversamente dalle routines incorreggibili dell’esperienza comune, la conoscenza
scientifica avanza per successive rettificazioni delle teorie precedenti … per andare avanti, occorre
avere il coraggio di sbagliare. Psicologicamente, “non c’è verità senza errore rettificato”. Ma al di
là del sentimento psicologico, … “Dal punto di vista scientifico, il vero è pensato come
rettificazione storica d’un lungo errore, l’esperienza come rettificazione dell’illusione comune e
primitiva”. Una verità sullo sfondo di un errore: questa è la forma del pensiero scientifico» (p. 764)
Così «“il pensiero scientifico è un pensiero impegnato. Esso mette continuamente in gioco la sua
stessa organizzazione. C’è di più. Paradossalmente sembra che lo spirito scientifico viva nella
strana speranza che lo stesso metodo si imbatta in uno scacco vitale. Ciò perché uno scacco ha come
conseguenza il fatto nuovo e l’idea nuova”».
«Lo spirito non scientifico, invece, è quello che diventa “impermeabile alle smentite
dell’esperienza”: è questa la ragione per cui le routines sono incorreggibili e le idee vaghe sono
sempre verificabili; ed è questa la ragione per cui è antiscientifico l’atteggiamento di colui che trova
sempre la maniera di verificare la propria teoria piuttosto che mostrarla errata e quindi rettificarla».
«Tra la “conoscenza sensibile” e la “conoscenza scientifica” c’è, pertanto, rottura. Di conseguenza,
Bachelard avversa le pretese e la pratica della divulgazione scientifica», perché «si fondano
sull’incomprensione della rottura epistemologica esistente tra l’esperienza comune e l’esperienza
scientifica … e i loro relativi linguaggi (generico quello della conoscenza comune, specialistico
quello della conoscenza scientifica)», tanto più che «le nozioni e i concetti della scienza sono tali in
quanto si oppongono a quelli della conoscenza volgare. La conoscenza scientifica non è immediata:
ogni dato scientifico e ogni idea scientifica sono l’esito di un lungo lavoro (di costruzione e di
rettificazione) razionale. Nella scienza “niente va da sé. Niente è dato. Tutto è costruito”».
Lo “ostacolo epistemologico”
«La conoscenza scientifica avanza per successive rotture epistemologiche; è in questo modo che
essa si approssima alla verità», rettificazioni che però «non sono passi effettuabili con facilità, e ciò
per la ragione del loro scontro con quelli che Bachelard chiama ‘ostacoli epistemologici’», e che
«“appaiono per una sorta di necessità funzionale, all’interno stesso dell’atto conoscitivo … la
conoscenza del reale è una luce che proietta sempre da qualche parte delle ombre”». Così
«potremmo dire che l’ostacolo epistemologico è un’idea che proibisce e blocca altre idee: abitudini
intellettuali incallite, l’inerzia che fa ristagnare le culture, teorie scientifiche insegnate come dogmi,
i dogmi ideologici che dominano le diverse scienze», ecc.
«Il primo ostacolo da superare è quello di abbattere l’opinione», che «“non pensa; traduce bisogni
in conoscenze. Decifrando gli oggetti secondo la loro utilità, si impedisce di conoscerli”».
«Un altro ostacolo è la mancanza del genuino senso dei problemi, senso che si perde allorché la
ricerca si rattrappisce dentro la crosta delle conoscenze date per scontate, non più problematizzate.
Mediante l’uso, le idee – dice Bachelard – si valorizzano indebitamente. E questo è un vero e
proprio fattore d’inerzia per lo spirito. Si dà il caso che talvolta un’idea dominante polarizza uno
spirito nella sua totalità».
«Ostacoli di grande rilievo e difficili da rimuovere sono: quello dell’esperienza prima,
dell’esperienza che pretende di porsi al di là della critica; quello che può chiamarsi l’ostacolo
realista e che consiste nella seduzione dell’idea di sostanza; e quello che è l’ostacolo animista (“La
parola vita è una parola magica. È una parola valorizzata”)» (p. 765s).
«Dinanzi a queste realtà costituite dagli ostacoli epistemologici, Bachelard propone una psicanalisi
della conoscenza oggettiva finalizzata alla individuazione e alla messa fuori gioco di quegli ostacoli
che bloccano lo sviluppo dello spirito scientifico».
Scienza e storia della scienza
«Tutto ciò mostra anche la funzione della negazione all’interno della nostra attività di conoscenza e
all’interno della filosofia stessa, che, ad avviso di Bachelard, deve configurarsi come una filosofia
del non, decisa nel respingere le pretese dei vecchi sistemi di presentarsi come concezioni assolute e
totalizzanti della realtà e di imporre principi intangibili alla scienza. La tesi di Bachelard è che
l’evoluzione della conoscenza è senza fine e che la filosofia deve venir istruita dalla scienza», ma
«prima d’ogni altra cosa, bisogna prender coscienza del fatto che l’esperienza nuova dice no
all’esperienza vecchia … Tuttavia, questo no non è mai definitivo per uno spirito che sa
dialetticizzare con i propri principi, costruire in se stesso nuove specie di evidenza, arricchire il
proprio corpo di spiegazioni senza concedere nessun privilegio a quello che sarebbe un corpo di
spiegazioni naturali buono a spiegare tutto”. Non c’è una Ragione al di sopra o fuori della pratica
scientifica e della storia della scienza». «La scienza trova i suoi fondamenti nella storia. E questa
storia, frutto di lavoro collettivo (giacché “il lavoro isolato deve riconoscere ‘che da solo non
avrebbe trovato niente’”), va riscritta e sempre diversamente approfondita ogni qualvolta la ‘città
scientifica’ va soggetta a una delle sue trasformazioni: è infatti solo con la scienza di oggi che
possiamo leggere e interpretare la scienza di ieri» (p. 766).
IL RAZIONALISMO CRITICO DI KARL R. POPPER
LA VITA E LE OPERE
«Karl Raimund Popper è nato a Vienna nel 1902 … Si laurea in filosofia nel 1928 discutendo la sua
tesi di laurea (Sulla questione del metodo della psicologia del pensiero) con lo psicologo Karl
Bühler. Nel 1929 si abilita all’insegnamento della matematica e della fisica nelle scuole secondarie
(inferiori)». «Nel 1934 (ma con data 1935) esce la sua fondamentale opera Logica della scoperta
scientifica». «Essendo di origine ebraica, emigra nel 1937 in Nuova Zelanda … Agli inizi del ’46
… si trasferisce in Inghilterra. Quivi prosegue il suo lavoro di filosofia e di filosofia della scienza. E
i risultati di questo lavoro sono sostanzialmente nei due volumi Congetture e confutazioni del 1963
e Conoscenza oggettiva del 1972».
POPPER, IL NEOPOSITIVISMO E LA FILOSOFIA ANALITICA
«Al pari di Wittgenstein Popper non fu mai membro del Circolo», «non è un Neopositivista. Ed
Otto Neurath, a buona ragione, chiamò Popper ‘l’opposizione ufficiale’ del Circolo». «In effetti
Popper sconvolse tutte le carte con le quali i Neopositivisti stavano giocando il loro gioco»:
- «al principio di verificazione (che è un principio di significanza) egli sostituì il criterio di
falsificabilità (che è un criterio di demarcazione tra scienza e non scienza)»
- «alla vecchia e venerabile, ma – a suo avviso – impotente teoria dell’induzione sostituì il
metodo deduttivo della prova» (p.767s)
- «dette un’interpretazione diversa da quella di alcuni membri del Kreis dei fondamenti
empirici della scienza, affermando che i protocolli non sono di natura assoluta e definitiva»
- «reinterpretò la probabilità e sostenne che le teorie scientifiche migliori (in quanto spiegano
di più e possono venir meglio controllate) sono quelle meno probabili»
- «respinse, considerandola una semplice esclamazione, l’antimetafisica dei Viennesi e, tra
l’altro, sostenne la metafisica quale progenitrice di teorie scientifiche»
- «rigettò anche il disinteresse di parecchi Circolasti nei confronti della tradizione, ed ha
riletto in chiave nuova» vari filosofi «per arrivare ad una stimolante rilettura in chiave
epistemologica dei Presocratici visti come i creatori della discussione critica»
- «ha seriamente affrontato problemi classici come quello del rapporto corpo-mente, o come
quello del senso o meno della storia umana»
- «si è interessato del sempre riemergente dramma della violenza ed è uno dei più agguerriti
avversari teorici del totalitarismo»
- «ha respinto la differenza tra termini teorici e termini osservativi»
- «contro il convenzionalismo di Carnap e Neurath, cioè della cosiddetta ‘fase sintattica’ del
Kreis, ha fatto valere, sulla linea di Tarsi, l’idea regolativa della verità»
«In breve, non ci fu questione toccata dai Viennesi in cui Popper non la pensasse diversamente».
«Critico nei confronti dei Viennesi, Popper, più di recente, nel ’61, ha attaccato, in nome dell’unità
del metodo, le pretese della Scuola di Francoforte riguardo una ‘ragione’ diversa e superiore a
quella della scienza. Né egli è più tenero nei confronti della Cambridge-Oxford-Philosophy». Ed è
«sostanzialmente contrario al movimento analitico», i cui appartenenti «“sono importanti per me e
non soltanto come oppositori, ma anche come alleati, perché sembrano i soli filosofi rimasti a tener
vive alcune tradizioni della filosofia razionale. Gli analisti del linguaggio credono, prosegue Popper,
che non ci siano problemi filosofici genuini, o che i problemi della filosofia – ammesso che ce ne
siano – siano problemi concernenti l’uso linguistico, o il significato delle parole”. Ma Popper con
questo programma non è affatto d’accordo … “dobbiamo smetterla di preoccuparci delle parole e
dei loro significati, per preoccuparci invece delle teorie criticabili, dei ragionamenti e della loro
validità”», scrisse nella prefazione della ristampa del 1970, della sua celebre logica.
L’INDUZIONE NON ESISTE
«Il termine ‘induzione’ è stato usato soprattutto in due sensi: a) induzione ripetitiva o per
enumerazione; e b) induzione per eliminazione. L’idea di Popper è che tutti e due questi tipi di
induzione crollano». a) La prima «“consiste di osservazioni spesso ripetute, osservazioni che
dovrebbero fondare qualche generalizzazione della teoria. La mancanza di validità di questo genere
di ragionamento è ovvia: nessun numero di osservazioni di cigni bianchi riesce a stabilire che tutti i
cigni sono bianchi (o che la probabilità di trovare un cigno che non sia bianco è piccola)”» e dunque
«“è fuori causa: non può fondare nulla”». b) «D’altro canto, l’induzione eliminatoria si fonda sul
metodo dell’eliminazione o confutazione delle teorie false» (p. 769), i «diffusori di questo metodo
dell’induzione credevano che, eliminando tutte le teorie false, si possa far valere la teoria vera. In
altre parole, non si rendevano conto che il numero delle teorie rivali è sempre infinito, anche se, di
regola, in ogni momento particolare possiamo prendere in considerazione un numero finito di
teorie”», ma «“nella scienza, dobbiamo usare l’immaginazione e idee ardite, anche se l’una e le
altre devono sempre essere temperate dalla critica e dai controlli più severi”».
«Dunque: l’induzione non esiste; quindi non può fondare nulla; quindi non esistono metodi basati
sulla mera routine. È un errore pensare che la scienza empirica proceda con metodi induttivi …
L’inferenza induttiva, pertanto, non è logicamente giustificata». «Si potrebbe anche aggredire il
problema dell’induzione da quest’altra prospettiva. Il principio di induzione o è una proposizione
analitica (cioè tautologica) o una asserzione sintetica (cioè empirica). Tuttavia, “se esistesse
qualcosa come un principio d’induzione puramente logico non ci sarebbe alcun problema
dell’induzione, perché in questo caso tutte le inferenze induttive dovrebbero essere considerate
come trasformazioni puramente logiche o tautologiche, proprio come le inferenze della logica
deduttiva”. Pertanto, il principio d’induzione deve essere una asserzione universale sintetica. Ma
“se tentiamo di considerare la sua verità come nota per esperienza, risorgono esattamente gli stessi
problemi che hanno dato occasione alla sua introduzione. Per giustificarlo dovremmo impiegare
inferenze induttive; e per giustificare queste ultime dovremmo assumere un principio induttivo di
ordine superiore, e così via. In tal modo il tentativo di basare il principio d’induzione
sull’esperienza fallisce, perché conduce necessariamente a un regresso infinito».
LA MENTE NON È “TABULA RASA”
«L’osservativismo è un mito filosofico, giacché la realtà è che noi siamo tabula plena, una lavagna
piena di segni che la tradizione o evoluzione culturale ci ha lasciato sopra. L’osservazione è sempre
orientata da aspettazioni teoriche» (p. 770). «Un esperimento o prova presuppone sempre qualcosa
da sperimentare o da provare. E questo qualcosa sono le ipotesi (o congetture, o idee, o teorie) che
si inventano per risolvere i problemi. Né noi osserviamo a caso o possiamo osservare tutto».
Nessuno compie molte osservazioni possibili, perché «non sono importanti, perché sono irrilevanti.
Irrilevanti per i nostri interessi e problemi, o meglio per quelle ipotesi o congetture inventate
appunto per risolvere i problemi in cui, data la nostra ‘memoria’ culturale, si inciampa senza sosta».
«La mente purgata dai pregiudizi non è, afferma Popper, una mente pura: essa sarà soltanto una
mente vuota. Noi operiamo sempre con teorie, anche se spesso non ne siamo consapevoli.
“L’osservazione ‘pura’ – cioè l’osservazione priva di una componente teorica – non esiste. Tutte le
osservazioni – e specialmente, tutte le osservazioni sperimentali – sono osservazioni di fatti
compiute alla luce di questa o di quella teoria”».
«Con tutto ciò Popper rovescia la posizione di quanti hanno sostenuto o sostengono che
l’osservazione deve precedere le aspettazioni (o ipotesi) e i problemi ed asserisce che “ogni animale
è nato con molte aspettazioni, solitamente inconsce, o, in altre parole, che è dotato fin dalla nascita
di qualcosa che corrisponde da vicino alle ipotesi, e così alla conoscenza ipotetica. E asserisco che
abbiamo sempre una conoscenza innata – innata in questo senso – da cui partire, anche se può ben
darsi che di questa conoscenza innata non possiamo fidarci affatto. Questa conoscenza innata,
queste aspettative innate, se disilluse, creeranno i nostri primi problemi, e l’accrescimento della
conoscenza, che ne segue, si può descrivere come un accrescimento che consiste interamente nelle
correzioni e nelle modificazioni della conoscenza precedente».
PROBLEMI E CREATIVITÀ; GENESI E PROVA DELLE IDEE
«Per Popper la ricerca non parte da osservazioni, ma sempre da problemi: “da problemi pratici o da
una teoria che si è imbattuta in difficoltà: che cioè ha fatto nascere aspettazioni e poi le ha deluse”.
Un problema è un’aspettazione delusa. Nella sua natura logica, un problema è contraddizione tra
asserti stabiliti; e la meraviglia e l’interesse sono gli abiti psicologici di quel fatto logico che è la
contraddizione tra due teorie o tra almeno una conseguenza di una teoria e una proposizione che
presumibilmente descrive un fatto. E i problemi scoppiano proprio perché noi siamo una ‘memoria’
biologico-culturale, frutto di una evoluzione prima biologica e poi eminentemente culturale.
Quando, infatti, un pezzo di ‘memoria’ cioè una aspettativa (o ipotesi o pregiudizio) urta con
un’altra prospettiva o con qualche pezzo di realtà (o fatti), allora abbiamo un problema … La
ricerca, dunque, inizia dai problemi: ricerchiamo appunto le soluzioni dei problemi» (p. 771).
«E per risolvere i problemi occorre l’immaginazione creatrice di ipotesi o congetture; c’è bisogno di
creatività, della creazione di idee ‘nuove e buone’, buone alla soluzione del problema. E qui è
necessario tracciare una distinzione – sulla quale Popper insiste spesso – tra contesto della scoperta
e contesto della giustificazione. Una cosa è il processo psicologico o genesi delle idee; un’altra
cosa, ben diversa dalla genesi delle idee, è la loro prova. Le idee scientifiche non hanno fonti
privilegiate: possono scaturire dal mito, da metafisiche, dal sogno, dall’ebrezza, ecc. Ma quel che
importa è che esse vengano provate di fatto. Ed è ovvio che, al fine di venir provate di fatto, le
teorie scientifiche debbono essere provabili o controllabili di principio».
IL CRITERIO DI FALSIFICABILITÀ
«La ricerca inizia dai problemi. Per risolvere i problemi bisogna inventare ipotesi quali tentativi di
risoluzione. Una volta proposte, le ipotesi vanno riprovate. E queste si provano estraendo da esse
conseguenze e andando a vedere se tali conseguenze si danno o non si danno. Se si danno diciamo
che l’ipotesi per il momento è confermata; se, invece, almeno una conseguenza non si dà, diciamo
ce l’ipotesi è falsificata. … Da ciò si vede che una teoria, per essere provata di fatto, deve essere
provabile o controllabile di principio, deve in altre parole essere falsificabile, tale cioè che da essa
siano estraibili conseguenze che possono venir confutate, cioè falsificate dai fatti. Se, infatti, da una
teoria non è possibile estrarre conseguenze passibili di controllo fattuale, essa non è scientifica.
Ance se qui occorre badare che una ipotesi metafisica oggi può diventare scientifica domani».
«In questa estrazione di conseguenze dalla teoria sotto controllo e nel loro confronto con quegli
asserti di base (o protocolli) che, per quanto ne sappiamo, descrivono i ‘fatti’, consiste il metodo
deduttivo dei controlli. I controlli non trovano mai, dalla prospettiva logica, un punto definitivo di
arresto, giacché per quante conferme una teoria possa avere avuto essa non è mai certa, in quanto il
prossimo controllo può smentire la teoria. Questo fatto logico rende conto della storia della scienza,
dove vediamo teorie che avevano resistito per decenni e decenni crollare sotto il peso dei fatti
contrari». → Così «in realtà esiste una asimmetria logica tra verificazione e falsificazione: miliardi
e miliardi di conferme non rendono certa una teoria», «mentre un sol fatto negativo … falsifica, dal
punto di vista logico, la teoria». → È su questa asimmetria che Popper innesca il comando
metodologico della falsificazione: siccome un teoria, per quanto confermata, resta sempre
smentibile, allora bisogna tentare di falsificarla, perché prima si trova un errore prima lo si potrà
eliminare con l’invenzione e la prova di una teoria migliore di quella precedente. In questo modo,
l’epistemologia di Popper rende conto della forza dell’errore». «Da tutto ciò ben si comprende la
centralità dell’idea di falsificabilità nell’epistemologia di Popper» (p. 772).
VEROSIMIGLIANZA E PROBABILITÀ DELLE TEORIE: SCOPI INCOMPATIBILI
«Lo scopo della scienza è, per Popper, il raggiungimento di teorie sempre più verosimili, sempre
più vicine al vero. E una teoria T2 è migliore e più verosimile di T1 quando tutte le conseguenze
vere di T1 sono conseguenze vere di T2, quando le conseguenze false di T1 sono conseguenze vere
di T2 e quando da T2 sono deducibili conseguenze non estraibili da T1».
«Questa idea di maggior verosimiglianza di T2 nei confronti di T1, fa sì che Popper asserisca che la
teoria più verosimile (quindi con maggior contenuto informativo, cioè con maggior potere
esplicativo e previsivo) sia anche la teoria meno probabile. … siccome se si dice di più si può
sbagliare meglio, allora la teoria più provabile (o controllabile) è anche l’ipotesi più improbabile»,
perché se prevedo più cose, è anche più difficile che accadano tutte insieme.
«Di conseguenza – scrive Popper – “se ci proponiamo come scopo il progresso o l’accrescersi della
conoscenza, non possiamo proporci egualmente di ottenere un’alta probabilità (nel senso del calcolo
della probabilità): questi due scopi sono incompatibili”».
IL PROGRESSO DELLA SCIENZA
«Noi, nella scienza, cerchiamo la verità. La verità non si predica dei fatti, ma delle teorie. E una
teoria, per Tarski come per Popper, è vera quando corrisponde ai fatti».
«Ora, però, questa è una definizione di verità, ma noi non abbiamo un criterio di verità, giacché,
anche se troviamo una teoria vera, questo noi non potremmo mai venire a saperlo, poiché le
conseguenze di una teoria sono infinite e noi non possiamo controllarle tutte».
«Stando così le cose, la verità è, secondo Popper, un ideale regolativa. E noi, eliminando gli errori
delle teorie precedenti e sostituendo ad esse teorie più verosimili, ci avviciniamo alla verità. In
questo consiste, per Popper, il progresso della scienza».
«Con ciò non dobbiamo però pensare che esista una legge di progresso nella scienza. La scienza
può ristagnare» (p. 773), «non esiste una legge di progresso nella scienza; e tuttavia abbiamo, dice
Popper, un criterio di progresso: una teoria può avvicinarsi alla verità meglio di un’altra. E questa
idea di migliore approssimazione alla verità o di gradi di verosimiglianza, Popper la specifica
offrendo un elenco asistematico di sei tipi di casi in cui saremmo disposti a dire che una teoria t1 è
stata soppiantata da t2». → «“1) t2 fa asserzioni più precise di t1, e queste asserzioni più precise
superano controlli più precisi; 2) t2 tiene conto di più fatti e spiega più fatti di quanto non faccia t1
…; 3) t2 descrive o spiega i fatti più dettagliatamente di quanto non faccia t1; 4) t2 ha superato
controlli che t1 non è riuscito a superare; 5) t2 ha suggerito nuovi controlli sperimentali, che non
venivano presi in considerazione prima che t2 fosse formulata … e t2 ha superato questi controlli;
6) t2 ha unificato, o connesso, vari problemi che prima di allora non erano stati unificati fra loro”».
FALSIFICAZIONE LOGICA E FALSIFICAZIONE METODOLOGICA; SAPERE DI
FONDO E “NUOVI PROBLEMI”
«Popper è un falsificazionista ingenuo dal punto di vista logico, giacché se si accetta un’ipotesi (di
basso livello) falsificante, allora la teoria che viene da questa ipotesi contraddetta, risulta
logicamente falsificata, in base al modus tollens». «Tuttavia, benché la falsificazione logica sia un
processo semplice (dalla falsità di una conseguenza si passa logicamente alla falsità di almeno una
delle premesse), Popper è un falsificazionista molto sofisticato dal punto di vista metodologico».
«Difatti, per estrarre conseguenze osservabili da una ipotesi abbiamo bisogno delle ipotesi ausiliarie
(cioè di quelle ipotesi che, messe accanto all’ipotesi da controllare, permettono di estrarre da questa
conseguenze osservabili): e queste ipotesi ausiliarie – benché all’epoca accettate – potrebbero
risultate in seguito responsabili della falsificazione dell’ipotesi sotto controllo, in quanto sbagliate».
«Inoltre, per falsificare una teoria c’è bisogno di asserti di base accettati per veri; ma accettati per
veri non significa che questi siano veri, in quanto anche i protocolli non sono immuni dall’errore:
per cui potrebbe ben darsi che falsa non sia l’ipotesi sotto controllo quanto piuttosto l’asserto usato
per falsificarla». «Tutto questo ci dice che, mentre la falsificazione logica è conclusiva, la
falsificazione metodologica non è conclusiva. E allorché sia divenuto chiaro che non possiamo mai
giustificare empiricamente – cioè con proposizioni di controllo – la pretesa che una teoria
scientifica sia vera, noi allora avvertiamo subito che siamo al massimo sempre di fronte al problema
da preferire, in via di tentativo anche congetturalmente, una teoria ad un’altra». «E così, allora, ci è
possibile tradurre la problematica sui gradi di verosimiglianza in interrogativi come questi: Quali
principi di preferenza dovremmo applicare? Sono alcune teorie ‘migliori’ di altre? Ebbene, siffatti
interrogativi danno luogo a considerazioni come le seguenti».
«È innanzi tutto chiaro che la questione della preferenza nasce esclusivamente allorché si abbiano
teorie in competizione avanzate come soluzioni degli stessi problemi. Tra queste soluzioni in
competizione il teorico sceglierà la teoria più simile al vero, la più vera. Ma, pur badando alla
verità, il teorico sarà interessato anche alla falsità, poiché trovare che una proposizione è falsa è lo
stesso che trovare che la sua negazione è vera. E “se il teorico asseconda questo suo interesse, allora
– scrive Popper in Conoscenza oggettiva – il trovare dove una teoria fallisce, oltre a fornirgli
informazioni teoricamente interessanti, pone un’importante problema nuovo per ogni nuova teoria
esplicativa. Ogni nuova teoria non solo dovrà riuscire dove il suo predecessore confutato riusciva,
ma dovrà riuscire anche dove il suo predecessore falliva; cioè, dove esso è stato confutato. Se la
nuova teoria riesce in ambedue le cose, avrà in ogni caso più successo e sarà perciò migliore della
vecchia”» (p. 774s)
«È chiaro che l’esser ‘migliore’ di una teoria t2 nei confronti di un’altra teoria t1 coinvolge il sapere
di sfondo e quindi anche il fattore tempo. Una teoria è migliore di un’altra, relativamente al sapere
che si ha al tempo T e ai mezzi di controllo disponibili sempre al tempo T. È migliore di un’altra
perché quest’altra teoria fu falsificata ed essa, invece, al tempo T, non è, per es., ancora stata
falsificata, per cui, per quanto ne sappiamo al tempo T, essa potrebbe essere vera». → «Ma se una
teoria può essere vera, essa può essere anche falsa. E per questo il teorico la sottoporrà, usando della
sua abilità e immaginazione, a controlli severi e a situazioni di controlli cruciali. “Con questo
metodo di eliminazione, possiamo incappare in una teoria vera. Ma in nessun caso il metodo può
stabilirne la verità, anche se è vera; perché il numero di teorie che possono essere vere rimane
infinito, in ogni tempo e dopo un numero qualsiasi di controlli cruciali”. E se al tempo T ci fossero
più teorie non confutate, allora il teorico cercherà di scoprire come possano essere designati
esperimenti in grado di falsificare e pertanto eliminare qualcuna delle (o tutte le) teorie in
competizione». → Detto ciò «“nulla, naturalmente, può assicurare che per ogni teoria che sia stata
falsificata troveremmo un successore migliore, o una migliore apporsimazione che soddisfi questi
requisiti. Non vi è sicurezza che saremo capaci di fare progressi verso teorie migliori”».
«Queste argomentazioni tendono a chiarificare la preferenza teorica tra teorie. È preferibile, al
tempo T, quella teoria che, alla luce di tutti i possibili controlli effettuabili al tempo T, spiega di più,
ha maggior contenuto informativo e, a parità di contenuto informativo, è più esatta». «La preferenza
pragmatica è una conseguenza della preferibilità teorica: non possiamo fidarci di nessuna teoria,
poiché nessuna teoria è stata dimostrata vera; ma noi dovremmo preferire come base per l’azione la
teoria meglio controllata».
SIGNIFICATIVITÀ E CRITICABILITÀ DELLE TEORIE METAFISICHE
«Il criterio di falsificabilità, diversamente dal principio di verificazione, non è un criterio di
significanza, ma – come si ripete – di demarcazione tra asserti empirici e asserti che empirici non
sono» e così «dire di un asserto o di un insieme di asserti che non è scientifico non implica
minimamente che esso sia insensato». «In realtà, afferma Popper, i Neopositivisti tentarono di
eliminare la metafisica lanciandole improperi, ma con il loro principio di verificazione
reintrodussero la metafisica nella scienza (in quanto le stessi leggi di natura non sono verificabili).
Ma il fatto è che “non si può negare che, accanto alle idee metafisiche che hanno ostacolato il
cammino della scienza, ce ne sono state altre – come l’atomismo speculativo – che ne hanno aiutato
il progresso. E guardando alla questione dal punto di vista psicologico, sono propenso a ritenere che
la scoperta scientifica è impossibile senza la fede in idee che hanno una natura puramente
speculativa, e che talvolta sono addirittura piuttosto nebulose; fede, questa, che è completamente
priva di garanzie dal punto di vista della scienza e che pertanto, entro questi limiti, è ‘metafisica’»
(p. 775s). «Dal punto di vista storico vediamo poi “che talvolta idee che prima fluttuavano nelle
regioni metafisiche più alte possono essere raggiunte dall’accresciersi della scienza, e, venute così
in contatto con essa, depositarsi. Esempi di tali idee sono: l’atomismo; l’idea di un ‘principio’ fisico
singolo, o elemento ultimo (dal quale derivano gli altri); la teoria del moto della terra (a cui Bacone
si opponeva ritenendolo fittizio); la venerabile teoria corpuscolare della luce; la teoria dell’elettricità
come fluido (fatta rivivere con l’ipotesi secondo cui la conduzione dei metalli è dovuta a un gas di
elettroni). Tutti questi concetti e queste idee metafisiche sono state d’aiuto, anche nelle loro forme
più primitive, nel portare ordine nell’immagine che l’uomo si fa del mondo, e in alcuni casi possono
anche aver portato a predizioni dotate di successo. Tuttavia un’idea di questo genere acquista status
scientifico soltanto quando venga presentata in una forma in cui possa essere falsificata, cioè a dire,
solo quando è diventato possibile il decidere empiricamente tra essa e qualche teoria rivale”. Queste
cose Popper le scriveva nel ‘34». Così «nel suo Postscript (in bozze fin dal ’57) egli, a proposito dei
programmi di ricerca metafisici, ha affermato» così, che molte teorie metafisiche hanno
«“funzionato da programma per la scienza”», e che anche alcune teorie biologiche e psicologiche
«“hanno tutte svolto un ruolo simile, almeno per qualche tempo”», addirittura «“anche asserzioni
puramente esistenziali si sono dimostrate talvolta ispiratrici e fruttuose nella storia della scienza,
anche se non ne sono mai divenute parte. Anzi, poche teorie metafisiche hanno esercitato maggior
influenza sullo sviluppo della scienza, di quella puramente metafisica: ‘Esiste un sostanza che può
tramutare i metalli vili in oro (cioè una pietra filosofale)’, anche se non è falsificabile, non è mai
stata verificata, e non è più creduta da nessuno”».
«Dunque: dal punto di vista psicologico, la ricerca scientifica è impossibile senza idee metafisiche;
dal punto di vista storico è un dato di fatto che, accanto a idee metafisiche che hanno ostacolato la
scienza, ce ne sono altre che costituirono fecondi programmi di ricerca; e sono esistite metafisiche
che, col crescere del sapere di fondo, si sono trasformate in teorie controllabili. E questo fatto
storico sta a dirci a chiare lettere che, dal punto di vista logico, l’ambito del vero non si identifica
con quello del controllabile». «Ma le cose non si fermano qui, perché se è ben vero che esistono
teorie metafisiche sensate, eventualmente vere, e tuttavia empiricamente incontrollabili (e per
questo metafisiche), dobbiamo comunque badare che tali teorie – sebbene empiricamente
inconfutabili – possono essere criticabili. Criticabili giacché esse non sono asserzioni isolate
intorno al mondo che si presentano come un perentorio ‘prendere o lasciare’; esse sono collegate, si
basano, si intrecciano, presuppongono, o sono incompatibili con altre teorie, con altre situazioni
problematiche oggettive». «Così, per es., se il determinismo kantiano è frutto della scienza
dell’epoca (il mondo-orologio di Newton), e se la scienza successiva trasforma il mondo-orologio
in un mondo-nuvola, allora crolla quel sapere di sfondo su cui si ergeva il determinismo di Kant, e
questo crollo travolge con sé pure la teoria filosofica del determinismo» (p. 776).
CONTRO LA DIALETTICA: LA “MISERIA DELLO STORICISMO”
«Sulla base della sua concezione del metodo scientifico Popper afferma, tra l’altro, che mentre da
una parte la contraddizione logica e quella dialettica non hanno nulla da spartire, dall’altra il metodo
dialettico è un fraintendimento e una assolutizzazione del metodo scientifico. In quest’ultimo,
difatti, non si ha, come pretendono i dialettici, né una produzione necessaria della ‘sintesi’ né la
conservazione necessaria, in questa, della tesi e dell’antitesi. La dialettica, dice inoltre il Popper, in
quanto teoria descrittiva, o si risolve nella banalità del tautologico ovvero si qualifica come una
teoria che permette di giustificare tutto in quanto essa sfugge, non essendo falsificabile».
Nel saggio La miseria dello storicismo, «si incentra sulla critica allo storicismo e all’olismo, e sulla
difesa della fondamentale unità del metodo scientifico nelle scienze naturali e nelle scienze sociali e
sulla conseguente proposta di una tecnologia sociale razionale, cioè gradualistica».
Per gli Storicisti «il compito delle scienze sociali dovrebbe essere quello di cogliere le leggi di
sviluppo dell’evoluzione della storia umana, in modo che si possano prevederne gli sviluppi
successivi». Per Popper «tali profezie non hanno nulla a che fare con le predizioni della scienza. Lo
storicismo è solo capace di pretenziose profezie politiche, e non si accorge che: a) gli sviluppi
imprevisti della scienza rendono impossibile tale profetare; b) che la vecchia credenza che si possa
afferrare la legge di sviluppo della storia umana si basa su di un clamoroso equivoco metodologico
tra leggi e tendenze (in quanto una tendenza non è una legge, ma un’asserzione singolare storica
spiegabile con delle leggi); c) che la storia umana non ha alcun senso, eccetto quello che le diamo
noi; d) che, di conseguenza, essa, cioè la storia, non ci giustifica, ma ci giudica».
«L’olismo è la concezione per cui ci sarebbe possibile cogliere intellettualmente la totalità di un
oggetto, di un evento, di un gruppo o di una società, e di trasformare, parallelamente, dal punto di
vista pratico o, meglio, politico, simili totalità». Contro di esso «Popper fa notare che: a) mentre è
un grave errore metodologico pensare che noi possiamo capire la totalità anche del più piccolo ed
insignificante pezzo di mondo, in quanto tutte le teorie colgono e non possono cogliere altro che
aspetti selettivi della realtà e sono per principio sempre falsificabili e, sempre di principio, infinite
di numero; b) dal punto di vista pratico ed operativo l’olismo si risolve nell’utopismo per quanto
concerne la tecnologia sociale, e nel totalitarismo per quel che riguarda la pratica politica».
«Come ben si vede, la critica allo storicismo e all’olismo Popper la conduce in nome della
fondamentale unità del metodo scientifico che deve aversi sia nelle scienze naturali sia nelle scienze
sociali. Queste, ad avviso del nostro Autore» procedono «attraverso l’elaborazione di ipotesi che
poniamo in atto per risolvere i problemi che ci stanno a cuore e che occorre sottoporre alla prova
dell’esperienza. La contrapposizione tra scienze sociali e scienze naturali ha luogo unicamente
perché sovente si fraintendono il metodo e il procedimento delle scienze naturali». E ciò «implica
che, sul piano della tecnologia sociale, si proceda a risolvere i problemi più urgenti mediante una
serie di esperimenti, ben disposti a correggere obiettivi e mezzi in base agli esiti conseguiti» (p.777)
LA SOCIETÀ APERTA e I NEMICI DELLA SOCIETÀ APERTA
L’EPISTEMOLOGIA POST-POPPERIANA
THOMAS S. KUHN E LA STRUTTURA DELLE RIVOLUZIONI SCIENTIFICHE
Paradigmi, scienza normale e anomalie
«Nel 1963 Kuhn pubblica il libro La struttura delle rivoluzioni scientifiche dove sostiene che la
comunità scientifica si costituisce attraverso l’accettazione di teorie che Kuhn chiama paradigmi.
“Con tale termine – egli scrive – voglio indicare conquiste scientifiche universalmente riconosciute,
le quali, per un certo periodo, forniscono un modello di problemi e soluzioni accettabili a coloro che
praticano un certo campo di ricerche”. Kuhn, in realtà, usa in più di un senso il termine paradigma,
tuttavia egli stesso specifica che la funzione del paradigma, oggi assolta dai manuali scientifici (per
mezzo dei quali il giovane studente viene iniziato alla comunità scientifica), ieri era assolta dai
classici della scienza». «Per cui l’astronomia tolemaica (o quella copernicana), la dinamica
aristotelica (o quella newtoniana) sono tutti paradigmi, al pari del fissismo di Linneo, della teoria
evolutiva di Darwin o della teoria della relatività di Einstein».
«Come una comunità religiosa si riconosce dai dogmi specifici in cui crede, come un partito politico
aggrega i suoi membri attorno a valori e a finalità specifiche, così è una teoria paradigmatica quella
che istituisce una comunità scientifica, la quale, in forza e all’interno degli assunti paradigmatici,
effettuerà quella che Kuhn chiama scienza normale», che «è “uno strenuo e devoto tentativo di
forzare la natura entro le caselle concettuali fornite dall’educazione professionale”» e che «significa
“una ricerca stabilmente fondata su uno o più risultati raggiunti dalla scienza del passato, ai quali
una particolare comunità scientifica, per un certo periodo di tempo, riconosce la capacità di
costituire il fondamento della sua prassi ulteriore”». «Questa prassi ulteriore – la scienza normale –
sta nel tentare di realizzare le promesse del paradigma, determinando i fatti rilevanti (per il
paradigma), confrontando (attraverso, per es., misure sempre più esatte) i fatti con la teoria,
articolando i concetti della teoria stessa, estendendo i campi di applicazione della teoria».
«Fare scienza normale vuol dire, dunque, risolvere rompicapo (puzzles), cioè problemi definiti dal
paradigma, emergenti dal, e rientranti nel, paradigma, per cui il fallimento della soluzione di un
rompicapo non viene visto come un fallimento del paradigma, quanto piuttosto come un fallimento
del ricercatore, il quale non ha saputo risolvere una questione per la quale il paradigma dice (e
promette) che una soluzione c’è. È questa una situazione analoga a quella del giocatore di scacchi il
quale, quando non sa risolvere un problema e perde, è perché egli non è bravo e non perché le
regole degli scacchi non funzionano» (p. 782s).
«La scienza normale è, pertanto, cumulativa … e lo scienziato normale non cerca la novità. E
tuttavia la novità dovrà apparire necessariamente. Ciò per la ragione che l’articolazione teorica ed
empirica del paradigma aumenta il contenuto informativo della teoria e quindi la espone al rischio
della smentita». «Tutto questo rende conto di quelle anomalie che, ad un certo momento, la
comunità scientifica si trova a fronteggiare e che, resistendo ai reiterati assalti delle assunzioni
paradigmatiche, determinano la crisi del paradigma». «Con la crisi del paradigma inizia il periodo
della scienza straordinaria … gli scienziati perdono la fiducia nella teoria che prima avevano
abbracciato; e la perdita di un solido punto di partenza si esprime nel ricorso alla discussione
filosofica su fondamenti e sulla metodologia. Questi sono i sintomi della crisi, la quale cessa
allorché dal crogiuolo di quel periodo di ricerca sgangherato che è la scienza straordinaria riesce ad
emergere un nuovo paradigma sul quale si articolerà di nuovo quella scienza normale» e così via.
Le rivoluzioni scientifiche
Il passaggio da un paradigma all’altro è per Kuhn «un riorientamento gestaltico: quando abbraccia
un nuovo paradigma, la comunità scientifica maneggia, per es., lo stesso numero di dati di prima,
ma ponendoli in relazioni differenti da prima» e così è «una rivoluzione scientifica». Ma «come
avviene il passaggio da un paradigma ad un altro?» «Si ha per motivi razionali oppure no?»
Per Kuhn «“paradigmi successivi ci dicono cose differenti sugli oggetti che popolano l’universo e
sul comportamento di tali oggetti”. E “proprio perché è un passaggio tra incommensurabili, il
passaggio da un paradigma ad uno opposto non può essere realizzato con un passo alla volta, né
imposto dalla logica o da una esperienza neutrale. Come il riorientamento gestaltico, esso deve
compiersi tutto in una volta (sebbene non in un istante) oppure non si compirà affatto”» e « “il
trasferimento della fiducia da un paradigma ad un altro è un’esperienza di conversione che non può
essere imposta con la forza”». Ma «perché, e su quali basi, queste esperienze di conversione?»
«“Per ogni genere di ragioni, e di solito per parecchie ragioni allo stesso tempo. Alcune di queste
ragioni – ad esempio, il culto del sole che contribuì a convertire Keplero al copernicanesimo – si
trovano completamente al di fuori della sfera della scienza. Altre ragioni possono dipendere da
idiosincrasie biografiche e personali … Probabilmente la pretesa più importante avanzata dai
sostenitori di un nuovo paradigma è quella di essere in grado di risolvere i problemi che hanno
portato il vecchio paradigma alla crisi” … Inoltre, c’è da badare che talvolta l’accettazione di un
nuovo paradigma non è dovuta al fatto che esso risolve i problemi che il vecchio paradigma non
riesce a risolvere, ma a promesse che si avverano in altri campi. E ci sono anche ragioni estetiche ad
indurre uno scienziato o un gruppo ad accettare un paradigma» (p. 783s).
«Tuttavia, afferma Kuhn, “nei dibattiti sui paradigmi non si discutono realmente le relative capacità
nel risolvere i problemi … il punto in discussione consiste invece nel decidere quale paradigma
debba guidare la ricerca in futuro, su problemi molti dei quali nessuno dei due competitori può
ancora pretendere di risolvere completamente … Colui che abbraccia un nuovo paradigma fin
dall’inizio, lo fa spesso a dispetto delle prove fornite dalla soluzione di problemi. Egli deve, cioè,
aver fiducia che il nuovo paradigma riuscirà in futuro a risolvere i molti vasti problemi che gli
stanno davanti, sapendo soltanto che il vecchio paradigma non è riuscito a risolverne alcuni. Una
decisione di tal genere può essere presa soltanto sulla base della fede”», così «perché un paradigma
possa trionfare … “ciò che si verifica non è tanto una unica conversione di gruppo, quanto un
progressivo spostamento della distribuzione della fiducia degli specialisti”».
Lo sviluppo ateleologico della scienza
«Ora, però, il passaggio da un paradigma ad un altro comporta progresso? Il problema è complesso.
… Certo, quando un paradigma si è affermato, i suoi sostenitori guarderanno ad esso come a un
progresso: ma, si chiede Kuhn, progresso verso che cosa? In effetti, dice Kuhn, il processo che si
vede nell’evolversi della scienza è un processo di evoluzione a partire da stadi primitivi, ma questo
non significa che tale processo porti la ricerca sempre più vicina alla verità o verso qualcosa». Ma è
poi necessario «“che esista un tale scopo? … È veramente d’aiuto immaginare che esista qualche
completa, oggettiva, vera spiegazione della natura e che la misura appropriata della conquista
scientifica è la misura in cui essa ci avvicina a questo scopo finale? Se impareremo a sostituire
l’evoluzione verso ciò che vogliamo conoscere con l’evoluzione a partire da ciò che conosciamo,
nel corso di tale processo, un gran numero di problemi inquietanti può dissolversi”» (p. 784).
IMRE LAKATOS E LA METODOLOGIA DEI PROGRAMMI DI RICERCA
SCIENTIFICA
Tre tipi di falsificazionismo
Alle idee di Kuh risposero in particolare Popper e J. Watkins, ma «contro l’idea di un paradigma
che domina quasi teologicamente la comunità degli scienziati e contro l’idea di uno sviluppo della
scienza che dovrebbe procedere per successive catastrofi è anche Imre Lakatos».
La sua idea di fondo «è che la scienza è, è stata e dovrebbe essere una competizione tra programmi
di ricerca rivali. E questa idea caratterizza, secondo Lakatos, quello che è il falsificazionismo
metodologico sofisticato, concezione che Lakatos sviluppa sulla scia di Popper».
Invece «il falsificazionismo dogmatico consiste nell’idea secondo cui la scienza si sviluppa
attraverso congetture ardite e falsificazioni infallibili. Senonché, fa presente Lakatos, simile idea –
fatta propria da alcuni scienziati e propagata anche da certi filosofi come A.J.Ayer – non è l’idea di
Popper, ed è sbagliata. È sbagliata perché la base empirica della scienza (vale a dire i protocolli,
cioè ancora: le proposizioni di osservazione) non è certa, per cui non si danno falsificazioni
infallibili o incontrovertibili: le nostre falsificazioni possono essere anche sbagliate E questo ce lo
attestano sia la logica che la storia della scienza».
«Da parte sua, il falsificazionismo metodologico ingenuo corregge l’errore dei falsificazionisti
dogmatici … tuttavia, dice Lakatos, nonostante i suoi meriti … è insoddisfacente, giacché
concepisce lo sviluppo della scienza come una serie di successivi duelli tra una teoria e i fatti;
mentre – per Lakatos – … la lotta tra il teorico e il fattuale avviene sempre per lo meno a tre: tra
due teorie in competizione e i fatti. Tutto ciò renderebbe conto del fatto che una teoria viene scartata
non quando qualche fatto la contraddice, ma solo quando la comunità scientifica ha a disposizione
una teoria migliore della precedente».
I programmi di ricerca scientifici
Più che di teorie «Lakatos, a dire il vero, parla di programmi di ricerca scientifici». «Un
programma di ricerca è una successione di teorie, T1, T2, T3, T4 che si sviluppano da un nucleo
centrale che, per decisione metodologica, si mantiene infalsificabile; è così che un programma può
mostrare il suo valore, la sua fecondità e la sua progressività nei confronti di un altro programma.
Non è lecito far morire una teoria di malattia infantile. E una buona teoria, per svilupparsi, ha
bisogno di tempo». «Dunque: la storia della scienza è e dovrebbe essere una storia di programmi
di ricerca in competizione» Questo è il nocciolo per Lakatos della scienza e della sua storia.
L’idea del programma di ricerca scientifico è quella «che dovrebbe distinguere la posizione di
Lakatos sia da quella di Kuhn che da quella di Popper. Difatti, ad avviso di Lakatos … “la Logik
der Forshung, nel suo insieme, è aridamente astratta e altamente astorica. Là dove Popper si
arrischia a fare osservazioni sulla falsificabilità delle maggiori teorie scientifiche, o cade in qualche
madornale equivoco logico o distorce la storia in modo che si adatti alla sua teoria della
razionalità”». «D’altro canto – scrive Lakatos in La falsificazione e la metodologia dei programmi
di ricerca scientifici (1970) – “secondo la concezione di Kuhn la rivoluzione scientifica è irrazionale
… è una specie di conversione religiosa”». E così Lakatos, muovendosi «nell’atmosfera del
falsificazionismo di Popper» ed «influenzato da Kuhn», «tuttavia argomenta senza lasciarsi
incapsulare né dall’uno né dall’altro pensatore, e si muove con grande agilità e spregiudicatezza»
Come progredisce la scienza
«Per Lakatos “è una successione di teorie e non ‘un’unica teoria che è valutata come scientifica o
pseudo-scientifica’”».
«E una serie di teorie è progressiva teoricamente (o costituisce uno slittamento-di-problema
progressivo teoricamente) “se ogni nuova teoria ha contenuto empirico eccedente rispetto alle teorie
che la precedono, ossia, se predice qualche fatto nuovo, fino a quel momento inaspettato”».
«Inoltre, diciamo che “una serie di teorie progressiva teoricamente è anche progressiva
empiricamente (o costituisce uno slittamento-di-problema progressivo empiricamente) se parte di
questo contenuto empirico eccedente è anche, in certa misura, corroborato, ossia, se ogni nuova
teoria conduce alla scoperta reale di qualche fatto nuovo”».
Ora «questa serie di teorie, questa continuità “si sviluppa da un genuino programma di ricerca
adombrato all’inizio. Questo programma consiste di regole metodologiche: alcune indicano quali
vie evitare (euristica negativa), altre quali vie perseguire (euristica positiva)”». «Le ipotesi non
falsificabili costituiscono il nucleo (hard-core) del programma e “tutti i programmi scientifici di
ricerca possono essere caratterizzati dal loro ‘nucleo’”. “L’euristica negativa del programma ci
impedisce di rivolgere il modus tollens contro questo ‘nucleo’. Dobbiamo invece usare la nostra
ingegnosità per articolare o inventare delle ‘ipotesi ausiliarie’, che formino una cintura protettiva
intorno al nucleo e dobbiamo rivolgere il modus tollens contro quest’ultimo nuovo obiettivo. Questa
cintura protettiva di ipotesi ausiliarie deve resistere all’attacco dei controlli, essere adattata e
riadattata, o anche completamente sostituita, per difendere il nucleo così consolidato. Un
programma di ricerca ha successo se tutto ciò conduce a uno slittamento progressivo del problema;
non ha successo se conduce a uno slittamento regressivo del problema”» (p. 786). «E solo quando le
successive modificazioni della cintura protettiva non riescono più a predire fatti nuovi, allora il
programma si mostra come regressivo» e così «“Finché un programma di ricerca al suo nascere
può essere ricostruito razionalmente come uno slittamento-di-problema progressivo, dovrebbe
essere protetto per un certo tempo da un potente rivale stabilizzato”».
«La scienza, pertanto, è – secondo Lakatos – “un campo di battaglia per programmi di ricerca
piuttosto che per teorie isolate”. E “la scienza matura consiste di programmi di ricerca nei quali
vengono anticipati non soltanto fatti nuovi, ma, in senso importante, anche nuove teorie ausiliarie;
la scienza matura – a differenza dal rozzo schema per prova-ed-errore – ha potere ‘euristico’”.
L’EPISTEMOLOGIA ANARCHICA DI PAUL K. FEYERABEND
L’anarchia epistemologica in funzione del progresso
«Il libro di Feyerabend Contro il metodo (2ª ed. 1975) è stato scritto nella persuasione che
“l’anarchismo, pur non essendo forse la filosofia politica più attraente, è senza dubbio una
eccellente medicina per l’epistemologia e per la filosofia della scienza” … la storia in generale, “la
storia delle rivoluzioni in particolare, è sempre più ricca di contenuto, più varia, più multilaterale,
più viva, più ‘astuta’, di quanto possano immaginare anche il miglior storico e il migliore
metodologo”. Conseguentemente, l’anarchismo epistemologico di Feyerabend consiste nella tesi
per cui “l’idea di un metodo che contenga principi fermi, immutabili e assolutamente vincolanti
come guida nell’attività scientifica si imbatte in difficoltà considerevoli quando viene messa a
confronto con i risultati della ricerca storica”» e infatti tutte le grandi teorie «“si verificarono solo
perché alcuni pensatori o decisero di non lasciarsi vincolare da certe norme metodologiche ‘ovvie’
o perché involontariamente le violarono”».
«Una siffatta libertà di azione non è, secondo Feyerabend, soltanto un fatto della storia della
scienza. “Esso è sia ragionevole sia assolutamente necessario per la crescita del sapere. Più
specificamente si può dimostrare quanto segue: data una norma qualsiasi, per quanto
‘fondamentale’ o ‘necessaria’ essa sia per la scienza, ci sono sempre circostanze nelle quali è
opportuno non solo ignorare la norma, ma adottare il suo opposto» (p. 787).
L’anarchia epistemologica e la storia della scienza
«A supporto della sua metodologia anarchica, Feyerabend adduce un caso storico. “Lo sviluppo del
punto di vista copernicano da Galileo al XX secolo è un esempio perfetto della situazione che mi
propongo di descrivere. Il punto di partenza è costituito da una forte convinzione che contrasta con
la ragione e l’esperienza contemporanea. La convinzione si diffonde e trova sostegno in altre
convinzioni, che sono altrettanto irragionevoli se non più (la legge d’inerzia, il telescopio) … Oggi
possiamo dire che Galileo era sulla strada giusta, poiché la sua tenace ricerca di quella che un tempo
sembrava una stramba cosmologia ha creato oggi materiali necessari per difenderla contro coloro
che sono disposti ad accettare un’opinione solo se essa viene espressa in un certo modo e che
prestano fede ad essa solo se contiene certe frasi magiche, designate come protocolli o rapporti
d’osservazione. E questa non è un’eccezione, bensì il caso normale: le teorie diventano chiare e
ragionevoli solo dopo che parti incoerenti di esse sono state usate per molto tempo”». Quindi «“ la
idea di un metodo fisso, o di una teoria fissa della razionalità, poggia su una visione troppo ingenua
dell’uomo e del suo ambiente sociale. … c’è un solo principio che possa essere difeso in tutte le
circostante e in tutte le fasi dello sviluppo umano. È il principio: qualsiasi cosa può andar bene”».
La provocazione di “Contro il metodo”
Va fatto «presente che Feyerabend critica un Lakatos e soprattutto un Popper spesso costruiti su
misura per i suoi bersagli» (p. 788).
LARRY LAUDAN E LA METODOLOGIA DELLE TRADIZIONI DI RICERCA
Lo scopo della scienza sta nel risolvere problemi
Larry Laudan le sue idee le espone in Il progresso scientifico (1977). La sua idea centrale è che «“la
scienza mira fondamentalmente alla soluzione dei problemi” … Per questo, gli assunti basilari del
modello di sviluppo della scienza che Laudan propone sono piuttosto semplici: 1) Il problema
risolto, empirico o concettuale, è l’unità di base del progresso scientifico; 2) Scopo della scienza è
quello di massimizzare la portata dei problemi empirici risolti e di ridurre la portata dei problemi
empirici anomali e di quelli concettuali non risolti. Da ciò segue che “ogni volta che modifichiamo
una teoria o la sostituiamo con un’altra teoria, questa innovazione costituisce un progresso se e solo
se la teoria modificata o la nuova teoria è più efficiente nel risolvere problemi”».
Parlando di teorie però «Laudan precisa subito due cose: a) che la valutazione delle teorie è
qualcosa di comparativo, giacché “misure in termini assoluti delle credenziali empiriche o
concettuali di una teoria sono prive di significato”; b) che le teorie non vivono singolarmente e che
dobbiamo badare a tutto uno spettro di teorie individuali» (p. 789); tutto ciò «nella convinzione che
le teorie più generali, e non quelle più specifiche, siano lo strumento primario per la comprensione
e la valutazione del progresso scientifico». «Tuttavia, Laudan manifesta la sua insoddisfazione sia
per il modello di Kuhn», perché è difficile «“far quadrare le inflessibilità dei suoi paradigmi col
fatto che molte maxi-teorie si sono evolute attraverso il tempo”»; «sia per quello di Lakatos»,
perché la sua pretesa «“che l’accumularsi delle anomalie non abbia conseguenze sulla valutazione
di un programma di ricerca è confutata in modo schiacciante dalla storia della scienza”». Insomma,
entrambe i sistemi «“hanno una tale rigidità nella loro struttura centrale, da non ammettere alcuna
trasformazione fondamentale”. E questo è contraddetto dalla storia della scienza».
Cosa sono le tradizioni di ricerca
Laudan propone allora «la teoria delle tradizioni di ricerca», per lui infatti «“ogni disciplina
intellettuale, scientifica e non scientifica, ha una storia ricca di tradizioni di ricerca”», tradizioni che
hanno alcune caratteristiche comuni «“1. Ogni tradizione di ricerca ha un certo numero di teorie
specifiche, che l’esemplificano e parzialmente la costituiscono; alcune di queste teorie sono
contemporanee fra loro, altre si succedono nel tempo. 2. Ciascuna tradizione di ricerca appare
caratterizzata da alcuni impegni metafisici e metodologici che, nel loro insieme, individuano la
tradizione stessa e la distinguono dalle altre. 3. Ciascuna tradizione di ricerca (a differenza delle
singole specifiche teorie) passa attraverso un certo numero di diverse e dettagliate (e spesso
reciprocamente contraddittorie) formulazioni; in genere ha una lunga storia, che si svolge attraverso
un notevole periodo di tempo (a differenza delle teorie che spesso hanno una vita breve)”».
«Una tradizione di ricerca fornisce un insieme di direttive per la costruzione di teorie specifiche».
«Una parte di tali direttive sono metodologiche … e un’altra parte delle direttive fornite da una
tradizione di ricerca sono ontologiche. È l’ontologia della tradizione di ricerca “che specifica in una
maniera generale i tipi di entità fondamentali, che esistono nel dominio o nei domini, all’interno dei
quali ha a che fare la tradizione di ricerca che è in questione. … Inoltre questa tradizione di ricerca
delinea i diversi modi in cui queste entità possono interagire».
«In questo modo Laudan è in grado di definire una tradizione di ricerca come “un insieme di assunti
generali riguardanti le entità ed i processi presenti in un certo dominio di studio, ed i metodi
appropriati che si devono usare, per indagare sui problemi e costruire le teorie in tale dominio”» (p.
790). «Ed è ovvio che osare ciò che è proibito dalla metafisica e dalla metodologia di una tradizione
di ricerca, significa collocarsi al di fuori di tale tradizione e ripudiarla».
«Per Laudan, una tradizione di ricerca che ottiene successo, è una tradizione di ricerca che,
attraverso le sue componenti, porta alla soluzione adeguata di un numero sempre maggiore di
problemi empirici e concettuali. Talché risulta preferibile la tradizione la quale è in grado di
risolvere più problemi e problemi più importanti» e delle tradizioni di ricerca «non mutano soltanto
le teorie ausiliarie, ma anche, nel tempo, gli assunti centrali. In tal modo, ad ogni dato momento,
alcuni elementi di una tradizione di ricerca sono per essa più centrali e più intimi di altri».
LA QUESTIONE DEL PROGRESSO NELLA SCIENZA
Critiche alla teoria della verosimiglianza di Popper
«L’epistemologia di Popper e quella dei post-popperiani è un’epistemologia che ha posto l’accento
più che sulla struttura della scienza sullo sviluppo e sul progresso della scienza stessa. Per decidere
tra teorie in competizione occorre avere un criterio di preferibilità che ci dica quale, tra queste
teorie, è progressiva nei confronti delle altre», ma «che cosa vuol dire che una teoria T2 spiega di
più e meglio della precedente T1?»
«A questo interrogativo Popper ha risposto proponendo la teoria della verosimiglianza stando alla
quale una teoria T2 è più verosimile della teoria T1 se tutte le conseguenze vere di T1 sono
conseguenze vere di T2, se tutte le conseguenze false di T1 sono conseguenze vere di T2 e se da T2
sono inoltre estraibili conseguenze non estraibili da T1 … Ovviamente, questo criterio, avrebbe
dovuto permettere, ad avviso di Popper, di decidere la maggior verosimiglianza tra due teorie false
… Senonchè, le definizioni di Popper – che sembravano ingabbiare come in una morsa gli sviluppi
storici della scienza – si sono rivelate, ad un’analisi approfondita, inconsistenti», grazie all’analisi di
David Miller, Pavel Tichy, John Harris e Adolf Grünbaum.
Difatti, data una teoria falsa A «la sua verosimiglianza aumenta, ad avviso di Popper, in ciascuno di
questi due casi» (p. 791): 1) «se aumenta il suo contenuto di verità Av (cioè le sue conseguenze
vere) e contemporaneamente non aumenta il suo contenuto di falsità Af (cioè le sue conseguenze
false)»; 2) «se diminuisce il suo contenuto di falsità Af e contemporaneamente non diminuisce il
suo contenuto di verità Av». Aumentiamo ora, secondo 1), «la verosimiglianza di A con l’aggiunta
… di un enunciato vero p», ma «se A è falsa, avrà almeno un enunciato falso f, talché la
congiunzione p^f è un enunciato falso», di conseguenza «aggiungendo un enunciato vero p …,
aggiungiamo corrispondentemente un enunciato falso p^f … e questo è in contraddizione» con 1).
Analogamente si può dimostrare la contraddizione in cui cade 2).
Questi risultati «mostrano a chiare lettere che la proposta di Popper tendente a stabilire un criterio di
progresso attraverso rigorose definizioni logiche è fallita», perché «se ammettessimo l’idea di
verosimiglianza di Popper … Einstein dovrebbe valere quanto Newton, e Newton quanto
Copernico. E questo nessuno è disposto ad ammetterlo» (p. 792).
Il progresso della scienza nella prospettiva di Larry Laudan
Ora «pur avendo una definizione di verità, non abbiamo un infallibile criterio di verità che ci
permetta di emettere decreti definitivi sulla verità o meno delle teorie. Stando così le cose, Popper
aveva tentato di portare all’interno della logica la nozione intuitiva di maggior verosimiglianza tra
teorie. Le definizioni di Popper avrebbero dovuto costituire un modello ideal-tipico per mezzo del
quale congetturare la progressività di una teoria sulle altre, nell’effettivo sviluppo della storia della
scienza e nella pratica della ricerca». «La realtà è che la storia della scienza è un prezioso cimitero
di teorie errate e gli scienziati, dal canto loro, trafficano quotidianamente tra teorie false. Per questo,
il possesso di un criterio in grado di stabilire la preferibilità o la maggior approssimazione alla
verità di una teoria falsa nei confronti di altre teorie anch’esse false, è una cosa molto auspicabile».
«Assumendo con coraggio gli esiti delle dimostrazioni di Tichy, Miller ed Harris, Larry Laudan ha
cercato di ricondurre lo standard della preferibilità e progressività di una teoria nei confronti delle
altre dai livelli logici di Popper a livelli pragmatici», così per lui «è razionale scegliere quella
teoria che all’epoca risolve più problemi e problemi all’epoca più importanti».
«Certo, in questo modo appare che la logica non riesce a dominare la storia (della scienza), a meno
che gli sforzi» dei vari pensatori «non ci diano una definizione di verosimiglianza che sia
consistente e che ci permetta di dominare la storia effettiva della scienza e di orientare la pratica
della ricerca. Tuttavia, è proprio irrazionale quel medico che, tra due teorie terapeutiche, ambedue
fallaci, sceglie quella che risolve più casi e salva più malati?» (p. 793)
EPISTEMOLOGIA E METAFISICA
Come e perché gli epistemologi contemporanei difendono la metafisica
Di Neopositivisti, Analitici, Popper, Kuhn e Lakatos abbiamo già parlato.
Joseph «Agassi – nel saggio La natura dei problemi scientifici e le loro radici nella metafisica
(1975) – contro coloro che parlano della metafisica come fisica del passato tende ad esaltare
qualche metafisica come fisica del futuro»; «contro Popper, il quale afferma che si fa ricerca per
trovare e controllare ipotesi altamente controllabili, fa presente che la ricerca spesso è indirizzata al
controllo di ipotesi poco controllabili o quasi del tutto incontrollabili, cioè ipotesi metafisicamente
rilevanti; egli, inoltre, non se la sente di includere la metafisica insieme alla pseudoscienza e alla
superstizione nella non-scienza e chiamare tutte queste diverse cose come ‘metafisica’; sottolinea
che “la metafisica può essere vista come un programma di ricerca e le false pretese della
pseudoscienza come il prodotto finito”; per Agassi “le idee metafisiche appartengono alla ricerca
scientifica come idee regolative crucialmente importanti”; e, quel che più conta, anche per Agassi,
le metafisiche non sono affatto al di là della critica».
E «“se non c’è di solito nessuna confutazione, e pertanto nessun esperimento cruciale in metafisica.
Tuttavia qualcosa di simile ad un esperimento cruciale può aver luogo in un procedimento del
genere”. “Due differenti visioni metafisiche offrono due diverse interpretazioni di un insieme di
fatti conosciuti. Ognuna di queste interpretazioni si sviluppa in una teoria scientifica e una delle due
teorie scientifiche viene sconfitta da un esperimento cruciale. La metafisica che sta dietro la teoria
scientifica sconfitta perde il suo potere interpretativo e così viene abbandonata».
«Ed anche W.W.Bartley III ha insistito (in Teorie della demarcazione tra scienza e metafisica,
1968) sul fatto che l’inconfutabilità di una teoria non è da guardarsi, come vorrebbe Popper, quale
un vizio», perché «“in parecchi contesti teorie empiricamente inconfutabili sono altamente
desiderabili – ancora più desiderabili che le prove empiriche. Se il nostro scopo è quello di
massimizzare la critica alle concezioni esistenti, è sostanzialmente più importante avere una qualche
teoria o spiegazione alternativa, scientifica o meno, che contraddice (conflicts) i resoconti correnti e
più diffusi della questione da spiegare, che avere ciò che appare essere una confutazione empirica o
un contro-esempio della teoria in auge”. Siffatta concezione di Bartley, sostenuta anche da Agassi, è
stata poi enfatizzata da Paul K. Feyerabend, per il quale il pluralismo teorico (cioè la costruzione di
teorie alternative alla teoria in auge) può svolgere la funzione di reperire ‘fatti’ capaci di mettere in
difficoltà o addirittura in crisi tale teoria vigente; fatti che altrimenti non sarebbero disponibili se
siffatte alternative venissero meno. E, inoltre, le alternative alla teoria vigente servono appunto a
massimizzare il contenuto di una teoria, la quale teoria è sempre valutata nel confronto con altre
teorie. Per tutto questo “l’invenzione di alternative all’opinione in esame costituisce una parte
esenziale del metodo empirico» (p. 794).
John Watkins e la metafisica confermabile ed influente
La posizione di John Watkins, contenuta in Metafisica confermabile e influente del 1957, la si può
riassumere «nei punti seguenti:
1) La dicotomia classica empirista analitico-sintetico è supersemplificatoria e infeconda.
2) È un errore interpretare un giudizio a priori come necessariamente vero.
3) Esempi di tali giudizi a priori e non necessari sono asserti metafisici … che sono
empiricamente inconfutabili, e tuttavia non sono logicamente necessari.
4) Geneticamente (e quindi storicamente) esistono metafisiche che pre-scrivono programmi di
ricerca scientifica, ed esistono anche metafisiche che sono giustificazioni post hoc di teorie
scientifiche affermate: e mentre il pensiero scientifico ha soprattutto influenzato la
metafisiche durante i periodi di consolidamento della scienza, “le idee metafisiche hanno
soprattutto influenzato la speculazione scientifica durante i periodi di mutamenti e di
tensioni nella scienza”.
5) Alla dicotomia analitico-sintetico dovremmo sostituire la tricotomia analitico-sinteticoaPrioriNonNecessario: i giudizi a priori non necessari sono i giudizi fattuali metafisici.
6) Questi giudizi … possono avere istanze confermanti … ma non possono venir falsificati …:
quindi le idee metafisiche sono verificabili, ma non sono falsificabili, e, non essendo
falsificabili, le loro conferme non riescono a trasformarle in teoria di natura empirica.
7) Le idee metafisiche a priori e non necessarie possono venir interpretate come comandi di
metodo … tuttavia occorre porre l’accento sul fatto che, sebbene dal punto di vista formale
dalle descrizioni metafisiche non possono venir dedotte prescrizioni metodologiche, ciò non
significa affatto che le prime non esercitino il loro ruolo regolativo.
8) In sostanza, le dottrine metafisiche “regolano la costruzione delle teorie empiriche, non
positivamente implicando qualche specifica teoria empirica, ma negativamente proibendo
certi tipi di teoria empirica; e ciò avviene anche nei rapporti tra la metafisica da un lato e la
morale e la politica dall’altro.
9) Per quel che concerne la valutazione delle teorie metafisiche c’è da far presente che: a) si
deve cercare di rendere controllabile una teoria incontrollabile ed interessante; b) non
bisogna trasformare una teoria controllabile ma che è in difficoltà, in una teoria svirilizzata e
inconfutabile; c) se è vero che una teoria metafisica che ha generato scienza si rafforza con
la scienza che ha generato, è pur vero che uno stesso insieme di fatti e leggi scientifiche può
avere più interpretazioni metafisiche; per cui la scienza di una metafisica non dà a
quest’ultima un’autorità indiscussa; d) e non bisogna dimenticare che “storicamente, le
dottrine metafisiche hanno giocato un ruolo all’interno della scienza quando hanno sfidato la
teoria esistente e prefigurato un nuovo tipo di teoria”. Da ciò vediamo che “la conformità
con la scienza esistente è un fattore favorevole [per una metafisica], ma questo fattore può
venir superato in valore da una valutazione pragmatica del possibile influsso della dottrina
metafisica sulla scienza futura” (p. 795s).
EPISTEMOLOGIA E MARXISMO
Lakatos e il Marxismo come programma di ricerca degenerativo
«In linea generale gli epistemologi contemporanei sono decisamente contrari ai tratti teorici e
assolutistici del Marxismo». «Sulla scia di Popper, Hans Albert, nell’ambito culturale tedesco, ha
proseguito l’offensiva contro il pensiero materialismo-dialettico, attaccando sia Adorno sia,
soprattutto Habermas, i quali, in nome della dialettica e della totalità, hanno reclamato una
razionalità diversa e superiore a quella dei ‘positivisti’ come Popper e Albert», ma queste categorie
«non hanno forza teorica bensì solo forza pragmatica, al pari dei miti».
Per Lakatos il marxismo «“ha fatto alcune famose predizioni senza successo”», spiegando i vari
fallimenti «“senonché – prosegue Lakatos – le loro ipotesi ausiliarie sono state tutte architettate
dopo gli eventi al fine di proteggere la teoria marxiana dai fatti …” E dove la teoria rimane indietro
rispetto ai fatti, noi abbiamo a che fare con programmi che stagnano miseramente nella
degenerazione: questo è, appunto secondo Lakatos, il caso del Marxismo» (p. 796).
Feyerabend: la “società libera” e il Marxismo
EPISTEMOLOGIA E STORIOGRAFIA DELLA SCIENZA
Perché e come la storia della scienza
«Lo sviluppo dell’epistemologia contemporanea ha portato in primo piano la questione delle
funzioni della storiografia della scienza ed alcuni problemi teorici relativi alla storiografia della
scienza. Per quel che concerne le funzioni della storia della scienza diciamo in breve che: 1)
essendo la scienza fattore di storia, non possiamo capire lo sviluppo specialmente dell’era moderna
e soprattutto contemporanea se non conosciamo la storia della scienza e della tecnologia; 2) la
scienza, oltre ad essere fattore di storia, è fattore di cultura: e ci è pertanto proibita la comprensione
dello sviluppo della più ampia cultura se non comprendiamo la storia della scienza e il suo
intrecciarsi e reciproco condizionarsi con la storia della filosofia, delle concezioni morali o politiche
o anche della teologia; 3) come hanno insistito tra altri, Mach, Duhem e Feyerabend, la conoscenza
della storia della scienza è necessaria al lavoro dello scienziato praticante, se non altro perché la
massimizzazione del contenuto di una teoria si ottiene mediante il confronto di questa teoria con
altre teorie: e queste altre teorie si prendono da ovunque sono disponibili, dal presente come dal
passato; 4) la storia della scienza sempre più si rivela un ingrediente indispensabile per la didattica
delle scienze, sia per quanto riguarda la motivazione nell’apprendimento sia per quel che concerne
l’educazione all’antidogmatismo e al riconoscimento della funzione dell’errore, sia per una
maggiore consapevolezza delle regole del metodo necessarie per il lavoro di ricerca».
Il problema è però «sul come fare storia della scienza». Dall’odierno «dibattito epistemologico sono
progressivamente affiorate teorie che prospettano una storiografia della scienza che va ben al di là
della aneddotica, o degli irrilevanti prodotti commemorativi». «Si tratta, infatti, di cercare
paradigmi e programmi di ricerca in competizione, metafisiche influenti; si punta l’attenzione sui
periodi di scienza normale e su quelli di scienza rivoluzionaria; non si scarteranno le ‘fantasie’ che
non avranno avuto successo; e gli insuccessi fanno parte della storia della scienza, come le
mutazioni non adattate fanno parte della storia dell’evoluzione; si farà attenzione all’immagine della
scienza posseduta da (e più o meno influente su) gli scienziati praticanti; verranno presi in esame
non solo gli ostacoli economici, sociali o politici, ma anche e soprattutto quelli epistemologici; si
cercherà di ricostruire stati problematici oggettivi; si guarderà alle tecniche di prova dell’epoca, e
pertanto alla strumentazione dell’epoca disponibile, e così via» (p. 798). Quanto più ciò sarà fatto
bene quanto più «la storia della scienza si avvia a diventare scienza essa stessa».
Storia interna e storia esterna
«Ogni storiografia della scienza presuppone una immagine della scienza o epistemologia. Fare
storia della scienza presuppone che si sappia già cosa sia la scienza, presuppone innanzi tutto criteri
selettivi attraverso cui individuare nel mare magnum delle attività umane e dei prodotti di queste
attività quelle attività e quei prodotti che si dicono (o si dicevano) scientifici … a seconda che si
abbia una immagine (o teoria) della scienza piuttosto che un’altra, avremo anche una diversa
(almeno parzialmente) storiografia della scienza: saranno diversi (almeno in parte) i problemi
trattati, sarà diversa la linea di demarcazione tra storia interna e storia esterna».
«La storia interna è la ricostruzione razionale dello sviluppo della scienza: razionale nel senso che
la ricostruzione si effettua solo con gli ingredienti indicati dall’immagine idealtipica fornita da
un’epistemologia, e razionale anche nel senso che l’evoluzione cronologica “mostra”
sostanzialmente l’evoluzione logica della scienza. … In sostanza: lo storico della scienza
presuppone sempre un’idea di scienza, vale a dire una epistemologia. E storici con epistemologie
differenti ci daranno storie (almeno parzialmente) diverse, perché saranno diverse le domande che
le diverse epistemologie permetteranno di porre su quel vasto materiale costituito dalle attività e dai
risultati di queste attività di quelle che si dicono comunità scientifiche. E sono proprio le diverse
epistemologie a demarcare, sempre diversamente, la storia interna da quella esterna» (p. 799).
I problemi della storiografia popperiana della scienza