LOGICA, MATEMATICA, FISICA E BIOLOGIA NEL SECOLO XX GLI SVILUPPI DELLA LOGICA E DELLA MATEMATICA NEL SECOLO XX La “ricerca sui fondamenti” e la scoperta della “antinomia delle classi” Nell’Ottocento era iniziato «un programma di rigorizzazione concettuale delle nozioni fondamentali del calcolo infinitesimale», che portò alla «‘aritmetizzazione dell’analisi’, cioè alla riduzione dei concetti fondamentali dell’analisi (la matematica che ha come cardine la teoria dei ‘numeri reali’) ai concetti dell’aritmetica (la matematica che ha come cardine la teoria dei numeri interi positivi, cioè dei numeri naturali, e, per estensione, dei numeri razionali)». «Ora, dato che era noto che la geometria poteva venir ricondotta all’analisi (per mezzo delle operazioni costituenti la geometria analitica), l’aritmetica (a cui appunto veniva ridotta l’analisi) veniva a configurarsi quale ‘base naturale’ dell’intero edificio matematico». «Siffatto processo di riduzione dell’intera matematica all’aritmetica trova il suo punto culminante nell’opera di Peano, il quale nel 1899 propose la sua ormai classica assiomatica dell’aritmetica elementare» Nello stesso periodo «in cui Peano lavorava al suo progetto, c’erano studiosi come Frege e Cantor che, non persuasi della ‘naturalità’ della base costituita dall’aritmetica, cercavano di ridurre la stessa aritmetica ad una base ancor più profonda, riducendo il concetto di numero naturale al concetto logico di classe, talché la logica delle classi apparve come la teoria maggiormente adeguata per l’indagine sui fondamenti della matematica» (p. 735), arrivando a dire con «Russel nei Principi della matematica (1903), che “matematicamente, un numero non è nient’altro che una classe di equipotenti”». Opera che Russel intraprese «nella persuasione che “la matematica e la logica siano identiche” e che “tutta la matematica pura tratta esclusivamente di concetti definibili in termini di un numero piccolissimo di concetti logici fondamentali”». «Nel frattempo, però, e cioè tra il 1901 e il 1902, Riussel aveva messo in crisi la logica delle classi e con ciò aveva colpito al cuore», questo programma. «Questo avvenne con la scoperta di un’antinomia che mostrava come una proposizione, legittima nei fondamenti dell’aritmetica di Frege, era tuttavia autocontraddittoria», paradosso che trova un suo «antico prototipo nel paradosso del mentitore: “Epimenide il cretese dice che tutti i cretesi sono bugiardi”». «Russel comunicò a Frege per lettera questa antinomia. Frege tentò di porre rimedio ai guai da essa procurati proprio nel cuore del suo sistema, ma in fondo non fu convinto dai suoi stessi tentativi di salvataggio e visse gli ultimi anni della sua vita sfiduciato dal valore di tutto il lavoro compiuto». «Dopo la scoperta dell’antinomia di Russel, altre ne vennero formulate ed esse costrinsero a non accettare in maniera ingenua il concetto di insieme ed ad impostare in maniera assiomaticamente rigorosa la teoria degli insiemi». Russel invece «persuaso che l’insorgere delle antinomie fosse dovuto ad un cattivo uso del linguaggio» (p. 736), cercò di far vedere come «un concetto non può mai occorrere come predicato in una proposizione il cui soggetto sia di tipo uguale o maggiore di quello del tipo stesso». «Tuttavia, sia le varie assiomatizzazioni della teoria degli insiemi sia la teoria dei tipi di Russell lasciavano aperti grossi problemi. Le prime evitavano certo le antinomie note, ma non garantivano contro altre possibili antinomie. La seconda, poi, mentre anch’essa non garantiva l’insorgere di ulteriori antinomie … non poteva proibire che si costruissero proposizioni non paradossali e che, però, non rispettavano affatto la teoria dei tipi». Il “programma” di Hilbert e i “teoremi” di Gödel Frege, Peano e Russel «sono, sostanzialmente, dei platonismi: credono ad un mondo ‘oggettivo’, esistente per sé, di enti e relazioni matematiche che il ricercatore deve scoprire e non inventare». «La scuola formalista, invece, quella cioè che fa capo a David Hilbert, sostiene che un ente matematico esiste quando sia stato definito in modo non contraddittorio. Di conseguenza, la dimostrazione della non-contraddittorietà delle teorie matematiche diventa il problema centrale della ricerca matematica». «Un modo di provare la non-contraddittorietà di una teoria matematica era stato quello di trovare un ‘modello’ degli assiomi della teoria entro una teoria già esistente e che per consenso unanime veniva data per coerente», teoria da lui praticata «nei suoi Fondamenti della geometria (1899; in quest’opera Hilbert assiomatizza in modo rigoroso la geometria euclidea)». «In ogni caso, per quanto ingegnosa o utile questa procedura potesse apparire, essa non andava alla radice della questione: non risolveva il problema, si limitava a spostarlo, giacché, restando sempre nel caso del nostro esempio, nessuno può garantire che la geometria euclidea (non interpretata su di un ‘universo’ di oggetti fisici) sia non-contraddittoria». → Dato tutto ciò «Hilbert, con due memorie del 1922-1923, propone il cosiddetto ‘programma hilbertiano’. Inteso ad offrire una prova non più ‘relativa’ (ad un altro sistema) ma ‘diretta’ o ‘assoluta’ di un sistema assiomatico. E siccome la matematica ‘classica’, dopo tutto il lavoro precedente, si riduceva a tre grossi sistemi assiomatici: quello dell’aritmetica, quello dell’analisi e quello degli insiemi; e siccome, inoltre, le ricerche condotte nell’Ottocento facevano ritenere fondamentale ‘la teoria aritmetica’, era allora naturale che Hilbert partisse dalla dimostrazione di coerenza dell’aritmetica per poi estendere tale coerenza all’ambito dell’analisi e a quello degli insiemi». «Naturalmente, assiomatizzando l’aritmetica, si deve riconoscere (e ciò dopo Frege era ineludibile) la necessità di esplicitare scrupolosamente tutti gli ingredienti e i meccanismi linguistici e logici attraverso cui si organizza e si sviluppa la teoria … Ciò porta alla formalizzazione completa della teoria di cui si vuole provare la coerenza. E qui c’è da badare al fatto che la formalizzazione di una teoria non va confusa con quell’aspetto – per altro non essenziale – dei sistemi formali che è la simbolizzazione» (p. 737). «Formalizzare una teoria significa esplicitare i pezzi del linguaggio ammesso, come anche le regole di formazione delle forme espressive ammissibili e le regole di manipolazione di queste formule ammissibili. In tal modo, la teoria assume la forma di un puro calcolo che prescinde dai significati associabili ai suoi simboli e alle sue espressioni». «Dunque: l’assiomatizzazione completa di una teoria comporta la formalizzazione anche della logica che serve a costruirla. Ma così facendo la metamatematica di Hilbert con quali mezzi poteva sottoporre ad analisi critica la logica se non con la logica stessa? Non c’è forse pericolo di un circolo vizioso? Ovvero, per dimostrare la non contraddittorietà di una teoria, sarà necessario far ricorso all’evidenza, a quell’intuizione che tanti sospetti aveva attirato attorno a sé? L’idea di Hilbert è che con niente non si fa niente, per cui una certa qual circolarità è pressoché inevitabile». «Tuttavia Hilbert pensava di avvalersi di procedimenti – i cosiddetti metodi finitistici – che, pur facendo parte di quell’aritmetica che si vuol fondare, fossero talmente sicuri da non compromettere gli esiti delle dimostrazioni. … L’intuizione quindi entra nel tentativo che Hilbert fa di fondare la matematica, ma essa non è che stabilisca – per intuizione, appunto – le proprietà di determinati enti matematici; essa concerne unicamente l’effettuazione di operazioni semplicissime e così sicure ed elementari da essere accettate alla base di ogni ricerca teorica». «Durante gli anni Venti, dopo alcuni successi iniziali, si pensava che il programma di Hilbert potesse veramente venir condotto in porto». Però «Nel 1928, Hilbert aveva, nel frattempo, impostato il problema della completezza della teoria dei numeri, s’era cioè chiesto se gli assiomi di Peano della teoria elementare dei numeri erano o non erano capaci di dimostrare o di refutare ogni proposizione di quella teoria». → «Ebbene, nel 1931, Kurt Gödel», dimostra «che non è possibile costruire una teoria assiomatica dei numeri che goda della completezza voluta da Hilbert». «Ma le cose andarono ben oltre giacché, da questo primo risultato, Gödel trasse il corollario per cui un calcolo logico, con potenza sufficiente per formalizzare l’aritmetica elementare, se è coerente, è tale che in esso è indimostrabile la formula che esprime la sua coerenza. La coerenza dell’aritmetica, quindi, non si può ottenere usando gli strumenti appartenenti al sistema formale con cui si esprime l’aritmetica. Tale risultato stabilisce a chiare lettere il fallimento del sistema Hilbertiano». «Gödel fece insomma vedere che era impossibile una prova puramente sintattica della non-contraddittorietà di un sistema formale almeno così ricco da esprimere l’aritmetica elementare. Da allora in poi la garanzia della coerenza dei sistemi formali o calcoli verrà cercata nelle interpretazioni che siano “modelli” di tali calcoli». La semantica di Tarsi e l’intuizionismo di Brouwer Alfred Tarski ne «Il concetto di verità nei linguaggi formalizzati (1934) sulla semantica dei sistemi formali (che in seguito si svilupperà in quella importante branca della logica-matematica costituita dalla ‘teoria dei modelli’)», precisa «il concetto di ‘verità’ (come accordo con i fatti … non abbiamo un criterio di verità: possiamo sempre sbagliarci nel dire che una teoria è vera) e quello di ‘conseguenza logica’(che è una nozione semantica e non sintattica come quella di ‘derivabilità’)» e con esse «indaga le relazioni che si possono stabilire tra i linguaggi formalizzati e gli insiemi di oggetti sui quali tali linguaggi possono venire interpretati in maniera da dare origine a proposizioni vere su quegli oggetti … giacché è possibile dimostrare che, se un calcolo ammette un modello, tale calcolo è allora coerente. Si viene così ad avere una prova di coerenza di tipo semantico» (p. 738s). Tra i platonismi come Frege e i formalisti come Hilbert si situano «l’olandese Jan Luitzen Egbertus Brouwer (1881-1966) e i suoi seguaci, tra cui Arend Heyting (nato nel 1898), sostengono che un ente è da ritenersi matematicamente esistente solo se si riesca a costruirlo, cioè soltanto a patto che siamo in grado di darne un esempio o di indicare quella procedura che, attraverso un numero finito di passaggi, ci permette di arrivare ad un simile esempio. Questa concezione, la concezione intuizionistica, vieta il ricorso all’infinito attuale», cioè «se si parla d’infinito, se ne parla unicamente non nella maniera in cui se ne parla nella teoria degli insiemi, ma nel senso che, per es., ogni punto che sia stato eventualmente raggiunto, può essere superato». Così «l’infinito è potenziale e mai attuale. L’infinito non è costruibile». «D’altro canto, se esistenza di un ente matematico significa la sua effettiva costruzione ossia la sua avvenuta costruzione, allora quel tipo di dimostrazione che è nota come ‘legge del terzo escluso’ (“per ogni proposizione p, o p o non p”) non può essere accettato». Se negli anni Venti ebbe poca accoglienza «oggi le cose son mutate; l’intuizionismo ha mostrato tutta la sua fecondità ed è una delle correnti più interessanti della matematica contemporanea». LO SVILUPPO DELLA FISICA NEL ‘900 Questioni generali Sembra che la ricerca fisica del ‘900, finora sia «caratterizzata da un fondamentale dualismo di programmi. Il primo si è sviluppato nei primi decenni del secolo, a partire dalla crisi della meccanica nel suo impatto con l’elettromagnetismo e attorno al paradigma relativistico einsteniano. Mentre alla fine dell’Ottocento, dallo studio dei fenomeni di interazione tra la materia e le radiazioni, si sviluppava l’altro, quello quantistico». Questi due programmi «in sostanza si riferiscono a due livelli ben diversi d’osservazione: entrambe le teorie, infatti, ammettono la fisica classica come ottima approssimazione per valori delle grandezze fisiche entro i limiti della nostra quotidiana esperienza; ma la quantistica diventa necessaria per fenomeni a livelli microscopici (ad esempio fenomeni atomici, nucleari o sub-nucleari), e la relatività per velocità e lunghezze molto grandi, ad esempio su scala astronomica. Di conseguenza, i due programmi vanno studiati distintamente e un’unificazione tra di essi non pare ancora vicina; mentre un motivo d’incompatibilità non è stato ancora osservato e neppure ipotizzato» (p. 739) Einstein e le teorie della relatività «A cavallo tra i due secoli, molti tentativi erano stati fatti per ricomporre il contrasto tra le teorie di Maxwell e di Newton», «ma nel 1905, A. Einstein (1879-1955) pubblica i fondamenti della nuova teoria risolutiva, nota come ‘teoria della relatività ristretta’, nello storico articolo Sull’elettrodinamica dei corpi in movimento», il cui nucleo è «“le stesse leggi dell’elettrodinamica e dell’ottica sono valide per tutti i sistemi di riferimento per cui valgono le equazioni della meccanica. Innalzeremo questa congettura … allo stato di postulato, ed inoltre introdurremo un altro postulato che è soltanto apparentemente inconciliabile con il primo, e cioè che la luce si propaga sempre nello spazio vuoto con una velocità definita che è indipendente dallo stato di moto del corpo emittente”. Il primo postulato elimina l’esistenza dell’etere» e alle trasformazioni di Galileo «Einstein sostituisce quelle di Lorentz, ricavandole indipendentemente a partire dai due postulati». «La teoria comporta una riformulazione dei tradizionali concetti di spazio e tempo. Si possono infatti su questa base dimostrare dei teoremi che risultano in contrasto con la ‘esperienza comune’»: - «la durata di un fenomeno su un corpo in movimento è maggiore di quella dello stesso su un corpo in quiete» - «due fenomeni simultanei rispetto ad un osservatore possono non esserlo rispetto ad un altro, e viceversa» - «la lunghezza di un regolo si riduce nella direzione del suo movimento» - «la massa di un corpo aumenta con la sua velocità» - «la massa equivale ad una quantità d’energia data dalla formula E=mc^2» «Tutto ciò ha consentito numerosi ed accuratissimi controlli, che hanno dato alla teoria forti corroborazioni» che le permette di affermarsi «in breve tempo, superando ostacoli e opposizioni». «Ma, solo 11 anni dopo, ancora Einstein propone una teoria nuova che supera, generalizzandola, la precedente. Difatti, rimuovendo la limitazione a moti rettilinei uniformi, egli afferma che le leggi della fisica sono le stesse se osservate da qualunque sistema di riferimento, anche se accelerato, purché si tenga conto anche degli effetti del campo gravitazionale eventuale: è il nucleo della “teoria della relatività generale”». «Per giungere a tale risultato, Einstein parte dalla constatazione che la massa di un corpo è la stessa se misurata secondo la legge di gravitazione universale o la 2° legge della dinamica (la massa inerziale è uguale alla massa gravitazionale)». «Per cui, in ultima analisi, ogni problema fisico va risolto mediante lo studio delle proprietà geometriche dello spazio». Questa teoria, oltre a conservare le conseguenze della “teoria della relatività ristretta” «ve ne aggiunge altre che la espongono a controlli sperimentali ulteriori. Tra questi, oltre alle esatte traiettorie di vari pianeti, ricordiamo la deflessione di un raggio di luce ad opera di un campo gravitazionale (A. S. Eddington, 1919) e lo spostamento delle righe spettrali della luce emessa da stelle di grande massa (W. S. Adams, 1924)» (p. 740). «Si apre qui una via di sviluppo di ‘scienza normale’, consistente da un lato nell’elaborazione della sempre più ardua parte matematica, e dall’altro nel sottoporre la costruzione teorica a controlli sperimentali sempre più accurati e, finora, sempre con esito positivo. Tra i numerosi esperimenti attualmente allo studio, grandi interessi si appuntano sull’eventualità di rilevare le onde gravitazionali di origine cosmica, così come si rilevano le onde elettromagnetiche». La teoria dei “quanti” «‘Quanto’ è il termine coniato da M. Planck (1858-1947) per la soluzione di un problema di emissione elettromagnetica: il problema del corpo nero», egli infatti nel 1900 propose di «ipotizzare che l’energia non venga emessa e assorbita sotto forma di radiazione dalla materia con continuità, cioè per valori qualunque, ma solo per multipli interi di una certa quantità pari al prodotto tra la frequenza della radiazione e una certa costante h, la costante di Planck; la quantità h è appunto chiamata ‘quanto di energia’ e la costante h ‘quanto d’azione’». «Quel che ci interessa dal punto di vista concettuale è che Planck arriva alla sua scoperta rifiutando di tentare di adattare le teorie esistenti all’evidenza sperimentale contraria: in questo senso, è paragonabile ad Einstein». «Proprio da Einstein viene la prima verifica della teoria di Planck. Egli ipotizza che qualunque radiazione sia quantizzata, e chiama ‘fotone’ la particella corrispondente ad una radiazione di freeunza , avente energia h e quantità di moto h/c: ciò gli consente d’inquadrare nella teoria l’effetto fotoelettrico. Nel 1923, gli riuscirà un’analoga operazione nei riguardi della diffusione di raggi x o da parte di elettroni (effetto Compton)». «Si fuse presto con quello sulla quantistica lo studio della struttura dell’atomo … nasceva allora il problema di quale fosse la situazione degli elettroni attorno al nucleo. La prima risposta (1913) venne da N.H. Bohr (1885-1962): egli ipotizzò che gli elettroni ruotano secondo orbite circolari ben precise, calcolabili secondo le leggi della quantizzazione energetica, e che gli atomi assorbissero ed emettessero energia mediante salti degli elettroni da un’orbita ad un’altra, più alta o più bassa, rispettivamente. Il modello venne presto (1916) perfezionato da A.J.W. Sommerfeld (1868-1951). Le prime corroborazioni, ma anche delle parziali falsificazioni, vengono da esperimenti di spettroscopia: tuttavia la storica esperienza (1921-1922) di O. Stern (1888-1969) e W. Gerlach (nato nel 1889) dà alla teoria di Bohr, e all’intera quantistica, una delle conferme più sostanziali». «È chiaro che queste idee per i livelli microscopici contrastano con quelle di Maxwell per i livelli macroscopici: ma è lo stesso Bohr a superare la potenziale contraddizione, proponendo (1916) di interpretare la teoria di Maxwell come una descrizione statistica di ciò che avviene per un grande numero di componenti elementari. È questa la prima enunciazione di quel ‘principio di corrispondenza’ che rappresenta una delle chiavi per comprendere ed applicare la teoria dei quanti» (p. 741s). «L’idea si arricchisce ulteriormente per opera di L. V. De Broglie (nato nel 1892). Egli ipotizza che, come ad ogni onda elettromagnetica corrisponde un corpuscolo, viceversa anche a qualunque particella, con massa a riposo m0 e velocità n, corrisponde un’onda di lunghezza =h/m0, ponendo così le basi per un nuovo filone di studio teorico, la cosiddetta meccanica ondulatoria». «Dalla constatazione, sorretta da una base sperimentale sempre più ampia, che non è possibile rinunciare nello studio dei fenomeni meccanici ed elettromagnetici né al modello corpuscolare né a quello ondulatorio, è ancora Bohr a teorizzare che ogni fenomeno presenti in realtà due aspetti, entrambi veri e reciprocamente complementari ed escludentisi. È questo, in sostanza, il principio di complementarietà, base della legge quantitativa d’indeterminazione formulata da W. Heisenberg (1901-1976), che stabilisce dei precisi limiti nella possibile determinazione simultanea di grandezze che si riferiscono ai due aspetti complementari; ad esempio è impossibile determinare, ad un dato istante, la posizione e il momento (cioè il prodotto tra velocità e massa) di una particella con precisioni piccole a piacere: tanto più si determina l’una grandezza, con precisione tanto minore è possibile determinare l’altra, e viceversa». «La meccanica ondulatoria trova una sistemazione teorica con E. Schrödinger (1887-1961), che determina l’equazione alla quale deve obbedire l’onda di De Borglie (1926); M. Born (1882-1960) interpreta tale equazione di onda come un dato di significato probabilistico». «Siamo così alle basi dell’interpretazione dell’intera teoria dei quanti in senso indeterministico … ‘l’interpretazione di Copenaghen’». «La teoria dei quanti trova una prima assiomatizzazione nel 1927 ad opera di Dirac e P. Jordan (nato nel 1902), ed una seconda, più generale, elaborata verso il 1930 da J. Von Neumann (19031957). Da quei giorni, lo studio della quantistica consisterà, più che altro, nell’estenderne le applicazioni e nel rivederne la formulazione in modo più accurato, senza alcuna critica ai principi fondamentali. Come per la relatività, quindi, si apre un periodo di ‘scienza normale’». «Le ricerche nel settore sono tuttora in corso: ma i numerosi e continui tentativi di costruire una teoria unificata della natura non hanno a tutt’oggi sortito alcun effetto significativo». «Innovazioni di fondo successive ne possiamo invece trovare nel settore nel quale l’unico limite che il ricercatore ha incontrato è stato quello della strumentazione tecnica, peraltro in rapida evoluzione: nel settore cioè della struttura interna del nucleo» (p. 742). Fisica atomica, nucleare e sub-nucleare Nel 1925 «Pauli formula quel principio di esclusione che consente di collocare gli elettroni attorno al nucleo in modo coerente con le scoperte della chimica, e da quel momento lo studio delle strutture elettroniche diverrà di competenza dei chimici». «È ancora Bohr a chiamare ‘protoni’ le particelle cariche positivamente presenti nel nucleo». Da una serie di esperimenti sugli isotopi sorge «l’esigenza di un terzo tipo di particelle, pesanti ed elettricamente neutre: i “neutroni”, la cui esistenza viene dimostrata sperimentalmente da J. Chadwick (1891-1974) nel 1932». → Il quadro però si complica «per la scoperta di un gran numero di nuove particelle elementari, a cominciare dalla famiglia dei ‘mesoni’ di cui il primo componente era stato teorizzato da Heisenberg e Majorana, e sperimentalmente rilevato da H. Yukawa (nato nel 1907) nel 1935». → «Notevole è la storia di un’altra particella elementare: il ‘neutrino’. Essa era stata escogitata da Pauli nel 1930, per far quadrare i conti relativi a certi fenomeni radioattivi, e la teoria era formulata in un modo tale da non consentirne la rilevazione in alcun modo con la strumentazione al tempo disponibile. Si trattava quindi di una teoria che aveva tutto l’aspetto di una ‘ipotesi ad hoc’ per salvare la teoria dei quanti da evidenze, apparentemente contraddittorie. La prova sperimentale dell’esistenza del neutrino, e quindi l’effettivo ingresso della teoria nell’ambito della scienza, si poté avere solo circa trent’anni dopo». → «La scoperta del neutrone ha comportato l’introduzione di un terzo tipo di forza, oltre a quelle gravitazionale ed elettromagnetica: l’interazione forte; e lo studio del neutrino ne evidenziò una quarta, la ‘interazione debole’». «Per decenni si sono succeduti dei tentativi di unificare le teorie delle quattro forze fondamentali della natura», ma con scarso successo. «È invece più avanzato il processo di semplificazione dei componenti elementari della natura: le oltre centro particelle che si sono teorizzate e sperimentate dagli anni 30 ad oggi sembra possano essere ricondotte a combinazioni di poche particelle sub-elementari … dette ‘quarks’, ed ipotizzate per primo da M. Gell-Mann (nato nel 1924). La prima teoria in tal senso è stata avanzata recentemente, ed ancor più recenti sono i primi dati sperimentali significativi in proposito». Parallelamente a tutto ciò, va notato un notevole sviluppo delle applicazioni tecniche, seguendo «la vi aperta da Rutherford, di sperimentare il bombardamento dei nuclei con particelle più piccole». Grazie ad esse e a molti sperimentatori si sono fatte varie scoperte che «condurranno Fermi alla pila atomica (1924) ed altri ala bomba atomica (1945) … La prima è alla base del funzionamento delle centrali elettronucleari, dei motori a propulsione nucleare e di tante altre applicazioni pacifiche; la seconda, invece, di micidiali ordigni bellici» (p. 743). Le ricerche anche in questo campo sono vive. L’interdisciplinarietà e le discipline “di confine” «Abbiamo seguito, a partire dai primi dell’800, un processo di progressiva specializzazione degli scienziati, e oggi ne vediamo gli effetti esasperati. Sarebbe però un errore vedere in esso un carattere distintivo della scienza avanzata: la ripartizione delle conoscenze in discipline è spesso una pura convenzione, e la specializzazione è un caro prezzo che si è pagato alla vertiginosa rapidità del progresso». «Vanno quindi intesi come opportuni correttivi della anomala situazione nella quale versa la ricerca scientifica attuale, dure realtà metodologiche emerse in questo secolo e che caratterizzano la ricerca attuale. La prima è l’istituzione di équipes formate da studiosi di culture e formazioni diverse … La seconda realtà è costituita dalla nascita e dallo sviluppo delle discipline di ‘confine’, a cavallo cioè tra i settori disciplinari tradizionali: tra queste, ricordiamo la chimica-fisica, l’astrofisica, la biochimica, la biofisica, la geofisica e molte altre. Queste vere e proprie nuove discipline, anziché contribuire alla settorializzazione ulteriore, costituiscono assieme alle équipes interdisciplinari, dei canali attraverso i quali le discipline e i ricercatori riprendono a comunicare dopo circa un secolo e mezzo di separazione». «Ritroviamo così un orientamento verso quell’unitarietà della ricerca scientifica che si era andata perdendo nel secolo scorso». LA FILOSOFIA DELLA SCIENZA TRA LE DUE GUERRE LINEAMENTI GENERALI «Il principale centro per la filosofia della scienza fu, in quel periodo, l’Università di Vienna, dove un gruppo di scienziati-filosofi, riuniti attorno a Moritz Schlick, diedero vita al Circolo di Vienna (Wiener Kreis)». «Il pensiero dei Circolasti va sotto il nome di Neopositivismo o Positivismo logico ed è caratterizzato da un deciso atteggiamento antimetafisico e da tutta una serie di approfondite analisi di grande rilievo sul linguaggio, la struttura e i metodi delle scienze naturali e sui fondamenti della matematica. Il nucleo di fondo della filosofia viennese è il principio di verificazione, stando al quale hanno senso soltanto le proposizioni che si possono empiricamente verificare attraverso il ricorso ai fatti d’esperienza. È in base a questo principio che i Neopositivisti decretarono l’insensatezza di ogni asserto metafisico e teologico affermando, inoltre, la riduzione delle norme etiche ad un insieme di emozioni». «L’avvento al potere da parte di Hitler portò con sé anche la fine del Wiener Kreis. Alcuni circolasti (come Carnap, Feigl, ecc.) emigrarono negli Stati Uniti e qui il loro pensiero entrò in simbiosi con le correnti empirico-pragmatistiche della filosofia americana. Tale contatto allargò, nella direzione semantico-pragmatica, le prospettive del Neopositivismo che, con Carnai, fu avviato verso una maggiore liberalizzazione». «Mentre questo accadeva in America, Wittgenstein imprimeva alla filosofia inglese una profonda svolta, respingendo le pretese metafisiche e assolutistiche del principio di verificazione e indirizzando la filosofia verso l’analisi dei diversi giochi-di-lingua che intessono l’umano linguaggio il quale è ben più ricco, più articolato e più sensato nelle sue manifestazioni non scientifiche di quanto non avessero mai immaginato i Neopositivisti». «E, nel frattempo, Karl R. Popper reimpostava su altra base i problemi dei Neopositivisti, offrendo per essi soluzioni diverse e maggiormente consistenti, senza affatto negare la sensatezza dei linguaggi non scientifici, come è il caso delle proposizioni metafisiche». Vicino ad alcuni nuclei centrali del Neopositivismo c’è poi «l’Operazionismo del fisico americano Percy William Bridgman il quale sostenne la riduzione del significato dei concetti scientifici ad un insieme di operazioni», mentre «una filosofia non positivista della scienza veniva elaborando, in quel periodo, il francese Gaston Bachelard, il cui influsso si è visto a distanza di anni e le cui idee, quali quelle della ‘rottura epistemologica’ o di ‘ostacolo epistemologico’ e soprattutto la sua considerazione della storia della scienza come strumento primario nell’analisi della razionalità, si sono rivelate, ai nostri giorni, sempre più importanti» (p. 750). IL NEOPOSITIVISMO VIENNESE Le origini e la formazione del Circolo di Vienna «Vienna costituiva un terreno particolarmente adatto per lo sviluppo delle idee neopositiviste, a motivo del fatto che qui, durante la seconda metà del secolo XIX, il Liberalismo (con il suo patrimonio di idee originato dall’Illuminismo, dall’Empirismo e dall’Utilitarismo) rappresentò l’orientamento politico preminente». «Per di più, l’Università di Vienna, si era mantenuta – data l’influenza della Chiesa cattolica – sostanzialmente immune dall’Idealismo; e fu così la mentalità scolastica, come ricorda uno dei membri più attivi del Circolo e cioè Neurath, che preparò la base per l’approccio logico alle questioni filosofiche». Già prima della guerra del ’14-’18 un gruppo di giovani «“si incontravano il giovedì sera, in un caffè della vecchia Vienna, per discutere soprattutto questioni di filosofia della scienza”», riunioni che più tardi saranno ricordate «come l’epoca ‘presistorica’ del Neopositivismo, la cui storia vera e propria inizia nel ’24 quando Herbert Feigl e Friedrich Waismann andarono a parlare a Schlick con l’idea di formare un gruppo di discussione. Schlick acconsentì e, come risultato, si ebbero i colloqui del venerdì sera. Tale fu l’inizio del circolo di Vienna». «Nel ’26 anche R. Carnap fu chiamato all’Università di Vienna. Hahn e Schlick lo preferirono ad Hans Reichenbach che, da pare sua, a Berlino, aveva formato la Società per la filosofia scientifica», i cui scopi e le attività «erano analoghi a quelli del Circolo viennese. E stretti legami tra i due gruppi vennero intessuti fin dagli inizi, anche sulla base dei rapporti personali esistenti tra Carnap e Reichenbach» e altri. Il manifesto programmatico del Wiener Kreis «Nel 1929 veniva intanto pubblicato, a firma di Neurath, Hahn e Carnap, il ‘manifesto’ del Circolo viennese: La concezione scientifica del mondo» (p. 751), a cui seguì nel settembre del ’29 «a Praga, un convegno, promosso dai gruppi viennese e berlinese sulla ‘Gnoseologia delle scienze esatte’» (e a cui ne seguirono altri), e l’anno dopo «nel ’30, col titolo “Erkenntnis” (Conoscenza) cominciò ad apparire la prestigiosa rivista filosofica del movimento, diretta da Carnap e Reichenbach». «Le linee essenziali del programma neopositivistico … erano le seguenti: 1) la formazione di una Einheitswissenschaft, cioè di una scienza unificata, comprendente tutte le conoscenze fornite dalla fisica, dalle scienze naturali, dalla psicologia ecc.; 2) il mezzo per tale fine doveva consistere nell’uso del metodo logico di analisi elaborato da Peano, Frege, Whitehead e Russel; 3) i risultati dell’applicazione di tale metodo al materiale delle scienze empiriche venivano prospettati: a) nell’eliminazione della metafisica; b) nei contributi alla chiarificazione dei concetti e delle teorie della scienza empirica e alla chiarificazione dei fondamenti della matematica». Le teorie fondamentali del Neopositivismo Pur nelle discordanze, essi «hanno affermato: 1) che il principio di verificazione costituisce il criterio di distinzione tra proposizioni sensate e proposizioni insensate, talché tale principio si configura come criterio di significanza delimitante la sfera del linguaggio sensato dal linguaggio senza senso che porta all’espressione il mondo delle nostre emozioni e delle nostre paure; 2) che, in base a tale principio, hanno senso unicamente le proposizioni passibili di verifica empirica o fattuale, vale a dire le asserzioni delle scienze empiriche; 3) che la matematica e la logica costituiscono soltanto complessi di tautologie, convenzionalmente stipulate e incapaci di dire alcunché sul mondo; 4) che la metafisica, insieme all’etica e alla religione, non essendo costituite da concetti e proposizioni fattualmente verificabili, sono un insieme di questioni apparenti (Scheinfragen) che si basano su pseudo-concetti (Scheinbegriffe); 5) che il lavoro che rimane da fare per il filosofo serio è l’analisi della semantica (rapporto tra linguaggio e realtà cui il linguaggio si riferisce) e della sintattica (relazioni dei segni di un linguaggio tra di loro) dell’unico discorso significante, cioè del discorso scientifico; 6) per questo, la filosofia non è dottrina, ma attività: attività chiarificatrice del linguaggio» (p. 752). Con loro dunque «prese decisiva consistenza la filosofia della scienza, intesa alla maniera moderna, come disciplina autonoma tendente all’esplicitazione consapevole e sistematica del metodo e delle condizioni di validità delle asserzioni fatte proprie dagli scienziati». L’antimetafisica del Wiener Kreis Per loro le proposizioni della metafisica sono «“null’altro che alcuni determinati stati d’animo”», o «“servono solo ad esprimere sentimenti vitali”» e così «per Carnap la metafisica sorge allorché si accettano come significanti termini che non hanno riferimento nell’esperienza e con tali termini … si costruiscono frasi che pretendono, senza poterlo, parlarci della realtà». «D’altro canto, per Neurath costituiva un compito improrogabile quello “di mettere in atto un linguaggio il più possibile libero dalla metafisica”», abbandono che per Reichenbach era la logica conseguenza della «sdivinizzazione (Engötterung) della natura». M. Schlick e il principio di verificazione «I primi membri del Circolo di Vienna lessero e commentarono il Tractatus logico-philosophicus di Ludwig Wittgenstein. Questi aveva scritto che “comprendere una proposizione vuol dire sapere come stiano le cose nel caso che sia vera” (prop. 4024). Ciò per Schlick (si veda il suo saggio Significato e verificazione) voleva dire che “il significato di una proposizione è il metodo della sua verifica”» (p. 753) e quindi compito specifico della filosofia «“è quello di cercare e chiarificare il senso delle asserzioni e delle questioni”. E “il senso di una proposizione consiste unicamente nel fatto che la proposizione esprime un determinato stato di cose”, che quindi occorre mostrare se si vuole indicare il senso di una proposizione. Pertanto “qualora vogliamo trovare il senso di una proposizione, dobbiamo trasformarla attraverso l’introduzione di definizioni successive, finché, da ultimo, ci troveremo di fronte a parole che non potranno venire ulteriormente definite con parole, cioè il cui significato potrà soltanto venir direttamente mostrato. Il criterio per la verità o la falsità di una proposizione consiste dunque nel fatto che, sotto determinate condizioni, alcuni eventi si danno oppure no. Se si è stabilito ciò, si è stabilito tutto quello di cui nella proposizione si parla, e con ciò si conosce il suo senso”. È ovvio che la verificabilità in questione non è una verificabilità di fatto ma di principio, “poiché il senso di una proposizione non dipende naturalmente dal fatto che le circostanze in cui noi direttamente ci troviamo in un dato tempo, permettono o impediscono la sua fattuale verificazione”». Questa, grosso modo, era anche la linea di Carnap, per cui «le parole hanno significato solo quando indicano qualche cosa di fattuale, gli asserti hanno un senso solo se esprimono un possibile stato di cose». Neurath e il fisicalismo «Il principio di verificazione venne ben presto fatto oggetto di severe critiche. Esso apparve subito a molti come un principio metafisico (o, per essere più esatti, criptometafisico) che in nome della scienza condannava aprioristicamente il senso di qualsiasi altro discorso». «Ma, a parte ciò, col principio di verificazione la scienza non pareva trovasse una sistemazione capace di salvarla, dato che la scienza veniva fondata su esperienze del tutto soggettive o inficiate di solipsismo», «e poi, formulato il principio di verificazione, ci si trovava immediatamente dinnanzi a questo dilemma: o il criterio è un’asserzione fattuale, e allora non è più una norma assoluta con cui giudicare il linguaggio come significante o insignificante; ovvero si afferma come norma e allora si cade in un’impasse, in quanto la norma, per il suddetto principio, non ha senso». «Ebbene, nel tentativo di superare questa situazione difficoltosa della prima fase del Circolo (la cosiddetta fase ‘semantica’), Neurath ne capovolge l’orientamento semantico nella direzione sintattica, o, come si dice, fisicalista» e «in Scienza unificata e psicologia (1933), afferma la necessità di porsi in un linguaggio dove tutte le proposizioni debbano già dall’inizio risultare intersoggettive. E, per questo, non bisogna partire dalla concezione irrimediabilmente viziata di metafisica, secondo cui si assume il linguaggio nella sua funzione di rappresentazione proiettiva dei fatti. Il linguaggio deve essere preso come un fatto fisico, come un insieme di suoni e di segni. La scienza è la totalità delle asserzioni empiriche pronunciate o scritte ed esse – tracce d’inchiostro o sistemi di onde aeree – sono allo stesso tempo ciò di cui la scienza parla e ciò con cui essa si esprime … noi aumentiamo la scienza aumentando la qualità delle sue proposizioni, confrontando le nuove proposizioni con quelle già in uso e creando un sistema privo di contraddizioni adatto a fare con successo delle predizioni», così l’unica cosa che si può affermare è che «“oggi operiamo con il sistema spazio-temporale che corrisponde alla fisica». Tutto ciò, porta «a un mutamento radicale nel criterio di accettabilità», infatti «la teoria della verità come corrispondenza tra una proposizione e un fatto è sostituita da quella della verità come coerenza tra proposizioni … Dunque, una proposizione è ‘non corretta’ se essa non si accorda con le altre proposizioni riconosciute e accettate nel corpus delle scienze, altrimenti è ‘corretta’». «Questo è l’unico criterio con cui progettare una enciclopedia delle scienze unificata, utilizzando l’unico linguaggio sensato che è quello delle scienze fisiche»: Neurath preferisce enciclopedia e non sistema «per l’apertura e l’incompletezza che contraddistinguono la prima» e perché così «evitano di diventare un mausoleo e rimangono una forza intellettuale viva ed utile all’umanità». Carnap e il linguaggio fisicalistico come linguaggio universale della scienza Queste idee «portarono nel circolo potentissimi germi di discussione», e chi le accolse più di tutti fu Carnap, che però ne tentò «un ripensamento per una più adatta fondazione del fisicalismo». Ora due erano i suoi nuclei «la concezione del linguaggio come atto fisico … l’esigenza della scienza unificata su base fiscalista» e «Carnap accetta senz’altro la tesi dell’universalità della lingua fisicalista, senza però insistere sulla riduzione del linguaggio a fatto fisico e quindi senza rigettare la funzione simbolica dei segni» ed «il linguaggio fisico deve essere assunto come linguaggio della scienza unificata … perché ha le tra caratteristiche dell’intersensualità, dell’intersoggettività e dell’universalità» (p. 755s). Ma «come possiamo determinare il rapporto linguaggio-realtà? Su questo rapporto è divampata la polemica Schlick-Neurath», e se a Carnap interessava poco, «era scottante per Schlick, il quale non si poteva rassegnare alla proposta dei ‘convenzionalisti’ di considerare valido ogni linguaggio non contraddittorio», che «non è sufficiente a rendere ragione della scienza: anche una favola ben congegnata può essere non contraddittoria, ma senza che per questo sia ritenuta scientifica». Schlick così «ha avuto nel Circolo la funzione dialettica del continuo richiamo ai fatti, richiamo che come dice Russel, fa vera ogni asserzione. Ciò contro i convenzionalisti» che, «preoccupati da un supposto e temuto infiltrarsi della metafisica …, finivano quasi per abbandonare l’empirismo», dimenticando «che lo scopo della parole è di occuparsi di cose diverse dalle parole». Così se per i convenzionalisti la scienza «si tratta sempre di giochi di segni», per Schlick pure lo è «ma è un gioco che viene giocato sulla scacchiera della natura». Il trapianto del Neopositivismo in America «Dal 1930 circa sino al 1938, anno in cui ha luogo l’annessione nazista dell’Austria, si assiste alla fase del decollo internazionale del Circolo di Vienna». «Questa fase è contraddistinta da autorevoli riconoscimenti e da rilevanti acquisizioni dottrinali» e da una «progressiva diaspora del gruppo originario, con conseguente ‘trapianto’ del movimento di pensiero, ormai noto come ‘Neopositivismo’ o ‘Positivismo logico’ o ‘Empirismo logico’, soprattutto oltre Atlantico, cioè negli Stati Uniti». «L’ingresso del Neopositivismo in America per un verso consentì ai filosofi statunitensi di affinare analiticamente il proprio orientamento scientifico, concentrandosi su problemi metodologici ben circoscritti, per l’altro indusse i pensatori d’origine europea ad arricchire, con considerazioni di carattere semantico-pragmatico, la loro prospettiva filosofica, smorzandone l’iniziale enfasi formalistica in materia di linguaggio» (p. 757s) Liberalizzazione e superamento delle tesi neopositivistiche «Le difficoltà in cui si erano imbattute le tesi neopositivistiche, e soprattutto il principio di verificazione, non vennero affatto protette. Anzi, esse furono formulate con tutta chiarezza e lo sforzo per superarle condusse, da una parte alla nuova filosofia di Wittgenstein (alla filosofia del cosiddetto ‘secondo’ Wittgenstein), dall’altra all’epistemologia falsificazionista di Karl Popper, e dall’altra ancora alla liberalizzazione del Neopositivismo operata da Rudolf Carnap». Dalle note scritte dal gennaio 1929 al settembre 1930, Wittgenstein, raccolte nel suo Osservazioni filosofiche, si evince come «se la filosofia del primo Wittgenstein aveva spronato i Circolisti a costruire un linguaggio perfetto, ora l’introduzione, da parte dello stesso Wittgenstein del principio d’uso (secondo cui il significato di una parola è il suo uso nella lingua) spinge i seguaci del Neopositivismo a riesaminare il loro atteggiamento intransigente e soprattutto il loro programma di costruzione di un linguaggio privilegiato». K. Popper invece «a partire dalla Logica della scoperta scientifica del ’34», muoveva forti critiche «al principio di verificazione. Questo gli appariva auto-contraddittorio, cripto-metafisico e incapace di render conto delle leggi universali delle scienze empiriche» «Chi più e prima degli altri Circolasti avviò comunque la liberalizzazione dell’Empirismo fu R. Carnap, a partire dagli anni ’30, mentre insegnava a Praga» e questo «“per rendere giustizia al carattere aperto e all’inevitabile mancanza di certezza di ogni conoscenza fattuale”». → Stando infatti «alla concezione originaria del Wiener Kreis, il sistema di conoscenza, pur divenendo costantemente più comprensivo, era considerato un sistema chiuso nel senso seguente: secondo i Circolisti – almeno all’inizio del lavoro – vi era un minimo di conoscenza, la conoscenza dell’immediatamente dato, che era indubitabile; supponevano che ogni altro tipo di conoscenza poggiasse saldamente su questa base e che si potesse perciò stabilire con altrettanta certezza» (p. 758); concezione che «strettamente legata al principio wittgensteiniano della verificabilità, implicava simultaneamente una (non molto sostenibile) immagine giustificazionista della scienza». «Difatti, il principio di verificazione almeno come era stato formulato nei primi tempi del Circolo) è incapace di tener conto della scienza per due ragioni fondamentali: in primo luogo gli asserti protocollari (o di base o di osservazione) non sono affatto incontrovertibili, e poi – la questione è centrale – una serie quantunque numerosa di osservazioni analoghe reiterate non riesce a fondare logicamente le leggi universali della scienza». → «Per tutto ciò, Carnap, in Controllabilità e significato (1936), invece che di verificabilità parlerà di controllabilità e di confermabilità: “Diremo che una proposizione è controllabile, se, di fatto, conosciamo un metodo per procedere alla sua eventuale conferma; mentre diremo che è confermabile, se sappiamo sotto quali condizioni essa in linea di principio sarebbe confermata”. Carnao distingue, inoltre, tra confermabilità completa e confermabilità incompleta: la prima si ha quando una proposizione è riducibile ad una classe finita di proposizioni contenenti predicati osservabili … mentre una proposizione è confermabile incompletamente se c’è una classe infinita di proposizioni che contengono predicati osservabili e sono conseguenze della proposizione data». «E la richiesta di confermabilità incompleta è, per Carnap, una formulazione sufficiente del principio dell’empirismo: una formulazione capace di render conto della conoscenza scientifica, in grado di distinguere questa dalle asserzioni metafisiche e priva dei difetti di cui era carico il principio di verificazione». L’OPERAZIONISMO DI P.W. BRIDGMAN I concetti ridotti ad operazioni Operazionismo dovuto «al fisico (e premio Nobel) americano Percy William Bridgman (18821961), il quale l’ha elaborata in due volumi (La logica della fisica moderna, 1927, e La natura della teoria fisica, 1936) e poi via via specificata in una serie di saggi scritti dal 1934 al 1959 (ora raccolti in italiano in La critica della scienza)». «Di fronte ai rivoluzionari sconvolgimenti della fisica contemporanea, Bridgman sostiene nella Logica della fisica moderna che … “quando l’indagine sperimentale tocca campi nuovi, dobbiamo attenderci fatti nuovi, di un carattere totalmente diverso dai fatti già a noi noti … Fino ad un certo punto, naturalmente il riconoscimento di tutto ciò non comporta un cambiamento di atteggiamento: il fatto è sempre stato per il fisico l’argomento decisivo contro cui non v’è appello, e di fronte al quale l’unico atteggiamento possibile è un’umiltà quasi religiosa. La nuova caratteristica della situazione attuale è una più profonda convinzione nella reale esistenza di nuovi generi di esperienze e nella possibilità di incontrarne continuamente”. E nel riconoscere questo è implicito che “nessun elemento di una situazione fisica, comunque irrilevante o banale, può venir trascurato come privo di effetti sul risultato finale, fino a che gli esperimenti non proveranno effettivamente questa mancanza di effetti”. Per tutto ciò, “l’atteggiamento del fisico deve … essere un atteggiamento di puro empirismo. Egli non deve ammettere nessun principio a priori che determini o limiti le possibilità di nuove esperienze. L’esperienza è determinata soltanto dell’esperienza. Questo praticamente significa che noi dobbiamo rinunciare alla pretesa che tutta la natura venga abbracciata in una formula, semplice o complicata”» (p. 759s). «E perché solo l’esperienza sia guida di se stessa, Bridgman sostiene che occorre … ridurre il significato dei concetti scientifici ad una operazione empirica o ad un insieme di operazioni». Nel caso della lunghezza ad esempio, questo concetto risulta «“fissato quando sono fissate le operazioni mediante cui la lunghezza si misura; vale a dire, il concetto di lunghezza implica né più né meno che il gruppo di operazioni con cui la lunghezza si determina”». Se invece «il concetto è mentale, come nel caso della continuità matematica, le operazioni sono operazioni mentali, cioè quelle mediante cui determiniamo se un dato insieme di grandezze è continuo o no». Guardare a quanto la teoria fa Così «“L’aspetto più importante di una teoria è quello che questa teoria effettivamente fa, non quello che dice di fare né quello che il suo autore ritiene che essa faccia … Dal punto di vista critico la tecnica più importante consiste nel capire chiaramente e nel riferire altrettanto chiaramente quello che uno effettivamente fa e quello che effettivamente avviene in una determinata situazione, e si tratta di una tecnica che non si acquista tanto facilmente e in cui si diventa esperti solo praticandola di continuo”». «Se noi definiamo un concetto non in termini di proprietà ma in termini di operazioni effettive, allora “evitiamo il pericolo di dover rivedere il nostro atteggiamento verso la natura», perché «vi sarà sempre corrispondenza fra l’esperienza e la nostra decisione di essa» (p. 760). Una prima ed immediata conseguenza dell’adozione dell’operazionismo, è che «tutta una serie di problemi e di concetti risulterebbero privi di significato», problemi anche sociali e filosofici. La discussione sull’Operazionismo Accusato di solipsismo disse «“La scienza è soltanto la mia scienza privata”, anche se “nel decidere quello che deve essere la mia scienza privata trovo utile considerare solo quegli aspetti della mia esperienza in cui i miei simili agiscono in un particolare modo”, ed anche se “tutta la storia linguistica della razza umana è una storia della deliberata soppressione delle evidenti differenze operazionali fra le mie sensazioni e le tue sensazioni, fra il mio pensiero e il tuo pensiero”». Altro punto discusso è che se «si afferma che un concetto è equivalente ad un corrispondente gruppo di operazioni, allora occorre essere conseguenti nel senso che, “se abbiamo più di un gruppo di operazioni, abbiamo più di un concetto e a rigore dovremmo dare un nome distinto ad ogni differente gruppo di operazioni”. Per cui, se noi misuriamo una distanza prima con aste rigide e poi con triangolazioni ottiche, noi avremo due concetti». «In questo modo, fa notare C. G. Hempel in Filosofia delle scienze naturali, “la massima operativa … ci obbligherebbe a favorire una proliferazione di concetti di lunghezza, di temperatura e di tutti gli altri concetti scientifici, che non sarebbe soltanto poco maneggevole in pratica, ma teoricamente senza un termine”» (p. 761). Quindi «non bisogna essere troppo sbrigativi con le questioni e i concetti supposti privi di senso, poiché non pare esservi sinonimia tra ‘ambito del vero’ e ‘ambito dell’operativamente accettabile’: una teoria può essere vera anche se non lo possiamo accertare, talché ‘ non accertabile operativamente’ non equivale a ‘privo di senso’». «Non va, infine, dimenticato l’influsso che l’Operativismo ha avuto, soprattutto in America, sulla metodologia delle scienze sociali e psicologiche». L’EPISTEMOLOGIA DI GASTON BACHELARD La scienza non ha la filosofia che si merita Gaston Bachelard (1884-1962), laureato in matematica e filosofia, insegnante di fisica e scienze naturali e di filosofia. Le sue opere epistemologiche, tutte tra il ’32 e il ’40, appaiono in un periodo in cui la filosofia della scienza «si presenta come una concezione antimetafisica da una parte e sostanzialmente astorica dall’altra» e così egli propone «un non-positivismo radicale e deliberato». I tratti di fondo del suo pensiero «possono ridursi ai seguenti quattro: 1) il filosofo deve essere ‘contemporaneo’ alla scienza del proprio tempo; 2) sia l’Empirismo di tradizione baconiana sia il Razionalismo idealistico sono incapaci di rendere conto della reale ed effettiva pratica scientifica; 3) la scienza è un evento essenzialmente storico; 4) la scienza possiede un ineluttabile carattere sociale» (p. 762). Egli così nota che «la filosofia è sempre in ritardo di una mutazione sul sapere scientifico. E alla ‘filosofia dei filosofi’ Bachelard cerca di opporre “la filosofia prodotta dalla scienza”». Se ciò che caratterizza la prima «sono attributi come l’unità, la chiusura e l’immobilità», i tratti distintivi della seconda sono «mancanza di un’unità o di un centro, l’apertura e la storicità», una filosofia dunque «dispersiva, distribuita:“si dovrebbe fondare una filosofia del dettaglio epistemologico, una filosofia differenziale da contrapporre alla filosofia integrale dei filosofi. Sarebbe questa filosofia differenziale ad essere incaricata di misurare il divenire del pensiero”», perché «“ogni altra filosofia si gloria della sua chiusura”». È la scienza che istruisce la ragione Per tutto ciò occorre «che il filosofo abbia fiducia dello scienziato, che sia egli stesso scienziato (savant) prima che philosophe», inoltre «Bachelard non accetta un criterio a priori che abbia la presunzione di cogliere l’essenza della scientificità. Non è la Ragione filosofica che ammaestra la scienza, quanto piuttosto è “la scienza che istruisce la ragione”». Così «“lo spirito ha una struttura variabile dal momento che la conoscenza ha una storia”. E se la conoscenza ha una storia, allora lo strumento privilegiato per le indagini di filosofia della scienza non è, come per i Neopositivisti, la logica, bensì la storia della scienza, concepita come l’individuazione delle fasi effettive attraversate dallo sviluppo del sapere scientifico». Pur combattendo la filosofia dei filosofi poi, egli non reputa «la metafisica come insensata o indifferente per la scienza stessa», perché «se è vero che “un po’ di metafisica ci allontana dalla natura, molta metafisica ce ne avvicina”». Bachelard dunque «non nutre pregiudizi antifilosofici o antimetafisici in nome della scienza. Egli avversa la filosofia che non è contemporanea alla scienza; schernisce i filosofi che “pensano prima di studiare”, e sotto la cui penna “la relatività degenera in relativismo, l’ipotesi in supposizione, l’assioma in verità prima”» (p. 763). Le “rotture epistemologiche” Empirismo tradizionale e Razionalismo idealistico sbagliano, «“Ragione assoluta – sentenzia Bachelard – e reale assoluto sono due concetti filosoficamente inutili”. La realtà è, per Bachelard, che non possiamo considerare la scienza indipendentemente dal suo divenire. E il ‘reale scientifico’ non è immediato e primario: “esso ha bisogno di ricevere un valore convenzionale. Bisogna che esso sia ripreso in un sistema teorico. Qui, come dappertutto, è l’oggettivazione che domina l’oggettività”. Il ‘dato scientifico’ , pertanto, è sempre relativo a sistemi teorici. Lo scienziato non parte mai dall’esperienza pura. A tal proposito, in La formazione dello spirito scientifico, Bachelard scrive che: “si conosce contro una conoscenza anteriore, distruggendo conoscenze mal fatte, superando ciò che, all’interno dello stesso spirito fa ostacolo alla spiritualizzazione” … “Quando si presenta alla cultura scientifica, lo spirito non è mai giovane. È anzi molto vecchio, perché ha l’età dei suoi pregiudizi. Accedere alla scienza vuol dire, spiritualmente, ringiovanire, vuol dire accettare una brusca mutazione che deve contraddire un passato”». «Queste successive contraddizioni del ‘passato’ sono, secondo Bachelard, delle autentiche rotture (coupures) epistemologiche le quali comportano, di volta in volta, la negazione di qualcosa di fondamentale (presupposti, categorie centrali, metodi) su cui si reggeva la ricerca della precedente fase: e la teoria della relatività e la teoria quantistica, col loro mettere in discussione i concetti di spazio, tempo e causalità, rappresenterebbero alcune tra le più clamorose conferme dell’idea di rottura epistemologica. La storia della scienza avanza, dunque, per successive rotture epistemologiche». Ma c’è rottura «anche tra sapere comune e conoscenza scientifica», perché «per uno spirito scientifico, ogni teoria è la risposta ad una domanda. E il senso e la costruzione del problema sono le caratteristiche prime dello spirito scientifico: la conoscenza volgare è fatta di risposte, la conoscenza scientifica vive nell’agitazione dei problemi. “L’io scientifico è programma d’esperienze, il non-io scientifico invece è problematica già costruita”». Non c’è verità senza errore rettificato «Poiché, diversamente dalle routines incorreggibili dell’esperienza comune, la conoscenza scientifica avanza per successive rettificazioni delle teorie precedenti … per andare avanti, occorre avere il coraggio di sbagliare. Psicologicamente, “non c’è verità senza errore rettificato”. Ma al di là del sentimento psicologico, … “Dal punto di vista scientifico, il vero è pensato come rettificazione storica d’un lungo errore, l’esperienza come rettificazione dell’illusione comune e primitiva”. Una verità sullo sfondo di un errore: questa è la forma del pensiero scientifico» (p. 764) Così «“il pensiero scientifico è un pensiero impegnato. Esso mette continuamente in gioco la sua stessa organizzazione. C’è di più. Paradossalmente sembra che lo spirito scientifico viva nella strana speranza che lo stesso metodo si imbatta in uno scacco vitale. Ciò perché uno scacco ha come conseguenza il fatto nuovo e l’idea nuova”». «Lo spirito non scientifico, invece, è quello che diventa “impermeabile alle smentite dell’esperienza”: è questa la ragione per cui le routines sono incorreggibili e le idee vaghe sono sempre verificabili; ed è questa la ragione per cui è antiscientifico l’atteggiamento di colui che trova sempre la maniera di verificare la propria teoria piuttosto che mostrarla errata e quindi rettificarla». «Tra la “conoscenza sensibile” e la “conoscenza scientifica” c’è, pertanto, rottura. Di conseguenza, Bachelard avversa le pretese e la pratica della divulgazione scientifica», perché «si fondano sull’incomprensione della rottura epistemologica esistente tra l’esperienza comune e l’esperienza scientifica … e i loro relativi linguaggi (generico quello della conoscenza comune, specialistico quello della conoscenza scientifica)», tanto più che «le nozioni e i concetti della scienza sono tali in quanto si oppongono a quelli della conoscenza volgare. La conoscenza scientifica non è immediata: ogni dato scientifico e ogni idea scientifica sono l’esito di un lungo lavoro (di costruzione e di rettificazione) razionale. Nella scienza “niente va da sé. Niente è dato. Tutto è costruito”». Lo “ostacolo epistemologico” «La conoscenza scientifica avanza per successive rotture epistemologiche; è in questo modo che essa si approssima alla verità», rettificazioni che però «non sono passi effettuabili con facilità, e ciò per la ragione del loro scontro con quelli che Bachelard chiama ‘ostacoli epistemologici’», e che «“appaiono per una sorta di necessità funzionale, all’interno stesso dell’atto conoscitivo … la conoscenza del reale è una luce che proietta sempre da qualche parte delle ombre”». Così «potremmo dire che l’ostacolo epistemologico è un’idea che proibisce e blocca altre idee: abitudini intellettuali incallite, l’inerzia che fa ristagnare le culture, teorie scientifiche insegnate come dogmi, i dogmi ideologici che dominano le diverse scienze», ecc. «Il primo ostacolo da superare è quello di abbattere l’opinione», che «“non pensa; traduce bisogni in conoscenze. Decifrando gli oggetti secondo la loro utilità, si impedisce di conoscerli”». «Un altro ostacolo è la mancanza del genuino senso dei problemi, senso che si perde allorché la ricerca si rattrappisce dentro la crosta delle conoscenze date per scontate, non più problematizzate. Mediante l’uso, le idee – dice Bachelard – si valorizzano indebitamente. E questo è un vero e proprio fattore d’inerzia per lo spirito. Si dà il caso che talvolta un’idea dominante polarizza uno spirito nella sua totalità». «Ostacoli di grande rilievo e difficili da rimuovere sono: quello dell’esperienza prima, dell’esperienza che pretende di porsi al di là della critica; quello che può chiamarsi l’ostacolo realista e che consiste nella seduzione dell’idea di sostanza; e quello che è l’ostacolo animista (“La parola vita è una parola magica. È una parola valorizzata”)» (p. 765s). «Dinanzi a queste realtà costituite dagli ostacoli epistemologici, Bachelard propone una psicanalisi della conoscenza oggettiva finalizzata alla individuazione e alla messa fuori gioco di quegli ostacoli che bloccano lo sviluppo dello spirito scientifico». Scienza e storia della scienza «Tutto ciò mostra anche la funzione della negazione all’interno della nostra attività di conoscenza e all’interno della filosofia stessa, che, ad avviso di Bachelard, deve configurarsi come una filosofia del non, decisa nel respingere le pretese dei vecchi sistemi di presentarsi come concezioni assolute e totalizzanti della realtà e di imporre principi intangibili alla scienza. La tesi di Bachelard è che l’evoluzione della conoscenza è senza fine e che la filosofia deve venir istruita dalla scienza», ma «prima d’ogni altra cosa, bisogna prender coscienza del fatto che l’esperienza nuova dice no all’esperienza vecchia … Tuttavia, questo no non è mai definitivo per uno spirito che sa dialetticizzare con i propri principi, costruire in se stesso nuove specie di evidenza, arricchire il proprio corpo di spiegazioni senza concedere nessun privilegio a quello che sarebbe un corpo di spiegazioni naturali buono a spiegare tutto”. Non c’è una Ragione al di sopra o fuori della pratica scientifica e della storia della scienza». «La scienza trova i suoi fondamenti nella storia. E questa storia, frutto di lavoro collettivo (giacché “il lavoro isolato deve riconoscere ‘che da solo non avrebbe trovato niente’”), va riscritta e sempre diversamente approfondita ogni qualvolta la ‘città scientifica’ va soggetta a una delle sue trasformazioni: è infatti solo con la scienza di oggi che possiamo leggere e interpretare la scienza di ieri» (p. 766). IL RAZIONALISMO CRITICO DI KARL R. POPPER LA VITA E LE OPERE «Karl Raimund Popper è nato a Vienna nel 1902 … Si laurea in filosofia nel 1928 discutendo la sua tesi di laurea (Sulla questione del metodo della psicologia del pensiero) con lo psicologo Karl Bühler. Nel 1929 si abilita all’insegnamento della matematica e della fisica nelle scuole secondarie (inferiori)». «Nel 1934 (ma con data 1935) esce la sua fondamentale opera Logica della scoperta scientifica». «Essendo di origine ebraica, emigra nel 1937 in Nuova Zelanda … Agli inizi del ’46 … si trasferisce in Inghilterra. Quivi prosegue il suo lavoro di filosofia e di filosofia della scienza. E i risultati di questo lavoro sono sostanzialmente nei due volumi Congetture e confutazioni del 1963 e Conoscenza oggettiva del 1972». POPPER, IL NEOPOSITIVISMO E LA FILOSOFIA ANALITICA «Al pari di Wittgenstein Popper non fu mai membro del Circolo», «non è un Neopositivista. Ed Otto Neurath, a buona ragione, chiamò Popper ‘l’opposizione ufficiale’ del Circolo». «In effetti Popper sconvolse tutte le carte con le quali i Neopositivisti stavano giocando il loro gioco»: - «al principio di verificazione (che è un principio di significanza) egli sostituì il criterio di falsificabilità (che è un criterio di demarcazione tra scienza e non scienza)» - «alla vecchia e venerabile, ma – a suo avviso – impotente teoria dell’induzione sostituì il metodo deduttivo della prova» (p.767s) - «dette un’interpretazione diversa da quella di alcuni membri del Kreis dei fondamenti empirici della scienza, affermando che i protocolli non sono di natura assoluta e definitiva» - «reinterpretò la probabilità e sostenne che le teorie scientifiche migliori (in quanto spiegano di più e possono venir meglio controllate) sono quelle meno probabili» - «respinse, considerandola una semplice esclamazione, l’antimetafisica dei Viennesi e, tra l’altro, sostenne la metafisica quale progenitrice di teorie scientifiche» - «rigettò anche il disinteresse di parecchi Circolasti nei confronti della tradizione, ed ha riletto in chiave nuova» vari filosofi «per arrivare ad una stimolante rilettura in chiave epistemologica dei Presocratici visti come i creatori della discussione critica» - «ha seriamente affrontato problemi classici come quello del rapporto corpo-mente, o come quello del senso o meno della storia umana» - «si è interessato del sempre riemergente dramma della violenza ed è uno dei più agguerriti avversari teorici del totalitarismo» - «ha respinto la differenza tra termini teorici e termini osservativi» - «contro il convenzionalismo di Carnap e Neurath, cioè della cosiddetta ‘fase sintattica’ del Kreis, ha fatto valere, sulla linea di Tarsi, l’idea regolativa della verità» «In breve, non ci fu questione toccata dai Viennesi in cui Popper non la pensasse diversamente». «Critico nei confronti dei Viennesi, Popper, più di recente, nel ’61, ha attaccato, in nome dell’unità del metodo, le pretese della Scuola di Francoforte riguardo una ‘ragione’ diversa e superiore a quella della scienza. Né egli è più tenero nei confronti della Cambridge-Oxford-Philosophy». Ed è «sostanzialmente contrario al movimento analitico», i cui appartenenti «“sono importanti per me e non soltanto come oppositori, ma anche come alleati, perché sembrano i soli filosofi rimasti a tener vive alcune tradizioni della filosofia razionale. Gli analisti del linguaggio credono, prosegue Popper, che non ci siano problemi filosofici genuini, o che i problemi della filosofia – ammesso che ce ne siano – siano problemi concernenti l’uso linguistico, o il significato delle parole”. Ma Popper con questo programma non è affatto d’accordo … “dobbiamo smetterla di preoccuparci delle parole e dei loro significati, per preoccuparci invece delle teorie criticabili, dei ragionamenti e della loro validità”», scrisse nella prefazione della ristampa del 1970, della sua celebre logica. L’INDUZIONE NON ESISTE «Il termine ‘induzione’ è stato usato soprattutto in due sensi: a) induzione ripetitiva o per enumerazione; e b) induzione per eliminazione. L’idea di Popper è che tutti e due questi tipi di induzione crollano». a) La prima «“consiste di osservazioni spesso ripetute, osservazioni che dovrebbero fondare qualche generalizzazione della teoria. La mancanza di validità di questo genere di ragionamento è ovvia: nessun numero di osservazioni di cigni bianchi riesce a stabilire che tutti i cigni sono bianchi (o che la probabilità di trovare un cigno che non sia bianco è piccola)”» e dunque «“è fuori causa: non può fondare nulla”». b) «D’altro canto, l’induzione eliminatoria si fonda sul metodo dell’eliminazione o confutazione delle teorie false» (p. 769), i «diffusori di questo metodo dell’induzione credevano che, eliminando tutte le teorie false, si possa far valere la teoria vera. In altre parole, non si rendevano conto che il numero delle teorie rivali è sempre infinito, anche se, di regola, in ogni momento particolare possiamo prendere in considerazione un numero finito di teorie”», ma «“nella scienza, dobbiamo usare l’immaginazione e idee ardite, anche se l’una e le altre devono sempre essere temperate dalla critica e dai controlli più severi”». «Dunque: l’induzione non esiste; quindi non può fondare nulla; quindi non esistono metodi basati sulla mera routine. È un errore pensare che la scienza empirica proceda con metodi induttivi … L’inferenza induttiva, pertanto, non è logicamente giustificata». «Si potrebbe anche aggredire il problema dell’induzione da quest’altra prospettiva. Il principio di induzione o è una proposizione analitica (cioè tautologica) o una asserzione sintetica (cioè empirica). Tuttavia, “se esistesse qualcosa come un principio d’induzione puramente logico non ci sarebbe alcun problema dell’induzione, perché in questo caso tutte le inferenze induttive dovrebbero essere considerate come trasformazioni puramente logiche o tautologiche, proprio come le inferenze della logica deduttiva”. Pertanto, il principio d’induzione deve essere una asserzione universale sintetica. Ma “se tentiamo di considerare la sua verità come nota per esperienza, risorgono esattamente gli stessi problemi che hanno dato occasione alla sua introduzione. Per giustificarlo dovremmo impiegare inferenze induttive; e per giustificare queste ultime dovremmo assumere un principio induttivo di ordine superiore, e così via. In tal modo il tentativo di basare il principio d’induzione sull’esperienza fallisce, perché conduce necessariamente a un regresso infinito». LA MENTE NON È “TABULA RASA” «L’osservativismo è un mito filosofico, giacché la realtà è che noi siamo tabula plena, una lavagna piena di segni che la tradizione o evoluzione culturale ci ha lasciato sopra. L’osservazione è sempre orientata da aspettazioni teoriche» (p. 770). «Un esperimento o prova presuppone sempre qualcosa da sperimentare o da provare. E questo qualcosa sono le ipotesi (o congetture, o idee, o teorie) che si inventano per risolvere i problemi. Né noi osserviamo a caso o possiamo osservare tutto». Nessuno compie molte osservazioni possibili, perché «non sono importanti, perché sono irrilevanti. Irrilevanti per i nostri interessi e problemi, o meglio per quelle ipotesi o congetture inventate appunto per risolvere i problemi in cui, data la nostra ‘memoria’ culturale, si inciampa senza sosta». «La mente purgata dai pregiudizi non è, afferma Popper, una mente pura: essa sarà soltanto una mente vuota. Noi operiamo sempre con teorie, anche se spesso non ne siamo consapevoli. “L’osservazione ‘pura’ – cioè l’osservazione priva di una componente teorica – non esiste. Tutte le osservazioni – e specialmente, tutte le osservazioni sperimentali – sono osservazioni di fatti compiute alla luce di questa o di quella teoria”». «Con tutto ciò Popper rovescia la posizione di quanti hanno sostenuto o sostengono che l’osservazione deve precedere le aspettazioni (o ipotesi) e i problemi ed asserisce che “ogni animale è nato con molte aspettazioni, solitamente inconsce, o, in altre parole, che è dotato fin dalla nascita di qualcosa che corrisponde da vicino alle ipotesi, e così alla conoscenza ipotetica. E asserisco che abbiamo sempre una conoscenza innata – innata in questo senso – da cui partire, anche se può ben darsi che di questa conoscenza innata non possiamo fidarci affatto. Questa conoscenza innata, queste aspettative innate, se disilluse, creeranno i nostri primi problemi, e l’accrescimento della conoscenza, che ne segue, si può descrivere come un accrescimento che consiste interamente nelle correzioni e nelle modificazioni della conoscenza precedente». PROBLEMI E CREATIVITÀ; GENESI E PROVA DELLE IDEE «Per Popper la ricerca non parte da osservazioni, ma sempre da problemi: “da problemi pratici o da una teoria che si è imbattuta in difficoltà: che cioè ha fatto nascere aspettazioni e poi le ha deluse”. Un problema è un’aspettazione delusa. Nella sua natura logica, un problema è contraddizione tra asserti stabiliti; e la meraviglia e l’interesse sono gli abiti psicologici di quel fatto logico che è la contraddizione tra due teorie o tra almeno una conseguenza di una teoria e una proposizione che presumibilmente descrive un fatto. E i problemi scoppiano proprio perché noi siamo una ‘memoria’ biologico-culturale, frutto di una evoluzione prima biologica e poi eminentemente culturale. Quando, infatti, un pezzo di ‘memoria’ cioè una aspettativa (o ipotesi o pregiudizio) urta con un’altra prospettiva o con qualche pezzo di realtà (o fatti), allora abbiamo un problema … La ricerca, dunque, inizia dai problemi: ricerchiamo appunto le soluzioni dei problemi» (p. 771). «E per risolvere i problemi occorre l’immaginazione creatrice di ipotesi o congetture; c’è bisogno di creatività, della creazione di idee ‘nuove e buone’, buone alla soluzione del problema. E qui è necessario tracciare una distinzione – sulla quale Popper insiste spesso – tra contesto della scoperta e contesto della giustificazione. Una cosa è il processo psicologico o genesi delle idee; un’altra cosa, ben diversa dalla genesi delle idee, è la loro prova. Le idee scientifiche non hanno fonti privilegiate: possono scaturire dal mito, da metafisiche, dal sogno, dall’ebrezza, ecc. Ma quel che importa è che esse vengano provate di fatto. Ed è ovvio che, al fine di venir provate di fatto, le teorie scientifiche debbono essere provabili o controllabili di principio». IL CRITERIO DI FALSIFICABILITÀ «La ricerca inizia dai problemi. Per risolvere i problemi bisogna inventare ipotesi quali tentativi di risoluzione. Una volta proposte, le ipotesi vanno riprovate. E queste si provano estraendo da esse conseguenze e andando a vedere se tali conseguenze si danno o non si danno. Se si danno diciamo che l’ipotesi per il momento è confermata; se, invece, almeno una conseguenza non si dà, diciamo ce l’ipotesi è falsificata. … Da ciò si vede che una teoria, per essere provata di fatto, deve essere provabile o controllabile di principio, deve in altre parole essere falsificabile, tale cioè che da essa siano estraibili conseguenze che possono venir confutate, cioè falsificate dai fatti. Se, infatti, da una teoria non è possibile estrarre conseguenze passibili di controllo fattuale, essa non è scientifica. Ance se qui occorre badare che una ipotesi metafisica oggi può diventare scientifica domani». «In questa estrazione di conseguenze dalla teoria sotto controllo e nel loro confronto con quegli asserti di base (o protocolli) che, per quanto ne sappiamo, descrivono i ‘fatti’, consiste il metodo deduttivo dei controlli. I controlli non trovano mai, dalla prospettiva logica, un punto definitivo di arresto, giacché per quante conferme una teoria possa avere avuto essa non è mai certa, in quanto il prossimo controllo può smentire la teoria. Questo fatto logico rende conto della storia della scienza, dove vediamo teorie che avevano resistito per decenni e decenni crollare sotto il peso dei fatti contrari». → Così «in realtà esiste una asimmetria logica tra verificazione e falsificazione: miliardi e miliardi di conferme non rendono certa una teoria», «mentre un sol fatto negativo … falsifica, dal punto di vista logico, la teoria». → È su questa asimmetria che Popper innesca il comando metodologico della falsificazione: siccome un teoria, per quanto confermata, resta sempre smentibile, allora bisogna tentare di falsificarla, perché prima si trova un errore prima lo si potrà eliminare con l’invenzione e la prova di una teoria migliore di quella precedente. In questo modo, l’epistemologia di Popper rende conto della forza dell’errore». «Da tutto ciò ben si comprende la centralità dell’idea di falsificabilità nell’epistemologia di Popper» (p. 772). VEROSIMIGLIANZA E PROBABILITÀ DELLE TEORIE: SCOPI INCOMPATIBILI «Lo scopo della scienza è, per Popper, il raggiungimento di teorie sempre più verosimili, sempre più vicine al vero. E una teoria T2 è migliore e più verosimile di T1 quando tutte le conseguenze vere di T1 sono conseguenze vere di T2, quando le conseguenze false di T1 sono conseguenze vere di T2 e quando da T2 sono deducibili conseguenze non estraibili da T1». «Questa idea di maggior verosimiglianza di T2 nei confronti di T1, fa sì che Popper asserisca che la teoria più verosimile (quindi con maggior contenuto informativo, cioè con maggior potere esplicativo e previsivo) sia anche la teoria meno probabile. … siccome se si dice di più si può sbagliare meglio, allora la teoria più provabile (o controllabile) è anche l’ipotesi più improbabile», perché se prevedo più cose, è anche più difficile che accadano tutte insieme. «Di conseguenza – scrive Popper – “se ci proponiamo come scopo il progresso o l’accrescersi della conoscenza, non possiamo proporci egualmente di ottenere un’alta probabilità (nel senso del calcolo della probabilità): questi due scopi sono incompatibili”». IL PROGRESSO DELLA SCIENZA «Noi, nella scienza, cerchiamo la verità. La verità non si predica dei fatti, ma delle teorie. E una teoria, per Tarski come per Popper, è vera quando corrisponde ai fatti». «Ora, però, questa è una definizione di verità, ma noi non abbiamo un criterio di verità, giacché, anche se troviamo una teoria vera, questo noi non potremmo mai venire a saperlo, poiché le conseguenze di una teoria sono infinite e noi non possiamo controllarle tutte». «Stando così le cose, la verità è, secondo Popper, un ideale regolativa. E noi, eliminando gli errori delle teorie precedenti e sostituendo ad esse teorie più verosimili, ci avviciniamo alla verità. In questo consiste, per Popper, il progresso della scienza». «Con ciò non dobbiamo però pensare che esista una legge di progresso nella scienza. La scienza può ristagnare» (p. 773), «non esiste una legge di progresso nella scienza; e tuttavia abbiamo, dice Popper, un criterio di progresso: una teoria può avvicinarsi alla verità meglio di un’altra. E questa idea di migliore approssimazione alla verità o di gradi di verosimiglianza, Popper la specifica offrendo un elenco asistematico di sei tipi di casi in cui saremmo disposti a dire che una teoria t1 è stata soppiantata da t2». → «“1) t2 fa asserzioni più precise di t1, e queste asserzioni più precise superano controlli più precisi; 2) t2 tiene conto di più fatti e spiega più fatti di quanto non faccia t1 …; 3) t2 descrive o spiega i fatti più dettagliatamente di quanto non faccia t1; 4) t2 ha superato controlli che t1 non è riuscito a superare; 5) t2 ha suggerito nuovi controlli sperimentali, che non venivano presi in considerazione prima che t2 fosse formulata … e t2 ha superato questi controlli; 6) t2 ha unificato, o connesso, vari problemi che prima di allora non erano stati unificati fra loro”». FALSIFICAZIONE LOGICA E FALSIFICAZIONE METODOLOGICA; SAPERE DI FONDO E “NUOVI PROBLEMI” «Popper è un falsificazionista ingenuo dal punto di vista logico, giacché se si accetta un’ipotesi (di basso livello) falsificante, allora la teoria che viene da questa ipotesi contraddetta, risulta logicamente falsificata, in base al modus tollens». «Tuttavia, benché la falsificazione logica sia un processo semplice (dalla falsità di una conseguenza si passa logicamente alla falsità di almeno una delle premesse), Popper è un falsificazionista molto sofisticato dal punto di vista metodologico». «Difatti, per estrarre conseguenze osservabili da una ipotesi abbiamo bisogno delle ipotesi ausiliarie (cioè di quelle ipotesi che, messe accanto all’ipotesi da controllare, permettono di estrarre da questa conseguenze osservabili): e queste ipotesi ausiliarie – benché all’epoca accettate – potrebbero risultate in seguito responsabili della falsificazione dell’ipotesi sotto controllo, in quanto sbagliate». «Inoltre, per falsificare una teoria c’è bisogno di asserti di base accettati per veri; ma accettati per veri non significa che questi siano veri, in quanto anche i protocolli non sono immuni dall’errore: per cui potrebbe ben darsi che falsa non sia l’ipotesi sotto controllo quanto piuttosto l’asserto usato per falsificarla». «Tutto questo ci dice che, mentre la falsificazione logica è conclusiva, la falsificazione metodologica non è conclusiva. E allorché sia divenuto chiaro che non possiamo mai giustificare empiricamente – cioè con proposizioni di controllo – la pretesa che una teoria scientifica sia vera, noi allora avvertiamo subito che siamo al massimo sempre di fronte al problema da preferire, in via di tentativo anche congetturalmente, una teoria ad un’altra». «E così, allora, ci è possibile tradurre la problematica sui gradi di verosimiglianza in interrogativi come questi: Quali principi di preferenza dovremmo applicare? Sono alcune teorie ‘migliori’ di altre? Ebbene, siffatti interrogativi danno luogo a considerazioni come le seguenti». «È innanzi tutto chiaro che la questione della preferenza nasce esclusivamente allorché si abbiano teorie in competizione avanzate come soluzioni degli stessi problemi. Tra queste soluzioni in competizione il teorico sceglierà la teoria più simile al vero, la più vera. Ma, pur badando alla verità, il teorico sarà interessato anche alla falsità, poiché trovare che una proposizione è falsa è lo stesso che trovare che la sua negazione è vera. E “se il teorico asseconda questo suo interesse, allora – scrive Popper in Conoscenza oggettiva – il trovare dove una teoria fallisce, oltre a fornirgli informazioni teoricamente interessanti, pone un’importante problema nuovo per ogni nuova teoria esplicativa. Ogni nuova teoria non solo dovrà riuscire dove il suo predecessore confutato riusciva, ma dovrà riuscire anche dove il suo predecessore falliva; cioè, dove esso è stato confutato. Se la nuova teoria riesce in ambedue le cose, avrà in ogni caso più successo e sarà perciò migliore della vecchia”» (p. 774s) «È chiaro che l’esser ‘migliore’ di una teoria t2 nei confronti di un’altra teoria t1 coinvolge il sapere di sfondo e quindi anche il fattore tempo. Una teoria è migliore di un’altra, relativamente al sapere che si ha al tempo T e ai mezzi di controllo disponibili sempre al tempo T. È migliore di un’altra perché quest’altra teoria fu falsificata ed essa, invece, al tempo T, non è, per es., ancora stata falsificata, per cui, per quanto ne sappiamo al tempo T, essa potrebbe essere vera». → «Ma se una teoria può essere vera, essa può essere anche falsa. E per questo il teorico la sottoporrà, usando della sua abilità e immaginazione, a controlli severi e a situazioni di controlli cruciali. “Con questo metodo di eliminazione, possiamo incappare in una teoria vera. Ma in nessun caso il metodo può stabilirne la verità, anche se è vera; perché il numero di teorie che possono essere vere rimane infinito, in ogni tempo e dopo un numero qualsiasi di controlli cruciali”. E se al tempo T ci fossero più teorie non confutate, allora il teorico cercherà di scoprire come possano essere designati esperimenti in grado di falsificare e pertanto eliminare qualcuna delle (o tutte le) teorie in competizione». → Detto ciò «“nulla, naturalmente, può assicurare che per ogni teoria che sia stata falsificata troveremmo un successore migliore, o una migliore apporsimazione che soddisfi questi requisiti. Non vi è sicurezza che saremo capaci di fare progressi verso teorie migliori”». «Queste argomentazioni tendono a chiarificare la preferenza teorica tra teorie. È preferibile, al tempo T, quella teoria che, alla luce di tutti i possibili controlli effettuabili al tempo T, spiega di più, ha maggior contenuto informativo e, a parità di contenuto informativo, è più esatta». «La preferenza pragmatica è una conseguenza della preferibilità teorica: non possiamo fidarci di nessuna teoria, poiché nessuna teoria è stata dimostrata vera; ma noi dovremmo preferire come base per l’azione la teoria meglio controllata». SIGNIFICATIVITÀ E CRITICABILITÀ DELLE TEORIE METAFISICHE «Il criterio di falsificabilità, diversamente dal principio di verificazione, non è un criterio di significanza, ma – come si ripete – di demarcazione tra asserti empirici e asserti che empirici non sono» e così «dire di un asserto o di un insieme di asserti che non è scientifico non implica minimamente che esso sia insensato». «In realtà, afferma Popper, i Neopositivisti tentarono di eliminare la metafisica lanciandole improperi, ma con il loro principio di verificazione reintrodussero la metafisica nella scienza (in quanto le stessi leggi di natura non sono verificabili). Ma il fatto è che “non si può negare che, accanto alle idee metafisiche che hanno ostacolato il cammino della scienza, ce ne sono state altre – come l’atomismo speculativo – che ne hanno aiutato il progresso. E guardando alla questione dal punto di vista psicologico, sono propenso a ritenere che la scoperta scientifica è impossibile senza la fede in idee che hanno una natura puramente speculativa, e che talvolta sono addirittura piuttosto nebulose; fede, questa, che è completamente priva di garanzie dal punto di vista della scienza e che pertanto, entro questi limiti, è ‘metafisica’» (p. 775s). «Dal punto di vista storico vediamo poi “che talvolta idee che prima fluttuavano nelle regioni metafisiche più alte possono essere raggiunte dall’accresciersi della scienza, e, venute così in contatto con essa, depositarsi. Esempi di tali idee sono: l’atomismo; l’idea di un ‘principio’ fisico singolo, o elemento ultimo (dal quale derivano gli altri); la teoria del moto della terra (a cui Bacone si opponeva ritenendolo fittizio); la venerabile teoria corpuscolare della luce; la teoria dell’elettricità come fluido (fatta rivivere con l’ipotesi secondo cui la conduzione dei metalli è dovuta a un gas di elettroni). Tutti questi concetti e queste idee metafisiche sono state d’aiuto, anche nelle loro forme più primitive, nel portare ordine nell’immagine che l’uomo si fa del mondo, e in alcuni casi possono anche aver portato a predizioni dotate di successo. Tuttavia un’idea di questo genere acquista status scientifico soltanto quando venga presentata in una forma in cui possa essere falsificata, cioè a dire, solo quando è diventato possibile il decidere empiricamente tra essa e qualche teoria rivale”. Queste cose Popper le scriveva nel ‘34». Così «nel suo Postscript (in bozze fin dal ’57) egli, a proposito dei programmi di ricerca metafisici, ha affermato» così, che molte teorie metafisiche hanno «“funzionato da programma per la scienza”», e che anche alcune teorie biologiche e psicologiche «“hanno tutte svolto un ruolo simile, almeno per qualche tempo”», addirittura «“anche asserzioni puramente esistenziali si sono dimostrate talvolta ispiratrici e fruttuose nella storia della scienza, anche se non ne sono mai divenute parte. Anzi, poche teorie metafisiche hanno esercitato maggior influenza sullo sviluppo della scienza, di quella puramente metafisica: ‘Esiste un sostanza che può tramutare i metalli vili in oro (cioè una pietra filosofale)’, anche se non è falsificabile, non è mai stata verificata, e non è più creduta da nessuno”». «Dunque: dal punto di vista psicologico, la ricerca scientifica è impossibile senza idee metafisiche; dal punto di vista storico è un dato di fatto che, accanto a idee metafisiche che hanno ostacolato la scienza, ce ne sono altre che costituirono fecondi programmi di ricerca; e sono esistite metafisiche che, col crescere del sapere di fondo, si sono trasformate in teorie controllabili. E questo fatto storico sta a dirci a chiare lettere che, dal punto di vista logico, l’ambito del vero non si identifica con quello del controllabile». «Ma le cose non si fermano qui, perché se è ben vero che esistono teorie metafisiche sensate, eventualmente vere, e tuttavia empiricamente incontrollabili (e per questo metafisiche), dobbiamo comunque badare che tali teorie – sebbene empiricamente inconfutabili – possono essere criticabili. Criticabili giacché esse non sono asserzioni isolate intorno al mondo che si presentano come un perentorio ‘prendere o lasciare’; esse sono collegate, si basano, si intrecciano, presuppongono, o sono incompatibili con altre teorie, con altre situazioni problematiche oggettive». «Così, per es., se il determinismo kantiano è frutto della scienza dell’epoca (il mondo-orologio di Newton), e se la scienza successiva trasforma il mondo-orologio in un mondo-nuvola, allora crolla quel sapere di sfondo su cui si ergeva il determinismo di Kant, e questo crollo travolge con sé pure la teoria filosofica del determinismo» (p. 776). CONTRO LA DIALETTICA: LA “MISERIA DELLO STORICISMO” «Sulla base della sua concezione del metodo scientifico Popper afferma, tra l’altro, che mentre da una parte la contraddizione logica e quella dialettica non hanno nulla da spartire, dall’altra il metodo dialettico è un fraintendimento e una assolutizzazione del metodo scientifico. In quest’ultimo, difatti, non si ha, come pretendono i dialettici, né una produzione necessaria della ‘sintesi’ né la conservazione necessaria, in questa, della tesi e dell’antitesi. La dialettica, dice inoltre il Popper, in quanto teoria descrittiva, o si risolve nella banalità del tautologico ovvero si qualifica come una teoria che permette di giustificare tutto in quanto essa sfugge, non essendo falsificabile». Nel saggio La miseria dello storicismo, «si incentra sulla critica allo storicismo e all’olismo, e sulla difesa della fondamentale unità del metodo scientifico nelle scienze naturali e nelle scienze sociali e sulla conseguente proposta di una tecnologia sociale razionale, cioè gradualistica». Per gli Storicisti «il compito delle scienze sociali dovrebbe essere quello di cogliere le leggi di sviluppo dell’evoluzione della storia umana, in modo che si possano prevederne gli sviluppi successivi». Per Popper «tali profezie non hanno nulla a che fare con le predizioni della scienza. Lo storicismo è solo capace di pretenziose profezie politiche, e non si accorge che: a) gli sviluppi imprevisti della scienza rendono impossibile tale profetare; b) che la vecchia credenza che si possa afferrare la legge di sviluppo della storia umana si basa su di un clamoroso equivoco metodologico tra leggi e tendenze (in quanto una tendenza non è una legge, ma un’asserzione singolare storica spiegabile con delle leggi); c) che la storia umana non ha alcun senso, eccetto quello che le diamo noi; d) che, di conseguenza, essa, cioè la storia, non ci giustifica, ma ci giudica». «L’olismo è la concezione per cui ci sarebbe possibile cogliere intellettualmente la totalità di un oggetto, di un evento, di un gruppo o di una società, e di trasformare, parallelamente, dal punto di vista pratico o, meglio, politico, simili totalità». Contro di esso «Popper fa notare che: a) mentre è un grave errore metodologico pensare che noi possiamo capire la totalità anche del più piccolo ed insignificante pezzo di mondo, in quanto tutte le teorie colgono e non possono cogliere altro che aspetti selettivi della realtà e sono per principio sempre falsificabili e, sempre di principio, infinite di numero; b) dal punto di vista pratico ed operativo l’olismo si risolve nell’utopismo per quanto concerne la tecnologia sociale, e nel totalitarismo per quel che riguarda la pratica politica». «Come ben si vede, la critica allo storicismo e all’olismo Popper la conduce in nome della fondamentale unità del metodo scientifico che deve aversi sia nelle scienze naturali sia nelle scienze sociali. Queste, ad avviso del nostro Autore» procedono «attraverso l’elaborazione di ipotesi che poniamo in atto per risolvere i problemi che ci stanno a cuore e che occorre sottoporre alla prova dell’esperienza. La contrapposizione tra scienze sociali e scienze naturali ha luogo unicamente perché sovente si fraintendono il metodo e il procedimento delle scienze naturali». E ciò «implica che, sul piano della tecnologia sociale, si proceda a risolvere i problemi più urgenti mediante una serie di esperimenti, ben disposti a correggere obiettivi e mezzi in base agli esiti conseguiti» (p.777) LA SOCIETÀ APERTA e I NEMICI DELLA SOCIETÀ APERTA L’EPISTEMOLOGIA POST-POPPERIANA THOMAS S. KUHN E LA STRUTTURA DELLE RIVOLUZIONI SCIENTIFICHE Paradigmi, scienza normale e anomalie «Nel 1963 Kuhn pubblica il libro La struttura delle rivoluzioni scientifiche dove sostiene che la comunità scientifica si costituisce attraverso l’accettazione di teorie che Kuhn chiama paradigmi. “Con tale termine – egli scrive – voglio indicare conquiste scientifiche universalmente riconosciute, le quali, per un certo periodo, forniscono un modello di problemi e soluzioni accettabili a coloro che praticano un certo campo di ricerche”. Kuhn, in realtà, usa in più di un senso il termine paradigma, tuttavia egli stesso specifica che la funzione del paradigma, oggi assolta dai manuali scientifici (per mezzo dei quali il giovane studente viene iniziato alla comunità scientifica), ieri era assolta dai classici della scienza». «Per cui l’astronomia tolemaica (o quella copernicana), la dinamica aristotelica (o quella newtoniana) sono tutti paradigmi, al pari del fissismo di Linneo, della teoria evolutiva di Darwin o della teoria della relatività di Einstein». «Come una comunità religiosa si riconosce dai dogmi specifici in cui crede, come un partito politico aggrega i suoi membri attorno a valori e a finalità specifiche, così è una teoria paradigmatica quella che istituisce una comunità scientifica, la quale, in forza e all’interno degli assunti paradigmatici, effettuerà quella che Kuhn chiama scienza normale», che «è “uno strenuo e devoto tentativo di forzare la natura entro le caselle concettuali fornite dall’educazione professionale”» e che «significa “una ricerca stabilmente fondata su uno o più risultati raggiunti dalla scienza del passato, ai quali una particolare comunità scientifica, per un certo periodo di tempo, riconosce la capacità di costituire il fondamento della sua prassi ulteriore”». «Questa prassi ulteriore – la scienza normale – sta nel tentare di realizzare le promesse del paradigma, determinando i fatti rilevanti (per il paradigma), confrontando (attraverso, per es., misure sempre più esatte) i fatti con la teoria, articolando i concetti della teoria stessa, estendendo i campi di applicazione della teoria». «Fare scienza normale vuol dire, dunque, risolvere rompicapo (puzzles), cioè problemi definiti dal paradigma, emergenti dal, e rientranti nel, paradigma, per cui il fallimento della soluzione di un rompicapo non viene visto come un fallimento del paradigma, quanto piuttosto come un fallimento del ricercatore, il quale non ha saputo risolvere una questione per la quale il paradigma dice (e promette) che una soluzione c’è. È questa una situazione analoga a quella del giocatore di scacchi il quale, quando non sa risolvere un problema e perde, è perché egli non è bravo e non perché le regole degli scacchi non funzionano» (p. 782s). «La scienza normale è, pertanto, cumulativa … e lo scienziato normale non cerca la novità. E tuttavia la novità dovrà apparire necessariamente. Ciò per la ragione che l’articolazione teorica ed empirica del paradigma aumenta il contenuto informativo della teoria e quindi la espone al rischio della smentita». «Tutto questo rende conto di quelle anomalie che, ad un certo momento, la comunità scientifica si trova a fronteggiare e che, resistendo ai reiterati assalti delle assunzioni paradigmatiche, determinano la crisi del paradigma». «Con la crisi del paradigma inizia il periodo della scienza straordinaria … gli scienziati perdono la fiducia nella teoria che prima avevano abbracciato; e la perdita di un solido punto di partenza si esprime nel ricorso alla discussione filosofica su fondamenti e sulla metodologia. Questi sono i sintomi della crisi, la quale cessa allorché dal crogiuolo di quel periodo di ricerca sgangherato che è la scienza straordinaria riesce ad emergere un nuovo paradigma sul quale si articolerà di nuovo quella scienza normale» e così via. Le rivoluzioni scientifiche Il passaggio da un paradigma all’altro è per Kuhn «un riorientamento gestaltico: quando abbraccia un nuovo paradigma, la comunità scientifica maneggia, per es., lo stesso numero di dati di prima, ma ponendoli in relazioni differenti da prima» e così è «una rivoluzione scientifica». Ma «come avviene il passaggio da un paradigma ad un altro?» «Si ha per motivi razionali oppure no?» Per Kuhn «“paradigmi successivi ci dicono cose differenti sugli oggetti che popolano l’universo e sul comportamento di tali oggetti”. E “proprio perché è un passaggio tra incommensurabili, il passaggio da un paradigma ad uno opposto non può essere realizzato con un passo alla volta, né imposto dalla logica o da una esperienza neutrale. Come il riorientamento gestaltico, esso deve compiersi tutto in una volta (sebbene non in un istante) oppure non si compirà affatto”» e « “il trasferimento della fiducia da un paradigma ad un altro è un’esperienza di conversione che non può essere imposta con la forza”». Ma «perché, e su quali basi, queste esperienze di conversione?» «“Per ogni genere di ragioni, e di solito per parecchie ragioni allo stesso tempo. Alcune di queste ragioni – ad esempio, il culto del sole che contribuì a convertire Keplero al copernicanesimo – si trovano completamente al di fuori della sfera della scienza. Altre ragioni possono dipendere da idiosincrasie biografiche e personali … Probabilmente la pretesa più importante avanzata dai sostenitori di un nuovo paradigma è quella di essere in grado di risolvere i problemi che hanno portato il vecchio paradigma alla crisi” … Inoltre, c’è da badare che talvolta l’accettazione di un nuovo paradigma non è dovuta al fatto che esso risolve i problemi che il vecchio paradigma non riesce a risolvere, ma a promesse che si avverano in altri campi. E ci sono anche ragioni estetiche ad indurre uno scienziato o un gruppo ad accettare un paradigma» (p. 783s). «Tuttavia, afferma Kuhn, “nei dibattiti sui paradigmi non si discutono realmente le relative capacità nel risolvere i problemi … il punto in discussione consiste invece nel decidere quale paradigma debba guidare la ricerca in futuro, su problemi molti dei quali nessuno dei due competitori può ancora pretendere di risolvere completamente … Colui che abbraccia un nuovo paradigma fin dall’inizio, lo fa spesso a dispetto delle prove fornite dalla soluzione di problemi. Egli deve, cioè, aver fiducia che il nuovo paradigma riuscirà in futuro a risolvere i molti vasti problemi che gli stanno davanti, sapendo soltanto che il vecchio paradigma non è riuscito a risolverne alcuni. Una decisione di tal genere può essere presa soltanto sulla base della fede”», così «perché un paradigma possa trionfare … “ciò che si verifica non è tanto una unica conversione di gruppo, quanto un progressivo spostamento della distribuzione della fiducia degli specialisti”». Lo sviluppo ateleologico della scienza «Ora, però, il passaggio da un paradigma ad un altro comporta progresso? Il problema è complesso. … Certo, quando un paradigma si è affermato, i suoi sostenitori guarderanno ad esso come a un progresso: ma, si chiede Kuhn, progresso verso che cosa? In effetti, dice Kuhn, il processo che si vede nell’evolversi della scienza è un processo di evoluzione a partire da stadi primitivi, ma questo non significa che tale processo porti la ricerca sempre più vicina alla verità o verso qualcosa». Ma è poi necessario «“che esista un tale scopo? … È veramente d’aiuto immaginare che esista qualche completa, oggettiva, vera spiegazione della natura e che la misura appropriata della conquista scientifica è la misura in cui essa ci avvicina a questo scopo finale? Se impareremo a sostituire l’evoluzione verso ciò che vogliamo conoscere con l’evoluzione a partire da ciò che conosciamo, nel corso di tale processo, un gran numero di problemi inquietanti può dissolversi”» (p. 784). IMRE LAKATOS E LA METODOLOGIA DEI PROGRAMMI DI RICERCA SCIENTIFICA Tre tipi di falsificazionismo Alle idee di Kuh risposero in particolare Popper e J. Watkins, ma «contro l’idea di un paradigma che domina quasi teologicamente la comunità degli scienziati e contro l’idea di uno sviluppo della scienza che dovrebbe procedere per successive catastrofi è anche Imre Lakatos». La sua idea di fondo «è che la scienza è, è stata e dovrebbe essere una competizione tra programmi di ricerca rivali. E questa idea caratterizza, secondo Lakatos, quello che è il falsificazionismo metodologico sofisticato, concezione che Lakatos sviluppa sulla scia di Popper». Invece «il falsificazionismo dogmatico consiste nell’idea secondo cui la scienza si sviluppa attraverso congetture ardite e falsificazioni infallibili. Senonché, fa presente Lakatos, simile idea – fatta propria da alcuni scienziati e propagata anche da certi filosofi come A.J.Ayer – non è l’idea di Popper, ed è sbagliata. È sbagliata perché la base empirica della scienza (vale a dire i protocolli, cioè ancora: le proposizioni di osservazione) non è certa, per cui non si danno falsificazioni infallibili o incontrovertibili: le nostre falsificazioni possono essere anche sbagliate E questo ce lo attestano sia la logica che la storia della scienza». «Da parte sua, il falsificazionismo metodologico ingenuo corregge l’errore dei falsificazionisti dogmatici … tuttavia, dice Lakatos, nonostante i suoi meriti … è insoddisfacente, giacché concepisce lo sviluppo della scienza come una serie di successivi duelli tra una teoria e i fatti; mentre – per Lakatos – … la lotta tra il teorico e il fattuale avviene sempre per lo meno a tre: tra due teorie in competizione e i fatti. Tutto ciò renderebbe conto del fatto che una teoria viene scartata non quando qualche fatto la contraddice, ma solo quando la comunità scientifica ha a disposizione una teoria migliore della precedente». I programmi di ricerca scientifici Più che di teorie «Lakatos, a dire il vero, parla di programmi di ricerca scientifici». «Un programma di ricerca è una successione di teorie, T1, T2, T3, T4 che si sviluppano da un nucleo centrale che, per decisione metodologica, si mantiene infalsificabile; è così che un programma può mostrare il suo valore, la sua fecondità e la sua progressività nei confronti di un altro programma. Non è lecito far morire una teoria di malattia infantile. E una buona teoria, per svilupparsi, ha bisogno di tempo». «Dunque: la storia della scienza è e dovrebbe essere una storia di programmi di ricerca in competizione» Questo è il nocciolo per Lakatos della scienza e della sua storia. L’idea del programma di ricerca scientifico è quella «che dovrebbe distinguere la posizione di Lakatos sia da quella di Kuhn che da quella di Popper. Difatti, ad avviso di Lakatos … “la Logik der Forshung, nel suo insieme, è aridamente astratta e altamente astorica. Là dove Popper si arrischia a fare osservazioni sulla falsificabilità delle maggiori teorie scientifiche, o cade in qualche madornale equivoco logico o distorce la storia in modo che si adatti alla sua teoria della razionalità”». «D’altro canto – scrive Lakatos in La falsificazione e la metodologia dei programmi di ricerca scientifici (1970) – “secondo la concezione di Kuhn la rivoluzione scientifica è irrazionale … è una specie di conversione religiosa”». E così Lakatos, muovendosi «nell’atmosfera del falsificazionismo di Popper» ed «influenzato da Kuhn», «tuttavia argomenta senza lasciarsi incapsulare né dall’uno né dall’altro pensatore, e si muove con grande agilità e spregiudicatezza» Come progredisce la scienza «Per Lakatos “è una successione di teorie e non ‘un’unica teoria che è valutata come scientifica o pseudo-scientifica’”». «E una serie di teorie è progressiva teoricamente (o costituisce uno slittamento-di-problema progressivo teoricamente) “se ogni nuova teoria ha contenuto empirico eccedente rispetto alle teorie che la precedono, ossia, se predice qualche fatto nuovo, fino a quel momento inaspettato”». «Inoltre, diciamo che “una serie di teorie progressiva teoricamente è anche progressiva empiricamente (o costituisce uno slittamento-di-problema progressivo empiricamente) se parte di questo contenuto empirico eccedente è anche, in certa misura, corroborato, ossia, se ogni nuova teoria conduce alla scoperta reale di qualche fatto nuovo”». Ora «questa serie di teorie, questa continuità “si sviluppa da un genuino programma di ricerca adombrato all’inizio. Questo programma consiste di regole metodologiche: alcune indicano quali vie evitare (euristica negativa), altre quali vie perseguire (euristica positiva)”». «Le ipotesi non falsificabili costituiscono il nucleo (hard-core) del programma e “tutti i programmi scientifici di ricerca possono essere caratterizzati dal loro ‘nucleo’”. “L’euristica negativa del programma ci impedisce di rivolgere il modus tollens contro questo ‘nucleo’. Dobbiamo invece usare la nostra ingegnosità per articolare o inventare delle ‘ipotesi ausiliarie’, che formino una cintura protettiva intorno al nucleo e dobbiamo rivolgere il modus tollens contro quest’ultimo nuovo obiettivo. Questa cintura protettiva di ipotesi ausiliarie deve resistere all’attacco dei controlli, essere adattata e riadattata, o anche completamente sostituita, per difendere il nucleo così consolidato. Un programma di ricerca ha successo se tutto ciò conduce a uno slittamento progressivo del problema; non ha successo se conduce a uno slittamento regressivo del problema”» (p. 786). «E solo quando le successive modificazioni della cintura protettiva non riescono più a predire fatti nuovi, allora il programma si mostra come regressivo» e così «“Finché un programma di ricerca al suo nascere può essere ricostruito razionalmente come uno slittamento-di-problema progressivo, dovrebbe essere protetto per un certo tempo da un potente rivale stabilizzato”». «La scienza, pertanto, è – secondo Lakatos – “un campo di battaglia per programmi di ricerca piuttosto che per teorie isolate”. E “la scienza matura consiste di programmi di ricerca nei quali vengono anticipati non soltanto fatti nuovi, ma, in senso importante, anche nuove teorie ausiliarie; la scienza matura – a differenza dal rozzo schema per prova-ed-errore – ha potere ‘euristico’”. L’EPISTEMOLOGIA ANARCHICA DI PAUL K. FEYERABEND L’anarchia epistemologica in funzione del progresso «Il libro di Feyerabend Contro il metodo (2ª ed. 1975) è stato scritto nella persuasione che “l’anarchismo, pur non essendo forse la filosofia politica più attraente, è senza dubbio una eccellente medicina per l’epistemologia e per la filosofia della scienza” … la storia in generale, “la storia delle rivoluzioni in particolare, è sempre più ricca di contenuto, più varia, più multilaterale, più viva, più ‘astuta’, di quanto possano immaginare anche il miglior storico e il migliore metodologo”. Conseguentemente, l’anarchismo epistemologico di Feyerabend consiste nella tesi per cui “l’idea di un metodo che contenga principi fermi, immutabili e assolutamente vincolanti come guida nell’attività scientifica si imbatte in difficoltà considerevoli quando viene messa a confronto con i risultati della ricerca storica”» e infatti tutte le grandi teorie «“si verificarono solo perché alcuni pensatori o decisero di non lasciarsi vincolare da certe norme metodologiche ‘ovvie’ o perché involontariamente le violarono”». «Una siffatta libertà di azione non è, secondo Feyerabend, soltanto un fatto della storia della scienza. “Esso è sia ragionevole sia assolutamente necessario per la crescita del sapere. Più specificamente si può dimostrare quanto segue: data una norma qualsiasi, per quanto ‘fondamentale’ o ‘necessaria’ essa sia per la scienza, ci sono sempre circostanze nelle quali è opportuno non solo ignorare la norma, ma adottare il suo opposto» (p. 787). L’anarchia epistemologica e la storia della scienza «A supporto della sua metodologia anarchica, Feyerabend adduce un caso storico. “Lo sviluppo del punto di vista copernicano da Galileo al XX secolo è un esempio perfetto della situazione che mi propongo di descrivere. Il punto di partenza è costituito da una forte convinzione che contrasta con la ragione e l’esperienza contemporanea. La convinzione si diffonde e trova sostegno in altre convinzioni, che sono altrettanto irragionevoli se non più (la legge d’inerzia, il telescopio) … Oggi possiamo dire che Galileo era sulla strada giusta, poiché la sua tenace ricerca di quella che un tempo sembrava una stramba cosmologia ha creato oggi materiali necessari per difenderla contro coloro che sono disposti ad accettare un’opinione solo se essa viene espressa in un certo modo e che prestano fede ad essa solo se contiene certe frasi magiche, designate come protocolli o rapporti d’osservazione. E questa non è un’eccezione, bensì il caso normale: le teorie diventano chiare e ragionevoli solo dopo che parti incoerenti di esse sono state usate per molto tempo”». Quindi «“ la idea di un metodo fisso, o di una teoria fissa della razionalità, poggia su una visione troppo ingenua dell’uomo e del suo ambiente sociale. … c’è un solo principio che possa essere difeso in tutte le circostante e in tutte le fasi dello sviluppo umano. È il principio: qualsiasi cosa può andar bene”». La provocazione di “Contro il metodo” Va fatto «presente che Feyerabend critica un Lakatos e soprattutto un Popper spesso costruiti su misura per i suoi bersagli» (p. 788). LARRY LAUDAN E LA METODOLOGIA DELLE TRADIZIONI DI RICERCA Lo scopo della scienza sta nel risolvere problemi Larry Laudan le sue idee le espone in Il progresso scientifico (1977). La sua idea centrale è che «“la scienza mira fondamentalmente alla soluzione dei problemi” … Per questo, gli assunti basilari del modello di sviluppo della scienza che Laudan propone sono piuttosto semplici: 1) Il problema risolto, empirico o concettuale, è l’unità di base del progresso scientifico; 2) Scopo della scienza è quello di massimizzare la portata dei problemi empirici risolti e di ridurre la portata dei problemi empirici anomali e di quelli concettuali non risolti. Da ciò segue che “ogni volta che modifichiamo una teoria o la sostituiamo con un’altra teoria, questa innovazione costituisce un progresso se e solo se la teoria modificata o la nuova teoria è più efficiente nel risolvere problemi”». Parlando di teorie però «Laudan precisa subito due cose: a) che la valutazione delle teorie è qualcosa di comparativo, giacché “misure in termini assoluti delle credenziali empiriche o concettuali di una teoria sono prive di significato”; b) che le teorie non vivono singolarmente e che dobbiamo badare a tutto uno spettro di teorie individuali» (p. 789); tutto ciò «nella convinzione che le teorie più generali, e non quelle più specifiche, siano lo strumento primario per la comprensione e la valutazione del progresso scientifico». «Tuttavia, Laudan manifesta la sua insoddisfazione sia per il modello di Kuhn», perché è difficile «“far quadrare le inflessibilità dei suoi paradigmi col fatto che molte maxi-teorie si sono evolute attraverso il tempo”»; «sia per quello di Lakatos», perché la sua pretesa «“che l’accumularsi delle anomalie non abbia conseguenze sulla valutazione di un programma di ricerca è confutata in modo schiacciante dalla storia della scienza”». Insomma, entrambe i sistemi «“hanno una tale rigidità nella loro struttura centrale, da non ammettere alcuna trasformazione fondamentale”. E questo è contraddetto dalla storia della scienza». Cosa sono le tradizioni di ricerca Laudan propone allora «la teoria delle tradizioni di ricerca», per lui infatti «“ogni disciplina intellettuale, scientifica e non scientifica, ha una storia ricca di tradizioni di ricerca”», tradizioni che hanno alcune caratteristiche comuni «“1. Ogni tradizione di ricerca ha un certo numero di teorie specifiche, che l’esemplificano e parzialmente la costituiscono; alcune di queste teorie sono contemporanee fra loro, altre si succedono nel tempo. 2. Ciascuna tradizione di ricerca appare caratterizzata da alcuni impegni metafisici e metodologici che, nel loro insieme, individuano la tradizione stessa e la distinguono dalle altre. 3. Ciascuna tradizione di ricerca (a differenza delle singole specifiche teorie) passa attraverso un certo numero di diverse e dettagliate (e spesso reciprocamente contraddittorie) formulazioni; in genere ha una lunga storia, che si svolge attraverso un notevole periodo di tempo (a differenza delle teorie che spesso hanno una vita breve)”». «Una tradizione di ricerca fornisce un insieme di direttive per la costruzione di teorie specifiche». «Una parte di tali direttive sono metodologiche … e un’altra parte delle direttive fornite da una tradizione di ricerca sono ontologiche. È l’ontologia della tradizione di ricerca “che specifica in una maniera generale i tipi di entità fondamentali, che esistono nel dominio o nei domini, all’interno dei quali ha a che fare la tradizione di ricerca che è in questione. … Inoltre questa tradizione di ricerca delinea i diversi modi in cui queste entità possono interagire». «In questo modo Laudan è in grado di definire una tradizione di ricerca come “un insieme di assunti generali riguardanti le entità ed i processi presenti in un certo dominio di studio, ed i metodi appropriati che si devono usare, per indagare sui problemi e costruire le teorie in tale dominio”» (p. 790). «Ed è ovvio che osare ciò che è proibito dalla metafisica e dalla metodologia di una tradizione di ricerca, significa collocarsi al di fuori di tale tradizione e ripudiarla». «Per Laudan, una tradizione di ricerca che ottiene successo, è una tradizione di ricerca che, attraverso le sue componenti, porta alla soluzione adeguata di un numero sempre maggiore di problemi empirici e concettuali. Talché risulta preferibile la tradizione la quale è in grado di risolvere più problemi e problemi più importanti» e delle tradizioni di ricerca «non mutano soltanto le teorie ausiliarie, ma anche, nel tempo, gli assunti centrali. In tal modo, ad ogni dato momento, alcuni elementi di una tradizione di ricerca sono per essa più centrali e più intimi di altri». LA QUESTIONE DEL PROGRESSO NELLA SCIENZA Critiche alla teoria della verosimiglianza di Popper «L’epistemologia di Popper e quella dei post-popperiani è un’epistemologia che ha posto l’accento più che sulla struttura della scienza sullo sviluppo e sul progresso della scienza stessa. Per decidere tra teorie in competizione occorre avere un criterio di preferibilità che ci dica quale, tra queste teorie, è progressiva nei confronti delle altre», ma «che cosa vuol dire che una teoria T2 spiega di più e meglio della precedente T1?» «A questo interrogativo Popper ha risposto proponendo la teoria della verosimiglianza stando alla quale una teoria T2 è più verosimile della teoria T1 se tutte le conseguenze vere di T1 sono conseguenze vere di T2, se tutte le conseguenze false di T1 sono conseguenze vere di T2 e se da T2 sono inoltre estraibili conseguenze non estraibili da T1 … Ovviamente, questo criterio, avrebbe dovuto permettere, ad avviso di Popper, di decidere la maggior verosimiglianza tra due teorie false … Senonchè, le definizioni di Popper – che sembravano ingabbiare come in una morsa gli sviluppi storici della scienza – si sono rivelate, ad un’analisi approfondita, inconsistenti», grazie all’analisi di David Miller, Pavel Tichy, John Harris e Adolf Grünbaum. Difatti, data una teoria falsa A «la sua verosimiglianza aumenta, ad avviso di Popper, in ciascuno di questi due casi» (p. 791): 1) «se aumenta il suo contenuto di verità Av (cioè le sue conseguenze vere) e contemporaneamente non aumenta il suo contenuto di falsità Af (cioè le sue conseguenze false)»; 2) «se diminuisce il suo contenuto di falsità Af e contemporaneamente non diminuisce il suo contenuto di verità Av». Aumentiamo ora, secondo 1), «la verosimiglianza di A con l’aggiunta … di un enunciato vero p», ma «se A è falsa, avrà almeno un enunciato falso f, talché la congiunzione p^f è un enunciato falso», di conseguenza «aggiungendo un enunciato vero p …, aggiungiamo corrispondentemente un enunciato falso p^f … e questo è in contraddizione» con 1). Analogamente si può dimostrare la contraddizione in cui cade 2). Questi risultati «mostrano a chiare lettere che la proposta di Popper tendente a stabilire un criterio di progresso attraverso rigorose definizioni logiche è fallita», perché «se ammettessimo l’idea di verosimiglianza di Popper … Einstein dovrebbe valere quanto Newton, e Newton quanto Copernico. E questo nessuno è disposto ad ammetterlo» (p. 792). Il progresso della scienza nella prospettiva di Larry Laudan Ora «pur avendo una definizione di verità, non abbiamo un infallibile criterio di verità che ci permetta di emettere decreti definitivi sulla verità o meno delle teorie. Stando così le cose, Popper aveva tentato di portare all’interno della logica la nozione intuitiva di maggior verosimiglianza tra teorie. Le definizioni di Popper avrebbero dovuto costituire un modello ideal-tipico per mezzo del quale congetturare la progressività di una teoria sulle altre, nell’effettivo sviluppo della storia della scienza e nella pratica della ricerca». «La realtà è che la storia della scienza è un prezioso cimitero di teorie errate e gli scienziati, dal canto loro, trafficano quotidianamente tra teorie false. Per questo, il possesso di un criterio in grado di stabilire la preferibilità o la maggior approssimazione alla verità di una teoria falsa nei confronti di altre teorie anch’esse false, è una cosa molto auspicabile». «Assumendo con coraggio gli esiti delle dimostrazioni di Tichy, Miller ed Harris, Larry Laudan ha cercato di ricondurre lo standard della preferibilità e progressività di una teoria nei confronti delle altre dai livelli logici di Popper a livelli pragmatici», così per lui «è razionale scegliere quella teoria che all’epoca risolve più problemi e problemi all’epoca più importanti». «Certo, in questo modo appare che la logica non riesce a dominare la storia (della scienza), a meno che gli sforzi» dei vari pensatori «non ci diano una definizione di verosimiglianza che sia consistente e che ci permetta di dominare la storia effettiva della scienza e di orientare la pratica della ricerca. Tuttavia, è proprio irrazionale quel medico che, tra due teorie terapeutiche, ambedue fallaci, sceglie quella che risolve più casi e salva più malati?» (p. 793) EPISTEMOLOGIA E METAFISICA Come e perché gli epistemologi contemporanei difendono la metafisica Di Neopositivisti, Analitici, Popper, Kuhn e Lakatos abbiamo già parlato. Joseph «Agassi – nel saggio La natura dei problemi scientifici e le loro radici nella metafisica (1975) – contro coloro che parlano della metafisica come fisica del passato tende ad esaltare qualche metafisica come fisica del futuro»; «contro Popper, il quale afferma che si fa ricerca per trovare e controllare ipotesi altamente controllabili, fa presente che la ricerca spesso è indirizzata al controllo di ipotesi poco controllabili o quasi del tutto incontrollabili, cioè ipotesi metafisicamente rilevanti; egli, inoltre, non se la sente di includere la metafisica insieme alla pseudoscienza e alla superstizione nella non-scienza e chiamare tutte queste diverse cose come ‘metafisica’; sottolinea che “la metafisica può essere vista come un programma di ricerca e le false pretese della pseudoscienza come il prodotto finito”; per Agassi “le idee metafisiche appartengono alla ricerca scientifica come idee regolative crucialmente importanti”; e, quel che più conta, anche per Agassi, le metafisiche non sono affatto al di là della critica». E «“se non c’è di solito nessuna confutazione, e pertanto nessun esperimento cruciale in metafisica. Tuttavia qualcosa di simile ad un esperimento cruciale può aver luogo in un procedimento del genere”. “Due differenti visioni metafisiche offrono due diverse interpretazioni di un insieme di fatti conosciuti. Ognuna di queste interpretazioni si sviluppa in una teoria scientifica e una delle due teorie scientifiche viene sconfitta da un esperimento cruciale. La metafisica che sta dietro la teoria scientifica sconfitta perde il suo potere interpretativo e così viene abbandonata». «Ed anche W.W.Bartley III ha insistito (in Teorie della demarcazione tra scienza e metafisica, 1968) sul fatto che l’inconfutabilità di una teoria non è da guardarsi, come vorrebbe Popper, quale un vizio», perché «“in parecchi contesti teorie empiricamente inconfutabili sono altamente desiderabili – ancora più desiderabili che le prove empiriche. Se il nostro scopo è quello di massimizzare la critica alle concezioni esistenti, è sostanzialmente più importante avere una qualche teoria o spiegazione alternativa, scientifica o meno, che contraddice (conflicts) i resoconti correnti e più diffusi della questione da spiegare, che avere ciò che appare essere una confutazione empirica o un contro-esempio della teoria in auge”. Siffatta concezione di Bartley, sostenuta anche da Agassi, è stata poi enfatizzata da Paul K. Feyerabend, per il quale il pluralismo teorico (cioè la costruzione di teorie alternative alla teoria in auge) può svolgere la funzione di reperire ‘fatti’ capaci di mettere in difficoltà o addirittura in crisi tale teoria vigente; fatti che altrimenti non sarebbero disponibili se siffatte alternative venissero meno. E, inoltre, le alternative alla teoria vigente servono appunto a massimizzare il contenuto di una teoria, la quale teoria è sempre valutata nel confronto con altre teorie. Per tutto questo “l’invenzione di alternative all’opinione in esame costituisce una parte esenziale del metodo empirico» (p. 794). John Watkins e la metafisica confermabile ed influente La posizione di John Watkins, contenuta in Metafisica confermabile e influente del 1957, la si può riassumere «nei punti seguenti: 1) La dicotomia classica empirista analitico-sintetico è supersemplificatoria e infeconda. 2) È un errore interpretare un giudizio a priori come necessariamente vero. 3) Esempi di tali giudizi a priori e non necessari sono asserti metafisici … che sono empiricamente inconfutabili, e tuttavia non sono logicamente necessari. 4) Geneticamente (e quindi storicamente) esistono metafisiche che pre-scrivono programmi di ricerca scientifica, ed esistono anche metafisiche che sono giustificazioni post hoc di teorie scientifiche affermate: e mentre il pensiero scientifico ha soprattutto influenzato la metafisiche durante i periodi di consolidamento della scienza, “le idee metafisiche hanno soprattutto influenzato la speculazione scientifica durante i periodi di mutamenti e di tensioni nella scienza”. 5) Alla dicotomia analitico-sintetico dovremmo sostituire la tricotomia analitico-sinteticoaPrioriNonNecessario: i giudizi a priori non necessari sono i giudizi fattuali metafisici. 6) Questi giudizi … possono avere istanze confermanti … ma non possono venir falsificati …: quindi le idee metafisiche sono verificabili, ma non sono falsificabili, e, non essendo falsificabili, le loro conferme non riescono a trasformarle in teoria di natura empirica. 7) Le idee metafisiche a priori e non necessarie possono venir interpretate come comandi di metodo … tuttavia occorre porre l’accento sul fatto che, sebbene dal punto di vista formale dalle descrizioni metafisiche non possono venir dedotte prescrizioni metodologiche, ciò non significa affatto che le prime non esercitino il loro ruolo regolativo. 8) In sostanza, le dottrine metafisiche “regolano la costruzione delle teorie empiriche, non positivamente implicando qualche specifica teoria empirica, ma negativamente proibendo certi tipi di teoria empirica; e ciò avviene anche nei rapporti tra la metafisica da un lato e la morale e la politica dall’altro. 9) Per quel che concerne la valutazione delle teorie metafisiche c’è da far presente che: a) si deve cercare di rendere controllabile una teoria incontrollabile ed interessante; b) non bisogna trasformare una teoria controllabile ma che è in difficoltà, in una teoria svirilizzata e inconfutabile; c) se è vero che una teoria metafisica che ha generato scienza si rafforza con la scienza che ha generato, è pur vero che uno stesso insieme di fatti e leggi scientifiche può avere più interpretazioni metafisiche; per cui la scienza di una metafisica non dà a quest’ultima un’autorità indiscussa; d) e non bisogna dimenticare che “storicamente, le dottrine metafisiche hanno giocato un ruolo all’interno della scienza quando hanno sfidato la teoria esistente e prefigurato un nuovo tipo di teoria”. Da ciò vediamo che “la conformità con la scienza esistente è un fattore favorevole [per una metafisica], ma questo fattore può venir superato in valore da una valutazione pragmatica del possibile influsso della dottrina metafisica sulla scienza futura” (p. 795s). EPISTEMOLOGIA E MARXISMO Lakatos e il Marxismo come programma di ricerca degenerativo «In linea generale gli epistemologi contemporanei sono decisamente contrari ai tratti teorici e assolutistici del Marxismo». «Sulla scia di Popper, Hans Albert, nell’ambito culturale tedesco, ha proseguito l’offensiva contro il pensiero materialismo-dialettico, attaccando sia Adorno sia, soprattutto Habermas, i quali, in nome della dialettica e della totalità, hanno reclamato una razionalità diversa e superiore a quella dei ‘positivisti’ come Popper e Albert», ma queste categorie «non hanno forza teorica bensì solo forza pragmatica, al pari dei miti». Per Lakatos il marxismo «“ha fatto alcune famose predizioni senza successo”», spiegando i vari fallimenti «“senonché – prosegue Lakatos – le loro ipotesi ausiliarie sono state tutte architettate dopo gli eventi al fine di proteggere la teoria marxiana dai fatti …” E dove la teoria rimane indietro rispetto ai fatti, noi abbiamo a che fare con programmi che stagnano miseramente nella degenerazione: questo è, appunto secondo Lakatos, il caso del Marxismo» (p. 796). Feyerabend: la “società libera” e il Marxismo EPISTEMOLOGIA E STORIOGRAFIA DELLA SCIENZA Perché e come la storia della scienza «Lo sviluppo dell’epistemologia contemporanea ha portato in primo piano la questione delle funzioni della storiografia della scienza ed alcuni problemi teorici relativi alla storiografia della scienza. Per quel che concerne le funzioni della storia della scienza diciamo in breve che: 1) essendo la scienza fattore di storia, non possiamo capire lo sviluppo specialmente dell’era moderna e soprattutto contemporanea se non conosciamo la storia della scienza e della tecnologia; 2) la scienza, oltre ad essere fattore di storia, è fattore di cultura: e ci è pertanto proibita la comprensione dello sviluppo della più ampia cultura se non comprendiamo la storia della scienza e il suo intrecciarsi e reciproco condizionarsi con la storia della filosofia, delle concezioni morali o politiche o anche della teologia; 3) come hanno insistito tra altri, Mach, Duhem e Feyerabend, la conoscenza della storia della scienza è necessaria al lavoro dello scienziato praticante, se non altro perché la massimizzazione del contenuto di una teoria si ottiene mediante il confronto di questa teoria con altre teorie: e queste altre teorie si prendono da ovunque sono disponibili, dal presente come dal passato; 4) la storia della scienza sempre più si rivela un ingrediente indispensabile per la didattica delle scienze, sia per quanto riguarda la motivazione nell’apprendimento sia per quel che concerne l’educazione all’antidogmatismo e al riconoscimento della funzione dell’errore, sia per una maggiore consapevolezza delle regole del metodo necessarie per il lavoro di ricerca». Il problema è però «sul come fare storia della scienza». Dall’odierno «dibattito epistemologico sono progressivamente affiorate teorie che prospettano una storiografia della scienza che va ben al di là della aneddotica, o degli irrilevanti prodotti commemorativi». «Si tratta, infatti, di cercare paradigmi e programmi di ricerca in competizione, metafisiche influenti; si punta l’attenzione sui periodi di scienza normale e su quelli di scienza rivoluzionaria; non si scarteranno le ‘fantasie’ che non avranno avuto successo; e gli insuccessi fanno parte della storia della scienza, come le mutazioni non adattate fanno parte della storia dell’evoluzione; si farà attenzione all’immagine della scienza posseduta da (e più o meno influente su) gli scienziati praticanti; verranno presi in esame non solo gli ostacoli economici, sociali o politici, ma anche e soprattutto quelli epistemologici; si cercherà di ricostruire stati problematici oggettivi; si guarderà alle tecniche di prova dell’epoca, e pertanto alla strumentazione dell’epoca disponibile, e così via» (p. 798). Quanto più ciò sarà fatto bene quanto più «la storia della scienza si avvia a diventare scienza essa stessa». Storia interna e storia esterna «Ogni storiografia della scienza presuppone una immagine della scienza o epistemologia. Fare storia della scienza presuppone che si sappia già cosa sia la scienza, presuppone innanzi tutto criteri selettivi attraverso cui individuare nel mare magnum delle attività umane e dei prodotti di queste attività quelle attività e quei prodotti che si dicono (o si dicevano) scientifici … a seconda che si abbia una immagine (o teoria) della scienza piuttosto che un’altra, avremo anche una diversa (almeno parzialmente) storiografia della scienza: saranno diversi (almeno in parte) i problemi trattati, sarà diversa la linea di demarcazione tra storia interna e storia esterna». «La storia interna è la ricostruzione razionale dello sviluppo della scienza: razionale nel senso che la ricostruzione si effettua solo con gli ingredienti indicati dall’immagine idealtipica fornita da un’epistemologia, e razionale anche nel senso che l’evoluzione cronologica “mostra” sostanzialmente l’evoluzione logica della scienza. … In sostanza: lo storico della scienza presuppone sempre un’idea di scienza, vale a dire una epistemologia. E storici con epistemologie differenti ci daranno storie (almeno parzialmente) diverse, perché saranno diverse le domande che le diverse epistemologie permetteranno di porre su quel vasto materiale costituito dalle attività e dai risultati di queste attività di quelle che si dicono comunità scientifiche. E sono proprio le diverse epistemologie a demarcare, sempre diversamente, la storia interna da quella esterna» (p. 799). I problemi della storiografia popperiana della scienza