Marco Messeri LA FILOSOFIA DELLA SCIENZA NEL NOVECENTO Sebbene tutta la storia della filosofia sia costellata da riflessioni intorno al legame che si stabilisce tra esperienza e teoria nel corso dell’indagine scientifica, la filosofia delle scienze empiriche propriamente detta si organizza come disciplina filosofica essenzialmente nel XIX secolo. L’obiettivo è quello di ricostruire la struttura del metodo scientifico. Ci sono dei punti che sono ritenuti assodati. Tutti coloro che partecipano al dibattito sanno bene che del metodo scientifico fanno parte sia la costruzione di teorie sia la ricerca empirica. Tutti sanno che il cuore della ricerca empirica è dato dalla produzione consapevole di dati osservativi attraverso la realizzazione di esperimenti, esperienze artificiali provocate appositamente per rispondere a questioni poste dalla riflessione teorica. Danno per acquisito che i dati osservativi prodotti dalla ricerca empirica sono il criterio ultimo di controllo per la validità delle teorie scientifiche. Tutti concordano che nessuna teoria scientifica può vantare una certezza a priori e che le teorie scientifiche, prima di potere essere considerate certe, definitive conoscenze, vivono a lungo come semplici ipotesi, magari altamente confermate dai dati osservativi, ma in linea di principio rivedibili o suscettibili di posteriore confutazione. Queste convinzioni condivise sono, però, ben lungi da risolvere ogni questione circa la struttura del metodo scientifico. Molte domande restano senza precisa risposta. Una dopo l’altra entreranno nella discussione dei filosofi della scienza. Eccone alcune: • C’è un modo per distinguere i veri dati osservativi dalle loro interpretazioni fuorviate da pregiudizi teorici? • C’è una procedura basata sui dati osservativi capace di guidarci nella costruzione di spiegazioni teoriche almeno plausibili (induzione)? • Ci sono dei principi noti relativi alla struttura generale della natura (certezze di filosofia della natura, p.es. il meccanicismo) suscettibili di limitare la libertà d’invenzione di teorie che vogliano essere plausibili? • L’apparato matematico e simbolico della teoria deve avere un’interpretazione all’interno di qualche teoria più generale capace di fornire un’immagine complessiva della natura o può essere autosufficiente nella descrizione del proprio campo d’indagine particolare? 1 • L’apparato matematico e simbolico della teoria deve avere un’interpretazione completa o è sufficiente che l’abbiano le sue proposizioni suscettibili di controllo attraverso i dati osservativi? • C’è una procedura di controllo basata sui dati osservativi capace di provare la verità di una teoria? • C’è una procedura di controllo basata sui dati osservativi capace di provare la falsità di una teoria? • Una teoria confutata deve essere abbandonata? • Ci sono delle procedure di controllo capaci di trasformare ipotesi teoriche confermate sufficientemente a lungo in vere e proprie conoscenze (certezze) scientifiche? La storia della filosofia della scienza comincia nel XIX secolo, soprattutto quando si propone con chiarezza l’alternativa tra l’induttivismo e la teoria del metodo ipoteticodeduttivo. La prima posizione epistemologica si caratterizza per la convinzione che sia possibile delineare una procedura metodica (l’induzione) attraverso la quale ricavare una conclusione teorica intorno alle cause o alla spiegazione di un determinato fenomeno dai dati registrati empiricamente circa il fenomeno stesso. La seconda posizione invece si caratterizza per l’idea che la teoria intorno alle cause del fenomeno, o che comunque cerca di spiegare il fenomeno, non giunge al termine del processo d’indagine come conclusione, ma viene sempre formulata nel suo corso, o magari all’inizio, come ipotesi, e che tutta l’indagine ulteriore consiste appunto nel tentativo di provare, confermare, o viceversa confutare l’ipotesi stessa, raccogliendo dati intorno al fenomeno, per stabire se essi risultino concordanti o discordanti con le conseguenze deducibili dall’ipotesi. L’induttivismo di Mill Economista e filosofo inglese, John Stuart Mill (1806-1873) è figlio di James Mill, tra i principali discepoli di Bentham e i maggiori protagonisti dell'utilitarismo britannico. Compie studi scientifici in Francia e poi giuridici in Inghilterra. Lavora per la Compagnia delle Indie fino al 1858, quando essa viene sciolta. Con il Sistema di logica deduttiva e induttiva (1843), ripensando sotto l'influenza di Comte la tradizione empirista inglese, egli è il massimo campione dell'induttivismo nel XIX secolo. Mill si riallaccia alle teorizzazioni secentesche di Bacone e di Boyle intorno al metodo scientifico. Egli rifiuta innanzitutto ogni valore euristico al ragionamento deduttivo. Ri2 prendendo un'antica critica, che risale almeno a Sesto Empirico, nega che il sillogismo possa accrescere la nostra conoscenza. Come può infatti essere certo delle premesse di un sillogismo (p.es. del fatto che tutti gli uomini siano mortali) chi è ancora incerto della sua conclusione (p.es. del fatto che il duca di Wellington sia mortale)? Il punto è che la conoscenza della verità delle premesse del sillogismo presuppone la conoscenza della verità della sua conclusione. Non può avere un valore euristico dunque l'inferenza deduttiva dal generale al particolare, ma solo quella «transduttiva» o «associativa» dal particolare al particolare: la sola giustificazione che abbiamo per attenderci un particolare evento futuro è rappresentata dai particolari eventi passati che abbiamo osservato. La legge generale è soltanto un espediente linguistico per conservare in maniera economica la memoria di un insieme di dati di fatto particolari ed esprimere l'attesa di altrettanto particolari casi futuri. L'induzione non è altro che il procedimento di costruzione di questa legge generale. Mill ritiene di potere indicare quattro schemi di inferenza induttiva: quello della concordanza, quello della differenza, quello delle variazioni concomitanti, e quello dei residui: CONCORDANZA caso circostanze antecedenti fenomeni 1 ABEF abe 2 ABC acd 3 ABCE afg quindi A è probabilmente la causa di a DIFFERENZA caso circostanze antecedenti fenomeni 1 ABC a 2 BC - quindi A è parte indispensabile della causa di a VARIAZIONI CONCOMITANTI caso circostanze antecedenti fenomeni 1 A+ BC a+ b 2 A° BC a° b 3 3 A– BC a– b quindi A è probabilmente la causa di a RESIDUI caso circostanze antecedenti 1 fenomeni ABC abc ma B è la causa di b, e C è la causa di c quindi A è la causa di a Mill sostiene inoltre che la possibilità dell'induzione si fonda sulla validità del principio di «uniformità della natura», e, rifiutando ogni giustificazione aprioristica di questo, afferma che la nostra conoscenza dell'uniformità della natura si basa essa stessa su di una generalissima induzione. Questo principio è infatti, per lui, il risultato di un’induzione che presuppone il buon esito di un gran numero di induzioni antecedenti: così come dalla constatazione del verificarsi di un certo fenomeno in alcuni casi di un determinato genere, noi siamo autorizzati a concludere che quel fenomeno si deve verificare in tutti i casi di quel genere, altrettanto dalla constatazione del fatto che il comportamento della natura è risultato uniforme in alcuni casi, scoperti appunto con induzioni particolari antecedenti, noi siamo autorizzati a concludere che il comportamento della natura è in generale uniforme. Per Mill, il rapporto che sussiste tra il principio dell'uniformità della natura, le premesse di un'induzione e la conclusione di questa, è dunque paragonabile al rapporto che sussiste tra la premessa maggiore di un sillogismo, la minore e la conclusione di tale sillogismo: a) come la verità della premessa maggiore del sillogismo non può essere scoperta se non si è prima scoperto che l'inferenza dalla premessa minore alla conclusione del sillogismo è legittima, così la verità del principio dell'uniformità della natura non può essere scoperta se prima non si è scoperto che è legittima l'induzione da una selezione di casi essenzialmente simili alla totalità dei casi essenzialmente simili dello stesso genere; b) d'altra parte, come la verità della premessa maggiore del sillogismo è condizione necessaria per la validità dell'inferenza dalla premessa minore alla conclusione, così la verità del principio dell'uniformità della natura è condizione necessaria per la validità di una qualsiasi induzione. 4 Se Mill è senza dubbio l'esponente dell'empirismo inglese del XIX secolo più nettamente schierato in difesa del metodo induttivo, non va d'altra parte dimenticato che anch'egli si trova costretto a riconoscere un qualche spazio al metodo ipotetico-deduttivo: nel caso dei fenomeni dipendenti dal concorso di una molteplicità di cause, Mill infatti ammette che nessuno degli schemi dell'inferenza induttiva è capace di determinare la spiegazione cercata, e deve concludere che lo scienziato non ha altro mezzo che quello di formulare delle ipotesi e sottoporle poi al controllo sperimentale. La teoria del metodo ipotetico-deduttivo L'importanza e la stessa possibilità di un ragionamento induttivo erano già contestate nell'epistemologia del XIX secolo, e perfino nell'epistemologia di ascendenza più schiettamente empiristica. In particolare, già il maggiore filosofo della scienza dei primi decenni del XIX secolo, l’astronomo, matematico e chimico inglese John Herschel (17921871), pur assumendo anch'egli la filosofia di Bacone come principale punto di riferimento, aveva sostenuto che il ragionamento induttivo è solo una delle vie che conducono alla scoperta delle leggi naturali, e non la più importante. Egli osservava che se la legge di Boyle relativa ai rapporti tra volume, pressione e temperatura dei gas è stata scoperta grazie alla generalizzazione di dati osservativi, la gran parte delle leggi naturali è stata scoperta invece attraverso un diverso percorso metodico: non grazie all'induzione, ma grazie all'elaborazione di ipotesi e al loro successivo controllo per mezzo dell'esperienza. Non sempre, cioè, né perlopiù, gli scienziati partono dall'osservazione. Più spesso essi immaginano le loro ipotesi di spiegazione: partono dunque dalle idee. Non c'è, d'altra parte, secondo Herschel, un metodo per elaborare ipotesi: elaborare ipotesi è un'attività creativa non disciplinabile tramite regole. Suscettibile di regolamentazione metodica, per Herschel, non è infatti la scoperta, ma la giustificazione dei risultati scientifici: non la produzione dell'ipotesi, ma la valutazione della sua accettabilità. A suo giudizio, l'accordo con le osservazioni è il più importante criterio di accettabilità delle ipotesi scientifiche, e alcune istanze di conferma hanno maggior significato di altre: la conferma dell'ipotesi nei casi estremi, la conferma nei casi inattesi, la conferma in un esperimento cruciale, e cioè, secondo la terminologia baconiana, in un esperimento capace di discriminare tra ipotesi alternative. Su posizioni non lontane, quasi negli stessi anni, era stato William Whewell (17941866), scienziato inglese dai vasti interessi. Egli aveva usato largamente il termine induzione, 5 ma, al pari di Herschel, non credeva che il lavoro scientifico potesse essere regolamentato da un metodo. Ciò che egli chiamava induzione infatti era la sovrapposizione di un particolare modello concettuale alle osservazioni preliminari compiute intorno al fenomeno studiato: precisamente la creazione di un'ipotesi capace di spiegare il fenomeno. E, come Herschel, Whewell negava che la creazione di un'ipotesi potesse essere disciplinata da regole. A suo avviso l'ipotesi non può, in particolare, essere ricavata dalle osservazioni. Essa, invece, può e deve essere controllata sulla base delle osservazioni. Epistemologi come Herschel e Whewell propongono dunque, in sostanza, proprio il metodo che, col nome di ipotetico-deduttivo, nel XX secolo sarebbe stato contrapposto al metodo induttivo: la procedura consistente nell'elaborare liberamente e creativamente una ipotesi di spiegazione per il fenomeno naturale indagato, nel ricavarne poi deduttivamente delle previsioni suscettibili di essere controllate sulla base dell'esperienza, e quindi, infine, nel realizzare sperimentalmente i controlli immaginati, confutando o confermando l'ipotesi. A maggior ragione posizioni schiettamente induttivistiche come quelle espresse da Mill non restano incontestate nella filosofia della scienza della seconda metà del secolo. In Inghilterra il logico ed economista William Stanley Jevons (1835-1882) polemizza esplicitamente con Mill, e, contro la pretesa di questi di codificare un ragionamento induttivo capace di condurre alla scoperta delle leggi della natura, ripropone il metodo ipoteticodeduttivo di Herschel e di Whewell. In Francia il fisiologo Claude Bernard (1813-1878) afferma che il solo metodo scientifico è quello sperimentale, ma, in consonanza con le posizioni di Jevons, insiste sul fatto che l'esperimento presuppone la precedente elaborazione di un'ipotesi, e nega che l'elaborazione di ipotesi possa mai essere codificata attraverso regole e sottratta alla creatività della fantasia umana. In America il filosofo Charles Sanders Peirce (1839-1914) riconosce che la parte più significativa delle ricerche scientifiche non può avvalersi né del metodo deduttivo né del metodo induttivo, bensì del procedimento della «abduzione» consistente appunto nel passaggio dal dato all’ipotesi che ne dà la spiegazione più soddisfacente. Il suo prodotto è un’ipotesi: un assunto cioè che non pretende la certezza, come fa la conclusione deduttiva; ma che, a differenza di questa, può trascendere quanto è contenuto nel mero dato, pretendere un valore predittivo, e dunque un interesse pratico. La vittoria del metodo ipotetico-deduttivo sarà indiscutibile. Nessun filosofo nel XX secolo riterrà seriamente possibile escogitare un meccanismo inferenziale capace di estrarre una conoscenza delle leggi generali della natura dalla constatazione dei casi particolari 6 appresi per mezzo dell'osservazione. Ne è prova il fatto che i filosofi che riterranno ancora legittimo parlare di induzione, come in particolare gli empiristi logici, impiegheranno il concetto di induzione in un senso sostanzialmente nuovo: nessuno di essi riterrà comunque possibile una scoperta induttiva delle leggi naturali. La sfida pragmatista e convenzionalista Non tutta la filosofia della scienza condivide però una visione realista della funzione delle teorie, e non la condivide neppure tutta la filosofia empiristica contemporanea. Tra la fine del XIX secolo e l'inizio del XX, anche per effetto del generale discredito che investe l'idea di un meccanismo induttivo per la scoperta delle leggi naturali, si fa sempre più viva la consapevolezza del fatto che le teorie scientifiche non si risolvono in un insieme di dati osservativi, che esse includono una componente creativa, e che tale componente creativa trae il suo valore dall'importanza pragmatica che dimostra, ovvero dalla sua capacità di facilitare le nostre operazioni. Per alcuni pensatori, sulla scia di Darwin e delle sue stesse osservazioni epitemologiche, l'importanza pragmatica delle teorie si identifica col loro potere di incrementare la nostra generale capacità di sopravvivenza e di dominio della natura; per altri, più limitatamente, col potere di migliorare la nostra capacità di manipolare e organizzare gli stessi dati osservativi in maniera economica. La convinzione che il valore conoscitivo delle teorie scientifiche si identifichi con la capacità che esse ci danno di operare nel mondo è al centro della proposta filosofica di quella corrente originariamente americana dell'empirismo che si è autodefinita attraverso l'etichetta di pragmatismo. Peirce ne è l'iniziatore. Ricevuta una solida formazione matematica e scientifica, si dedica agli studi di filosofici, rivolgendo il suo interesse soprattutto alla logica. Ha solo incarichi annuali di logica e di filosofia della scienza presso la John Hopkins University di Baltimora, il Lowell Istitute di Boston e l'Università di Harvard, ma esercita una decisiva influenza sulla filosofia e sulla cultura americane. Ne Il fissarsi della credenza (1877) e Del modo di chiarire le nostre idee (1878), Peirce affronta il problema filosofico della conoscenza a partire dalla condizione dell'uomo in quanto essere caratterizzato da bisogni e impegnato in un costante tentativo di adattarsi all'ambiente esterno e di adattare questo alle proprie esigenze. La ricerca di conoscenza muove per lui da una situazione iniziale di «dubbio», che è come tale una situazione di insoddisfazione, e mira al conseguimento di una situazione di «credenza» la più stabile, rassicurante e soddisfacente possibile. Spiegare il 7 ruolo della conoscenza nella vita umana, secondo il punto di vista di Peirce, non è chiarire il rapporto tra la mente umana e la verità, come ha cercato di fare tutta la tradizione della metafisica, bensì descrivere le diverse modalità di «fissazione della credenza»: non impegnarsi nel tentativo disperato di chiarire la relazione tra un soggetto sovrasensibile e una realtà assoluta ultrafenomenica, ma descrivere le diverse forme di adattamento mentale di un essere corporeo intelligente al suo ambiente naturale e artificiale. Una tale impresa si risolve in una analisi della vita umana, condotta dal punto di vista che Kant aveva chiamato «pragmatico» in contrapposizione al punto di vista «pratico», e cioè dal punto di vista adattivo e privo di presupposizioni etiche dell'interesse per la sopravvivenza e la crescente sicurezza. Ciò che Peirce battezza «pragmatismo» è appunto la scelta filosofica di concentrare la ricerca epistemologica sul valore pragmatico delle idee, allo scopo di permettere una comprensione concreta del loro significato, accantonando gli approcci metafisici, che con la loro pretesa di afferrare un significato delle idee più profondo di quello pragmatico, si arrestano viceversa alla mera veste verbale delle idee stesse e generano solo una pseudocomprensione. Peirce indica quattro metodi di fissazione della credenza e li ordina secondo le loro possibilità di successo pragmatico: il rudimentale «metodo della tenacia», consistente nel tenersi saldi alle credenze acquisite qualunque cosa accada, che evidentemente espone l'uomo al pericolo dell'azione inefficace o addirittura controproducente; il «metodo dell'autorità», consistente nella imposizione delle proprie credenze agli altri, metodo che ha consentito in passato a grandi religioni di conservarsi a lungo, ma non ha potuto e non potrà mai garantire una stabilità definitiva; il «metodo dell'a priori», consistente nel rafforzamento delle credenze per mezzo della pura argomentazione intellettuale, tipico della metafisica e, come la storia di questa dimostra, incapace di fornire quel consenso generale che è condizione necessaria per la piena stabilizzazione di una credenza; il «metodo scientifico», e cioè, come si è visto, per Peirce, il metodo ipotetico-deduttivo, che consente la maggiore stabilità e continuità possibile al pensiero umano, precisamente grazie al fatto di non irrigidirlo in particolari teorie, ma di lasciarlo aperto alla revisione permanente sulla base del confronto con i fatti empirici. Le scelte filosofiche di Peirce trovano in America e poi anche in Europa, soprattutto in Italia, numerosi seguaci. L'orientamento pragmatista tuttavia va presto incontro a differenziazioni e finisce col dividersi sulla stessa interpretazione dei propri assunti basilari. Una prima importante differenza appare con lo statunitense William James (1842-1910). 8 Professore all'Università di Harvard, è tra i promotori della psicologia sperimentale negli USA. Ad essa dedica i suoi autorevoli Principi di psicologia (1890). Come è evidente soprattutto da La volontà di credere (1897), Pragmatismo (1907) e Il significato della verità (1909), James intende il pragmatismo come una specifica concezione della verità: lo identifica con la tesi che la verità di una credenza coincide con la capacità di operare con successo che questa credenza assicura al suo portatore, e ne trae esplicitamente il corollario che la verità non è una proprietà permanente della credenza, bensì un carattere altrettanto transitorio del successo operativo stesso. L'impostazione di James suscita le obiezioni di numerosi filosofi, che, persuasi della perfetta concepibilità di idee vere, ma incapaci di produrre conseguenze operative, e di idee false, ma praticamente utilizzabili in specifici contesti operativi, accusano tale impostazione di risolversi nella introduzione di un nuovo concetto di verità, piuttosto che nel chiarimento del concetto consueto, e suscita il dissenso di alcuni tra gli stessi pragmatisti. Tra questi deve essere ricordato in special modo l’italiano Giovanni Vailati (1863-1909), che alla lettura del pragmatismo come nuova teoria della verità contrappone l'interpretazione del pragmatismo come metodo filosofico finalizzato al dissolvimento delle questioni insolubili e sterili: per Vailati il pragmatista non è colui che afferma la coincidenza di verità e utilità, bensì colui che rifiuta di attribuire un diverso significato alle idee che hanno identici corollari operativi e di misurarsi con domande pragmaticamente indecidibili. In America il pragmatismo acquisirà nella prima metà del XX secolo una vera e propria egemonia filosofica soprattutto grazie all'influenza di John Dewey (1859-1952). Muovendo dal punto di vista di Peirce, infatti, Dewey elabora una generale concezione «strumentalistica» dei compiti del sapere che rigetta il dogmatismo caratteristico di buona parte della tradizione filosofica, individua nel metodo ipotetico-deduttivo della scienza la più rilevante alternativa a tale dogmatismo filosofico e legge nella democrazia la traduzione dello spirito antidogmatico della scienza nel campo della politica. Al diffondersi della concezione strumentalista in Europa contribuisce, oltre che il pragmatismo americano, perlomeno anche un'altra fonte. Si tratta del pensiero del tedesco Friedrich Nietzsche (1844-1900). Nietzsche infatti, negli stessi anni in cui Peirce affronta il problema della fissazione delle credenze, sviluppa una aggressiva polemica contro il culto positivistico per i fatti empiricamente accertati. Il positivista chiede di restare ai fatti perché desidera raggiungere una visione imparziale: condanna la sovrapposizione delle interpretazioni ai dati oggettivi. Nietzsche ribatte che «non ci sono fatti, bensì solo 9 interpretazioni». Le constatazioni passive infatti non contengono indicazioni sul corso futuro degli eventi e sono dunque sterili. Le idee che abbiano una importanza non possono perciò risolversi in constatazioni. Esse sono viceversa sempre interpretazioni dei fatti constatati alla luce del nostro interesse vitale per il rafforzamento della nostra esistenza: consideriamo credibili quelle che favoriscono il nostro controllo sugli eventi, errate quelle che lo ostacolano. La verità assoluta, al di là dei nostri interessi vitali, è solo una chimera della metafisica. Su posizioni radicali è anche il tedesco Hans Vaihinger (1852-1933), che, nel suo Filosofia del 'come se' (1911), sulla scorta di Nietzsche, interpreta la scienza come un sistema di «finzioni» convenzionali accettabili solo in ragione del successo operativo che ci consentono, e dunque perché agiscono come se fossero vere, e non perché siano vere in qualche senso metafisico. Vaihinger definisce la propria filosofia del «come se» un «idealismo positivistico». Su posizioni radicali è anche, in Italia, il filosofo, storico e critico letterario Benedetto Croce (1866-1952), che descrive le nozioni teoriche della scienza naturale come «pseudo-concetti» astratti dotati di un valore solo «economico» e utilitario. Croce trae da questa visione delle nozioni scientifiche il rifiuto del valore conoscitivo delle scienze naturali. Se ne serve per giustificare la concezione dichiaratamente neohegeliana dell'esclusivo valore conoscitivo del concetto filosofico, concetto che, in quanto «universale concreto» non distinguibile dalla comprensione dell'individuo, a suo avviso viene peraltro a identificarsi col giudizio storico. In una versione complessivamente meno estrema l'idea del valore pragmatico delle teorie si diffonde anche in Francia. È vero che Edouard Le Roy (1870-1954) in Scienza e filosofia (1899-1900) si spinge fino a sostenere che le teorie scientifiche hanno un carattere convenzionale: che esse dunque valgono come un reticolo di definizioni implicite dei concetti che introducono, e non come un insieme di enunciati intorno alla realtà; che la verità attribuita loro dalle scienze è una semplice verità per convenzione decisa alla luce della utilità che le teorie rivelano. Il punto, per Le Roy, è che i fatti stessi che la teoria spiega sono strutturati dai concetti di questa e dipendono dunque dalle sue convenzioni. Le posizioni di Le Roy vengono tuttavia fatte oggetto di una contestazione puntuale e acuta da parte del filosofo e matematico francese Henri Poincaré (1854-1912). In La scienza e l'ipotesi (1902), Il valore della scienza (1905) e Scienza e metodo (1909), Poincaré riconosce senz'altro la presenza nelle teorie scientifiche di una componente convenzionale, ma nega che 10 possa essere giudicata convenzionale la scienza nel suo insieme, e che possa essere giudicata convenzionale la verità dei fatti con cui la scienza si confronta. Egli riflette in particolare sul significato dell'emergere delle geometrie non-euclidee. La geometria non è una scienza empirica. Essa non tratta dei «solidi naturali» che troviamo nel mondo materiale intorno a noi e che l’esperienza ci mostra più o meno perfettamente. Essa tratta di «solidi ideali» creativamente immaginati dalla mente umana e rigorosamente, ma anche convenzionalmente, definiti da un preciso insieme di assunti fondamentali, che possono essere deduttivamente sviluppati in una serie di teoremi. Alle scienze naturali riesce comodo prevedere l’aspetto e il comportamento dei corpi reali, sia pure in maniera approssimativa, come se essi si identificassero con i solidi ideali della geometria. E per questa operazione semplificatrice possono servirsi sia della tradizionale geometria euclidea sia di una nuova geometria noneuclidea. Ma la geometria prescelta non è «vera» o «falsa», ma solo più o meno «comoda» per la semplificazione del lavoro scientifico. Tutte le geometrie esistenti sono cornici compatibili con i fatti fisici, nessuna è resa obbligatoria dai dati e nessuna è da essi proibita. Una geometria dunque è effettivamente solo un insieme di «convenzioni», da valutarsi pragmaticamente per l’idoneità maggiore o minore ad affrontare e organizzare i dati empirici disponibili. Tuttavia, secondo Poincaré, vi sono dei dati ed essi preesistono alle convenzioni della scienza. È vero, come afferma Le Roy, che gli scienziati parlano dei fatti all'interno delle maglie del loro proprio sistema concettuale, e che questo sistema incorpora sempre delle convenzioni. Ma ciò significa solo che i «fatti bruti» che preesistono a ogni convenzione scientifica sono sempre riformulati alla luce di specifiche convenzioni teoriche, e che solo grazie a questa riformulazione divengono «fatti scientifici», ovvero fatti incorporati nella pratica scientifica. Non significa che i fatti si risolvano nel reticolo linguistico convenzionale adottato per parlarne. Lo scienziato non crea i fatti. Su posizioni moderate, analoghe a quelle di Poincaré, è un altro importante pensatore francese, Pierre Duhem (1861-1916), che, da storico della scienza prima ancora che da filosofo, dedica al ruolo che la teoria svolge nella scienza il suo La teoria fisica (1904-6). Duhem rifiuta l'idea che la teoria fisica abbia la funzione di spiegare le regolarità empiriche constatate, rivelandoci la realtà soggiacente al mero ordine fenomenico. La teoria fisica è piuttosto un sistema concettuale convenzionale che serve per organizzare nella maniera più comoda e semplice la nostra conoscenza delle regolarità empiriche stesse. Sono sempre possibili più organizzazioni concettuali diverse dei medesimi dati osservativi. La scelta 11 dell'una o dell'altra contiene sempre un elemento arbitrario. Ma il criterio ultimo è pur sempre rappresentato dai fatti che constatiamo. Duhem fa notare d'altronde che il controllo empirico di una teoria è comunque impresa ineliminabilmente complessa. Nessuna teoria è sufficiente da sola per ricavare conseguenze osservative e nessuna dunque può essere controllata separatamente. Una teoria fisica può essere messa a confronto con i fatti solo presupponendo la validità di un insieme variamente ampio di altre teorie: teorie geometriche sulla struttura dello spazio, criteri di conguenza che correlino i valori geometrici delle lunghezze a precise operazioni di misura effettuate con regoli materiali, teorie ottiche o meccaniche che giustifichino i nostri assunti sul funzionamento degli strumenti di osservazione e di misura, e ci garantiscano la correttezza dei dati che ricaviamo da essi, altre teorie dinamiche che ci permettano di calcolare l'effetto dei fattori di disturbo, degli attriti, della resistenza del mezzo, etc. Non è quindi mai corretto dire che una determinata esperienza contrasta in particolare con una determinata teoria, ma solo che essa contrasta con una delle teorie che sono state impiegate nella interpretazione dell'esperienza stessa. L'esperienza quindi è il criterio ultimo, ma essa non ci insegna mai come dobbiamo modificare le nostre teorie, e neppure quale delle nostre teorie noi dobbiamo più determinatamente modificare. Nel mondo di lingua tedesca, non lontano da questa visione convenzionalistica moderata della teoria scientifica è l’austriaco Ernst Mach (1838-1916). Fisico, filosofo e storico della scienza, nella Storia critica dello sviluppo della meccanica (1883) elabora una critica dei fondamenti metafisici della fisica classica, influenzando la formazione del punto di vista scientifico che avrebbe poi condotto Einstein a costruire la teoria della relatività. Egli insiste sulle convenzioni che reggono la codificazione newtoniana della fisica, e sostiene che la maturazione della scienza naturale conduce ad accantonare progressivamente concetti metafisici come quelli di causa e di sostanza, segnati dalla pretesa di spiegare la realtà fenomenica, scoprendone il presunto fondamento soggiacente, a beneficio del meno impegnativo concetto di «funzione», che ci consente di registrare puramente e semplicemente le interdipendenze constatabili tra le grandezze empiriche. Non lontano da Poincaré e Duhem, in Analisi delle sensazioni (1886) e in Conoscenza ed errore (1905), Mach afferma che lo scopo della teoria non sia quello di spiegare i fatti constatati, bensì quello di organizzare nella maniera più comoda e semplice i dati stessi, e afferma che scopo della scienza è di «economizzare esperienze mediante la riproduzione e l'anticipazione di fatti nel pensiero». 12 Le posizioni di Mach intorno allo scopo della teoria fisica sono accolte dall’austriaco Ludwig Wittgenstein (1889-1951) nel Tractatus logico-philosophicus (1921-22). Secondo il Tractatus le leggi generali a priori della fisica, a differenza delle leggi particolari, che sono meri compendi di osservazioni, hanno un valore convenzionale: proposizioni come la legge di causalità, il principio di minima azione, gli assiomi della meccanica non sono infatti veri enunciati dotati di un significato autonomo - solo le proposizioni che enunciano fatti lo sono -, bensì regole che ci consentono di raccogliere i fenomeni fisici nella maniera più consona alle nostre esigenze pragmatiche. Tali proposizioni sono come il reticolo di cui ci serviamo per indicare le parti di una certa superficie. Le maglie del reticolo potrebbero avere forme diverse, a seconda delle nostre esigenze: è comunque chiaro che la forma delle maglie non cambia l'aspetto della superficie che noi ci proponiamo di descrivere, ma solo rende più o meno agevole la descrizione. Allo stesso modo le teorie non devono essere interpretate come generalissime descrizioni della realtà, bensì come strumenti deduttivi per inferire dalle osservazioni passate le previsioni circa il futuro. Intanto, nuove formidabili domande vengono sollecitate dagli sviluppi della ricerca fisica generati dallo studio dei fenomeni elettromagnetici. È lo stesso quadro d’insieme rappresentato dai principi di Newton e dalla geometria di Euclide che risulta scosso e da rivedere. La stessa «fisica classica», come si comincia ora a chiamarla, pare superata. La crisi della fisica classica Il britannico Thomas Young (1773-1829), nel 1801, e poi il francese Augustin Fresnel (1788-1827), nel 1815, studiano i fenomeni di interferenza luminosa ricorrendo all’ipotesi ondulatoria. Per la scienza successiva è un fatto acquisito che la luce è costituita non da corpuscoli, come aveva ipotizzato Isaac Newton (1642-1727), ma da onde, come aveva invece ipotizzato Christiaan Huygens (1629-1695). In coerenza con l’ipotesi, gli scienziati introducono il concetto di «etere luminoso» per indicare il mezzo elastico nel quale si propagherebbero le onde luminose. Intanto è diventato chiaro come elettricità e magnetismo siano solo due aspetti del medesimo fenomeno. Il danese Hans Christian Oersted (1777-1851) nel 1820 nota che un ago magnetizzato viene deviato dal filo attraversato da corrente elettrica posto nelle vicinanze. Nel 1821 il britannico Michael Faraday (1791-1867) pubblica una memoria in cui mostra come una corrente elettrica posta sotto l’azione di un magnete riesca a generare un movimento di 13 rotazione. Infine, nel 1825 il britannico William Sturgeon (1783-1850) costruisce la prima elettrocalamita. È Faraday nel 1851 il primo a interpretare le linee di forza generate dalle forze elettromagnetiche come realtà fisiche, aprendo così la strada al concetto di campo: una realtà non materiale capace di occupare con continuità lo spazio vuoto di materia e di esercitare delle forze esattamente come potrebbe fare la materia stessa. Si comincia a parlare di «etere elettromagnetico» per indicare il mezzo non materiale portatore del campo. Nel 1865 il fisico scozzese James Clerk Maxwell (1831-1879) pubblica le quattro equazioni che descrivono il campo elettromagnetico. La sua teoria richiede che il campo elettromagnetico si propaghi per mezzo di onde e permette di ricavare la velocità costante con cui tale onde si dovrebbero propagare (c): circa 300 mila km al secondo. Data la concordanza con le misure intorno alla velocità della luce, ipotizza che le onde luminose siano appunto onde elettromagnetiche e identifica etere luminoso ed etere elettromagnetico. Nel 1886 il tedesco Heinrich Rudolf Hertz (1857-1894) conferma la teoria, producendo con mezzi elettromagnetici delle onde che si comportano secondo le previsoni di Maxwell. Comincia la ricerca intorno all’etere elettromagnetico. La teoria afferma che le onde elettromagnetiche, e in particolare quelle luminose, si propagano con velocità costante c solo rispetto all’etere elettromagnetico. Misurata rispetto ad altri sistemi di riferimento la velocità di propagazione dovrebbe risultare sensibilmente diversa. Così, tale etere elettromagnetico pare un buon candidato per incarnare la realtà fisica “davvero in quiete”, costituente il sistema di riferimento “naturale” e “privilegiato” per descrivere i fenomeni naturali: lo «spazio assoluto» postulato da Newton. Attraverso la misurazione della velocità della luce in direzioni diverse dovrebbe essere possibile evidenziare il moto della Terra rispetto all’etere in quiete assoluta (o, in altri termini, l’apparente «vento d’etere» che si immagina sembrerebbe soffiare contro la Terra, a causa del moto assoluto di quest’ultima rispetto all’etere stesso). Nel 1887 i fisici statunitensi Albert Michelson (1852-1931) e Edward Morley (18381923) tentano di evidenziare il moto della Terra rispetto all’etere attraverso un interferometro a bracci ortogonali: se la luce si propaga con velocità diverse rispetto a un sistema di coordinate solidale con la Terra, quando viaggia in direzioni diverse, il fatto risulterà dal comparire di un fenomeno di interferenza tra raggi che hanno viaggiato in direzioni tra loro perpendicolari. Il fenomeno di interferenza, tuttavia, non compare affatto, comunque l’apparato venga orientato. Il «vento d’etere» non sembra esistere. Tutto si verifica proprio come se la Terra fosse in quiete rispetto all’«oceano d’etere». 14 Il risultato sconcerta la comunità scientifica. Per spiegare il sorprendente risultato l’irlandese George FitzGerald (1851-1901) nel 1889 e poi l’olandese Hendrik Lorentz (18531928) nel 1892 ipotizzano che l’etere esista effettivamente, ma che il moto rispetto a esso non possa essere rilevato perché i corpi materiali (e quindi anche i bracci dell’interferometro di Michelson e Morley) si contraggono di un fattore nella direzione del moto, quando si muovono con velocità v rispetto all’etere. L’ipotesi suscita, tuttavia, scetticismo perché pare artificiosa e poco comprensibile. Nel 1905 il tedesco Albert Einstein (1879-1955) pubblica la «teoria della relatività ristretta», per mezzo della quale propone una spiegazione dei risultati di Michelson e Morley tanto semplice ed elegante quanto rivoluzionaria: non è la natura della materia in moto a essere diversa da ciò che gli scienziati hanno ipotizzato, bensì la natura di spazio e tempo. Einstein suppone che tutte le leggi naturali (comprese le equazioni di Maxwell) siano invarianti rispetto alla scelta tra diversi sistemi inerziali di coordinate spazio-temporali e che sia una legge di natura anche la costanza della velocità delle onde elettromagnetiche rispetto a qualsiasi sistema di riferimento inerziale. Le conseguenze di tali assunti sono sorprendenti: le trasformazioni “galeleiane” tra sistemi di coordinate non sono valide e vanno sostituite con le trasformazioni di Lorentz, sebbene per una ragione diversa da quella ipotizzata dal fisico olandese, nelle quali ha un ruolo cruciale il fattore ; eventi che sono simultanei, se misurati entro un sistema di riferimento inerziale, non sono simultanei se misurati entro un diverso sistema di riferimento inerziale in moto rispetto al primo; la lunghezza dei corpi rigidi non è invariante, ma dipende dal sistema inerziale assunto per effettuare la misura, e, se il sistema è il moto rispetto al corpo da misurare, essa risulta più corta che se è in quiete (contrazione dello spazio); la durata dei processi fisici non è invariante, ma dipende dal sistema inerziale assunto per effettuare la misura, e, se il sistema è il moto rispetto al corpo da misurare, essa risulta più lunga che se è in quiete (dilatazione del tempo); la massa di un corpo non è invariante, ma dipende dal sistema inerziale assunto per effettuare la misura, e, se il sistema è il moto rispetto al corpo da misurare, essa risulta maggiore che se è in quiete (aumento della massa); un corpo contiene energia per il solo fatto di avere una certa massa a riposo (inerzia dell’energia), energia che entra nel bilancio complessivo della conservazione dell’energia totale, e che, in opportune condizioni fisiche, può essere trasformata in altre 15 forme di energia, come in particolare l’energia cinetica (ci possono essere fenomeni fisici di perdita di energia cinetica e potenziale con acquisto di massa, e viceversa). Le prime conferme della relatività ristretta verranno nel 1932, quando lo statunitense Carl David Anderson (1905-1991) osserverà nei raggi cosmici il positrone, l’antiparticella dell’elettrone, prodotto in coppia con quest’ultimo attraverso la conversione di energia in massa, secondo la previsione dell’inglese Paul Dirac (1902-1984). Lo stesso anno l’irlandese Ernest Walton (1903-1995) e il britannico John Cockcroft (1897-1967) realizzeranno per primi artificialmente la fissione nucleare, che produce energia attraverso la scomparsa di massa. Solo più tardi viene confermata la dilatazione relativistica del tempo. Nel 1941 l’italiano Bruno Rossi spiega con la relatività il tempo singolarmente lungo di decadimento dei muoni nei raggi cosmici. Nel 1971 gli statunitensi Joseph Hafele e Richard Keating confermano la dilatazione del tempo confrontando la durata del viaggio di un aereo che fa il giro del mondo, quando viene misurata da terra e quando è misurata sull’aereo stesso. Nel 1975 gli italiani Luigi Briatore e Sigfrido Leschiutta confermano la dilatazione del tempo con orologi posti a quote diverse. Intanto nel 1916 Einstein ha pubblicato un’estensione della relatività ristretta, nota come «teoria della relatività generale». Con essa vengono presi in considerazione anche sistemi di riferimento non inerziali e viene studiata la gravitazione, ancora con un’ipotesi rivoluzionaria circa la natura di spazio e tempo. La nuova ipotesi di Einstein mira a spiegare il fatto, constatato ma non spiegato dalla fisica classica, dell’uguaglianza di massa inerziale e massa gravitazionale. Einstein ipotizza che i fenomeni gravitazionali siano dovuti non alla natura della materia, ma alla struttura geometrica stessa dello spazio-tempo, che non sarebbe euclidea, bensì conforme alla geometria ellittica di Riemann: lo spazio-tempo sarebbe infatti un sistema quadridimensionale curvo immerso in uno spazio con un numero maggiore di dimensioni, un po’ come è curva la superficie di una sfera o di un ellissoide posti entro lo spazio tridimensionale euclideo. Le linee seguite nello spazio-tempo dai corpi soggetti a un campo gravitazionale non sarebbero altro che le linee più brevi in tale struttura curva, così come nella fisica classica le più brevi sono le linee seguite solo dai corpi non soggetti a forze: la gravitazione non sarebbe perciò una forza che si esercita nello spazio e nel tempo, ma un aspetto della struttura geometrica stessa di spazio e tempo. Il campo gravitazionale, poi, non è uniforme, ma presenta dei centri d’irradiazione di massa diversa, perché la curvatura medesima dello spazio-tempo non è uniforme: le diverse concentrazioni di materia si 16 riducono esse stesse alle irregolarità della geometria di quello. La relatività generale prevede fenomeni di dilatazione del tempo dovuti alla struttura geometrica gravitazionale dello spaziotempo. La relatività generale permette ad Einstein di spiegare fino dal 1916 la già nota, ma fino ad allora inesplicabile, difformità dell’orbita di Mercurio dall’ellisse. Nel 1919 poi l’inglese Arthur Eddington (1882-1944) conferma la deviazione dei raggi luminosi in prossimità del Sole, prevista dalla teoria di Einstein. Nel 1925 lo statunitense Walter Adams (1876-1956) rileva uno spostamento verso il rosso delle righe spettrali della radiazione delle nane bianche, attribuibile a un effetto gravitazionale previsto dalla relatività generale. Frattanto un seconda serie di rivoluzionarie trasformazioni teoriche è stata suscitata anch’essa dall’approfondimento dei fenomeni elettromagnetici. È risultato che l’elettricità consiste in un flusso di corpuscoli, «atomi di elettricità», «elettroni», analoghi agli atomi di materia che nel 1803 l’inglese John Dalton (1766-1844) aveva riproposto per spiegare la differenza degli elementi chimici e che nel 1870 il russo Dmitrij Mendeleev (1834-1907) aveva posto alla base della loro classificazione. Nel 1887 Hertz scopre infatti l’effetto fotoelettrico e nel 1897 l’inglese Joseph Thomson (1856-1940) misura carica e massa dell’elettrone. Fanno discutere il fenomeno fotoelettrico e il problema della radiazione del corpo nero, l’oggetto ideale capace di assorbire onde luminose di tutte le lunghezze d’onda. Le simulazioni su sistemi sufficientemente simili al modello ideale mostrano un fenomeno inatteso, la cosiddetta «catastrofe ultravioletta»: l’intensità della radiazione emessa per lunghezze d’onda molto piccole (ultraviolette) non è alta, come la teoria corrente basata sulle equazioni di Maxwell prevederebbe, ma molto bassa e tende a zero con il decrescere della lunghezza d’onda. Quanto all’effetto fotoelettrico, la teoria di Maxwell prevede che si manifesti solo se l’onda elettromagnetica che colpisce la lastra metallica ha un’intensità sufficientemente elevata e che l’energia cinetica degli elettroni emessi dipenda da tale intensità. Invece, dai dati sperimentali risulta che l’effetto si manifesta indipendentemente dall’intensità dell’onda elettromagnetica, purché la sua frequenza sia sufficientemente elevata e che l’energia cinetica degli elettroni emessi dipende dalla frequenza e non dall’intensità dell’onda. Nel 1900 il fisico teorico tedesco Max Planck (1858-1947) spiega la radiazione del corpo nero proponendo l’«ipotesi dei quanti»: l’energia non viene assorbita o irradiata dagli 17 atomi in quantità suscettibili di variare con continuità, ma in pacchetti, «quanti di energia», di precisa grandezza. Essa varia dunque in maniera discreta. Come la materia, anche l’energia pare avere i suoi indivisibili. Nel 1905 Einstein spiega l’effetto fotoelettrico proprio ricorrendo all’ipotesi di Planck e ipotizza che la radiazione luminosa sia costituita da «fotoni», quanti di luce, corpuscoli luminosi: l’ipotesi corpuscolare newtoniana pare recuperare credibilità. Già Einstein connette l’intensità dell’onda in un punto dello spazio e del tempo alla probabilità di trovare il fotone in tale punto stesso. L’ipotesi attrae i fisici impegnati nella ricerca sulla struttura dell’atomo. Nel 1901 il francese Jean-Baptiste Perrin (1870-1942) per primo ha ipotizzato che l’atomo sia un sistema solare in miniatura, con elettroni che orbitano attorno a un nucleo carico positivamente, e nel 1911 il britannico Ernest Rutherford (1871–1937) ricorre al modello planetario per spiegare le deviazioni dei raggi alfa che attraversano una lamina di metallo. L’ipotesi dei quanti entra in gioco nel 1913, quando il danese Niels Bohr (1885-1962) elabora la versione quantistica del modello atomico planetario: gli elettroni non orbitano attorno al nucleo a distanze qualsiasi, ma solo a certe precise distanze associate a precisi livelli di energia, e, pur essendo carichi elettricamente, non irradiano sempre, ma solo quando si spostano da un livello energetico a un altro, emettendo radiazione di energia corrispondente alla differenza tra i livelli e con lunghezza d’onda conforme all’ipotesi di Planck. Una nuova proposta rivoluzionaria compare inoltre nel 1924, quando il francese Louis de Broglie (1892-1987) formula l’ipotesi delle «onde materiali»: come, secondo la spiegazione einsteiniana dell’effetto fotoelettrico, all’onda elettromagnetica è associato un corpuscolo, così alla materia e ai suoi corpuscoli è associata un’onda, delle quali le equazioni di de Broglie permettono di calcolare la lunghezza. L’ipotesi di de Broglie mira a spiegare la quantizzazione del raggio orbitale riconosciuta da Bohr: le sole orbite possibili per l’elettrone devono essere quelle in cui l’onda elettronica è stazionaria, dunque quelle in cui la lunghezza dell’orbita è un multiplo della lunghezza d’onda dell’elettrone. Nel 1927 l’ipotesi di de Broglie riceve una impressionante conferma sperimentale, quando gli statunitensi Clinton Davisson (1881-1958) e Lester Germer (1896-1971) producono in laboratorio la diffrazione dell’elettrone. È per affrontare questa singolare situazione osservata negli esperimenti che nello stesso anno Bohr enuncia il suo «principio di complementarità»: tutti gli oggetti microfisici presentano sia aspetti ondulatori sia aspetti corpuscolari, non devono essere concepiti solo come onde o solo come corpuscoli. Il principio tuttavia suona misterioso: se la 18 luce e anche la materia possono essere interpretate come onde, che natura ha il mezzo oscillante in cui si propagano tali onde? come è possibile che una particella dotata di massa e che occupa una parte finita e discreta di spazio coincida con un’onda, che per sua natura nello spazio si distribuisce con continuità? Un primo tentativo di risposta viene dall’austriaco Erwin Schrödinger (1887-1961): ogni ente fisico è in realtà un’onda; la particella è un «pacchetto d’onda», una sovrapposizione di onde interferenti tra loro che non si annullano a vicenda solo in una determinata estensione spaziale; quelle che appaiono abitualmente come le dimensioni della particella dotata di massa, coincidono in realtà con l’estensione del pacchetto d’onda; la velocità di ciò che appare abitualmente una particella dotata di massa è in realtà la velocità di gruppo del pacchetto d’onda. L’ipotesi di Schrödinger si scontra tuttavia con una difficoltà: la teoria dei fenomeni ondulatori prevede che il movimento del pacchetto d’onda immaginato dall’austriaco dovrebbe dare luogo a un fenomeno di sparpagliamento, che i dati empirici, invece, non confermano affatto. Nel 1925 il fisico teorico tedesco Werner Heisenberg (1901-1976) accantona del tutto tali domande, sceglie di mettere al centro della teoria un aspetto chiaramente osservabile e misurabile degli stati dell’atomo di Bohr, la probabilità con la quale si verifica la transizione dall’uno all’altro, associa le grandezze fisiche fondamentali a matrici che esprimono il sistema di tali probabilità e esprime i dati noti relativi ai fenomeni microfisici nel formalismo algebrico della «meccanica delle matrici». Nel 1926, poi, Schrödinger stesso fonda la «meccanica ondulatoria», al centro della quale c’è un’importante equazione differenziale che ha come soluzione la «funzione d’onda»: la funzione d’onda rappresenta lo stato d’insieme del sistema microfisico e incorpora tutti i dati prevedibili riguardo alle grandezze fisiche consuete, come energia, posizione e impulso; l’equazione di Schrödinger descrive l’evoluzione temporale della funzione d’onda. Schrödinger dimostra inoltre l’equivalenza tra la propria meccanica ondulatoria e la meccanica delle matrici di Heisenberg, le quali, infatti, da allora saranno presentate in una formulazione integrata, detta abitualmente meccanica quantistica. Nel 1927, poi, Heisenberg ricava una sorprendente conseguenza della meccanica quantistica, il «principio di indeterminazione»: l’errore minimo che si può compiere misurando la posizione spaziale di un oggetto quantistico moltiplicato per l’errore minimo che si può compiere misurando la sua quantità di moto non può mai essere inferiore a un certo 19 valore costante (così come non può esserlo il prodotto degli errori minimi compiuti misurandone l’energia e la posizione temporale): quanto più esatto risulta il valore di una grandezza, tanto meno lo è quello dell’altra. Per Heisenberg, nella fisica quantistica, lo stato del sistema descritto dalla sua funzione d’onda è sempre dato per una certa grandezza da un insieme di valori diversi associati a una peculiare probabilità. La misurazione altera la funzione d’onda facendola collassare su un diverso insieme, in cui un dato valore della grandezza viene ad avere probabilità 1 e gli altri probabilità 0, ma anche con l’effetto di rendere più indeterminata la distribuzione delle probabilità per la grandezza che il principio d’indeterminazione correla a quella misurata. Ancora nel 1927 il tedesco Max Born (1882-1970) elabora una nuova ipotesi circa la natura dei fenomeni quantistici. L’onda descritta dalla meccanica quantistica non deve essere interpretata come una vera oscillazione. Piuttosto, essa è “onda” solo in un senso traslato, in virtù dell’analogia formale e matematica che risulta esserci tra i veri fenomeni ondulatori e lo stato dell’oggetto quantistico. Secondo Born, inoltre, il quadrato del modulo della funzione d’onda che descrive lo stato dell’oggetto quantistico deve essere inteso come la densità di probabilità di trovare l’oggetto in quello stato, se lo si sottopone a un processo di misura; p.es., la densità di probabilità di trovare la particella in un certo punto dello spazio, se si sottopone la particella a un processo di misura della sua posizione. Diversi fisici accettano l’ipotesi di Born semplicemente come un nuovo assioma della meccanica quantistica da accettarsi come tale, arrestando ogni ulteriore speculazione ontologica. Non Schrödinger, che per parte sua cercherà invece sempre di elaborare la propria ipotesi sulla riduzione di ogni ente fisico a onda, in modo da rendere tale ipotesi stessa conciliabile con i dati sperimentali. Tutti comprendono comunque che è necessario abbandonare il modello planetario dell’atomo. Le proprietà dell’atomo devono essere ricavate esclusivamente a partire dalla funzione d’onda dell’elettrone: nella nuova concezione di atomo non esiste nulla di simile a un orbita per gli elettroni; anzi, non viene avanzata alcuna ipotesi su come l’elettrone si muova all’interno dell’atomo. C’è piuttosto l’«orbitale», una distribuzione nello spazio della probabilità di trovare l’elettrone, se si sottopone l’elettrone a un processo di misura della sua posizione, e questa è l’unica specificazione circa la struttura interna dell’atomo che lo scienziato possa consentirsi. Nello stesso 1927 al V Congresso Solvay di Fisica a Bruxelles, prevedibilmente, la discussione intorno alla fisica quantistica si colora di filosofia. Da un lato si pone 20 l’«interpretazione di Copenaghen» proposta da Bohr, da Dirac, da Heisenberg e da Born. Secondo loro la fisica quantistica è già solidamente fondata sulla coerenza del suo formalismo matematico e sulla conferma delle sue predizioni osservative; chiedersi che cosa siano davvero gli oggetti microfisici, al di là di ciò che afferma di loro la teoria nella sua espressione formale, se essi siano cioè onde o corpuscoli, è avviarsi sulla strada di speculazioni gratuite e uscire dai binari della scienza vera e propria. Dice Born: gli scienziati non devono spiegare la natura dei quanti, ma solo imparare a usarli; non devono farsi imprigionare da concetti superati di spazio, tempo, materia, composizione interna. Contro l’interpretazione di Copenaghen, invece, si schierano de Broglie e Schrödinger, che inclinano verso un’interpretazione più realistica del carattere ondulatorio dei fenomeni microfisici. E si schiera soprattutto Einstein che giudica estraneo allo spirito scientifico accettare come fatti definitivi l’indeterminazione e il carattere probabilistico della meccanica quantistica nella formulazione dovuta a Heisenberg e a Schrödinger. Per lui, «Dio non gioca a dadi con l’universo». È convinto che il probabilismo della meccanica quantistica sia dovuto alla nostra incompleta conoscenza della natura e che il futuro permetterà di individuare i «parametri nascosti», conosciuti i quali anche la microfisica assumerà la forma deterministica che la scienza richiede. Il dibattito tra i filosofi della scienza non può non accettare i termini della discussione filosofica imposta dagli scienziati stessi. Il Circolo di Vienna sarà il principale luogo intellettuale per la ricezione schiettamente filosofica di tale discussione. Le origini dell’empirismo logico Il Circolo di Vienna si forma intorno al tedesco Moritz Schlick (1882-1936). Allievo di Planck, dal 1922 presso l'Università di Vienna è titolare della cattedra di filosofia delle scienze induttive, che era stata di Mach e di Boltzmann. Le sue prime pubblicazioni sono dedicate alla discussione del valore filosofico della teoria della relatività. Sostiene, in pieno accordo con il tedesco Hans Reichenbach (1891-1953), che la teoria einsteiniana confuta in modo definitivo la tesi della conoscenza sintetica a priori difesa da neokantiani come Ernst Cassirer (1874-1945) e dai seguaci di Edmund Husserl (1859-1938). Comincia a interessarsi di filosofia del linguaggio sotto la suggestione del Tractatus logico-philosophicus di Wittgenstein. Dell'opera lo colpiscono soprattutto la tesi del carattere analitico di tutta quanta la logica, che, secondo il punto di vista «logicista» dei matematici Gottlob Frege (1848-1925) e 21 Bertrand Russell (1872-1970), include la matematica stessa, la tesi della natura non-referenziale delle verità analitiche, e la tesi della assenza di significato dell'intera problematica metafisica. Sono esse, prese insieme con la classica tesi empiristica del carattere necessariamente empirico della conoscenza fattuale, a costituire la base teorica comune dell'orientamento filosofico del quale Schlick diviene promotore, che sarà detto «empirismo logico» (o, meno propriamente, «positivismo logico», «neopositivismo» e «neoempirismo»). Intorno al seminario tenuto da Schlick si forma, a partire dal 1923, l'Associazione Ernst Mach, indicata anche col nome di Circolo di Vienna. Ne fanno parte i filosofi Friedrich Waismann (1896-1959) e Herbert Feigl (1902-1988), il matematico Hans Hahn (1879-1934), il fisico Philipp Frank (1884-1966), lo storico Victor Kraft (1880-1975), il sociologo Otto Neurath (1882-1945), il giurista Felix Kaufmann (1895-1949). Hanno contatti occasionali col gruppo anche il giurista Hans Kelsen (1881-1973), nonché i logici Kurt Gödel (1906-1978) e Alfred Tarski (1901-1983). Dal 1925 i membri del Circolo tengono delle riunioni settimanali il giovedì sera. Nel 1926 entra a far parte del Circolo il tedesco Rudolf Carnap (1891-1970), allievo del matematico Frege e da quell'anno istruttore di filosofia presso l'Università di Vienna. Nel 1926 il Circolo studia e discute il Tractatus di Wittgenstein. Il Circolo di Vienna stabilisce legami con i filosofi di analogo orientamento che formano la Scuola di Berlino, promossa da Reichenbach. Reichenbach ha studiato con Planck, Hilbert, Einstein e Cassirer. Dal 1926 al 1933 è professore di filosofia della fisica presso l'Università di Berlino. Ne La filosofia dello spazio e del tempo (1928), sostiene che la teoria einsteiniana della relatività rappresenta una confutazione definitiva delle tesi di Kant intorno allo spazio e al tempo e difende la tesi realista dell'esistenza del mondo esterno, interpretandola d'altra parte non come una verità a priori, bensì semplicemente come una valida ipotesi empirica. Profondamente interessato alla riflessione sulle tematiche della nuova fisica, nei Fondamenti filosofici della meccanica quantistica (1944), sosterrà che la teoria dei quanti richiede una logica non classica, avviando le ricerche sulla formalizzazione della logica quantistica. L'opera che più di ogni altra riassume la sua complessiva visione della filosofia della scienza è La nascita della filosofia scientifica (1951). Nel 1928 Reichenbach raccoglie attorno a sé un circolo filosofico di cui fanno parte Carl Gustav Hempel (1905-1997), suo allievo, e il matematico austriaco Richard von Mises (1883-1953). Tra la Scuola di Berlino e il Circolo di Vienna si stabiliscono subito contatti 22 intellettuali, che culminano nel 1930 con la fondazione della rivista "Erkenntnis", diretta insieme da Reichenbach e Carnap. Altre personalità filosofiche dialogano con l’empirismo logico. Ha contatti col Circolo di Vienna, sebbene resti su posizioni autonome, l'austriaco Karl Raimund Popper (19021994). Da ricordare infine che con Schlick, con Waismann, e più saltuariamente anche con altri membri del Circolo di Vienna, tra il 1927 e il 1932, ha degli incontri lo stesso Wittgenstein. È in sintonia col Circolo di Vienna poi anche l'inglese Alfred J. Ayer (1910-1989), ricercatore al Christ Church College di Oxford, autore di Linguaggio, verità e logica (1936), che introduce nell’empirismo logico molti spunti tradizionali dell'empirismo inglese sei-settecentesco. Nel 1929, viene pubblicata a firma di Neurath, Carnap e Hahn La concezione scientifica del mondo, manifesto programmatico dell'empirismo logico. Il manifesto denuncia come «privi di senso» gli enigmi insolubili della metafisica, si pronuncia a favore di una «concezione scientifica del mondo» «empiristica e positivistica», elogia l'impiego dei concetti formali elaborati dai logici matematici allo scopo di dissipare le oscurità del linguaggio ordinario, propone la ridefinizione della filosofia come disciplina «fondazionale» volta non a espandere il sapere, bensì a ottenere la sua chiarificazione per mezzo della «analisi logica» del linguaggio, delinea l'obiettivo di una «scienza unificata» capace di soddisfare la vocazione essenzialmente intersoggettiva dell'impresa scientifica. Il manifesto sottolinea inoltre la continuità della concezione scientifica del mondo con la tradizione umanistica e illuministica, prendendo posizione contro il vitalismo in biologia, contro lo spiritualismo nelle scienze storico-sociali, e viceversa a favore del comportamentismo, dell'utilitarismo, dell'atteggiamento demistificatore caratteristico di Feuerbach e di Marx. Schlick e il verificazionismo La dottrina che l’empirismo logico deglle origini ritiene più cruciale è la concezione verificazionista del significato: il senso dell'enunciato consiste nelle condizioni della sua possibile verificazione, cioè è dato dalle possibili esperienze che proverebbero la sua verità. Questa aveva trovato le prime embrionali formulazioni già negli scritti del francese Auguste Comte (1798-1857) e dello statunitense Charles Sanders Peirce (1839-1914). Peirce in particolare desume il verificazionismo dalla concezione pragmatistica che pone la funzione del pensiero nella creazione di abiti di azione: hanno senso diverso tra loro solo gli enunciati 23 la cui eventuale verità comporta qualche differenza in rapporto al nostro agire; dunque solo quelli la cui verità può essere accertata da noi empiricamente per mezzo di esperienze distinguibili tra loro. Su analoghe posizioni sarà, nel quadro della complessiva egemonia pragmatista che caratterizza la filosofia americana dei primi decenni del XX secolo, Percy William Bridgman con l’«operazionismo» di La logica della fisica moderna (1927) e La natura della teoria fisica (1936). Fisico in primo piano nella discussione intorno alla teoria einsteiniana della relatività, Bridgman sostiene che tutti i concetti scientifici, e in particolare i diversi concetti scientifici di lunghezza e di durata, ricevono il loro significato dalle operazioni che ci consentono di effettuarne una applicazione corretta. Egli ritiene che molti problemi filosofici siano privi di significato appunto per l'assenza di un significato operativo. Secondo Bridgman, lo stesso concetto di esistenza equivale al concetto di operatività: riconoscere una cosa come esistente non è altro che riconoscere il successo operativo della sua idea. Nell’ambito dell’empirismo logico è Schlick soprattutto a elaborare la spiegazione verificazionista del significato. La espone in diversi scritti, tra i quali Positivismo e realismo (1932). Per Schlick la verificabilità empirica non è solo un requisito per la produttività e la affidabilità delle nostre asserzioni. È la condizione necessaria e sufficiente della loro significanza: dicono qualcosa solo gli enunciati empiricamente verificabili, e il loro significato è dato precisamente dalle condizioni della loro possibile verifica, e cioè dalle esperienze suscettibili di provare la loro verità. Coloro che asseriscono enunciati incapaci di verifica non danno affatto un senso alle loro parole: le loro asserzioni sono letteralmente vuote, non dicono nulla. Gli insegnamenti della scienza sono verificabili e hanno dunque un senso. Le proposizioni della metafisica, della religione, dell'etica e dell'estetica non sono verificabili e non hanno perciò alcun senso: esse possono manifestare le emozioni di chi le accetta, ma non enunciano alcuno stato di cose. Non enunciano in particolare neppure il fatto che chi le fa sue prova certe determinate emozioni. Un conto è infatti lasciare trasparire le emozioni, un conto è descriverle: lasciare trasparire le emozioni è solo un esito involontario per pronunciamenti, come quelli di gran parte della filosofia tradizionale, semanticamente vuoti. A partire dalla concezione verificazionista Schlick sostiene in particolare il carattere metafisico, e perciò privo di senso, della contrapposizione tra realismo e fenomenismo. Schlick arriva a queste posizioni riflettendo sui presupposti teorici della concezione del senso dell'enunciato che era stata elaborata da Frege e da Wittgenstein. Frege aveva distinto 24 tra il senso dell'espressione linguistica (il pensiero che ci guida nel suo impiego) e il suo riferimento (la cosa che è indicata da essa). Egli aveva sostenuto che il senso dell'enunciato è dato dalle sue condizioni di verità: hanno il medesimo senso gli enunciati che sarebbero veri nelle medesime condizioni, nelle stesse situazioni. Il Tractatus di Wittgenstein aveva esplicitato presupposti e conseguenze della concezione fregeana. Schlick giunge alla concezione verificazionista, integrando l’idea che il senso dell’enunciato sia dato dalle sue condizioni di verità con l’idea che il senso dell’enunciato è qualcosa che le persone possono comprendere, comunicare e spiegare: deve sempre essere possibile stabilire se l’enunciato è usato correttamente (cioè secondo il suo significato) o scorrettamente (cioè in modo incompatibile col suo significato). Dunque deve sempre essere possibile stabilire se l’impiego dell’enunciato è vero o falso: il sussistere delle condizioni di verità deve essere accertabile; le condizioni di verità devono essere anche condizioni di verificazione. L’antimetafisica del Circolo di Vienna A Wittgenstein i filosofi viennesi si sentono vicini anche per la tesi che le proposizioni metafisiche siano prive di senso. Il tentativo di enunciare la struttura della realtà appartiene alla metafisica e si condanna dunque automaticamente al non-senso; l'ontologia è in linea di principio impossibile. I metafisici credono di parlare di qualcosa: in realtà essi parlano di niente, perché non hanno assegnato alcun senso alle parole del loro linguaggio. Ne Il superamento della metafisica mediante l'analisi del linguaggio (1931), Carnap in particolare dichiara che la metafisica esprime il nostro atteggiamento nei confronti della vita, ma non enuncia alcunché. Essa è più vicina all'arte che alla scienza: come l'arte infatti può dare voce ai sentimenti, ma non allargare la conoscenza. L'arte però sa parlare a tutti gli uomini, la metafisica invece si risolve in un esoterico rincorrersi di parole insensate o combinate in maniera insensata. L'analisi rivela infatti che parole metafisiche come 'principio' o 'Dio' sono state gradualmente private del loro originario significato empirico, senza tuttavia che esse abbiano ricevuto alcuno specifico nuovo significato: nessuno saprebbe indicare quali siano le condizioni empiriche di verità della loro applicazione, e, dunque, che cosa possa renderle comprensibili. I metafisici sono solo «musicisti senza talento musicale». I filosofi del Circolo di Vienna tuttavia non intendono la tesi che la metafisica è priva di senso allo stesso modo di Wittgenstein. Sono assai lontani da lui sia nella giustificazione che 25 danno di tale tesi, sia nelle risonanze assiologiche di cui la investono, sia nelle conseguenze che ne traggono riguardo ai compiti della filosofia. Essi infatti ritengono che la metafisica sia priva di senso perché è in linea di principio inverificabile attraverso l'esperienza. Per loro, l'enunciato trae il suo senso dalle condizioni della sua possibile verifica empirica. Wittgenstein invece ritiene che la metafisica sia priva di senso perché essa si propone di enunciare ciò che è privo di alternative, dunque non determinabile per contrasto con niente altro, e di conseguenza indicibile. Almeno originariamente, i filosofi viennesi non sono consapevoli di questa divergenza di punti di vista: leggono nel Tractatus l'affermazione che il senso di un enunciato dipende dal suo confronto con i fatti, e intendono questo confronto come esperienza verificante o falsificante, laddove Wittgenstein lo intendeva in maniera più neutra come possibilità dell'enunciato di accordarsi o non accordarsi con i fatti, e cioè di disporre di alternative concepibili. Per essi, inoltre, il fatto che gli enunciati metafisici siano privi di senso implica che essi sono privi di importanza. Per Wittgenstein invece la metafisica, con i suoi interrogativi incapaci di risposta e con le sue ribellioni alla logica, è di vitale importanza: i problemi insolubili della metafisica danno voce al disagio del nostro vivere. Wittgenstein non sacralizza affatto ciò che è dicibile. I viennesi infine pensano che, accantonata la metafisica, la filosofia debba dedicarsi al più produttivo compito di codificare la logica del linguaggio. Wittgenstein pensa invece che non ci sia alcun modo di enunciare tale logica, e risolve tutto il lavoro filosofico nell'impresa nichilistica di porre termine alla filosofia. Così, il filosofo viennese che maggiormente comprende il Tractatus, è paradossalmente proprio Otto Neurath, che rifiuta il pensiero di Wittgenstein perché ne afferra l'intimo coinvolgimento con la metafisica e l'incompatibilità col progetto di una filosofia scientifica. Carnap: La costruzione logica del mondo Allievo di Frege, Carnap viene già da studente a conoscenza delle ricerche di Russell. Si laurea con una tesi di impostazione neokantiana intorno al concetto di spazio. Nel 1923 entra in contatto con Reichenbach e, per suo tramite, con Schlick. La sua Costruzione logica del mondo (1928) influenza largamente le posizioni iniziali del Circolo di Vienna. Nell'opera Carnap spiega come l'intero edificio del sapere possa essere ridotto a enunciati esprimenti il contenuto dell'esperienza immediata. Carnap infatti sostiene che tutti i concetti di interesse scientifico grazie ai quali conosciamo la realtà si lasciano risolvere in semplici rappresentazioni dell'esperienza imme- 26 diata. Egli sottolinea il fatto che i concetti impiegati entro un certo ambito scientifico possono essere analizzati come «costruzioni logiche» di concetti appartenenti ad ambiti più elementari: che i concetti più complessi, cioè, possono essere sostituiti da opportune combinazioni degli altri, in modo tale che, senza la pretesa di riprodurre il senso dei primi, i secondi riproducano almeno il loro riferimento, e cioè le cose che essi indicano. In particolare, per Carnap, i concetti del «campo spirituale», usati dalle scienze sociologiche, possono essere riportati a quelli psicologici del «campo psichico altrui»: i concetti relativi a collettivi di uomini possono essere analizzati in termini di azioni e di condizioni psichiche dei singoli esseri umani che fanno parte di essi. A loro volta, i concetti psicologici possono essere riportati a quelli naturalistici del «campo fisico», interpretando comportamentisticamente ciascun fenomeno mentale come la disposizione a realizzare un determinato tipo di atti. I concetti delle scienze naturali, poi, possono essere definiti attraverso quelli del «campo psichico proprio», intendendo ogni espressione relativa a corpi come una costruzione logica di espressioni relative a dati di senso. Noi infine possiamo classificare i dati di senso senza ulteriori mediazioni grazie all'esperienza del «riconoscimento di similarità». Ora, d'altra parte, Carnap insiste sul fatto che una simile catena di procedimenti riduttivi ha un puro valore convenzionale, e che non deve essere considerata come una ricostruzione dei 'veri' rapporti sussistenti tra i 'livelli della realtà': essa infatti vale solo come una possibile scelta «metodologica», utile soprattutto a esibire le basi empiriche che nei diversi campi scientifici dovrebbero orientare le nostre assunzioni, e non come una teoria «ontologica» riguardante la natura delle cose. Carnap non vuole affatto sostenere, con il fenomenismo di Mach e di Russell, che i dati di senso siano i costituenti ultimi di tutta quanta la realtà. Ritiene infatti che ogni teoria circa la struttura della realtà sia parimenti inverificabile e perciò priva di senso. La metafisica fenomenista è dunque per lui altrettanto inconsistente della metafisica materialista. Ciò che è legittimo, invece, è trattare il fenomenismo come una convenzione concettuale utile in particolare ai fini della ricerca epistemologica, e assumerne il linguaggio, senza preclusioni per eventuali opzioni alternative: Carnap insiste sul fatto che il linguaggio materialista, che assume come primari i nomi di oggetti fisici, potrebbe essere altrettanto utile in vista di ulteriori scopi. Dalle considerazioni di Carnap molti esponenti dell'empirismo logico si fanno convincere del fatto che un fenomenismo accettabile dovrebbe avere carattere metodologico e non ontologico: primo tra tutti Schlick, che è il punto di riferimento riconosciuto della 27 corrente. Anche Schlick infatti accetta la natura puramente convenzionale del linguaggio fenomenistico e riconosce come priva di senso l'intera controversia metafisica tra fenomenismo e materialismo. Il dibattito sul verificazionismo In seno al Circolo di Vienna non regna una piatta unanimità. Già nei primi anni Trenta le tesi verificazioniste di Schlick suscitano un importante dibattito filosofico. Con Schlick si schiera Wittgenstein stesso, che, probabilmente anche sotto l'influenza del costruttivismo matematico di Luitzen Brouwer (1881-1966), tra il 1929 e il 1930 rielabora le posizioni originarie espresse nel Tractatus e si avvicina al verificazionismo. Sono in molti però a ritenere opportuno un indebolimento del principio di verificazione. Tutti sono d’accordo che se un enunciato sintetico non risultasse almeno indirettamente controllabile sulla base dell’esperienza, esso dovrebbe essere ritenuto privo di senso. Ma in molti sottolineano il fatto che anche buona parte degli enunciati sintetici apparentemente dotati di senso, nella stessa scienza e non solo nei campi più speculativi della filosofia, sono incapaci di sottostare un controllo empirico completo. Non sono dunque a stretti termini verificabili. Così pensa lo stesso Wittgenstein. Per un indebolimento del principio si pronuncia del resto anche Ayer. Ayer osserva che ogni enunciato contiene più informazioni di quanta ne contenga una particolare esperienza: nell'enunciato infatti il dato di senso viene classificato per mezzo di termini universali e dunque messo in rapporto con i dati di altre esperienze. Egli propone dunque di dichiarare significante solo l'enunciato che, in congiunzione con altri enunciati, consente di dedurre delle conseguenze osservative che non potrebbero essere dedotte senza di esso. Ayer si pronuncia inoltre per una concezione non egocentrica della verificabilità: l'enunciato non è verificabile solo se è verificabile adesso da parte nostra, ma se è verificabile comunque per qualcuno in qualche tempo; ciò permette in particolare, secondo Ayer, di rispondere alle sfide dello scetticismo circa le menti altrui e circa gli eventi passati. Ayer si pronuncia infine a favore di una concezione fallibilista della verificabilità: tutte le asserzioni sono fallibili, comprese quelle che fungono da resoconti osservativi; la verificazione va sempre intesa in senso relativo. Lo scetticismo quindi a rigore è nel giusto. Il fatto è però, secondo Ayer, che esso è nel giusto su un punto scarsamente interessante: a noi 28 non preme infatti tanto sapere se le nostre asserzioni siano in assoluto affidabili, quanto piuttosto sapere quali tra di esse siano più affidabili e quali meno. Ma il più determinato avversario dell’originario verificazionismo è Karl Popper. Popper contesta al principio di verificazione in primo luogo di essere esso stesso un principio metafisico: l'affermazione che tutti gli enunciati dotati di senso sono verificabili empiricamente infatti non è a sua volta verificabile empiricamente. Contesta in secondo luogo al principio di verificazione di finire per escludere la significanza della componente più importante della scienza stessa, e cioè le leggi scientifiche: le leggi scientifiche infatti sono enunciati «strettamente universali», ovvero enunciati universali che coprono una infinità di possibili casi particolari; dunque nessuna serie di esperienze umanamente realizzabile potrebbe verificarle. In risposta alle posizioni dell'empirismo logico, Popper insiste sul fatto che, se non tutti gli asserti scientifici sono empiricamente verificabili, tutti sono empiricamente «falsificabili»: anche le leggi, per rigettare la verità delle quali è sufficiente una sola osservazione sfavorevole. Egli propone dunque di prendere la falsificabilità come criterio di appartenenza al discorso scientifico. Infine, anche Rudolf Carnap si pronuncia a favore di una liberalizzazione del criterio verificazionistico di significanza. In Controllabilità e significato (1936-37) egli fa notare che perfino molti enunciati singolari sono altrettanto poco verificabili di quelli universali: infatti molti di essi non si limitano a enunciare i risultati delle esperienze realizzate di fatto, ma comportano implicitamente anche un numero illimitato di assunzioni relative alle esperienze potenziali. Ciò è chiaro in particolare se si considera il funzionamento dei «predicati disposizionali», e cioè di quei termini, come 'fragile' e 'solido', esprimenti qualità che per definizione anticipano il comportamento che la cosa osservata avrebbe per effetto di certe sollecitazioni sperimentali. Dire p.es. che un oggetto è fragile non equivale affatto a dire che esso sarà urtato violentemente e si romperà: non è dire che esso è destinato a rompersi; è piuttosto dire che esso si romperebbe se venisse urtato, e che anzi si sarebbe rotto, se urtato, anche durante tutto il tempo in cui di fatto l'oggetto non è stato toccato. Fare uso di un predicato disposizionale è dunque accettare un insieme di «condizionali controfattuali», e cioè di enunciati relativi a ciò che sarebbe accaduto se le circostanze fossero state diverse da come sono state di fatto: perciò effettuare asserzioni che per definizione vanno al di là di ogni possibile verifica empirica. Carnap nota che la maggior parte dei concetti scientifici è disposizionale e che quindi non è suscettibile di una definizione empirica completa: non è 29 «definibile» in termini osservativi; è solo «riducibile» a termini osservativi entro determinati contesti di impiego. Del termine 'fragile', p.es., possiamo solo verificare parzialmente l'applicazione: precisamente nelle situazioni in cui siamo in grado di produrre un urto violento. Carnap propone di rimpiazzare il criterio originario della verificabilità con quello meno impegnativo della «confermabilità»: nella impossibilità di una completa verificazione, affinché l'enunciato sintetico possa essere giudicato sensato, esso dovrà essere capace almeno di essere smentito dall'osservazione o provvisoriamente confermato da essa. Alle posizioni emerse nel corso del dibattito Schlick replica con Significato e verificazione (1936) ribadendo solo in parte le proprie tesi. Egli ricorda in particolare che l'enunciato non trae il suo senso dal fatto di essere stato verificato, ma solo da quello di essere verificabile almeno in linea di principio, e cioè dal fatto che una verifica è per esso almeno logicamente pensabile. Su altri punti Schlick invece conferma e precisa le proprie tesi iniziali. Riguardo al problema delle leggi scientifiche, p.es., Schlick risponde facendo sua la posizione radicale che era già stata del Tractatus wittgensteiniano e dell’inglese Frank Plumpton Ramsey (1903-1930): le leggi scientifiche sono effettivamente prive di significato; il fatto è che esse non sono propriamente degli enunciati generalissimi, bensì le regole che consentono di ricavare dagli enunciati che compendiano le osservazioni compiute in passato altri enunciati che pronosticano i risultati delle osservazioni future. Neurath e il dibattito sui protocolli Un secondo terreno di contrasto riguarda il fenomenismo. Qui il dibattito è promosso da Otto Neurath con i saggi Fisicalismo (1931), Sociologia e fisicalismo (1931), Enunciati protocollari (1932), Scienza unificata e psicologia (1933) e Fisicalismo radicale e mondo reale (1934). Austriaco, sociologo e filosofo, questi accetta le linee generali delle teorie di Marx, proponendosi di inquadrarle in una complessiva visione comportamentistica dei fenomeni umani. Nei saggi dei primi anni trenta, proprio allo scopo di fare risultare in maniera inequivocamente chiara la natura metodologica e non ontologica delle preoccupazioni dell'empirismo logico, Neurath suggerisce una ridefinizione dei termini della discussione. I filosofi hanno discusso in passato dei dati elementari che stanno alla base dell'edificio della nostra conoscenza: si sono chiesti se tali elementi di base siano dei dati di senso oppure degli oggetti fisici. Neurath propone di rendere chiaro che la discussione verte sul linguaggio da as- 30 sumersi come primario e non sulla struttura della realtà, sostituendo al concetto di elemento della realtà quello di «enunciato protocollare»: l'empirismo logico non si interroga infatti circa la natura delle unità elementari che è possibile riscontrare analizzando la realtà, bensì circa la natura degli enunciati per mezzo dei quali registriamo le nostre osservazioni e che fungono da strumento per controllare empiricamente l'elaborazione delle teorie. L'empirismo logico si chiede, secondo Neurath, se gli enunciati protocollari debbano adottare un vocabolario fenomenistico oppure un vocabolario fisicalistico: se essi, cioè, debbano contenere parole come 'io', 'adesso', 'impressione visiva di rosso', 'impressione tattile di solidità', etc. , ossia termini esprimenti dati di senso, e avere dunque la forma 'io adesso ho l'esperienza vissuta . . . '; oppure se debbano contenere parole come 'Otto Neurath', 'il giorno 31 marzo 1931', 'osservare', 'lancetta del manometro', 'indice del termometro', etc. , ossia nomi di cose, persone, posizioni e tempi del mondo pubblicamente osservabile, e avere dunque la forma 'la persona . . . nel momento . . . nel luogo . . . osserva lo stato di cose fisico . . . '. Contro la predilezione di Schlick per il linguaggio fenomenistico, Neurath sostiene che il linguaggio protocollare dovrebbe essere fisicalistico. Solo il linguaggio fisicalistico infatti rende possibile l'intersoggettività che è necessaria alla ricerca scientifica. Il linguaggio fenomenistico infatti è un linguaggio essenzialmente privato ed egocentrico: prevede cioè enunciati che, se rivendicano il fatto di essere verificabili in maniera conclusiva, risultano esserlo però solo da parte di un unico soggetto. Il linguaggio fisicalistico invece consta di enunciati che non pretendono di esprimere un'evidenza immediata e irrevocabile, come non lo pretende in generale ogni pronunciamento che ecceda la presunta sfera privata della coscienza, ma che almeno sono pubblicamente controllabili. Il fenomenismo, anche il fenomenismo metodologico, a parere di Neurath, è una scelta teorica incapace di far fronte alle esigenze della concreta indagine scientifica. Otto Neurath si pronuncia poi a favore di una interpretazione esplicitamente fallibilista della scienza. Per Neurath, la scienza è un'impresa integralmente sviluppata all'interno del linguaggio e non ha senso l'idea di un confronto tra linguaggio e realtà; ma il linguaggio incorpora delle convenzioni ed è soggetto ad una scelta che ha una ineliminabile componente pragmatica; dunque tutti gli enunciati, anche quelli protocollari con i quali lo scienziato registra i fatti, possono successivamente essere rigettati come falsi. I protocolli sono considerati di norma più sicuri degli enunciati teorici, e possono fungere dunque da strumento di controllo empirico per l'accettazione delle teorie, ma ciò non significa che essi siano 31 infallibili. Nella pratica scientifica, secondo Neurath, e più in generale nell'elaborazione delle opinioni, quando si giudica vero un enunciato, si intende solo esprimere la sua coerenza con l'insieme degli altri enunciati già incorporati nel nostro patrimonio linguistico. Neurath rigetta così espressamente ogni impostazione fondazionale. Egli pensa che l'impresa conoscitiva non possa essere resa certa attraverso qualche operazione di controllo esterna al linguaggio. Essa può essere corretta, ma solo nel senso che, facendo perno su un risultato, si possono correggere altri risultati, senza comunque poter uscire dal campo della fallibilità. Qualunque revisione è necessariamente interna: paragona l’impresa conoscitiva al viaggio di una nave costretta a riparare le proprie falle con i materiali imperfetti di cui si trova a disporre a bordo. Il «dibattito sui protocolli» aperto dagli interventi di Neurath, divide profondamente l'empirismo logico, e contribuisce alla dissoluzione dei circoli di Vienna e di Berlino, che ne avevano rappresentato i centri originari di aggregazione. Carnap aderisce alle considerazioni di Neurath e riconosce la superiorità del fisicalismo, insistendo d'altra parte sul fatto che la scelta a favore del fisicalismo deve essere intesa, al pari della scelta fenomenista che aveva precedentemente suggerito, come scelta metodologica e non ontologica, e che essa dunque non equivale all'adesione a una metafisica materialistica. E anche Karl Popper, pur protestando contro le visioni strumentaliste della scienza e rigettando il coerentismo, nega che vi sia una netta dicotomia tra enunciati teorici ed enunciati osservativi, riconosce che tutte le affermazioni scientifiche, comprese le registrazioni di fatti, hanno un carattere ipotetico, e sostiene che un falsificazionismo non ingenuo deve coniugarsi col fallibilismo. È chiaro però che il fallibilismo non si accorda facilmente con il rifiuto del coerentismo. Se ogni settore del nostro sistema di credenze è in linea di principio disponibile alla revisione, nessuno è privilegiato in assoluto e diviene difficile parlare della giustificazione se non in termini di rapporto tra le diverse componenti del sistema. All'interno del Circolo di Vienna è soprattutto il suo stesso promotore, Moritz Schlick, a schierarsi contro le tesi di Neurath. Nel saggio Sul fondamento della conoscenza (1934) Schlick continua a difendere il fenomenismo metodologico: vede infatti nel fisicalismo di Neurath una strategia filosofica gravida di pericoli; vi legge una rinuncia a commisurare la teoria scientifica a evidenze immediate e indubitabili, e, con ciò, ad assicurare alla scienza un fondamento incrollabile. Con la scelta fisicalistica, a giudizio di Schlick, Neurath finisce per vanificare l'idea stessa della scienza come impresa conoscitiva. Di Neurath Schlick non accetta il coerentismo e il fallibilismo, e rifiuta l'atteggiamento antifondazionale che li 32 sottende. Non accetta la concezione della verità come coerenza: sostiene infatti che un sistema di enunciati può benissimo essere internamente coerente e tuttavia falso. E non accetta una teoria della conoscenza che prescinda dall'idea di verità e accantoni completamente l'assunto della certezza scientifica. D'altra parte, a suo avviso, perché si possa parlare di conoscenza, bisogna che alla conoscenza stessa sia riconosciuto un fondamento. Schlick identifica tale fondamento nella «constatazione»: l'accertamento immediato di un fatto, anteriore al livello dell'espressione linguistica e solo successivamente registrato per mezzo di un protocollo, che funge poi da strumento per controllare le proposizioni generali. Schlick non si convertirà mai all'antifondazionalismo. Ma gli empiristi logici, ormai sempre più orientati verso una convergenza col pragmatismo, riterranno che i suoi argomenti siano metafisici e incapaci di trovare un'adeguata giustificazione empirica. Il falsificazionismo di Popper A partire dalla critica del verificazionismo, con La logica della ricerca (1934) (poi ripubblicata col nuovo titolo La logica della scoperta scientifica, 1959) e con i saggi raccolti in Congetture e confutazioni (1963), Karl Popper sviluppa un’epistemologia che ritiene alternativa a quella dell’empirismo logico. Popper ritiene illegittime sia l’«induzione enumerativa», e cioè la semplice generalizzazione dei dati osservativi, sia l’«induzione eliminativa», e cioè la tecnica euristica che immagina di provare un'ipotesi scartando successivamente tutte le alternative attraverso il confronto con i dati osservativi: infatti, a causa del numero in linea di principio infinito di casi coperti da enunciati come le leggi scientifiche, nessun insieme di osservazioni particolari può verificare conclusivamente una ipotesi generale del tipo di quelle impiegate nelle scienze; e, inoltre, non può essere logicamente legittima la pretesa di accertare un'ipotesi scientifica, scartando successivamente tutte le alternative, perché c'è sempre una infinità di ipotesi possibili, e, quale che sia il numero di ipotesi già scartate, non può mai essere trascurata la possibilità che le ipotesi migliori non siano ancora state ideate. Nessuna teoria scientifica perciò ha mai uno statuto epistemico diverso da quello della «congettura». Si tratta, come è chiaro, di obiezioni assai fondate, dalle quali difficilmente può difendersi l'induttivismo, e che dunque sono fatali per posizioni analoghe a quelle di Mill, ma certo non si tratta di obiezioni originali, eco come sono delle posizioni dei teorici ottocenteschi del metodo ipotetico-deduttivo. 33 La visione del metodo scientifico che Popper contrappone all'induttivismo ha il suo fondamento nell'asimmetria tra verificazione e falsificazione. A motivo dell'importanza che attribuisce alla falsificazione e alla falsificabilità Popper stesso definirà «falsificazionismo» la propria epistemologia. Egli fa notare che, se, come si è detto, stabilire la verità di un'ipotesi scientifica è un'impresa impossibile, non è invece impossibile stabilire che un'ipotesi è falsa. Per verificare l'ipotesi infatti sarebbe necessario un numero infinito di osservazioni favorevoli. Ma per falsificare l'ipotesi basta una sola osservazione sfavorevole. Popper pensa, d'accordo con l'empirismo logico, che la scienza si caratterizzi per il fatto di essere controllabile sul piano empirico, ma rigetta il suggerimento di una parte dell'empirismo logico che tale controllabilità si identifichi con la verificabilità empirica. Sulla base dell'asimmetria di verificazione e falsificazione Popper sostiene che essa consista invece nella falsificabilità empirica. Il valore di un'ipotesi scientifica dipende infatti dalla capacità di predire fatti ulteriori, e dunque appunto anche di esporsi alla potenziale falsificazione da parte delle osservazioni future. Una ipotesi è tanto più interessante quanto più coraggiosamente si impegna nella previsione di fatti futuri e perciò quanto più è falsificabile: il suo interesse cresce col numero delle esperienze previste dalla teoria che giocano il ruolo di «falsificatori potenziali». La metafisica non è falsificabile empiricamente e cade dunque fuori dei confini della scienza. Cadono per Popper fuori dei confini della scienza anche teorie come il marxismo e la psicoanalisi, che, con le loro pretese onniesplicative, rifiutano sistematicamente di confrontarsi con le obiezioni critiche: per il teorico della psicanalisi chi rifiuta la psicanalisi stessa viene immediatamente accusato di essere vittima di qualche inconfessabile stato di frustrazione sessuale, così come per il marxista l’avversario del marxismo non è mai un critico con le cui obiezioni confrontarsi, ma solo un ideologo asservito agli interessi del capitale. Psicanalisi e marxismo non ammettono di poter ricevere obiezioni serie. Proprio per questo rientrano piuttosto nella metafisica camuffata da scienza che non nella scienza genuina. Secondo Popper, d'altra parte, la falsificabilità è un «criterio di demarcazione», e non un «criterio di significanza»: essa non serve infatti a distinguere l'impiego sensato del linguaggio dall'insensato, bensì solo a delimitare il campo della scienza da quello della metafisica. Anche teorie non scientifiche possono per lui avere un significato. Per Popper, in particolare, le dottrine metafisiche hanno indiscutibilmente un significato: tanto è vero che sono 34 comprensibili e criticabili. Spesso anzi hanno grande importanza. Popper ritiene che molte di esse, come l'atomismo, siano state decisive per lo sviluppo della stessa scienza. Ma alla metafisica manca, secondo Popper, la forma particolare di criticabilità che definisce la scienza: la falsificabilità sulla base dell'esperienza. Popper insiste inoltre su alcune conseguenze che discendono dall'asimmetria tra verificazione e falsificazione. In primo luogo, egli sottolinea il fatto che non ci può essere un metodo della scoperta. Le ipotesi hanno un numero imprecisabile di sorgenti diverse, dalla riflessione alla fantasia e all'intuizione. Il processo di costruzione dell'ipotesi è dunque del tutto imprevedibile e non disciplinabile. È un processo creativo. Questo processo creativo sa alimentarsi anzi degli stessi pregiudizi e delle idee non empiricamente falsificabili. La scienza infatti può esistere solo perché la mente non è una tabula rasa: una intelligenza vuota di idee preconcette non potrebbe costruire ipotesi da verificare e sarebbe completamente incapace di dare inizio all'impresa scientifica. Il solo metodo scientifico è invece quello che opera per selezionare le teorie, e non per elaborarle: il metodo delle «audaci ipotesi» e dei «severi controlli». L'ipotesi è tanto più interessante quanto più è audace, cioè quanto più è falsificabile. I severi controlli che caratterizzano l'impresa scientifica sono costanti «tentativi di confutazione» delle ipotesi disponibili. Una ipotesi è «corroborata» quando ha superato il confronto con una esperienza potenzialmente falsificante: non è verificata - potrebbe sempre essere dimostrata falsa da successive prove sperimentali -, ma resta provvisoriamente in campo, in attesa di ulteriori controlli empirici. Popper insiste anche sul fatto che questo metodo di controllo per «congetture e confutazioni» è un prolungamento nel mondo della cultura del meccanismo selettivo tipico dell'evoluzione biologica. È chiaro che il metodo scientifico tratteggiato da Popper è in linea col metodo ipoteticodeduttivo già messo in evidenza dall'empirismo del XIX secolo. È da notare inoltre che Popper tenta anche, sebbene senza ottenere risultati pienamente soddisfacenti, di definire una misura quantitativa del «grado di corroborazione» dell'ipotesi, tentativo che, ad onta delle dichiarazioni di Popper stesso, per ispirazione non è sostanzialmente lontano dalle ipotesi di lavoro dei nuovi teorici dell'induzione appartenenti all'empirismo logico. Popper insiste sul fatto che la misura della credibilità empirica dell'ipotesi dovrebbe crescere insieme con la falsificabilità dell'ipotesi e col numero di esperienze potenzialmente falsificanti superate. Popper ripropone poi con nettezza l’interpretazione «realista» della funzione della teoria scientifica: egli riconosce cioè alla teoria scientifica l’obiettivo di rispecchiare la realtà. Il 35 realismo che egli propone vuole però non essere ingenuo. Popper in particolare non intende confondersi con l’«essenzialismo»: non sostiene cioè che la teoria scientifica costituisca una rappresentazione dell'essenza della realtà. L'essenzialismo infatti per lui è reso indifendibile dall'assunto congetturalista della validità esclusivamente ipotetica di ogni teoria scientifica: non saremo mai nella posizione di potere affermare di conoscere le leggi naturali; dunque non è la rappresentazione dell'essenza della realtà che dà senso alla scienza. Ma non per ciò, ad avviso di Popper, ha ragione lo «strumentalismo» che riduce le teorie scientifiche a meri espedienti predittivi, cioè a strumenti di adattamento al corso delle cose, privi di autentico valore conoscitivo. Secondo Popper, infatti, col crescere del grado di corroborazione la scienza cresce anche in «verosimilitudine», e cioè migliora il rapporto tra il proprio «contenuto di verità» (l'insieme degli enunciati veri della teoria) e il proprio «contenuto di falsità» (l'insieme degli enunciati falsi della teoria). Noi non sappiamo, per Popper, quanta parte delle nostre idee circa la realtà sia vera e quanta sia falsa, ma possiamo essere certi che la parte del vero si viene estendendo, e che dunque le nostre teorie scientifiche si vengono progressivamente, e senza fine, avvicinando alle reali leggi della natura. Carnap: la Sintassi logica del linguaggio L’empirismo logico non si considera sconfitto dalle obiezioni di Popper. L’evoluzione del pensiero di Carnap è particolarmente rilevante per il destino ulteriore del movimento. Nel 1931 egli ottiene una cattedra di filosofia presso l'Università di Praga. Gli scritti dell'inizio degli anni Trenta, Il linguaggio fisicalistico come linguaggio universale della scienza (1931), La psicologia nel linguaggio fisicalistico (1932), Sintassi logica del linguaggio (1934), segnano una prima svolta nel suo pensiero. Tali scritti sono rilevanti da più di un punto di vista. Per un verso, infatti, generalizzando l'idea della metamatematica elaborata dal matematico tedesco David Hilbert (1862-1943), Carnap sostiene che la filosofia si deve risolvere in una «sintassi logica» dei linguaggi scientifici. Con la sua metamatematica Hilbert aveva descritto in un metalinguaggio il linguaggio-oggetto della matematica: specificandone il vocabolario, le regole per la formazione dei termini e degli enunciati, gli assiomi, le regole di inferenza. Egli aveva accantonato ogni preoccupazione circa la natura delle cose indicate dai segni stessi, le cosiddette entità matematiche. La sintassi logica proposta da Carnap deve fare lo stesso anche per il «calcolo» previsto nelle diverse scienze. Il calcolo è un «linguaggio» preso insieme con un elenco di «assiomi». Un linguaggio è un complesso di 36 «simboli», definito da «regole di formazione» degli enunciati costruibili con tali simboli e da «regole di trasformazione» o «di inferenza» che consentono di ricavare enunciati da altri enunciati. Gli assiomi sono le proposizioni assunte dalla teoria come primitive, dalle quali poi le regole di trasformazione consentono di ricavare tutti gli altri enunciati che sono accettati all'interno della teoria. Carnap pensa che il filosofo possa occuparsi solo di sintassi logica e non di ontologia. La filosofia può produrre chiarificazioni soltanto interne al linguaggio, e dunque, per come Carnap vede originariamente la questione, chiarificazioni di genere esclusivamente sintattico: ogni considerazione semantica è implicitamente metafisica, e dunque priva di senso. La sintassi logica permette anzi di dissipare le confusioni della metafisica. Una cosa infatti sono gli enunciati «sintattici» espressi in termini di categorie linguistiche, come p.es. “Il termine 'gatto' è un nome”, e una diversa quelli «oggettuali» espressi in termini di categorie non linguistiche, come p.es. “Il gatto è un animale”. Ora, Carnap dice che gli enunciati della metafisica, i quali mirano a classificare oggetti, proprietà e relazioni, e a descrivere la struttura della realtà, sono enunciati «pseudo-oggettuali»: tali enunciati cioè presentano in termini di categorie non linguistiche degli assunti che riguardano in effetti le categorie linguistiche; essi sono enunciati sintattici travestiti da enunciati oggettuali. Un enunciato pseudo-oggettuale come p.es. “Il gatto è un oggetto” equivale infatti a “Il termine 'gatto' è un nome”; uno come “Il nero è una proprietà” a “Il termine 'nero' è un aggettivo”. Per eliminare la metafisica bisogna dunque passare dal «modo di parlare contenutistico» che si esprime in termini di enunciati oggettuali, al «modo di parlare formale» adottato dalla sintassi logica, che si esprime in termini di enunciati sintattici. Inoltre, contro il presupposto della possibilità di un linguaggio ideale, condiviso da esponenti della tradizione analitica come Russell e Wittgenstein, Carnap enuncia il «principio di tolleranza», che riconosce la scelta di una particolare sintassi come puramente convenzionale e pragmatica. Carnap dichiara esplicitamente che nessun linguaggio deve essere escluso in linea di principio come linguaggio di base: «in logica non c’è morale». Ogni linguaggio formale può andare bene; la questione non è di verità o falsità, ma solo di vantaggi o svantaggi pratici. 37 L’empirismo logico in America La creazione del Terzo Reich nel 1933 e l'annessione dell'Austria nel 1938 creano anche attorno agli empiristi logici, portatori di una visione razionalista e progressista, nonché in molti casi di origine ebraica, un'atmosfera politica ostile. In forza dei contatti intellettuali stabiliti fino dal 1929 con il mondo filosofico statunitense, gran parte di loro sceglie di emigrare in America. Nel 1934, anno della morte di Hahn, Reichenbach si trasferisce prima in Turchia e poi negli USA, dove è professore presso l'Università della California dal 1938 alla morte, mentre Hempel emigra in Belgio e Neurath inizialmente in Olanda. Nel 1935 anche Carnap si trasferisce negli USA. La minaccia d'altronde non è ipotetica. Nel 1936 infatti lo stesso Schlick viene assassinato da un nazista e il regime tedesco esalta il suo atto. Dal 1938 nei paesi dominati dal nazionalsocialismo viene infine del tutto proibita la circolazione delle opere degli empiristi logici. Stabilitosi in Inghilterra, Neurath mantiene stretti legami con gli altri empiristi logici. Insieme a Carnap e al pragmatista Charles W.Morris (1901-1979), avvia nel 1938 la realizzazione del più ambizioso progetto del Circolo di Vienna, l'Enciclopedia Internazionale della Scienza Unificata, una serie di monografie per mezzo delle quali dare corpo alla dimensione intersoggettiva e interdisciplinare della scienza teorizzata dall'empirismo logico. La serie ottiene la collaborazione di Bohr, Dewey, Reichenbach, Russell, Tarski, e altri. Attraverso tale impresa si consolida la confluenza col pragmatismo, che caratterizza le fasi ulteriori dello sviluppo dell'empirismo logico e che conduce a una liberalizzazione delle dottrine originarie su diversi terreni teorici. Protagonista di questo sviluppo è di nuovo Rudolf Carnap. Carnap: la nuova teoria dell’induzione Trasferitosi negli USA, dal 1936 al 1952 Carnap insegna all'Università di Chicago, poi per due anni a Princeton, e, dal 1954 fino al termine della sua attività di docente nel 1961, a Los Angeles presso l'Università della California. Soprattutto il contatto con il pragmatismo di Morris lo spinge a una nuova revisione delle posizioni circa il metodo della scienza. Un primo terreno sul quale si determina una decisiva liberalizzazione dell'empirismo nella direzione del convenzionalismo e del pragmatismo è rappresentato dalla questione dell'induzione. Gli empiristi logici del Circolo di Vienna non sono induttivisti. Tutti quanti sono chiaramente consapevoli della funzione puramente congetturale delle teorie scientifiche e si 38 pongono espressamente dalla parte del metodo ipotetico-deduttivo di elaborazione delle teorie. Essi sono anzi i protagonisti principali del processo di ridefinizione del problema dell'induzione che segue la finale sconfitta dell'induttivismo milliano. Ciò che gli empiristi logici chiamano metodo induttivo infatti non è un metodo di ricerca delle leggi della natura fondato sulla generalizzazione dei dati osservativi, bensì un metodo per la valutazione della probabilità delle ipotesi scientifiche sulla base dei dati osservativi. La ricerca su questo tema è promossa inizialmente da Hans Reichenbach e Richard von Mises. In Teoria della probabilità (1935) ed Esperienza e predizione (1938), Reichenbach propone di reinterpretare l'induzione come metodo non per scoprire le leggi della natura, ma per valutare la credibilità empirica delle ipotesi. Ma è di nuovo Carnap che conduce la ricerca a conseguire i più significativi risultati con i Fondamenti logici della probabilità (1950) e poi Il continuo dei metodi induttivi (1952). Carnap identifica appunto la probabilità di un evento con la misura calcolabile del «grado di conferma» dell'ipotesi che l'evento si verifichi, tenuto conto dell'evidenza osservativa disponibile. Nella teoria classica della probabilità, elaborata da Pierre-Simon de Laplace all'inizio del XIX secolo, la probabilità di un evento era definita come il rapporto tra il numero dei casi in cui l'evento si verifica e quello della totalità dei casi equipossibili, dei casi cioè che hanno uguali ragioni per verificarsi. La riflessione epistemologica intorno alla probabilità si era proposta essenzialmente di chiarire questo concetto di «uguali ragioni». L'empirismo logico della stagione europea, con Reichenbach e von Mises, si era pronunciato per la concezione frequentista (o empirica): proponeva di intendere la probabilità di un evento come il limite cui tende la frequenza relativa dell'evento quando il numero totale dei casi tende all'infinito. Ma era emersa anche una concezione diversa, logica, sostenuta da Wittgenstein, Ramsey e dall’economista inglese John Maynard Keynes (1883-1946), che interpretava la probabilità dell'evento come il rapporto tra il numero delle situazioni logicamente distinte in cui l'evento si verifica e il numero totale delle situazioni distinte logicamente possibili. Carnap intende la probabilità come grandezza relativa: probabilità di una certa ipotesi in relazione a una certa evidenza. Egli tuttavia presenta la sua misura come una funzione calcolabile, e in questo è appunto vicino alla concezione logica. Identifica poi la probabilità di una previsione generale con la probabilità che la previsione sia confermata dal prossimo controllo, riducendo dunque la probabilità dell'ipotesi circa una legge alla probabilità dell'ipotesi circa un fatto singolo. L'idea centrale della sua teoria è che non vi è ragione di 39 riconoscere un unico metodo induttivo di calcolo della probabilità: nel calcolare la probabilità dell'ipotesi che l'evento indagato si verifichi in un certo modo (p.es. che il prossimo lancio del dado dia un cinque) posso tenere conto sia della frequenza degli eventi passati di quel genere (1/4, se supponiamo che finora il cinque sia uscito dieci volte su quaranta) sia del rapporto tra i casi in cui l'evento è del tipo ipotizzato e il numero dei casi logicamente possibili (1/6, poiché le facce del dado sono sei). Soprattutto, posso fare una scelta intermedia, che tiene conto di entrambi i fattori: il «fattore frequenziale» e il «fattore logico». In generale, nota Carnap, un metodo induttivo elaborerà una certa media dei valori che si otterrebbero con metodi di calcolo estremi. Tale media sarà una media ponderata: attribuirà un certo peso al fattore logico e il restante peso al fattore frequenziale. Il peso del fattore logico, λ, un numero reale compreso tra zero e uno, individua ciascun particolare metodo induttivo in un «continuo» compreso tra i due metodi estremi. La prospettiva che Carnap assume è antifondazionale. Carnap riconosce infatti che la scelta di un metodo induttivo ha un carattere pragmatico e non è soggetta a prescrizioni aprioristiche. Si può dire solo che metodi induttivi con un alto peso del fattore logico saranno più efficaci in mondi molto casuali, e che i metodi opposti saranno più efficaci in mondi più regolari. I paradossi della conferma La chiarificazione dei metodi induttivi per il calcolo della probabilità delle ipotesi si viene a scontrare tuttavia con i cosiddetti «paradossi della conferma». Il primo dei paradossi, quello dei Corvi, è individuato nel 1945 da Carl Gustav Hempel. Si prenda l'ipotesi che tutti i corvi siano neri. Qualunque sia il metodo induttivo prescelto e qualunque evidenza osservativa sia disponibile, il grado di conferma di tale ipotesi sarà uguale al grado di conferma dell'ipotesi che tutte le cose che non sono nere non siano corvi: le due infatti sono equivalenti nell'ambito della logica classica, e quindi saranno confermate dalla medesima evidenza. Ora, la seconda ipotesi è confermata tutte le volte che osserviamo una cosa non nera diversa da un corvo. Le stesse osservazioni dovrebbero dunque rafforzare anche la prima. Ciò significa tuttavia che l'ipotesi che tutti i corvi siano neri dovrebbe essere via via rafforzata dalle osservazioni di papaveri rossi e di orsi bruni: cosa ben poco verosimile intuitivamente. Il secondo paradosso, quello degli Smeraldi, viene messo in luce nel 1946 dallo statunitense Nelson Goodman (1906-1998), collaboratore di Quine e poi professore presso 40 l'Università di Harvard. Immaginiamo di chiamare 'blerde' ogni cosa risultata verde nelle osservazioni compiute fino a ora e tutte le cose blu che troveremo da adesso in poi. Immaginiamo inoltre di volere calcolare la probabilità induttiva delle ipotesi sul colore del prossimo smeraldo osservato. Calcoliamo in particolare i gradi di conferma dell'ipotesi che il prossimo smeraldo sia verde e di quella che sia blerde. Dato che tutti gli smeraldi finora osservati sono verdi, e dunque sono anche blerdi, con qualunque metodo induttivo effettuiamo il calcolo, i due gradi di conferma saranno uguali. Ma uno smeraldo blerde futuro è uno smeraldo blu. Ne segue il paradosso che, alla luce della teoria carnapiana dei metodi induttivi, il fatto empirico che tutti gli smeraldi osservati in passato siano verdi e nessuno sia blu conferma nello stesso grado, e con qualunque metodo induttivo, la previsione che gli smeraldi futuri siano verdi e la previsione che essi siano blu. I paradossi della conferma mostrano dunque che è necessaria una revisione della teoria carnapiana dei metodi induttivi. Per fare fronte a questa esigenza Goodman in Fatti, ipotesi e previsioni (1954) elabora una «teoria della proiettabilità». Goodman contesta un assunto che accomuna gran parte della precedente filosofia della scienza: l'assunto che ogni ipotesi, qualunque sia il sistema di concetti che impiega, goda di una uguale legittimità intrinseca, cioè che ogni concetto sia ugualmente «proiettabile», ovvero utilizzabile nelle previsioni, e che la validità dell'ipotesi dipenda solo dal suo riscontro nei fatti. Goodman suggerisce al contrario che non tutti i concetti siano ugualmente proiettabili e che la loro diversa proiettabilità dipenda dal grado di «incorporazione» che essi hanno nel linguaggio, cioè dalla misura in cui essi si sono rivelati affidabili nelle previsioni effettuate in passato. La proiettabilità p.es. è alta per un concetto come 'verde', nulla per un concetto come 'blerde'. Sotto un aspetto decisivo il discorso di Goodman conferma comunque il punto di vista di Carnap: la questione dell'induzione non ammette una soluzione aprioristica; essa infatti implica elementi irriducibilmente pragmatici, e dunque inidonei a ricevere una trattazione normativa. Lo sottolinea il finlandese Jaakko Hintikka (1929, vivente) che in Un continuo bidimensionale dei metodi induttivi (1966) propone un perfezionamento della stessa teoria di Carnap. Hintikka ritiene che i metodi induttivi debbano essere individuati, oltre che dal peso del fattore logico carnapiano, anche da un ulteriore fattore che misura il grado di prudenza che il metodo adotta nell'assegnare valori di probabilità a priori alle generalizzazioni induttive. Tale ulteriore fattore infatti rappresenta il numero minimo di individui che devono comporre un ipotetico universo finito perché le probabilità induttive delle ipotesi nel nostro 41 universo in linea di principio infinito possano essere considerate a priori uguali alle probabilità induttive carnapiane calcolabili in esso. Per Hintikka dipendono da una decisione pragmatica tanto la scelta di un peso per il fattore logico quanto l'assegnazione di un valore per la grandezza che misura la prudenza induttiva. Hempel: la teoria della legge di copertura È durante la stagione americana dell’empirismo logico, inoltre, che Hempel formula un’analisi del concetto di spiegazione scientifica che riceverà notevole attenzione: la «teoria della legge di copertura». Emigrato in America all'avvento del nazionalsocialismo al potere, egli insegna presso l'Università di Chicago, e poi a Yale e a Princeton. Prima nel saggio La funzione delle leggi generali nella storia (1942) e poi sistematicamente in Aspetti della spiegazione scientifica (1965), propone la propria teoria della spiegazione scientifica. Molti avevano sostenuto che la teoria scientifica, per avere un valore esplicativo, deve illustrare il fenomeno che è suo oggetto attraverso una analogia con qualche fenomeno più familiare: così, p.es., la teoria cinetica dei gas trae il suo valore esplicativo dal fatto di permetterci di vedere il gas come uno sciame di particelle che si muovono e si urtano tra loro; essa ci fa comprendere le leggi dei gas per analogia con quel modello familiare. Hempel polemizza contro questa visione e formula un'analisi completamente diversa del potere esplicativo della teoria. La proposta di Hempel muove dall'idea, suggerita peraltro anche da Popper, che uno stato di cose è spiegato dalla teoria se e solo se questa indica un insieme di altri stati di cose accertati e un insieme di regolarità nomiche, o leggi, che, presi assieme, consentano di dedurre lo stato di cose da spiegare. Il problema della spiegazione si riduce dunque a quello del potere deduttivo della teoria: i modelli familiari sono irrilevanti. Per Hempel la questione è solo se la teoria «copra» i fatti. Dispone della spiegazione di un fenomeno chi, non essendo a conoscenza del fenomeno, avrebbe potuto predirlo. E poiché quando si spiega un fenomeno, il fenomeno è evidentemente già noto, Hempel dice che spiegare è un po' come «retrodire», o 'predire all'indietro', i fenomeni che conosciamo. È chiaro che una simile svalutazione del ruolo dei modelli familiari ha alle spalle le scelte filosofiche dei fisici teorici impegnati a elaborare la meccanica quantistica tra le due guerre mondiali, le discussioni a proposito della natura corpuscolare o ondulatoria degli oggetti quantistici, lo strumentalismo dell’interpretazione di Copenaghen. 42 Carnap: la semantica delle teorie scientifiche Le scoperte del logico polacco Alfred Tarski (1902-1983) esercitano inoltre una profonda influenza sugli empiristi logici. Tarski ha indicato il modo in cui possono essere definiti in un metalinguaggio sia il riferimento dei termini di un linguaggio-oggetto sia le condizioni di verità dei suoi enunciati. Non si tratta di fare metafisica. Impossibile esplorare il rapporto tra linguaggio e realtà in assoluto: è chiaro che non si può definire il significato extralinguistico dell’apparato di un linguaggio, se non ancora impiegando un linguaggio. Tarski del resto nel 1936 ha dimostrato un importante teorema che riguarda i linguaggi formalizzati che abbiano un certo grado di complessità, come p.es. il linguaggio dell’aritmetica: è impossibile definire le condizioni di verità per gli enunciati restando all’interno di un linguaggio di questo tipo; le condizioni di verità possono essere definite solo in un altro linguaggio più potente e impegnativo. Detto in altri termini, un linguaggio abbastanza interessante non riesce a spiegare il proprio concetto di verità. È soprattutto Carnap a trarne le conseguenze filosofiche. Adesso egli ritiene possibile ritrattare il drastico rifiuto della problematica semantica che aveva caratterizzato la Sintassi logica del linguaggio, senza per questo compromettersi con forme surrettizie di metafisica. Generalizzando l'approccio di Tarski, in Introduzione alla semantica (1942) e in Formalizzazione della logica (1943), esplicita una maniera canonica per affrontare le questioni del riferimento dei segni. Ora Carnap descrive la teoria di una scienza come un «calcolo» puramente formale al quale viene associata una «interpretazione» che rende la teoria suscettibile di controllo empirico. È chiaro che la correttezza delle proposizioni che possono essere dedotte dagli assiomi della teoria è una correttezza semplicemente convenzionale: il calcolo è un sistema sintattico e niente in esso chiama in causa la verità extra-linguistica. Riguardo al problema della preferenza da accordarsi a un calcolo piuttosto che ad un altro, vale naturalmente il principio di tolleranza: non c'è un calcolo che in assoluto sia migliore o più adeguato alla struttura della nostra intelligenza. È l'eventuale interpretazione a precisare le condizioni di verità extralinguistiche degli enunciati del calcolo. Se associamo al calcolo un'interpretazione osservativa, tramite tale interpretazione noi possiamo controllare empiricamente la teoria. Capovolgendo gli assunti originari dell'empirismo logico, d’altra parte, Carnap accetta il fatto che le proposizioni di una scienza non si lasciano ridurre completamente a fatti os- 43 servati o osservabili: la teoria fisica in generale è suscettibile di interpretazione solo parziale, e dunque anche che essa è suscettibile di un controllo solo incompleto. La libera scelta di una convenzione formale, consigliata o sconsigliata da considerazioni di comodità, è dunque vincolata dai dati di fatto, quando associamo a questa convenzione un significato osservativo, ma il vincolo dell'interpretazione empirica non è stretto e non può mai obbligarci in modo definitivo ad accettare una particolare teoria. Contro la nuova prospettiva accolta da Carnap, Neurath si fa portavoce del punto di vista originario dell’empirismo logico e rifiuta come in se stesso metafisico ogni pronunciamento semantico. In Empirismo, semantica e ontologia (1950) Carnap replica alle accuse di Neurath distinguendo due generi differenti di questioni ontologiche: da un lato, le «questioni interne», cioè quelle relative alle entità postulate all’interno della semantica dei nostri linguaggi; dall’altro, le «questioni esterne», cioè quelle relative all’adeguatezza dei nostri linguaggi stessi considerati nel loro complesso, dunque con le loro strutture sintattiche e insieme anche con i loro postulati semantici. È una questione di esistenza interna, p.es., se entro l’aritmetica sia ammessa l’esistenza di numeri primi; o se entro il linguaggio cosale o fisicalistico, che ammette solo ciò che è esprimibile in termini di oggetti pubblicamente osservabili e di comportamenti fisici, si possa parlare di stati mentali come sensazioni o sentimenti. Una questione di esistenza esterna, invece, p.es., se l’aritmetica sia una buona teoria; se il linguaggio cosale sia altrettanto legittimo, o addirittura più legittimo, del linguaggio dei semplici dati di senso. Secondo Carnap, discutere questioni ontologiche interne a un certo linguaggio è perfettamente sensato e la teoria di Tarski mostra la via per farlo correttamente: non compromette con la metafisica perché non obbliga a decidere se certe pretese entità esistano davvero, ma solo se esse siano riconosciute dal linguaggio che analizziamo. È invece insensato e caratteristico della metafisica discutere questioni ontologiche esterne. Le questioni esterne, correttamente intese, infatti, non sono materia di indagine teoretica, come pretende la metafisica, bensì di decisione pragmatica: stabilire se un certo sistema sintattico e semantico sia adeguato non è accertare se esso corrisponda alla realtà, ma solo decidere se esso sia uno strumento adatto a soddisfare le nostre esigenze. Quine: la liberalizzazione olistica del criterio di significanza empirica Tra gli anni Cinquanta e gli anni Sessanta la riflessione sul problema della significanza conduce gli empiristi logici infine a una ultima più radicale liberalizzazione. Fa da motore a 44 tale processo l'acquisizione del carattere olistico dei controlli empirici, anticipata dal convenzionalista francese Duhem e sottolineata poi in particolare dallo statunitense Willard V. O. Quine (1908-2000). Laureatosi in matematica sotto la guida di Whitehead, Quine negli anni trenta aveva studiato in Europa, dove era venuto in contatto col Circolo di Vienna, subendo in particolare l'influenza di Carnap. Tornato in America, era divenuto professore di filosofia presso l'Università di Harvard. I suoi primi contributi avevano riguardano la logica, e, in particolare, la teoria degli insiemi, cui aveva dedicato i Nuovi fondamenti della logica matematica (1937), Logica matematica (1940), più tardi seguiti da Logica elementare (1965) e Filosofia della logica (1970). Riprendendo la vecchia considerazione di Duhem, in Due dogmi dell'empirismo (1951) prima, e poi più estesamente in Carnap e la verità logica (1954) e Verità necessaria (1963), Quine rileva che nessuna ipotesi scientifica è sottoposta al controllo empirico isolatamente, bensì solo in connessione con una molteplicità di altre assunzioni matematiche, logiche, fisiche, relative soprattutto al funzionamento degli strumenti di misura, che sono necessarie per trarre delle conseguenze teoriche dai dati sperimentali grezzi. Quine giunge alla conclusione che è impossibile attribuire al singolo enunciato un suo autonomo significato empirico: «l’unità di misura della significanza empirica è tutta la scienza nella sua globalità»; la tesi del carattere olistico dei controlli empirici conduce a una liberalizzazione olistica della concezione del significato, e cioè al superamento della visione «atomistica» tipica dell'empirismo logico delle origini, caratterizzata dall'idea che ogni singolo enunciato sensato sia associabile a un insieme determinato di possibili conferme empiriche e sia distinguibile dagli altri semanticamente in virtù della specificità di esse. Secondo Quine, tuttavia, intesa correttamente, questa nuova liberalizzazione non rappresenta solo un ridimensionamento dell'importanza del concetto di significato empirico, ma produce conseguenze devastanti sull'intero patrimonio concettuale della semantica filosofica. È vero che, per lui, la liberalizzazione olistica non intacca la nozione di significanza. Ma ciò solo perché nella sostanza essa è una nozione sintattica, e non semantica: riconoscere una espressione come significante non comporta in realtà pensare che esista una entità come il suo significato, ma, in maniera ontologicamente più sobria, solo trovare che essa rispetta le regole sintattiche per la formazione di termini ed enunciati accettate nel linguaggio di cui essa fa parte; per tracciare la distinzione tra sensato e non sensato non abbiamo bisogno di confrontare il linguaggio con altro. La liberalizzazione della visione empiristica del significato intacca però i concetti specificamente semantici fino a distruggerli. 45 Infatti, dire che non può essere individuata nessuna unità di significato più piccola dell'intero patrimonio linguistico preso nel suo complesso equivale a dire che nessuna unità di significato può essere concretamente individuata: l'idea di significato perde ogni portata empirica. Quine mostra innanzitutto che la nozione di significato è interdefinibile con quella di analiticità: significato è ciò che hanno in comune enunciati analiticamente equivalenti; analiticamente equivalenti sono gli enunciati che hanno lo stesso significato. Egli osserva poi che, accettato il carattere olistico dei controlli empirici, e dunque constatato che non è possibile né collegare l'enunciato a un gruppo specifico di possibili esperienze confermanti né parlare di enunciati immuni da revisione, perché veri solo in base alla definizione dei termini che compaiono in essi, come erano concepiti gli enunciati analitici dalla tradizione filosofica, il concetto di significato e quello di analiticità perdono del pari plausibilità agli occhi di un empirista: l'empirista infatti vuole ammettere solo le distinzioni che possano essere applicate empiricamente; ma la dinamica dell'enunciato all'interno del patrimonio linguistico non consente in alcun modo di stabilire empiricamente quale sia il significato dell'enunciato e neppure di riconoscere il preteso enunciato analitico. Le nozioni di significato e di analiticità diventano incompatibili con la concezione empiristica della conoscenza, una volta che questa sia stata liberalizzata in senso olistico. Se l'empirismo deve essere liberato dai suoi «dogmi non empirici», bisogna rinunciare a tali idee. Il patrimonio linguistico è un tutto interconnesso che risponde allo stimolo dell'esperienza solo con la mediazione di un complesso di convenzioni pragmatiche così intrecciate col contenuto empirico da risultare inestricabili da esso. Quine propone un «empirismo senza dogmi» libero dagli assunti della controllabilità enunciato per enunciato e dell’analiticità. Questo obiettivo dell’empirismo senza dogmi lo porterà tra l’altro a esprimere preferenze ontologiche molto più drasticamente restrittive di quelle che erano emerse nella tradizione moderna dell’empirismo: giudicherà empiricamente sconsigliabile ammettere l’esistenza di proprietà e relazioni, entità possibili, intensioni. E si pronuncerà esplicitamente per il carattere relativo e pragmatico di ogni assunto ontologico. Il relativismo ontologico, d'altra parte, come Quine sottolinea lucidamente, mina a sua volta alla base l'intero programma fondazionalista che regge buona parte dell'epistemologia contemporanea, rendendo manifesta l'impossibilità di misurare in assoluto la validità delle nostre pretese conoscitive. Da disciplina diretta a fondare la scienza naturale, quale essa aveva inteso essere, per Quine l'epistemologia è obbligata a ridefinirsi essa stessa come una 46 semplice scienza naturale: si risolverà a suo avviso nella scienza naturale impegnata a descrivere, senza potere valutarle, le attività umane di concettualizzazione. Quine esplicita le ragioni del proprio naturalismo epistemologico in Epistemologia naturalizzata (1968) e in Le radici del riferimento (1974). Ne Il carattere metodologico dei concetti teorici (1956), Carnap stesso consente con il punto di partenza olistico di Quine e ripropone la concezione debole della significanza empirica che era stata di Ayer: è dotato di senso empirico solo l'enunciato che, in congiunzione con altri, consente di dedurre enunciati osservativi che non potrebbero essere ricavati altrimenti. Egli si rende conto che il criterio di Ayer in effetti finisce per non negare senso empirico ad alcun enunciato. Non vorrebbe però rifiutare del tutto, come Quine, l'idea stessa di senso empirico: vorrebbe piuttosto renderla meno restrittiva. Ma è chiaro che la massima liberalità semantica che Carnap introduce nella teoria empiristica all'atto pratico risulta poco distinguibile dalla posizione scettica di Quine. Come Carnap, anche Hempel in Problemi e mutamenti del criterio empiristico di significato (1950) si pronuncia per una liberalizzazione del criterio empiristico di significanza che tenga conto del carattere olistico dei controlli empirici. In maniera conseguente Carnap e Hempel rinunciano alla vecchia idea della filosofia come «analisi» dei concetti e la sostituiscono con quella della filosofia come «esplicazione» dei concetti. Infatti, dato che l'idoneità e l'equivalenza semantiche non possono essere distinte dall'efficienza e dalla sostituibilità pragmatiche, e dato che il mutamento di significato non può essere identificato localmente per le espressioni determinate, a loro giudizio, il filosofo non dovrebbe proporsi di tradurre in una notazione priva di ambiguità i concetti del linguaggio ordinario che rivestono interesse per la scienza, salvando esattamente il significato - non vuol dire nulla “salvare esattamente il significato” -, quanto piuttosto dovrebbe elaborare dei concetti rigorosi e pienamente dominabili, idonei a svolgere la medesima funzione dei concetti ordinari, ma in modo ancora più rispondente alle nostre esigenze. Così, p.es. , il concetto ordinario di 'sostegno empirico' potrà essere esplicato da quello, specificabile in termini rigorosi, di 'grado di conferma', e il concetto ordinario di 'deduzione' da quello meno vago di 'derivazione'. Le eresie relativiste del falsificazionismo: Kuhn La svolta relativistica che ha segnato gli eredi dell’empirismo logico, coinvolge anche la filosofia della scienza di ispirazione popperiana. Matura soprattutto grazie ai contributi di uno 47 storico della scienza, Kuhn, e di due filosofi della scienza, Lakatos e Feyerabend, in diverso modo legati alla prospettiva teorica del falsificazionismo, e finisce per mettere in dubbio anche l’idea della razionalità scientifica. Non stupisce del tutto che la critica più clamorosa di tale idea emerga proprio dall'interno del filone falsificazionista. Negli anni Sessanta, infatti, Karl Popper è il solo importante epistemologo che ritenga ancora possibile offrire una caratterizzazione normativa della scienza. La filosofia sviluppata dall'empirismo logico, invece, conquistata, per opera soprattutto di Quine, all'idea della scienza come impresa essenzialmente olistica, in quegli anni è già decisamente più cauta: essa ha ben chiaro che la complessità olistica della scienza rende vacuo il progetto di distinguere in modo assoluto nella scienza tra il fondato e l'infondato, tra il progressivo, l'erroneo e il superfluo. La contestazione del razionalismo popperiano è stimolata inizialmente dall'opera di Thomas S. Kuhn (1922-1996). Statunitense, passa dalla ricerca fisica alla storia della scienza con La rivoluzione copernicana (1957) e La conservazione dell'energia come esempio di scoperta simultanea (1959). Anche la sua opera più importante, destinata a coinvolgerlo nel dibattito propriamente filosofico, La struttura delle rivoluzioni scientifiche (1962), è essenzialmente un libro di storia della scienza, anche se indirizzato al chiarimento di categorie storiografiche generali piuttosto che alla ricostruzione di vicende particolari. In quest'opera Kuhn esplicita la convinzione maturata tra il 1960 e il 1961 insieme a Feyerabend, come lui professore presso l'Università di Berkeley, che lo sviluppo della scienza non abbia l’andamento lineare, cumulativo e teleologico che i filosofi avevano per lo più ritenuto assodata nelle discussioni della prima metà del secolo, e che al suo interno sia dato di incontrare sistemi concettuali tra loro «incommensurabili». Secondo Kuhn, la storia della scienza è scandita da fratture epocali dagli sviluppi e dall'esito largamente imprevedibili (i momenti di «scienza straordinaria»), che separano periodi nei quali l'indagine scientifica si svolge invece con un andamento sostanzialmente cumulativo (i periodi di «scienza normale»). Nei periodi di scienza normale la ricerca procede in maniera cumulativa perché vi è un «paradigma» accolto dall'intera «comunità scientifica»: esiste, cioè, un patrimonio condiviso, spesso condensato in testi considerati capitali, come la Fisica di Aristotele, l'Almagesto di Tolomeo o i Principi di Newton, fatto di teorie accettate, esperimenti giudicati come basilari, idee, abitudini di lavoro, preconcetti, patrimonio che fa da sfondo all'addestramento delle nuove leve scientifiche e guida la ricerca. Kuhn contesta infatti l'immagine individualistica della conoscenza, che ha accomunato gran parte della filosofia moderna, ivi compresa la 48 filosofia della scienza empirista: l'immagine dell'impresa scientifica come opera della mente individuale messa a confronto con i dati osservativi. Egli insiste sul fatto che la scienza è invece un'opera essenzialmente collettiva. Il lavoro scientifico viene paragonato da Kuhn al gioco del «rompicapo» (puzzlesolving, in inglese): nella scienza normale infatti gli elementi del problema sono già tutti dati e si tratta solo di combinarli secondo una tecnica universalmente riconosciuta. Si determinano periodi di scienza straordinaria, invece, quando la ricerca non può più limitarsi a un'attività di routine, ma è forzata a reinventare i termini medesimi in cui viene posto il problema: un genere di situazione critica che si presenta allorché le «anomalie» rispetto ai canoni sono tante e tali da non potere più essere affrontate nei termini previsti dal paradigma, il paradigma stesso diviene «sfocato», privo di valore euristico, e di conseguenza la comunità scientifica si disorienta e va incontro a un processo di sfaldamento. Nei periodi di scienza strordinaria emergono proposte che non si limitano ad abbattere teorie indiscusse per secoli, ma trasformano lo stesso linguaggio osservativo, rovesciano le tecniche sperimentali note, rigettano consolidati modelli di argomentazione. Tra i conservatori che si sforzano di salvare a ogni costo le tradizioni scientifiche vigenti e i rivoluzionari iconoclasti, nota Kuhn, la comunicazione si interrompe: gli uni e gli altri sono sordi alle proposte degli avversari e praticamente incapaci di comprendere le loro ragioni. Da questa situazione bloccata non si esce attraverso una dialettica razionale. Si esce piuttosto attraverso un processo fisiologico di turn-over: i vecchi scienziati tradizionalisti progressivamente abbandonano la scena, i rivoluzionari egemonizzano la formazione delle nuove leve della ricerca. Dopo anni di discussioni e polemiche, nel Poscritto (1969) a La struttura delle rivoluzioni scientifiche e poi nei saggi di La tensione essenziale (1977), Kuhn ha proposto di sostituire al concetto di «paradigma», oggetto di vari fraintendimenti, quello di «matrice disciplinare». Egli ha soprattutto insistito sul fatto di non avere mai inteso formulare una teoria circa la natura del linguaggio scientifico, ma solo una descrizione antropologica delle forme di vita delle comunità scientifiche concretamente esistenti: di non avere preteso, cioè, di fare filosofia della scienza, bensì esclusivamente storia della scienza. Kuhn ha parlato inoltre della «tensione essenziale» tra paradigmi o matrici differenti, che ha stimolato lo sviluppo della scienza moderna: in particolare della tensione tra gli schemi di pensiero delle scienze matematizzate e quelli delle più empiriche scienze della vita, del calore, del magnetismo, delle trasformazioni chimiche. Egli ha voluto mostrare, cioè, come, anche in un 49 medesimo periodo storico, elaborazione teorica, osservazione, esperimento, idealizzazione, controllo attraverso verifiche mentali, etc. , possano avere ruoli e significati del tutto diversi. Resta però il fatto, secondo Kuhn, che i nuovi quadri di pensiero si impongono, e che si entra in un ulteriore periodo di scienza normale, senza che vi sia stata una vera e propria dimostrazione della insostenibilità del precedente punto di vista. Così a suo avviso è avvenuto per la vittoria del sistema copernicano su quello tolemaico, così nel caso della sostituzione della fisica quantitativa di Galileo e di Newton a quella qualitativa di Aristotele. Kuhn sembra suggerire, sulla scorta di considerazioni che egli stesso riconosce sostanzialmente anticipate dallo scienziato e storico polacco della scienza Ludwik Fleck (1896-1961), che non vi siano, e non vi possano essere, delle ragioni universalmente valide per preferire un paradigma a un altro. Kuhn interpreta l'affermarsi di un paradigma a un «riorientamento gestaltico». Egli parla di tale processo anche come di una specie di «conversione religiosa». Intuizione e fede hanno, cioè, nella ricerca scientifica, un ruolo che apologeti della razionalità scientifica come Popper ignorano sistematicamente. Il fatto decisivo, a giudizio di Kuhn, è che nella scienza straordinaria vengono a mancare istanze di controllo capaci di decidere imparzialmente il contrasto: i rivoluzionari e i tradizionalisti di solito non condividono più neppure un medesimo linguaggio osservativo e una medesima tecnica argomentativa; ciò che gli uni vedono come prova decisiva, è agli occhi degli altri assurdo patente. È in questo senso che Kuhn parla di una «incommensurabilità» dei paradigmi alternativi. Bisogna osservare peraltro che Kuhn non ha mai considerato giustificata l'accusa di irrazionalismo, proveniente da Popper e dai suoi più stretti seguaci. Kuhn sostiene infatti che la scienza è fondamentalmente scienza normale, e che la scienza straordinaria è solo un processo perturbatore in se stesso estraneo agli scopi dei ricercatori. Kuhn sostiene anzi che la scienza è un'impresa essenzialmente razionale, proprio argomentando a partire dall'assunto che una certa dose di conservatorismo, il conservatorismo della scienza normale, è parte integrante della razionalità: un'argomentazione che d'altra parte scandalizza ancora più i popperiani, convinti viceversa che il conservatorismo sia il contrassegno dell'atteggiamento antiscientifico e, più in generale, dell'irrazionalità. Le eresie relativiste del falsificazionismo: Lakatos Il punto di vista di Kuhn stimola comunque i popperiani alla revisione. Imre Lakatos (1922-1974) in particolare riconosce la necessità di una più stretta collaborazione tra filosofi e 50 storici della scienza. Ungherese, il suo vero nome è Imre Lipschitz. Dopo essere stato perseguitato dal nazionalsocialismo a causa delle sue origini ebraiche, milita nella resistenza nelle file comuniste. Incarcerato e poi esiliato dal regime comunista dopo l'insurrezione del 1956, approda infine, nel 1960, alla London School of Economics, dove si lega a Popper. Si occupa di filosofia della matematica, e, influenzato dal falsificazionismo popperiano, in Dimostrazioni e confutazioni (1976), si propone di interpretare la matematica come sviluppo conoscitivo progrediente per congetture e confutazioni. Nel 1965 organizza a Londra il convegno su Critica e crescita della conoscenza dedicato alla discussione delle tesi di Kuhn. Parafrasando Kant, Lakatos afferma infatti che «la filosofia della scienza senza storia della scienza è vuota, la storia della scienza senza filosofia della scienza è cieca»: dalla storia della scienza deve, cioè, essere estratto un insegnamento filosofico; ma, d'altra parte, la filosofia della scienza deve mettere il proprio insegnamento a confronto con i dati storici perché questo sia credibile. Sollecitato da tale convinzione, negli anni successivi, in La falsificazione e la metodologia dei programmi di ricerca scientifici (1970) e La storia della scienza e le sue ricostruzioni razionali (1971), egli elabora un progetto complessivo di «ricostruzione razionale» della dinamica storica delle teorie, che battezza «metodologia dei programmi di ricerca scientifici». Almeno apparentemente, Lakatos rifiuta l'immagine della razionalità scientifica proposta da Kuhn. Egli pensa che senza tenere fermi i principi del falsificazionismo sia impossibile demarcare tra atteggiamento razionale e atteggiamento irrazionale. Il falsificazionismo solido e credibile è tuttavia quello di Popper, e non quello semplificato e distorto di alcuni suoi seguaci: un «falsificazionismo sofisticato», non il «falsificazionismo dogmatico», che immagina di potere disporre di una base osservativa infallibile per controllare le ipotesi teoriche, non il «falsificazionismo ingenuo», che immagina che ciascuna delle teorie in competizione possa essere controllata indipendentemente. Contro il falsificazionismo dogmatico, Lakatos ribadisce il fallibilismo popperiano: non ci sono dati osservativi assolutamente certi e immuni dalla falsificazione. Contro il falsificazionismo ingenuo, egli sostiene che può essere razionale accettare più o meno a lungo anche teorie falsificate, se le teorie alternative si sono dimostrate comunque peggiori. L'accettazione o il rigetto di una teoria, cioè, non dipende semplicemente dall'esito del suo confronto con i fatti, bensì dal suo rapporto complesso con i fatti e con le altre teorie disponibili nello stesso momento. 51 Della versione popperiana del falsificazionismo Lakatos rifiuta invece senza appello l'idea della verosimilitudine. Innanzitutto Popper cade in gravi incongruenze quando tenta di fornire una misura quantitativa della verosimilitudine - Popper stesso lo ammetterà. Ma soprattutto l'idea dell'avvicinamento alla verità per Lakatos si rivela gratuita entro il quadro filosofico del falsificazionismo sofisticato. Egli fa notare infatti come questa idea sia incompatibile col fallibilismo: se a falsificare o a corroborare le teorie sono dei controlli empirici che sono a loro volta fallibili e falsificabili, non c'è nessuna garanzia che la scienza vada gradualmente approssimandosi alla verità. Il falsificazionismo radicale di Lakatos rinuncia dunque esplicitamente a ogni pretesa di porre la scienza in un qualsiasi rapporto con la verità. L'assunto fondamentale della metodologia dei programmi di ricerca scientifici, che Lakatos propone come perfezionamento del falsificazionismo sofisticato, è che soggetti al controllo empirico non siano il singolo asserto teorico e neppure la teoria nel suo insieme, ma ciò che Lakatos chiama il «programma di ricerca scientifico», e cioè un complesso di ipotesi teoriche che articolano una idea centrale, detta «nucleo» del programma, attraverso un insieme di assunzioni secondarie, dette «cintura protettiva». L'identità del programma di ricerca è definita dal nucleo: l'insieme di assunti che per «decisione metodologica» viene sottratto alla falsificazione; l'idea centrale che si cerca di salvare ad ogni costo. Il programma di ricerca infatti non cade di fronte a un singolo controllo falsificante. Con Duhem e con Quine, Lakatos si rende conto che i risultati osservativi non falsificano nessuna idea teorica in particolare: il controllo empirico ha una struttura olistica. Il nucleo del programma può dunque essere sempre salvato modificando qualche ipotesi della cintura protettiva. Il lavoro scientifico all'interno del programma di ricerca si compone così tanto di una «euristica positiva», volta alla predizione di nuovi fatti, quanto di una «euristica negativa», finalizzata a difendere il nucleo attraverso ristrutturazioni della cintura protettiva. Il programma subisce uno «slittamento progressivo» quando l'euristica positiva prevale sulla negativa, uno «slittamento regressivo» quando prevale l'euristica negativa, e il lavoro scientifico si risolve in una serie di aggiustamenti sempre più esplicitamente ad hoc. A giudizio di Lakatos, la storia della scienza insegna che la dialettica tra un programma di ricerca interessato da uno slittamento progressivo e un programma soggetto a uno slittamento regressivo nel corso del tempo porta all'esaurimento ed infine all'abbandono del secondo. Ma, se la dinamica delle teorie ha un percorso che, sul lungo periodo, è progressivo, 52 Lakatos insiste sul fatto che non c'è mai un momento in cui il programma di ricerca sia tanto screditato da dovere essere abbandonato. La decisione di restare fedeli ad un programma di ricerca non può dunque mai essere condannata come irrazionale. La razionalità della scienza, ammonisce Lakatos, non è una «razionalità istantanea». Le eresie relativiste del falsificazionismo: Feyerabend L'interesse del pensiero dell’austriaco Paul K. Feyerabend (1924-1994) è dato dalla lucidità con cui questi sa cogliere le conseguenze inattese della ricostruzione razionale proposta da Lakatos. Trasferitosi negli Stati Uniti, insegna presso l'Università di Berkeley, che poi lascia per quella di Zurigo. Si occupa inizialmente dei problemi epistemologici posti dalla meccanica quantistica. Muovendo da un punto di vista falsificazionistico, difende in questo campo la posizione di Einstein, polemizzando sia contro l'interpretazione di Copenaghen, delineata da Bohr, sia contro la proposta di una logica microfisica diversa dalla logica classica, ipotesi che a suo avviso mirano entrambe a immunizzare artificialmente la teoria dalle difficoltà, sottraendola alle possibili confutazioni. Successivamente, con Spiegazione, riduzione ed empirismo (1962), Problemi dell'empirismo (1965-70), e, soprattutto, Contro il metodo (1975), Feyerabend mette in chiaro che la riformulazione lakatosiana del falsificazionismo conduce al risultato sostanziale che l'idea stessa di un metodo scientifico è insostenibile: essa finisce per rappresentare un suicidio del falsificazionismo stesso. Agli occhi di Feyerabend, infatti, in definitiva, Lakatos ha mostrato che il valore progressivo dell'impresa scientifica si è basato sul suo carattere «essenzialmente anarchico»: la scienza è progredita perché essa ha capovolto tutte le regole ed ha contravvenuto a tutti i principi; perché la sua sola regola è stata paradossalmente che «tutto può andar bene». Il fatto è che dire che la razionalità della scienza non è «istantanea», e che nessun criterio di razionalità può imporre l'abbandono di un programma di ricerca, non è diverso da sostenere che tutto può andar bene: nel «liberale» Lakatos c'è un «anarchico camuffato». Portando alle estreme conseguenze la liberalizzazione lakatosiana, Feyerabend sostiene che la scienza ha percorso sì talvolta la strada della induzione o della corroborazione delle ipotesi, ma che altrettanto spesso, e soprattutto nei casi più importanti, essa ha percorso quella della «controinduzione»: ha, cioè, accolto ipotesi confutate da risultati sperimentali ben stabiliti. Feyerabend porta ad esempio il contrasto tra Galileo e i fisici aristotelici: Galileo so- 53 stiene una teoria confutata da fatti accertati entro il sistema concettuale della quiete assoluta e del moto assoluto, sistema fino al suo tempo indiscusso. Le prove che egli porta, ottenute grazie al telescopio, in assenza di una credibile meccanica e ottica degli strumenti di osservazione, sono fragili. Galileo difende la sua posizione tramite ipotesi ad hoc, che di fatto riducono la falsificabilità della teoria. Non ha dunque ragioni oggettivamente convincenti. Vince storicamente solo perché, con l'eleganza e l'ironia della sua prosa, è migliore propagandista dei suoi avversari. Feyerabend suggerisce ironicamente che anche le pressioni politiche e le minacce ideologiche possano contribuire al progresso scientifico. Non è un puro paradosso. La conclusione che Feyerabend sostiene è infatti che non ci sono ragioni oggettivamente e universalmente convincenti, perché teorie diverse spesso non sono logicamente confrontabili tra loro. Come Kuhn, anche Feyerabend parla di una «incommensurabilità» delle teorie organizzate da schemi concettuali diversi. Le ragioni che Feyerabend propone a sostegno della tesi dell'incommensurabilità sono fondamentalmente due. In primo luogo, egli, del resto in piena consonanza col pragmatismo che emerge dalla maturazione dell'empirismo logico, nega che esista un linguaggio osservativo neutrale dal punto di vista teorico: «i fatti sono costituiti da ideologie anteriori, e un conflitto tra fatti e teorie non può essere una prova di progresso». Ogni grande sistema teorico costruisce un proprio linguaggio per esprimere il contenuto delle osservazioni che seleziona come rilevanti. Manca dunque la possibilità di mettere a confronto i meriti rispettivi di teorie molto lontane tra loro facendo appello all'imparzialità dei dati osservativi. Per usare l’apologo inventato dallo statunitense Norwood Russell Hanson (1924–1967), Tycho Brahe e Keplero, quando assistono al sorgere del Sole, “vedono” cose diverse. Keplero, che è copernicano, “vede” abbassarsi il piano dell’orizzonte terrestre in conseguenza del movimento del nostro pianeta, mentre il Sole gli appare immobile. Invece, il geocentrico Tycho Brahe “vede” immobile la Terra e l’astro solare in salita. In secondo luogo, Feyerabend sostiene che l'attività teorica della scienza induce un fenomeno generale di «variazione di significato» nel linguaggio scientifico: il significato di ciascun termine scientifico è codeterminato dalla totalità degli enunciati accettati come veri in cui il termine occorre; dunque, anche se teorie tra loro distinte paiono impiegare i medesimi concetti e parlare delle medesime cose, ciascuna di esse in realtà attribuisce un significato diverso e peculiare alle parole che impiega, e tratta di conseguenza di un proprio specifico oggetto, inconfrontabile con quello delle altre teorie. L'argomento della variazione di 54 significato poggia evidentemente su di una circostanza sottolineata soprattutto da Quine e largamente riconosciuta dalla filosofia del linguaggio contemporanea: la difficoltà, o addirittura l'impossibilità, di fare dipendere il senso delle parole da un ben delimitato corpo di enunciati di natura definitoria (gli enunciati analitici) e di liberare tutti gli altri (i sintetici) da ogni importanza ai fini della determinazione del senso. Da questa circostanza, tuttavia, Quine e Feyerabend traggono conseguenze ben diverse. Infatti, mentre Quine arriva alla conclusione della oscurità e irrilevanza della nozione di senso, Feyerabend ne rivendica e anzi ne radicalizza l'importanza: per Quine, i filosofi devono cessare di preoccuparsi della questione del significato; per Feyerabend, devono considerarla così centrale da modificare gran parte delle loro precedenti idee circa lo sviluppo della scienza. Come Kuhn, neppure Feyerabend intende combattere la razionalità. Egli combatte piuttosto ogni concezione restrittiva o normativa della razionalità. Per lui la razionalità si riconosce esclusivamente a posteriori, sul lungo periodo. La stessa scienza inoltre è solo una delle imprese umane razionali, accanto al mito, alla religione e ad altre diverse organizzazioni della cultura. Essa è solo una contingente tradizione occidentale. In una «società libera», dunque, nessuna tradizione culturale dovrebbe essere posta in condizioni di privilegio, neppure la scienza. Alla separazione tra stato e chiesa bisogna aggiungere, secondo il Feyerabend di La scienza in una società libera (1978) e di Addio alla ragione (1990), quella tra stato e scienza: egli sostiene che per le esigenze scolastiche, amministrative, sanitarie, i cittadini dovrebbero essere liberi di fare riferimento alle tradizioni che preferiscono. Feyerabend rivendica alla razionalità la «proliferazione delle teorie». Da «impertinente dadaista», come si proclama, egli rivendica cioè alla razionalità l'esigenza di moltiplicare i tentativi di pensiero e di scuotere ogni idea consolidata. È chiaro quindi che, malgrado la polemica antiscientista, Feyerabend conserva un qualche legame con Popper: per entrambi il pensiero resta progressivo e razionale solo finché è originale, inventivo, e immune da resistenze conservatrici. Il relativismo di Kuhn e di Feyerabend ha costituito un punto di non ritorno per la filosofia contemporanea. Anche coloro che rifiutano l'allegria iconoclasta di Feyerabend o la liquidazione della filosofia della scienza a beneficio della storia della scienza, proposta nella sostanza da Kuhn, non hanno potuto che constatare la bancarotta della prospettiva normativa e fondazionale. 55 Per una provvisoria conclusione Come si è visto, la riflessione contemporanea intorno alla scienza è largamente condizionata dall'egemonia intellettuale dell'empirismo. Solo l'empirismo infatti ha concretamente mostrato una cornice filosofica sufficientemente elastica da rendere comprensibili le grandi trasformazioni della scienza nell'età delle geometrie non-euclidee, della fisica relativistica e quantistica, e della proliferazione delle logiche. Il fatto è che da un lato i filoni neoidealisti e spiritualisti, legati ancora a una visione sapienziale della filosofia, sono restati troppo lontani dalle motivazioni e dalla pratica della scienza, e non sono riusciti dunque a concettualizzare in maniera accettabile i meccanismi effettivi del rapporto tra osservazione e teoria. Si sono preclusi così una credibile analisi della scienza. Il filone neokantiano, dall'altro, è caratterizzato dall'idea dei presupposti a priori della conoscenza empirica, e quindi, pur tentando di ridimensionare il campo dell'a priori stesso, per non farsi coinvolgere in una battaglia di retroguardia in difesa della geometria euclidea e della fisica newtoniana, finirà per apparire un quadro epistemologico comunque troppo rigido: la ricerca contemporanea sembra insegnare che l'indagine scientifica presuppone una illimitata flessibilità degli schemi concettuali. La prevalenza storica dell'empirismo è dunque comprensibile. Ma quello della contemporanea filosofia della scienza è tuttavia un “empirismo infelice”. La storia della filosofia novecentesca della scienza è caratterizzata infatti da un progressivo svincolarsi del suo stesso empirismo da una concezione acriticamente realista della funzione delle teorie scientifiche e dall'assorbimento della parte più ragionevole delle istanze strumentaliste. L'empirismo liberalizzato promosso negli ultimi decenni dai filosofi di Vienna e di Berlino, nonché dai loro eredi americani, accantona come intrisa di metafisica la questione della funzione delle teorie scientifiche, evitando in base a una precisa motivazione filosofica la scelta tra realismo e strumentalismo. Esso tuttavia riconosce con chiarezza il ruolo delle convenzioni nella scienza e ammette il peso dei fattori pragmatici tanto nella selezione delle teorie quanto nella stessa elaborazione del linguaggio delle osservazioni. Il punto è però che una simile liberalizzazione dell'empirismo non è senza effetti sul progetto teorico d'insieme della filosofia della scienza. Infatti, posto anche che sia possibile definire in termini procedurali il ruolo del fattore empirico, non è certo possibile definire in termini procedurali il gioco di un numero imprecisato di fattori pragmatici: si chiamano pragmatici appunto i fattori che reggono la dinamica della scienza piuttosto ispirando 56 l'intuizione degli scienziati che non concretizzandosi in espliciti meccanismi decisionali. Ciò significa che non solo non risulta possibile caratterizzare la scienza tramite un qualche particolare metodo di scoperta delle leggi della natura, ma che è impossibile anche caratterizzarla tramite un qualche particolare metodo di giustificazione delle ipotesi teoriche. Il valore filosofico dell'empirismo liberalizzato sta essenzialmente nel fatto di avere preso atto lucidamente di tale situazione: esso conduce la filosofia della scienza a un consapevole accantonamento dell'obiettivo di enucleare un unico e universale metodo scientifico, nonché al generale abbandono della prospettiva normativa che aveva ancora dominato la riflessione epistemologica negli anni compresi tra le due guerre mondiali. Le discussioni recenti intorno alla relatività degli schemi teorici e all'andamento non cumulativo della scienza, che sfociano in uno spostamento della problematica del funzionamento delle scienze dal campo della filosofia in quello della storia, rappresentano dunque la logica conclusione del processo di liberalizzazione dell'empirismo. L'esito recente della filosofia della scienza mina lo stesso progetto fondante della disciplina e getta una luce inquietante sul suo destino futuro. Non a caso uno dei più significativi epistemologi degli ultimi decenni, Feyerabend, ha ironicamente parlato di essa come di «una disciplina dal grande passato». Da un punto di vista intellettuale d'insieme la filosofia della scienza è infatti più importante per le acquisizioni negative che ha comportato che non per le sue acquisizioni positive: piuttosto che per il fatto di avere gettato luce su senso, struttura e dinamica della ricerca scientifica, la filosofia della scienza è significativa per il fatto di avere saputo, passo dopo passo, e in base a precise ragioni teoriche, disgregare il complesso di pregiudizi filosofici che l'Illuminismo e il Positivismo avevano costruito attorno alla scienza stessa. 57