FILOSOFIA DELLA SCIENZA La filosofia della scienza è una branca della filosofia che studia i fondamenti, gli assunti della scienza (logica, scienze naturali, fisica, scienze sociali, psicologia). Cerca di spiegare la natura dei concetti e asserzioni scientifiche. Nasce con l’uomo. Possiamo ravvisarne il principio nella filosofia platonica con la teoria relativa alla conoscenza e all’arte della maieutica o nella logica aristotelica. Tutto verrà sviluppato in modo più sistematico in epoca moderna con Galilei, Cartesio e Bacone. Galileo nel Discorso sui massimi sistemi dice che gli elementi di un giusto procedimento scientifico sono sensate esperienze (osservazioni ed esperimenti scientifici) e necessarie dimostrazioni (dimostrazioni geometriche e matematiche). Con Cartesio (Discorso sul metodo) prevale l’impostazione razionale rispetto alla componente strumentale (metodo dell’evidenza/analisi/sintesi/enumerazione). Bacone studia le prime applicazioni del metodo induttivo (=si parte da osservazioni e confronti con i fenomeni naturali e si raggiungono principi generali) sulla ricerca scientifica. Induzione attraverso tre tavole: presenza (quando il fenomeno e le cause si verificano)/ assenza( quando il fenomeno e le cause non si verificano)/ dei gradi (si riportano le variazioni rilevate durante gli esperimenti). Nella seconda metà del ‘600 ci furono gli studi di Newton che scrisse Principi matematici della filosofia naturale (trattato di fisica e matematica) offre vari punti per il suo metodo della ricerca scientifica (non dobbiamo ammettere spiegazioni superflue dei fenomeni naturali; a uguali fenomeni corrispondono uguali cause; le qualità uguali di corpi diversi devono essere ritenute universali di tutti i corpi; proposizioni ricavate per induzioni da esperimenti e ritenute vere fino a prova contraria)rifiuto di ogni teoria che non sia derivata da una verifica sperimentale. Nel ‘700 ci fu un grande sviluppo degli studi di filosofia della scienza, con il secolo dei lumi (Locke, Hume, d’Alembert, Diderot). Nell’800 studi sui metodi induttivi di John Stuart Mill e la classificazione delle scienze di Comnte: movimento del positivismo. Nel ‘900 si è avuto un dibattito sui tempi della filosofia della scienza, con Duhem e Mach che ispirarono i filosofi riuniti nel Circolo di Vienna (Carnap, Schlick, Hann, Popper, Feyerabend). Con Reichenbach si sviluppò il Circolo di Berlino che controllò più che altro la casualità, alla statistica. Nel 1936 il circolo di vienna si sciolse. Kuhn criticò il falsificazionismo popperiano sul punto che vuole l’accantonamento della teoria in caso di confutazione di un suo elemento empirico, sostenendo che si sarebbe dovuto accantonare quel singolo elemento. Anche lo studioso Lakatos sosteneva che un singolo elemento non doveva portare il crollo dell’intera teoria, che comunque potrebbe avere sano il nucleo centrale. Si abbandona una teoria secondo loro se ce ne sia un’altra che sappia rendere ragione degli eventi. La logica positivistica si basava su Galileo è possibile avere un episteme (scienza certa) solo dei fenomeni quantitativi (=misurabili) spiegati con la natura deduttiva. Esempio: movimento di una mano che ci fa il solletico; la piuma fa il solletico su una mano, sentire il solletico non è una prerogativa della piuma, ma del corpo che lo sente. Le qualità per lui sono la stessa cosa, quantità che in noi generano sensazioni qualitative. Il positivismo crolla nella distinzione tra dato esterno e interno, nel tentativo di far rientrare il qualitativo nel quantitativo. Il concetto di legge di natura nasce con Galilei, vuole: -individuare un METODO, rispetto al concetto greco di scienza c’è un concetto di riproducibilità: nasce la differenza tra teoria e verifica (implica la visione dell’osservatore). Metodo nasce sulla rinuncia alla domanda “Che cos’è?”, cioè sull’essenza delle cose. Solo attraverso ciò che è visibile posso indagare, ciò che mi si dà. Deciderà do abdiurare perché sa che chiunque avesse voluto, poteva vedere con quegli strumenti quella verità. Per Aristotele la scienza era conoscenza delle cause, per Galileo corrisponde con la misura, la realtà è matematica, quindi è misurabile. Il miracolo (taumazen) più grande per Aristotele è l’esistenza di un essere che può conoscere. Alla base della conoscenza per lui c’è l’intuizione. Capisce che fare scienza in natura equivale a spiegare i fenomeni non solo osservabili. La filosofia della scienza come disciplina accademica nasce nell’800 poiché l’ideale del positivismo logico crolla di fronte alla realtà. Aristotele individua quattro cause (efficiente, formale, materiale, finale) e la finalità rientra nella scienza. Da Galilei in poi la causa finale e formale spariranno. La scienza può occuparsi solo di quella efficiente, che qui coincide con quella materiale. Dal positivismo nasce il: DETERMINISMO soggetto non è libero. MATERIALISMO l’unica fonte che spiega è la materia. Queste generano il RIDUZIONISMO capacità di ridurre tutto a linearità, a fenomeno che spiega in modo biologico. Ma esiste solo questo modo lineare di conoscere? Da questo interrogativo nasce la filosofia della scienza. Il fine della filosofia della scienza è creare modelli onnicomprensivi. Popper offre questo; logica della scoperta scientifica (ciò che permette alla scienza di ricavare un metodo che leghi varie scienze) la scienza è invenzioni di ipotesi. Nasce la necessità di definire il quadro epistemologico dal fisico a ciò che non lo è (come il vivente). Il vivente non è più una struttura cristallizzata, ma nell’uomo c’è il caos. Popper vuole trovare le basi su cui costruire una teoria, cerca un metodo che sia: universale/oggettivo/che crei una conoscenza forte. Individua sul concetto di falsificazionismo una base epistemologica. Si passa dal singolo all’universale, critica l’induttivismo. Per capire cosa sia la filosofia della scienza ci si rivolge alle domande di cui si è occupata: cosa distingue la scienza dalla non scienza? La teoria è solo uno strumento per organizzare le osservazioni o è una descrizione del reale? Gli enti inosservabili (fotoni, campi di forza)sono reali o finzioni? In che consiste il progresso scientifico? La filosofia della scienza deve limitarsi a dire come ci si è comportato lo scienziato o deve dire i modelli di comportamento che uno scienziato deve adottare? La filosofia della scienza è una riflessione filosofica sulla natura, sui limiti di validità dei principi, metodo e risultato scientifico. Si trova ad affrontare anche questioni che hanno lo stesso statuto della filosofia. Il termine filosofia della scienza è coincidente con epistemologia, anche se molti con questo intendono teoria della conoscenza. STATUTO DEL DISCORSO EPISTEMOLOGICO: poiché molti quesiti di questa disciplina coincidono con quelli della filosofia in quanto tale, è molto difficili quale siano i limiti precisi della scienza. Secondo QUINE e la sua filosofia naturalistica, la filosofia (sforzo di capire le cose) non deve distinguersi dalla scienz. Trasforma l’epistemologia in un’indagine empirica delle modificazioni degli stati di credenza, che richiede ricerche neurofisiologiche intorno alle reazioni umane a determinate sequenze di stimoli. La filosofia della scienza non dispone di metodi d’indagini diverse da quelli delle scienze. La differenza tra le due però, che il campo di ricerca scientifico si può ridurre a un punto di vista particolare, alla riflessione filosofica non si può sottrarre nulla, per cui può riferirsi a qualsiasi esperienza (come a se stessa, cosa che non può fare ad esempio la fisica). ALTRO PROBLEMAoccorre essere scienziati per fare filosofia della scienza? Muovendosi in entrambi i campi è sbagliato supporre che una delle due sia superiore o che si possa prescindere da uno di questi due momenti. Sono necessari, ma di fatto è stata sviluppata da autori che essendo scienziati per formazione muovevano da contenuti scientifici sollevando domande epistemologiche, chi invece al contrario, quindi da filosofi, muoveva da domande filosofiche per estenderle a contenuti scientifici. NASCITA COME DISCIPLINA AUTONOMA: nell’800 nasce come settore specializzato della filosofia. Già nell’antichità era presente: Platone distingue l’episteme dalla doxa, Aristotele vede la scienza come conoscenza delle cause. Galileo da un corpus al tutto, e vede già il campo limitato di tale scienza. Muove dall’assunto di due diversi tipi di accidenti (affezioni): alcuni esprimono aspetti oggettivi della realtà(propri della sostanza corporea), altri invece sono soggettivi (risiedono nel corpo sensitivo). Esempio del solletico: la mano può provocare il solletico, ma questa non è un prerogativa della mano, non è una proprietà reale, perché lo stesso effetto può essere fatto da altro materiale. È possibile avere una conoscenza solo sulle proprietà quantitative (cosi, osserva Husserl, si pone tutta la sfera del soggettivo e psicologico, al di la della scienza umana). L’errore di Galileo non risiede nell’aver limitato il campo scientifico, ma quello di credere che i limiti della scienza coincidessero con proprietà direttamente osservabili, come se fosse possibile decidere in modo aprioristico i limiti. La filosofia della scienza richiede sempre un atteggiamento critico nei confronti della scienza, questo fa capire perché nasca dopo la fine del positivismo (questo dava un valore assoluto alla scienza, come con COMTE). La nascita delle geometrie non euclidee, misero in crisi molti punti, come l’esistenza di una sola matematica e quindi queste nuove geometrie generarono il sistema ipotetico-deduttivo (le premesse non sono necessarie, ma liberamente poste e si tratta di ricavare più conclusioni possibili, con l’unica condizione, avere una coerenza interna). Altra crisi nelle scienze fisiche dove aveva dominato il paradigma meccanicista (ogni fenomeno fisico è esprimibile secondo equazioni matematiche), con NEWTON si capisce che si possono capire tutti i possibili fenomeni naturali poiché lui fa comprendere il movimento degli astri. Comunque fino al 1905 la teoria della relatività di EISTEIN mantenne il carattere deterministico delle leggi fisiche, scansato però con la nascita della teoria quantistica. Secondo il principio d’indeterminazione di Heisenberg, il calcolo della posizione di un elettrone sarà tanto più indeterminato quanto più sarà determinata e precisa la misura della sua velocità, sino al punto in cui la determinazione della velocità sarà completa comportando la totale indeterminatezza del valore della posizione (e viceversa). La necessità di dare risposte alla crisi delle scienze matematiche e fisiche, portò a riflettere criticamente sulla natura e sui limiti delle scienze, ciò condusse alla corrente convenzionalista e strumentalistica, che difendeva il valore della scienza, ma le assegnava un mero valore pratico, o economico. ANTOLOGIA GALILEO: ristringe il campo del discorso scientifico, restringendo il campo d’indagine anche ad alcune affezioni presenti in natura, eliminando quelle soggettive che dipendono dagli organi di senso. CORRENTI STRUMENTALISTICHE-CONVENZIONALISTICHE MACH La teoria machaina, strumentalistica e riduzionistica, cerca di ricondurre ogni elemento teorico a un’esperienza interpretata in senso atomistico con Mach nasce la filosofia della scienza come disciplina autonoma. Muove dalla tesi positivistica fondamentale secondo cui ogni conoscenza autentica trova nell’esperienza la sua fondazione. Per lui: anche se la natura ci appare composta di elementi dati a noi attraverso i sensi, secondo lui, l’uomo ha la capacità di astrarre certi complessi di elementi presentati in modo stabil. La “cosa” non è invariabile (come la cosa in sé kantiana), ma è un simbolo mentale. FENOMENISMO RADICALE: rifiuto della cosa in sé, lo stesso io è un’unità pratica che ha la capacità di ordinare e classificare un gruppo di sensazioni che a noi appaiono più frequenti. Nel principio d’economia vede la legge suprema del modo di organizzare le sensazioni (regola il raggruppamento delle sensazioni) la scienza deve far risparmare le esperienze mediante la riproduzione e l’anticipazione dei fatti nei pensieri. Le teorie non sono né vere né false, ma sono più o meno utili ed economiche. Le teorie scientifiche sono formulate solo per economizzare le esperienze mediante la riproduzione di fatti nel pensiero, che non richiedono una controparte nel reale. Il progresso scientifico è l’elaborazione di teorie sempre più economiche. PROBLEMI ENTI TEORICI: sono quelli non immediatamente osservabili. Se le teorie scientifiche non ne trovano le cause reali dietro i fenomeni, non si possono dire reali, ma sono solo finzioni concettuali. Arriverà a negare l’esistenza degli atomi. Non negano la realità degli oggetti quotidiani, ma nega che a tutti i termini delle teorie scientifiche corrisponda qualcosa di reale. ANTOLOGIA MACH: interpreta l’intera scienza alla luce del principio di economia formulando la concezioni delle teorie scientifiche propria di ogni strumentalismo. Queste sono solo strumenti per orientarci praticamente nel reale e non sono né vere né false, ma più o meno utili ed economiche. La soluzione strumentalistica nei confronti degli enti teorici è che esse, come le teorie scientifiche, sono solo finzioni concettuali più o meno utili per ordine i dati sperimentali accessibili all’operazione diretta. La scienza fa risparmiare le esperienze tramite la riproduzione di fatti e anticipazione di essi nel pensiero. Lu funzione economica della scienza è la sua essenza. Le esperienze vanno comunicate per farne risparmiare di altre alle prossime generazioni. Non si riproducono i fatti per intero, ma solo quelli importanti per noi in vista di un interesse pratico. Le nostre riproduzioni sono astrazioni. La scienza quindi ha la funzione di sostituire l’esperienza. Deve restare nel dominio dell’esperienza, dall’altro lato deve precorrere l’esperienza nell’attesa di una conferma o confutazione. POINCARè La corrente strumentalistica, si presenta oltre che sotto l’aspetto del riduzionismo machiano, anche influenzato dalla filosofia empirica del convenzionalismo. Poincarè è l’esponente che rifiuta sia la concezione empiristica (se la geometria si fondasse sull’esperienza, non sarebbe scienza esatta), sia quella aprioristica (o gli assiomi geometrici si imporrebbero con una tale forza che non sarebbe possibile costruire un edificio teorico come le geometrie non euclidee). Gli assiomi sono convenzioni umane. Le proposizioni su cui ci si muove sono libere costruzioni dell’uomo, ma non arbitrarie perché accertate in accordo con l’esperienza (questo vale per le leggi di generalizzazione). Per lui il dato empirico ha rilevanza storica (non scientifica). Affinché un dato sia scientifico deve essere RIPRODUCIBILE. POLEMICA CON LE ROY: questo aveva sviluppato il convenzionalismo in modo che toglieva valore alla scienza. Poincarè risponde chiarendo la convenzionalità delle proposizioni geometriche e con il concetto di oggettività. Cerca una convenzionalità della scienza che non comprometta l’oggettività (accordo di tutti i soggetti dotati di ragione). Non vuole asserire che tutti i fatti sono convenzioni e traccia una distinzione tra “fatto bruto” dove non c’è niente di arbitrario, e il “fatto scientifico” che è il risultato della traduzione del fatto bruto in un linguaggio guidato da convenzioni.-->lo scienziato non è il creatore del fatto bruto, ma nemmeno del fatto scientifico come sostiene LE ROY. Lo scienziato deve tradurre solo un fatto bruto in uno più comodo secondo un linguaggio convenzionato. la libertà dello scienziato risiede nella creazione del linguaggio non nei contenuti forniti dall’esperienza. Per l’oggettività: Poincarè riprende il discorso kantiano dell’oggettività come adeguamento alle condizioni universale imposte dall’io penso, cioè che si trasmette sono le relazioni fra le sensazioni. ANTOLOGIA POINCARè: rifiuta la tendenza empiristica e razionalistica aprioristica. Gli assiomi geometrici per lui sono delle convenzioni liberamente istituiti dallo spirito umano e di loro si può discutere solo della comodità e non della verità o falsità. Si chiede quale sia la natura degli assiomi geometrici. Non sono sintetici a priori o si imporrebbero con forza impedendo la costruzioni di altri edifici teorici. Non sono nemmeno delle verità sperimentali poiché questi si possono fare solo su oggetti materiali. Sono quindi convenzioni, guidata si da fatti sperimentali, ma libera. Ci si chiede solo quale tra le geometrie è più comoda, non quella vera. (esempio la geometria euclidea è più comoda perché è semplice e perché si accorda con le proprietà dei solidi naturali). Va contro il convenzionalismo di Le Roy, perché Poincarè sostiene che il valore della scienza non può essere solo pratico, poiché deriva dalla sua capacità di previsione e sostiene che lo scienziato non solo non crea il fatto bruto (che ci si impone e non è arbitriario), ma nemmeno il fatto scientifico (risultato della traduzione di quello bruto in un certo linguaggio guidato da certe convenzioni). Il paradosso di Le Roy è che lo scienziato crea il fatto. Ciò che lo scienziato crea in un fatto è il linguaggio nel quale lo enuncia. Di ciò che dice Le Roy rimane solo il fatto che lo scienziato può scegliere attivamente quale evento merita di essere osservato. DUHEM Con lui si completa il quadro della corrente strumentalistica-convenzionalistica. Sostiene che un’osservazione rilevante non è mai un’osservazione pura, ma una cui è connessa un’interpretazione. Per lui un esperimento è l’osservazione precisa di vari fenomeni accompagnata dalle interpretazioni di questi, ai dati concreti raccolti l’osservatore sostituisce rappresentazioni simboliche che corrispondono a dati concreti in virtù di teorie ammesse dall’osservatore stesso. Formula due tesi per l’esperimento: 1) È impossibile sottoporre al verdetto dell’esperimento delle ipotesi isolate, può controllare solo un complesso di ipotesi. 2) L’esperimento cruciale (esperimento che fa escludere tutte le ipotesi errate, lasciandone una sola) in fisica è impossibile poiché non si possono controllare ipotesi isolate. Autore della tesi “Duhem-Quine”, secondo cui non è possibile confrontare con l’esperienza singole teorie scientifiche, ma solo polisticamente(=un insieme)poiché ogni modello teorico è una serie di ipotesi interconnesse, una falsificazione del modello dopo dati sperimentali, non chiarisce quale ipotesi sia falsa (critica a Popper). NEOPOSITIVISMO La risposta alla crisi si delinea anche nel NEOPOSITIVISMO con i centri principali del circolo di vienna e di berlino. Il fondatore fu SCHLICK, intorno a lui si riunirono Godel, Hahn, Neurath, Feigl. Come le altri correnti, rappresenta un particolare momento storico dell’evoluzione del dibattito della filosofia della scienza sua della categoria epistemologica. Muovono dalle tesi fondamentale per cui solo ogni esperienza è il fondamento e giudice di ogni enunciato di tipo conoscitivo. Di contro al positivismo e empirismo attribuiscono un’importanza particolare al linguaggio, rientrando nella svolta linguistica della filosofia analitica: l’empirismo logico si concentra a chiarire il linguaggio scientifico, ora quello quotidiano. Kant aveva distinto tre giudizi nella Critica della ragion pura: - Giudizi analitici: il predicato è racchiuso nel soggetto, sono universali e necessari, ma non estendono le nostre conoscenze. - Giudizi sintetici: il predicato non è contenuto nel soggetto, ma deve essere aggiunto mediante l’esperienza, non sono universali e necessari (perché l’esperienza non può essere tale), ma estendono le nostre conoscenze. - Giudizi sintetici a priori: proprio delle scienze fisiche e matematiche, sono universali, necessarie ed estendono le nostre conoscenze. Ora si è capito che quest’ultimi giudizi non esistono, difatti non ci sono enunciati universali (smentita delle geometrie non euclidee). Rimangono i giudizi analitici (della logica e matematica) e sintetici. Per Wittgenstein la logica non ha un dominio di oggetti propri, ma ha natura sintattica (=non riguarda i fatti, ma i modi possibili di connessione tra le proposizioni). I neopositivisti fanno proprio questo dicendo che le proposizioni sintetiche sottostanno al principio di verificabilità secondo il quale un enunciato è dotato di senso se è verificabile empiricamente. Criticano la metafisica tradizionale, dicendo che le loro proposizioni non sono false, ma prive di senso. DIBATTITO SUI PROTOCOLLI: il principio di verificabilità riduceva ogni enunciato a osservazioni, ciò generò vari dibattiti come la disputa sugli enunciati protocollari. Con questi i neopositivisti intendevano gli enunciati mediante cui sono controllate, verificate o smentite le teorie scientifiche. Carnap sostenne che i concetti scientifici devono basarsi su esperienze vissute del singolo scienziato, Neurath si oppose rifiutando il carattere originario e certo degli enunciati protocollari (per lui sono ammesse solo proposizioni enunciabili in termini fisici di spazio e tempo). Anche il linguaggio per lui non è una rappresentazione, ma un fatto fisico. Lui voleva ridurre ogni disciplina e il loro relativo linguaggio, alla fisica. Vedendo il linguaggio con intrascendibile, il modo per capire il criterio di verità in un sistema di proposizioni, la si può solo confrontare e vedere se sia o no in contraddizione con tale sistema. Per Schlick gli enunciati protocollari, per lui constatazioni, sono punti saldi. HEMPEL La tesi secondo cui tutti i termini delle scienze empiriche sono definibili mediante termini osservativi viene presto abbandonata dagli empiristi logici. Carnap sostituì al principio di verificabilità, quello di grado di conferma che cresce al crescere dei casi a favori della teoria in questione. Hempel è l’altro che cerca di liberalizzare l’empirismo insistendo sul fatto che non è necessario che tutti i concetti teorici (=connessi a entità inosservabili) possiedano una corrispondenza osservabile o sperimentale. È sufficiente che alcuni dei concetti teorici di una teoria siano collegati a concetti osservativi. Prende vita la concezione standard delle teorie scientifiche (=una teoria scientifica è costituita da un calcolo o sistema assiomatico, sviluppato deduttivamente e non interpretato e da un’interpretazione che conferisce significato empirico ai termini e alle proposizioni di tale sistema). Si basa su due presupposti: 1) distinguo di due linguaggi (uno delle proposizioni teoretiche e uno con quelle osservative) 2) la possibilità di conferire significato empirico al livello delle proposizioni teoretiche. Molte critiche che vanno sotto il nome di “paradossi della conferma”: esempio, paradosso dei corvisecondo i neopositivisti una teoria è scientifica se si esprime in una forma logica (tutti i corvi sono neri), il paradosso consiste nel dimostrare che un enunciato così non è confermato dalla scoperta di corvi neri, ma anche da cose che non sono corvi e non sono neri (palle rosse). Ma la conferma è paradossale perché non si comprende quale sia il collegamento tra la scoperta di una palla rossa e i corvi neri. Paradossi connessi con l’induzione (da giudizi particolari si passa a quelli universali). Si afferma il nomologico-deduttivouna spiegazione scientifica necessita di una legge esprimibile mediante una forma logica; la spiegazione scientifica si risolve in una deduzione logica. Non fa appello al concetto di causa e vale per tutte le discipline. Le critiche rivolte sono circa l’identità di struttura logica tra spiegazione e previsione. Il fatto che il concetto di legge utilizzato non è chiaro. POPPER Nell’epistemologia si distinguono tre fasi di sviluppo. 1) Critica dell’empirismo logico e dalla formulazione del principio di falsificabilità. 2) Sottolinea il carattere teorico di ogni osservazione e volge in senso realistico la sua epistemologia, accogliendo come nozione di verità assoluta che è ideale regolativo della ricerca scientifica. 3) Approfondisce il tema della verità assoluta e oggettiva, indipendentemente dalle nostre credenze, fino a sviluppare un’ontologia platonica “la teoria dei tre mondi”. Condivide con gli empiristi logici le tesi secondo cui le teorie scientifiche esprimono una legge mediante una proposizione logica universale. In questa caratteristica fa sì che la loro verificabilità sia un obiettivo irrealizzabile. Per poter verificare se tutti i corvi sono neri secondo Popper dovrei vedere tutti i corvi del mondo, tempo presente passato futuro, il che è impossibile. Tale verifica andrebbe bene se fosse giusto il metodo induttivo(da un numero finito a generalizzazioni), ma questo è invalido. Russel e l’esempio del tacchino induttivista: il tacchino è stato nutrito ogni giorno della sua vita, per cui il giorno di natale quando vede il padrone arrivare pensa che gli darà da mangiare, invece gli tira il collo. Così come noi siamo convinti che il sole sorgerà domani, ma poi non è così. Il mero fatto che una cosa sia avvenuta più di una volta, non fa sì che avvenga sempre. Lo stesso Schlick ammise che una verifica completa delle teorie scientifiche è impossibile, ma aveva proposto di non considerarle proposizioni autentiche, per la formulazioni di proposizioni di più basso livello di generalità. Questo secondo Popper non fa si che aumentare la convinzione che il criterio di verificabilità non funzioni, perché non risolve il principio di demarcazione (=come distinguere le proposizioni scientifiche da quelle che non lo sono), infatti stando a come dice Schilick, le proposizioni scientifiche mancano di significato. Popper sostituisce a questo, il principio di falsificabilità, secondo cui una proposizione è empirica o scientifica solo se e soltanto se può essere falsificata, cioè se può entrare in conflitto con l’esperienza. Questo si basa sul concetto di asimmetria logica tra verificazione e falsificazione: miliardi di conferme non rendono certa una teoria, ma un solo fatto negativo la falsifica tutta. Nella Logica della scoperta non c’è spazio né per la verifica, né per la conferma empirica, ma solo per una “corroborazione” (conferma), attribuita solo dopo il fallimento di una serie di tentativi di falsificazione. Lo scienziato deve seguire il metodo di congetture e confutazioni, o tentativi ed errori; proporre ipotesi audaci e poi tentare in ogni modo di confutarle. Se è smentita dall’esperienza di conclude che la teoria è falsa, se il tentativo di falsificazione supera il controllo, si afferma che è stata corroborata, cosa che non esclude una seconda falsificazione in seguito. Questo non è come quello di verificabilità un criterio di senso, ma di demarcazione. Il principio di falsificabilità è per lui metafisico, cioè non falsificabile e come tutti gli enunciati metafisici, è razionalmente criticabile, cioè discusso criticamente alla luce di criteri quali coerenza interna, fecondità e capacità di risolvere problemi meglio di altri principi. Alla luce di tale principio, reinterpreta molti concetti epistemologici tradizionali. Introduce la nozione di contenuto empirico di una teoriaquanti sono gli eventi osservabili da cui una teoria può essere falsificata tanto maggiore è il suo contenuto empirico (tanto più una teoria vieta, tanto più dice intorno al mondo dell’esperienza). Reinterpreta il concetto di semplicitàgli scienziati non attribuiscono mai importanza alla semplicità di una teoria, eppure tanto una teoria è semplice, tanto più è falsificabile. Un problema che il falsificazionismo doveva risolvere era: si basa sull’asimmetria logica tra verificazione e falsificazioni di proposizioni universali. Ma a quali condizioni accettiamo un caso contrario per procedere alla falsificazione dell’ipotesi? IL PROBLEMA DELLA BASE EMPIRICA: nella disputa sui protocolli Popper segue Neurath nel rifiutare la soluzione che i neopositivisti davano (gli enunciati protocollari sono certi perché descrivono le percezioni personali di chi sperimenta), che per Popper era in contrasto con una tratto irrinunciabile del sapere scientifico, cioè l’oggettività (controllabilità intersoggettiva). Chi vuole l’assoluto deve mettere da parte la soggettività. Ciò che è esperito immediatamente è certo, ma anche soggettivo, perché non è accessibile a altri e come tale non solo non ha diritto di cittadinanza nella scienza, dove ogni concetto deve essere intersoggettivamente controllabile, ma neppure possiamo utilizzarlo come giudizio di realtà (allucinazione). Dall’ipotesi che si vuole controllare si deduce un evento che deve essere espresso attraverso un asserto base che sono messe a controllo anch’esse. Potrebbe esserci un regresso all’infinito che per Popper non c’è perché non necessario. Infatti ricorre a una decisione convenzionale presa dagli scienziati al lavoro che quindi decidono loro. Sembra a favore del convenzionalismo di Neurath, ma per non sfociare nell’empirismo convenzionale senza limiti, rifiuta la tesi secondo cui, in caso di conflitto tra una teoria universale e un enunciato protocollare, può rifiutare entrambe le scelte. Per Popper ciò che contraddistingue il metodo empirico è che non accettiamo asserzioni universali, ma solo di base, che hanno una forma logica singolare e quindi sono facilmente controllabili. Il problema è che fa coesistere tale tesi con quella della theory ladennes (=cariche di teorie), secondo la quale non esistono dati ultimi ed osservazioni pure perché all’opposto ogni osservazione è tale alla luce di una teoria. Contro tale teoria Popper osserva che la ripetizione da cui secondo Hume dovrebbe originarsi l’abitudine, non è perfetta, perché i casi non si presentano sempre perfettamente uguali, sono solo simili al massimo. La ripetizione quindi presuppone la similarità e questa un punto di vista, ma questo non può essere il risultato di una ripetizione o si avrebbe un regresso all’infinito, il punto di vista deve precedere la ripetizione. Così si presuppone ciò che si dovrebbe derivare. L’argomento dimostra l’impossibilità di osservare un certo evento come simile ad altro senza disporre in precedenza di un punto di vista, di un’ipotesi, di una congettura liberamente prodotta dal soggetto che conosce. Il rifiuto dell’induzione di Popper porta alle conseguenze scettiche della svolta relativistica. Se la singolarità delle asserzioni base non modifica il loro carattere ipotetico rispetto a quelle universali, essa diviene irrilevante per comprendere perché gli scienziati si mettano più facilmente d’accordo intorno alle asserzioni base che intorno a quelle universali. Popper dice che per considerare falsificata una teoria occorre che sia stata corroborata un’altra ipotesi che afferma un certo effetto riproducibile. Consideriamo falsa sono se scopriamo un effetto riproducibile che confuta la teoria. Si accetta la falsificazione solo se un’ipotesi empirica è proposta e corroborataipotesi falsificante. Questa è comunque universale. Ora, nulla (se non un induttivista) ci può assicurare che in futuro non ci sia qualche esito negativo; Popper dice che la ripetibilità di un esperimento provoca difficoltà all’induttivista, ma no al falsificazionista. Esiste infatti una “legge dei profitti decrescenti derivanti da controlli ripetuti” dove lo scienziato non ripete infinite volte l’esperimento, poiché si toglie l’interesse, invece se la conoscenza di sfondo sembra improbabile il controllo è più severo, se è scontata, il controllo è una ripetizione priva d’interesse. Critiche: tale legge trova una spiegazione nella concezione induttivistica dove un esperimento non viene ripetuto perché l’induttivismo è un procedimento valido. Lo stesso falsificazionismo sulla scia dell’induttivismo, afferma che ogni controllo riuscito accresce la probabilità di successo delle future ripetizioni. Popper stesso non soddisfatto, introdurrà concetti nuovi, come quelli di corrispondenza e approssimazione alla verità assoluta. Questo porterà a cambiare il concetto di progresso presente nella Logica della scoperta scientifica. In un primo momento aveva detto che non è possibile usare concetti di vero/falso, poi riprende il concetto di verità come corrispondenza tra pensiero e realtà. Tarski distingue metalinguaggio e linguaggio oggettivonozione semantica della verità = il linguaggio di cui ci serviamo deve possedere i mezzi necessari per riferirsi a proposizioni e descrivere fatti deve essere metalinguaggio entro il quale si parla di un linguaggio oggetto che a sua volta deve descrivere un fatto. La nozione semantica Tarski la usava sui linguaggi formalizzati, Popper voleva estenderla ai linguaggi ordinari per evitare anche qui i paradossitorna la nozione di verità assoluta. Al concetto di corroborazione di un’ipotesi, Popper ha affiancato quello di verosimiglianza come misura di approssimazione alla vicinanza alla verità assoluta: una teoria è più vicina alla verità di un’altra se derivano da essa più proposizioni vere. Separa la verità dai criteri per accettarla per togliere la contraddizione tra l’adesione alla teoria della verità come corrispondenza e il suo fallibilissimo. TESI DUHEM-QUINE E CRITICA POPPERIANA DELL’OLISMO METODOLOGICO: la critica di Duhem al controllo di un’ipotesi isolata, colpisce anche il falsificazionismo. Teoria ripresa da Quine con il suo olismo dei controlli che è più radicale di quello di Duhem perché ogni controllo sottopone al tribunale dell’esperienza non un semplice insieme d’ipotesi, ma tutto il nostro sapere. ”Qualsiasi asserzione può essere ritenuta vera,qualunque siano i dati di fatto, se facciamo degli aggiustamenti sufficientemente drastici in qualche altra parte del sistema. Si potrebbe persino ritenere vera un’asserzione molto vicina alla periferia, nonostante l’esperienza recalcitrante, adducendo a pretesto un’allucinazione o modificando alcune di quelle asserzioni che si chiamano leggi logiche. Analogamente, per converso, nessun’asserzione è immune, per le stesse ragioni, da modifiche”. TESI DUHEM-QUINE Colpisce il principio popperiano: se siamo disposti ad operare modificazioni radicali nelle altre parti del sistema delle nostre conoscenze, ogni asserzione può sempre essere conservata come vera nonostante qualsiasi verdetto sperimentale contrario, nonostante qualsiasi falsificazione. Popper introduce il concetto di “conoscenza di sfondo” che indica il patrimonio scientifico storicamente ereditato. Obietta al metodo olistico dei controlli che la critica razionale non può mettere in discussione ogni nostra conoscenza tutta insieme contemporaneamente, ma può mettere in discussione una conoscenza alla volta facendo leva sulla conoscenza di sfondo(=elementi posti in maniera non problematica). Ammettendo che esista un insieme di teorie che non sono problematiche perché hanno superato controlli severi (il tutto sempre in maniera provvisoria), la tesi olistica perde la sua forza perché è possibili mettere alla prova ipotesi isolate senza mettere in dubbio l’intero sistema. Ammettendo ciò però si torna ad una simmetria tra verificazione e falsificazionela falsificazione può avvenire solo se si riconosce come verificato il patrimonio di conoscenze storicamente ereditato. CONCETTO DI PROGRESSO: condivide con la posizione neopositivista uno sviluppo interno della scienza, che può prescindere da condizionamenti esterni, storici. Per un verso la sua concezione era diversa: per lui non c’è spazio per la verifica e conferma empirica, ma solo per la corroborazione che può essere attribuita ad un’ipotesi solo dopo il fallimento di un tentativo di falsificazione. Lo scienziato deve proseguire per tentativi ed errori. Deve enunciare una teoria e confutarla, se questa supera i controlli è stata solo corroborata (non esclude una falsificazione futura). Le teorie scientifiche sono solo congetture. Da questa tesi si rovescia l’ideale di progresso cumulativo degli empiristi logici. Con Popper il falsificazionismo non avviene più con accumulazione di risultati positivi, ma con il rovesciamento rivoluzionario ed eliminazioni di teorie precedenti. In un secondo momento dirà che c’è bisogno di una conferma anche empirica. Lo stesso falsificazionismo richiede una posizione realistica. Si scaglia contro due concezioni della conoscenza umana: l’essenzialismo (=lo scienziato mira a trovare una teoria vera del mondo che coglie la natura essenziale delle cose) secondo Popper sbaglia perché la scienza non deve perseguire una spiegazione ultima, che non sia cioè messa di nuovo in discussione. - Lo strumentalismo (=le teorie sono strumenti per formulare previsioni di eventi futuri) secondo Popper sbaglia perché non è in grado di distinguere due tipi diversi di previsione scientifica, quelli di genere noto (eclissi) e nuovi generi di eventi (nuovi fenomeni). Loro possono discutere di cose solo già note. Popper parla di essenzialismo modificato: assume la capacità di descrivere una realtà indipendente da noi e lo scienziato non può mai sapere con certezza se le scoperte sono vere. Il realismo scientifico di Popper presuppone che ha diversi gradi di congetturalità corrispondono diversi gradi di profondità ontologica(es. anche se tutti i livelli del reale sono reali, alcuni sono più reali). ANTOLOGIA DI POPPER: rifiuto dell’induzione e proposta del metodo ipotetico deduttivo dei controlli. Induttivo è ciò che procede da asserzioni singolari (risultati di osservazioni) ad asserzioni universali. Da un punto di vista logico, non è ovvio inferire da asserzioni singolari a universali. Se le inferenze induttive siano giustificate è noto come il problema del il problema dell’induzione. Per provare a giustificarle si deve trovare prima un principio d’induzione, deve essere un’asserzione sintetica (=un’asserzione la cui negazione non è autocontradditoria, ma logicamente possibile). Il tentativo di dare una base all’induttivismo genera un regresso all’infinito, poiché dovrei piegarmi su inferenze induttive per giustificarlo, e da qui a un principio d’induzione superiore e così all’infinito. Kant cercò di uscire da questo problema assumendo che tale principio (chiamato da lui di causazione universale), fosse valido a priori. CRITICA DELL’OLISMO METODOLOGICO: criticando lo strumentalismo risponde anche ai problemi sollevati da Duhem e Quine difendendo il realismo scientifico, delineando una concezione di progresso scientifico diverso da quello della logica della scoperta scientifica. Lo strumentalismo non è in grado di rendere conto dell’importanza del controllo severo delle sue teorie. CONGETTURE, VERITà E REALTà: per lui le teorie scientifiche sono congetture genuine che possono essere sottoposte a controlli critici. L’essenzialismo considera il mondo come apparenza dove c’è il mondo reale. Concezione che cade quando divento consapevole che i mondo di ciascuna delle nostre teorie possono essere spiegati da altri mondi. Le teorie sono invenzioni che non sono imposte. Ma alcune di esse possono essere in conflitto con la realtà, e quando questo accade capiamo che c’è una realtà, ecco perché il realista ha ragione. IL DIBATTITO SUL REALISMO SCIENTIFICO Negli anni ’60 dibattito tra realismo scientifico e strumentalismo. La seconda pensa che la scienza sia solo uno strumento per salvare i fenomeni e formulare previsioni più precise, pone un forte accento sulla funzione attiva del soggetto nella costruzione dell’oggetto scientifico. I realisti scientifici sostengono che lo scopo della scienza sia quello di dirci come sia realmente il mondo e che le teorie scientifiche sono in grado di darne una risposta approssimata. Molti sostenitori del realismo scientifico vanno alla ricerca di un accesso alla realtà del discorso scientifico: - Molti si sono rivolti alla filosofia del linguaggio (Frege) - Alcuni hanno rinunciato ad un accesso diretto al referente e si accontentano di un modello (Harrè) - Altri hanno ripreso l’idea dell’evoluzionismo di Spencer di una funzione biologica e sopravvivenza delle conoscenze vere. - Capacità dell’uomo di interagire con l’ambiente (nuovo strumentalismo). Vediamo le varie prospettive realistiche. TEORIA CASUALE DEL RIFERIMENTO E L’INFERENZA ALLA MIGLIORE SPIEGAZIONE: una delle strade per difendere il realismo scientifico era quella di abbandonare ogni teoria del significato che ponesse schermo tra noi e le cose e cercare un’accesso diretto all’oggetto cui si riferiscono i termini o enunciati linguistici. Nacquero le teorie del riferimento di Kripke e di Putnami nomi si riferiscono direttamente alle cose senza che ci sia una catena casuale che risale sino al momento dell’introduzione del nome. Per Putnam ciò che fissa il riferimento di un termine è l’evento introduttivo. Affinché si mantenga questo riferimento, occorre che esista una catena casuale tra l’introduzione iniziale del termine e gli usi successivi. Boyd riprende la teoria casuale di riferimento del maestro, anche se secondo lui questa non risolveva tutti i problemi. Essa consentiva di mantenere lo stesso riferimento per i termini che nel passaggio da varie teorie cambiavano significato, ma non forniva alcuna indicazione per sapere se le teorie scientifiche sono vere. Boyd utilizzò il concetto di “inferenza alla migliore spiegazione” secondo cu lo scienziato preferisce le ipotesi che costituiscono la migliore spiegazione dei dati che gli sono disponibili. La migliore spiegazione per lui è fornita da due tesi 1)nelle scienze mature i termini fondamentali sono denotanti (=dotati di riferimento) 2)la scienza ci fornisce una rappresentazione teorica sempre più accurata. TEORIA SCIENTIFICA E MODELLI IN NORMAN ROBERT CAMPBELL: i concetti di analogia, modello e metafora furono al centro di discussioni non solo di filosofia della scienza e del linguaggio, ma anche in filosofia ermeneutica con Paul Ricoeur. Tuttavia questi termini furono ripresi anche prima con Campbell per il quale la teoria scientifica era un sistema di proposizioni matematiche connesse all’esperienza tramite un insieme di regole. Contro Duhem e della successiva concezione standard delle teorie scientifiche, Campbell ritiene che i ricorsi a concetti di analogia e modello sia costitutivo per la teoria scientifica. L’analogia non possiede solo un valore euristico (dopo essere cioè stata usata nel campo della scoperta, potrebbe essere rimossa dal contesto della giustificazione), ma è la parte essenziale della teoria, grazie alla quale può sempre convincersi della sua verità. Questo avviene per due ragioni: nel tentativo di spiegare un insieme di leggi note ci consente di scegliere una teoria particolare. Inoltre il suo valore deriva dal fatto che tutti gli esperimenti eseguiti fino a un certo momento non sono abbastanza numerosi o accurati da persuaderci della verità. MODELLI, SPIEGAZIONE SCIENTIFICA E PROBLEMA DEL RIFERIMENTO IN MARY HESSE E ROM HARRè: riprendono anche loro la funzione costitutiva e non meramente euristica dell’analogia. Secondo loro una teoria scientifica non si spiega senza i concetti d’inferenza analogica e di modello (si riferisce a qualcosa di fisico, analogo al sistema che deve essere spiegato). Hesse distingue tra analogia positiva, negativa e neutra. Quando consideriamo un insieme di palle da biliardo in moto casuale come modello per un gas, non intendo che le molecole sono di vario colore, ma che c’è un’analogia (aspetti di somiglianza e non). -Analogia positiva è l’insieme delle proprietà che scriviamo sia alle palle da biliardo, sia alle molecole. -Analogia negativa è l’insieme delle proprietà che sappiamo non sono proprie dell’oggetto che indaghiamo. -Analogia neutra sono proprietà che non sappiamo se rientrano nell’analogia positiva o negativa. Sono il nucleo più importante di una teoria perché rendono possibili delle previsioni che potranno risultare vere o false quindi accrescere la teoria. Hesse ha osservato che anche i termini osservativi a causa delle estensioni analogiche finiscono per acquisire nuovi significati. L’estensione analogica non è arbitraria, ma si basa su somiglianze oggettive. I modelli svolgono un’importante funzione di dimostrare in termini familiari che le entità e i processi descritti dalla teoria possono esistere logicamente e forse anche fisicamente. Queste tesi sono state sviluppate da Harrè. Secondo lui l’errore fondamentale della concezione tradizionale delle teorie scientifiche consiste nel fatto di aver disconosciuto l’importanza essenziale dei modelli. Dall’inizio lui non intende le teorie scientifiche cono strumenti di previsione, ma come ipotesi della struttura del reale. Secondo il realismo scientifico, le proposizioni di una teoria scientifica sono vere o false ed esistono realmente enti ai quali fa riferimento la teoria. Per sostenere ciò, fa riferimento a due modi di riferirsi agli enti reali –“riferimento dimostrativo diretto” dove c’è la possibilità concreta di puntare il dito verso l’ente a cui ci si riferisce. –“riferimento non ostensivo” dove non c’è la possibilità di vedere ciò di cui si parla. Per la dimostrazione della realtà degli enti teorici, sostiene la tesi che il riferimento è una pratica materiale, che istituisce una relazione fisica tra un’entità teorica e la realtà corporea di uno scienziato. L’esistenza dell’ente è legata allo scienziato. Parla di tre regni: nel primo c’è l’esperienza comune, nel secondo gli enti che possono essere accessibili alla percezione umana e il terzo che sono ogni possibile esperienza. Si dice che abbia difeso un realismo che può fare a meno della nozione di verità. Ciò perché nota come sia possibile riferirsi a qualcosa mediante una descrizione falsa. MODELLI E IDEALIZZAZIONE IN NOWAK: contro l’empirismo logico sostiene che le leggi delle scienze mature non sono descrizioni o generalizzazioni induttive derivanti da osservazioni, ma sono enunciati che contengono delle assunzioni idealizzanti che danno origine ad un universo d’oggetti ideali che è impossibile trovare nella vita reale di tutti i giorni. Il mondo della fisica è ottenuto a partire da quello di tutti i giorni. L’essenza d’indagini scientifiche non è la ricerca di teorie generali il fatto di essere presenti in numerosi casi), ma la loro idealità (=esprimere aspetti essenziali e caratteristici di un certo fenomeno). Nell’idealità non si ha un’astrazione di dati reali, qui non si ha nessun tipo di realtà empirica concreta, ma si costituisce una nuova realtà. Le leggi di idealizzazione, non descrivono come di fatto si produce un fenomeno, ma come ci produrrebbe se certi fattori in esso non si produrrebbero. Se si desidera che la legge idealizzazionale fornisca previsione vicine ai fenomeni empirici occorre che si integri con il processo di concretizzazione, dove le assunzioni idealizzanti vengono soppresse. I concetti di idealizzazione non hanno estensione, ma hanno un proprio contenuto, per cui il processo di concretizzazione incontra un ostacolo di principio, perché dipendente dal contenuto particolare ideale di quel concetto idealizzante. Una buona idealizzazione si distingue da una cattiva per il fatto che consente previsioni che corrispondono bene a quanto possiamo constatare sperimentalmente. Il processo di concretizzazione finisce così con il coincidere con il procedimento del controllo sperimentale, con la variazione controllata e sistematica di alcuni fattori per vedere se in quale misura condizionano il fenomeno indagato. In caso contrario i concetti di idealizzazione smettono di essere ciò mediante cui conosciamo e diventano ciò che conosciamo. EPISTEMOLOGIA EVOLUZIONISTICA: l’idea di questa è arrivata agli anni ’70 grazie a Lorenz, per il naturalista l’uomo è un essere le cui caratteristiche sono un prodotto dell’evoluzione di quel processo svoltosi per epoche intere nel corso del quale tutti gli organi viventi si sono trovati a confronto con gli elementi del reale con il quale si sono dovuti adattare ad essi. Ogni adattamento è un’informazione acquisita dal sistema organico. Qui c’è una forma particolare di realismo sostenuta dall’epistemologia evoluzionistica. Popper e Vollmer sono coloro che hanno maggiormente sviluppato tale epistemologia (in questa si distinguono due tendenze: una di Darwin e Spencer secondo cui la teoria biologica dell’evoluzione consente di spiegare l’evoluzione dei meccanismi cognitivi coinvolte nell’attività di tipo cognitivo. L’altra tendenza intende comprendere l’evoluzione dei concetti delle teorie scientifiche, usando modelli e metafore tratti dalla teoria dell’evoluzione secondo cui le idee lottano per la sopravvivenza in modo analogo in cui gli esseri viventi lottano per la sopravvivenza biologica). L’epistemologia di Vollmer è connessa ad un realismo ipotetico secondo il quale esiste un mondo reale indipendente dalla nostra coscienza, tale mondo è dotato di certe strutture che possono essere parzialmente conosciute da noi e tali ipotesi possono essere sottoposte a controllo e si può accertare sino a che punto siano corrette. Prende in considerazione varie obiezioni che gli possono essere state mosse: in quanto epistemologia deve fornire una giustificazione del sapere empirico, ma essa stessa si concepisce come sapere empirico, quindi sembra un circolo vizioso. La risposta è che in linea di principio l’epistemologia evoluzionistica non è in grado di dare risposte ultime diverse dalle scienze empiriche. Se si rinuncia a ciò non si genera nessun circolo vizioso, infatti se ha uno statuto empirico volto a spiegare teorie empiriche non è vizioso. Secondo un’altra obiezione è impossibile spiegare come l’evoluzione biologica abbia alla fine condotto ad una conoscenza. La risposta di Vollmer è che l’indagine disinteressata del mondo non è in contrasto con il valore biologico della conoscenza. Popper negli anni 70 ha elaborato un’epistemologia evoluzionistica che estende il metodo del tentativo e dell’errore dall’attività scientifica al comportamento animale. Entrambi sotto la luce dell’esperienza tentano varie strade per risolvere i loro problemi. Uno iato tra l’analogia del processo scientifico e quello biologico, è che Einstein va alla ricerca dell’errore, l’ameba paga il proprio errore con la vita. La possibilità di far morire una teoria al nostro posto, dipende dal fatto che non possiamo darne una formulazione linguistica che quindi le distacca da noiiato tra natura e cultura. Se è tipico degli animali morire insieme con le teorie errate, va da se che è forviante parlare di teorie. Queste hanno un carattere ipotetico: si congettura che sia vera, ma ciò non significa che lo sia davvero. In via congetturale l’epistemologia evoluzionistica può rivelarsi indirettamente utile per la sopravvivenza del genere umano. EMPIRISMO COSTRUTTIVO DI BAS C.FRAASSEN: l’emergere di posizione diverse nel realismo, va di pari passo con posizioni strumentalistiche/antirealistiche. Un primo influsso era da parte di Quine. Un’altra di Laudan, ma soprattutto Fraassen. Quest’ultimo definisce il realismo scientifico come la concezione secondo cui la scienza mira a fornirci con le sue teorie una storia vera di come è il mondo, l’accettazione di una teoria scientifica implica la credenza che essa sia vera. Secondo l’empirismo costruttivo invece la scienza va in cerca di teorie che sono semplici strumenti di previsione. L’accettazione di una teoria non implica la sua credenza, ma solo che si creda alla sua adeguatezza empirica (=se salva i fenomeni). Fraassen distingue comunque la sua posizione da quella dello strumentalismo rifiutandone la concezione standard delle teorie (=per formulare una teoria occorre un linguaggio esattamente definito, un insieme di assiomi che collega il linguaggio teorico ai fenomeni osservati). Secondo lui una teoria non è un insieme di enunciati, ma una struttura che si deve usare come base di un programma di ricerca, è una famiglia di modelli. Rifiuta il concetto di verità e falsità delle teorie scientifiche e lo conserva per le proposizioni su osservabili che deduciamo dalle teorie. Soluzione per il problema degli enti teorici: sostiene la possibilità di distinzione tra entità osservabili e non, e sostiene l’esistenza delle prime e rimanendo agnostico nei confronti delle seconde. Tale ipotesi la cambia in un secondo momento sostenendo l’esistenza degli strumenti che permettono di vedere realtà altre in sé. ANTOLOGIA SCHILICK IL PRINCIPIO DI VERIFICABILITà COME CRITERIO DI SENSO: ripropone il presupposto gnoseologico dell’epistemologia neopositivistica, cioè la dicotomia tra enunciati analitici e sintetici. Per lui il compito essenziale della filosofia è di chiarire il senso delle affermazioni e delle domande. Con l’analisi filosofica non si può decidere se qualcosa sia reale o no, ma solo se il significato contenuta in essa è vero. Per capre se è reale o meno lo si può attraverso l’esperienza (metodo comune scienza e vita quotidiana). Siamo certi che il senso di una domanda è chiaro se si indicano con esattezza le circostanze che debbano darsi affinché l’affermazione sia vera. Se le circostanze non sussistono è falsa. Per trovare il senso di una proposizione noi dobbiamo trasformarla introducendo una dopo l’altra delle definizioni. Il criterio per la verità o falsità di una proposizione sta nella circostanza, che date certe condizioni (indicate nelle definizioni) siano o no presenti certi dati di fatto. La verificazione è logicamente possibile e questo è l’importante. ANTOLOGIA DI KUHN LA SCIENZA NORMALE COME SOLUZIONE DI ROMPICAPI: paragona la scienza normale alla soluzione dei giochi enigmistici. La soluzione esiste già, occorre trovarla. Non è il paradigma a essere sottoposti a controlli, ma lo scienziato. I risultati della ricerca normale sono significativi perché accrescono la portata e la precisione con cui il paradigma può essere applicato. Per essere un vero rompicapo, i problemi della scienza devo essere delimitate da regole sia per la natura delle soluzioni accettabili sia per i passaggi attraverso i quali si devono ottenere tali soluzioni. PARADIGMI E INCOMMENSURABILITà: Kuhn distingue tre aspetti dell’incommensurabilità tra paradigmi rivali: quello metodologico connesso alla diversa importanza attribuita ai problemi da risolvere e al tipo di soluzioni ritenute legittime. Quello semantico connesso al diverso significato attribuito agli stessi termini da paradigmi rivali. Quello ontologico in virtù del quale diversi paradigmi, assumendo l’esistenza di entità diverse come base per la spiegazione della realtà fisica. La scelta tra paradigmi solleva molte questioni che non possono essere risolte con i criteri della scienza normale. Poiché i nuovi paradigmi sono nati da quelli vecchi, di solito incorporano una grande parte del dizionario usato dal paradigma precedente. I vecchi termini e vecchi concetti entrano in nuove relazioni. Una legge che a un gruppo sembra ovvia, ad un altro nemmeno se dimostrata può risultare esatta. Per la stessa ragione, prima che possa sperare di comunicare completamente, uno dei due gruppi deve fare l’esperienza della conversione detta “trasformazione di paradigma”. Proprio perché è un passaggio tra incommensurabili, il passaggio fra paradigmi in competizione non può essere realizzato un passo alla volta, ma tutto insieme. I singoli scienziati abbracciano un nuovo paradigma per ogni genere di ragioni.