Filosofia della Scienza

annuncio pubblicitario
FILOSOFIA DELLA SCIENZA
La filosofia della scienza è una branca della filosofia che studia i fondamenti, gli assunti della scienza (logica,
scienze naturali, fisica, scienze sociali, psicologia). Cerca di spiegare la natura dei concetti e asserzioni
scientifiche.
Nasce con l’uomo. Possiamo ravvisarne il principio nella filosofia platonica con la teoria relativa alla
conoscenza e all’arte della maieutica o nella logica aristotelica. Tutto verrà sviluppato in modo più
sistematico in epoca moderna con Galilei, Cartesio e Bacone. Galileo nel Discorso sui massimi sistemi dice
che gli elementi di un giusto procedimento scientifico sono sensate esperienze (osservazioni ed esperimenti
scientifici) e necessarie dimostrazioni (dimostrazioni geometriche e matematiche).
Con Cartesio (Discorso sul metodo) prevale l’impostazione razionale rispetto alla componente strumentale
(metodo dell’evidenza/analisi/sintesi/enumerazione).
Bacone studia le prime applicazioni del metodo induttivo (=si parte da osservazioni e confronti con i
fenomeni naturali e si raggiungono principi generali) sulla ricerca scientifica. Induzione attraverso tre
tavole: presenza (quando il fenomeno e le cause si verificano)/ assenza( quando il fenomeno e le cause non
si verificano)/ dei gradi (si riportano le variazioni rilevate durante gli esperimenti).
Nella seconda metà del ‘600 ci furono gli studi di Newton che scrisse Principi matematici della filosofia
naturale (trattato di fisica e matematica) offre vari punti per il suo metodo della ricerca scientifica (non
dobbiamo ammettere spiegazioni superflue dei fenomeni naturali; a uguali fenomeni corrispondono uguali
cause; le qualità uguali di corpi diversi devono essere ritenute universali di tutti i corpi; proposizioni
ricavate per induzioni da esperimenti e ritenute vere fino a prova contraria)rifiuto di ogni teoria che non
sia derivata da una verifica sperimentale.
Nel ‘700 ci fu un grande sviluppo degli studi di filosofia della scienza, con il secolo dei lumi (Locke, Hume,
d’Alembert, Diderot). Nell’800 studi sui metodi induttivi di John Stuart Mill e la classificazione delle scienze
di Comnte: movimento del positivismo.
Nel ‘900 si è avuto un dibattito sui tempi della filosofia della scienza, con Duhem e Mach che ispirarono i
filosofi riuniti nel Circolo di Vienna (Carnap, Schlick, Hann, Popper, Feyerabend). Con Reichenbach si
sviluppò il Circolo di Berlino che controllò più che altro la casualità, alla statistica. Nel 1936 il circolo di
vienna si sciolse. Kuhn criticò il falsificazionismo popperiano sul punto che vuole l’accantonamento della
teoria in caso di confutazione di un suo elemento empirico, sostenendo che si sarebbe dovuto accantonare
quel singolo elemento. Anche lo studioso Lakatos sosteneva che un singolo elemento non doveva portare il
crollo dell’intera teoria, che comunque potrebbe avere sano il nucleo centrale. Si abbandona una teoria
secondo loro se ce ne sia un’altra che sappia rendere ragione degli eventi.
La logica positivistica si basava su Galileo
è possibile avere un episteme (scienza certa) solo dei
fenomeni quantitativi (=misurabili) spiegati con la natura deduttiva. Esempio: movimento di una mano che
ci fa il solletico; la piuma fa il solletico su una mano, sentire il solletico non è una prerogativa della piuma,
ma del corpo che lo sente. Le qualità per lui sono la stessa cosa, quantità che in noi generano sensazioni
qualitative. Il positivismo crolla nella distinzione tra dato esterno e interno, nel tentativo di far rientrare il
qualitativo nel quantitativo.
Il concetto di legge di natura nasce con Galilei, vuole:
-individuare un METODO, rispetto al concetto greco di scienza c’è un concetto di riproducibilità: nasce la
differenza tra teoria e verifica (implica la visione dell’osservatore).
Metodo nasce sulla rinuncia alla domanda “Che cos’è?”, cioè sull’essenza delle cose.
Solo attraverso ciò che è visibile posso indagare, ciò che mi si dà. Deciderà do abdiurare perché sa che
chiunque avesse voluto, poteva vedere con quegli strumenti quella verità.
Per Aristotele la scienza era conoscenza delle cause, per Galileo corrisponde con la misura, la realtà è
matematica, quindi è misurabile. Il miracolo (taumazen) più grande per Aristotele è l’esistenza di un essere
che può conoscere. Alla base della conoscenza per lui c’è l’intuizione. Capisce che fare scienza in natura
equivale a spiegare i fenomeni non solo osservabili.
La filosofia della scienza come disciplina accademica nasce nell’800 poiché l’ideale del positivismo logico
crolla di fronte alla realtà. Aristotele individua quattro cause (efficiente, formale, materiale, finale) e la
finalità rientra nella scienza. Da Galilei in poi la causa finale e formale spariranno. La scienza può occuparsi
solo di quella efficiente, che qui coincide con quella materiale.
 Dal positivismo nasce il:
DETERMINISMO
soggetto non è libero. MATERIALISMO
l’unica fonte che spiega è la materia.
Queste generano il RIDUZIONISMO
capacità di ridurre tutto a linearità, a
fenomeno che spiega in modo biologico.
Ma esiste solo questo modo lineare di conoscere? Da questo interrogativo nasce la filosofia della scienza.
Il fine della filosofia della scienza è creare modelli onnicomprensivi. Popper offre questo; logica della
scoperta scientifica (ciò che permette alla scienza di ricavare un metodo che leghi varie scienze) la
scienza è invenzioni di ipotesi.
Nasce la necessità di definire il quadro epistemologico dal fisico a ciò che non lo è (come il vivente). Il
vivente non è più una struttura cristallizzata, ma nell’uomo c’è il caos. Popper vuole trovare le basi su cui
costruire una teoria, cerca un metodo che sia: universale/oggettivo/che crei una conoscenza forte.
Individua sul concetto di falsificazionismo una base epistemologica. Si passa dal singolo all’universale,
critica l’induttivismo.
Per capire cosa sia la filosofia della scienza ci si rivolge alle domande di cui si è occupata: cosa distingue la
scienza dalla non scienza? La teoria è solo uno strumento per organizzare le osservazioni o è una
descrizione del reale? Gli enti inosservabili (fotoni, campi di forza)sono reali o finzioni? In che consiste il
progresso scientifico? La filosofia della scienza deve limitarsi a dire come ci si è comportato lo scienziato o
deve dire i modelli di comportamento che uno scienziato deve adottare?
La filosofia della scienza è una riflessione filosofica sulla natura, sui limiti di validità dei principi, metodo e
risultato scientifico. Si trova ad affrontare anche questioni che hanno lo stesso statuto della filosofia.
Il termine filosofia della scienza è coincidente con epistemologia, anche se molti con questo intendono
teoria della conoscenza.
STATUTO DEL DISCORSO EPISTEMOLOGICO: poiché molti quesiti di questa disciplina coincidono con quelli
della filosofia in quanto tale, è molto difficili quale siano i limiti precisi della scienza.
Secondo QUINE e la sua filosofia naturalistica, la filosofia (sforzo di capire le cose) non deve distinguersi
dalla scienz. Trasforma l’epistemologia in un’indagine empirica delle modificazioni degli stati di credenza,
che richiede ricerche neurofisiologiche intorno alle reazioni umane a determinate sequenze di stimoli.
 La filosofia della scienza non dispone di metodi d’indagini diverse da quelli delle scienze.
La differenza tra le due però, che il campo di ricerca scientifico si può ridurre a un punto di vista particolare,
alla riflessione filosofica non si può sottrarre nulla, per cui può riferirsi a qualsiasi esperienza (come a se
stessa, cosa che non può fare ad esempio la fisica).
ALTRO PROBLEMAoccorre essere scienziati per fare filosofia della scienza? Muovendosi in entrambi i
campi è sbagliato supporre che una delle due sia superiore o che si possa prescindere da uno di questi due
momenti. Sono necessari, ma di fatto è stata sviluppata da autori che essendo scienziati per formazione
muovevano da contenuti scientifici sollevando domande epistemologiche, chi invece al contrario, quindi da
filosofi, muoveva da domande filosofiche per estenderle a contenuti scientifici.
NASCITA COME DISCIPLINA AUTONOMA: nell’800 nasce come settore specializzato della filosofia. Già
nell’antichità era presente: Platone distingue l’episteme dalla doxa, Aristotele vede la scienza come
conoscenza delle cause. Galileo da un corpus al tutto, e vede già il campo limitato di tale scienza. Muove
dall’assunto di due diversi tipi di accidenti (affezioni): alcuni esprimono aspetti oggettivi della realtà(propri
della sostanza corporea), altri invece sono soggettivi (risiedono nel corpo sensitivo). Esempio del solletico:
la mano può provocare il solletico, ma questa non è un prerogativa della mano, non è una proprietà reale,
perché lo stesso effetto può essere fatto da altro materiale. È possibile avere una conoscenza solo sulle
proprietà quantitative (cosi, osserva Husserl, si pone tutta la sfera del soggettivo e psicologico, al di la della
scienza umana). L’errore di Galileo non risiede nell’aver limitato il campo scientifico, ma quello di credere
che i limiti della scienza coincidessero con proprietà direttamente osservabili, come se fosse possibile
decidere in modo aprioristico i limiti.
La filosofia della scienza richiede sempre un atteggiamento critico nei confronti della scienza, questo fa
capire perché nasca dopo la fine del positivismo (questo dava un valore assoluto alla scienza, come con
COMTE).
La nascita delle geometrie non euclidee, misero in crisi molti punti, come l’esistenza di una sola matematica
e quindi queste nuove geometrie generarono il sistema ipotetico-deduttivo (le premesse non sono
necessarie, ma liberamente poste e si tratta di ricavare più conclusioni possibili, con l’unica condizione,
avere una coerenza interna). Altra crisi nelle scienze fisiche dove aveva dominato il paradigma meccanicista
(ogni fenomeno fisico è esprimibile secondo equazioni matematiche), con NEWTON si capisce che si
possono capire tutti i possibili fenomeni naturali poiché lui fa comprendere il movimento degli astri.
Comunque fino al 1905 la teoria della relatività di EISTEIN mantenne il carattere deterministico delle leggi
fisiche, scansato però con la nascita della teoria quantistica. Secondo il principio d’indeterminazione di
Heisenberg, il calcolo della posizione di un elettrone sarà tanto più indeterminato quanto più sarà
determinata e precisa la misura della sua velocità, sino al punto in cui la determinazione della velocità sarà
completa comportando la totale indeterminatezza del valore della posizione (e viceversa).
La necessità di dare risposte alla crisi delle scienze matematiche e fisiche, portò a riflettere criticamente
sulla natura e sui limiti delle scienze, ciò condusse alla corrente convenzionalista e strumentalistica, che
difendeva il valore della scienza, ma le assegnava un mero valore pratico, o economico.
ANTOLOGIA GALILEO: ristringe il campo del discorso scientifico, restringendo il campo d’indagine anche ad
alcune affezioni presenti in natura, eliminando quelle soggettive che dipendono dagli organi di senso.
CORRENTI STRUMENTALISTICHE-CONVENZIONALISTICHE
MACH
La teoria machaina, strumentalistica e riduzionistica, cerca di ricondurre ogni elemento teorico a
un’esperienza interpretata in senso atomistico con Mach nasce la filosofia della scienza come disciplina
autonoma. Muove dalla tesi positivistica fondamentale secondo cui ogni conoscenza autentica trova
nell’esperienza la sua fondazione. Per lui: anche se la natura ci appare composta di elementi dati a noi
attraverso i sensi, secondo lui, l’uomo ha la capacità di astrarre certi complessi di elementi presentati in
modo stabil. La “cosa” non è invariabile (come la cosa in sé kantiana), ma è un simbolo mentale.
FENOMENISMO RADICALE: rifiuto della cosa in sé, lo stesso io è un’unità pratica che ha la capacità di
ordinare e classificare un gruppo di sensazioni che a noi appaiono più frequenti. Nel principio d’economia
vede la legge suprema del modo di organizzare le sensazioni (regola il raggruppamento delle sensazioni)
la scienza deve far risparmare le esperienze mediante la riproduzione e l’anticipazione dei fatti nei pensieri.
Le teorie non sono né vere né false, ma sono più o meno utili ed economiche. Le teorie scientifiche sono
formulate solo per economizzare le esperienze mediante la riproduzione di fatti nel pensiero, che non
richiedono una controparte nel reale. Il progresso scientifico è l’elaborazione di teorie sempre più
economiche.
PROBLEMI ENTI TEORICI: sono quelli non immediatamente osservabili. Se le teorie scientifiche non ne
trovano le cause reali dietro i fenomeni, non si possono dire reali, ma sono solo finzioni concettuali.
Arriverà a negare l’esistenza degli atomi.
Non negano la realità degli oggetti quotidiani, ma nega che a tutti i termini delle teorie scientifiche
corrisponda qualcosa di reale.
ANTOLOGIA MACH: interpreta l’intera scienza alla luce del principio di economia formulando la concezioni
delle teorie scientifiche propria di ogni strumentalismo. Queste sono solo strumenti per orientarci
praticamente nel reale e non sono né vere né false, ma più o meno utili ed economiche. La soluzione
strumentalistica nei confronti degli enti teorici è che esse, come le teorie scientifiche, sono solo finzioni
concettuali più o meno utili per ordine i dati sperimentali accessibili all’operazione diretta.
La scienza fa risparmiare le esperienze tramite la riproduzione di fatti e anticipazione di essi nel pensiero. Lu
funzione economica della scienza è la sua essenza. Le esperienze vanno comunicate per farne risparmiare
di altre alle prossime generazioni. Non si riproducono i fatti per intero, ma solo quelli importanti per noi in
vista di un interesse pratico. Le nostre riproduzioni sono astrazioni. La scienza quindi ha la funzione di
sostituire l’esperienza. Deve restare nel dominio dell’esperienza, dall’altro lato deve precorrere l’esperienza
nell’attesa di una conferma o confutazione.
POINCARè
La corrente strumentalistica, si presenta oltre che sotto l’aspetto del riduzionismo machiano, anche
influenzato dalla filosofia empirica del convenzionalismo. Poincarè è l’esponente che rifiuta sia la
concezione empiristica (se la geometria si fondasse sull’esperienza, non sarebbe scienza esatta), sia quella
aprioristica (o gli assiomi geometrici si imporrebbero con una tale forza che non sarebbe possibile costruire
un edificio teorico come le geometrie non euclidee).
Gli assiomi sono convenzioni umane.
Le proposizioni su cui ci si muove sono libere costruzioni dell’uomo, ma non arbitrarie perché accertate in
accordo con l’esperienza (questo vale per le leggi di generalizzazione). Per lui il dato empirico ha rilevanza
storica (non scientifica). Affinché un dato sia scientifico deve essere RIPRODUCIBILE.
POLEMICA CON LE ROY: questo aveva sviluppato il convenzionalismo in modo che toglieva valore alla
scienza. Poincarè risponde chiarendo la convenzionalità delle proposizioni geometriche e con il concetto di
oggettività. Cerca una convenzionalità della scienza che non comprometta l’oggettività (accordo di tutti i
soggetti dotati di ragione). Non vuole asserire che tutti i fatti sono convenzioni e traccia una distinzione tra
“fatto bruto” dove non c’è niente di arbitrario, e il “fatto scientifico” che è il risultato della traduzione del
fatto bruto in un linguaggio guidato da convenzioni.-->lo scienziato non è il creatore del fatto bruto, ma
nemmeno del fatto scientifico come sostiene LE ROY. Lo scienziato deve tradurre solo un fatto bruto in uno
più comodo secondo un linguaggio convenzionato.
la libertà dello scienziato risiede nella creazione del linguaggio non nei contenuti forniti dall’esperienza.
Per l’oggettività: Poincarè riprende il discorso kantiano dell’oggettività come adeguamento alle condizioni
universale imposte dall’io penso, cioè che si trasmette sono le relazioni fra le sensazioni.
ANTOLOGIA POINCARè: rifiuta la tendenza empiristica e razionalistica aprioristica. Gli assiomi geometrici
per lui sono delle convenzioni liberamente istituiti dallo spirito umano e di loro si può discutere solo della
comodità e non della verità o falsità. Si chiede quale sia la natura degli assiomi geometrici. Non sono
sintetici a priori o si imporrebbero con forza impedendo la costruzioni di altri edifici teorici. Non sono
nemmeno delle verità sperimentali poiché questi si possono fare solo su oggetti materiali. Sono quindi
convenzioni, guidata si da fatti sperimentali, ma libera. Ci si chiede solo quale tra le geometrie è più
comoda, non quella vera. (esempio la geometria euclidea è più comoda perché è semplice e perché si
accorda con le proprietà dei solidi naturali).
Va contro il convenzionalismo di Le Roy, perché Poincarè sostiene che il valore della scienza non può essere
solo pratico, poiché deriva dalla sua capacità di previsione e sostiene che lo scienziato non solo non crea il
fatto bruto (che ci si impone e non è arbitriario), ma nemmeno il fatto scientifico (risultato della traduzione
di quello bruto in un certo linguaggio guidato da certe convenzioni). Il paradosso di Le Roy è che lo
scienziato crea il fatto. Ciò che lo scienziato crea in un fatto è il linguaggio nel quale lo enuncia. Di ciò che
dice Le Roy rimane solo il fatto che lo scienziato può scegliere attivamente quale evento merita di essere
osservato.
DUHEM
Con lui si completa il quadro della corrente strumentalistica-convenzionalistica. Sostiene che
un’osservazione rilevante non è mai un’osservazione pura, ma una cui è connessa un’interpretazione. Per
lui un esperimento è l’osservazione precisa di vari fenomeni accompagnata dalle interpretazioni di questi,
ai dati concreti raccolti l’osservatore sostituisce rappresentazioni simboliche che corrispondono a dati
concreti in virtù di teorie ammesse dall’osservatore stesso. Formula due tesi per l’esperimento:
1) È impossibile sottoporre al verdetto dell’esperimento delle ipotesi isolate, può controllare solo un
complesso di ipotesi.
2) L’esperimento cruciale (esperimento che fa escludere tutte le ipotesi errate, lasciandone una sola)
in fisica è impossibile poiché non si possono controllare ipotesi isolate.
Autore della tesi “Duhem-Quine”, secondo cui non è possibile confrontare con l’esperienza singole teorie
scientifiche, ma solo polisticamente(=un insieme)poiché ogni modello teorico è una serie di ipotesi
interconnesse, una falsificazione del modello dopo dati sperimentali, non chiarisce quale ipotesi sia falsa
(critica a Popper).
NEOPOSITIVISMO
La risposta alla crisi si delinea anche nel NEOPOSITIVISMO con i centri principali del circolo di vienna e di
berlino. Il fondatore fu SCHLICK, intorno a lui si riunirono Godel, Hahn, Neurath, Feigl.
Come le altri correnti, rappresenta un particolare momento storico dell’evoluzione del dibattito della
filosofia della scienza sua della categoria epistemologica.
Muovono dalle tesi fondamentale per cui solo ogni esperienza è il fondamento e giudice di ogni enunciato
di tipo conoscitivo. Di contro al positivismo e empirismo attribuiscono un’importanza particolare al
linguaggio, rientrando nella svolta linguistica della filosofia analitica: l’empirismo logico si concentra a
chiarire il linguaggio scientifico, ora quello quotidiano.
Kant aveva distinto tre giudizi nella Critica della ragion pura:
- Giudizi analitici: il predicato è racchiuso nel soggetto, sono universali e necessari, ma non
estendono le nostre conoscenze.
- Giudizi sintetici: il predicato non è contenuto nel soggetto, ma deve essere aggiunto mediante
l’esperienza, non sono universali e necessari (perché l’esperienza non può essere tale), ma
estendono le nostre conoscenze.
-
Giudizi sintetici a priori: proprio delle scienze fisiche e matematiche, sono universali, necessarie ed
estendono le nostre conoscenze.
Ora si è capito che quest’ultimi giudizi non esistono, difatti non ci sono enunciati universali (smentita delle
geometrie non euclidee). Rimangono i giudizi analitici (della logica e matematica) e sintetici. Per
Wittgenstein la logica non ha un dominio di oggetti propri, ma ha natura sintattica (=non riguarda i fatti, ma
i modi possibili di connessione tra le proposizioni). I neopositivisti fanno proprio questo dicendo che le
proposizioni sintetiche sottostanno al principio di verificabilità secondo il quale un enunciato è dotato di
senso se è verificabile empiricamente. Criticano la metafisica tradizionale, dicendo che le loro proposizioni
non sono false, ma prive di senso.
DIBATTITO SUI PROTOCOLLI: il principio di verificabilità riduceva ogni enunciato a osservazioni, ciò generò
vari dibattiti come la disputa sugli enunciati protocollari. Con questi i neopositivisti intendevano gli
enunciati mediante cui sono controllate, verificate o smentite le teorie scientifiche.
Carnap sostenne che i concetti scientifici devono basarsi su esperienze vissute del singolo scienziato,
Neurath si oppose rifiutando il carattere originario e certo degli enunciati protocollari (per lui sono
ammesse solo proposizioni enunciabili in termini fisici di spazio e tempo). Anche il linguaggio per lui non è
una rappresentazione, ma un fatto fisico. Lui voleva ridurre ogni disciplina e il loro relativo linguaggio, alla
fisica. Vedendo il linguaggio con intrascendibile, il modo per capire il criterio di verità in un sistema di
proposizioni, la si può solo confrontare e vedere se sia o no in contraddizione con tale sistema.
Per Schlick gli enunciati protocollari, per lui constatazioni, sono punti saldi.
HEMPEL
La tesi secondo cui tutti i termini delle scienze empiriche sono definibili mediante termini osservativi viene
presto abbandonata dagli empiristi logici. Carnap sostituì al principio di verificabilità, quello di grado di
conferma che cresce al crescere dei casi a favori della teoria in questione. Hempel è l’altro che cerca di
liberalizzare l’empirismo insistendo sul fatto che non è necessario che tutti i concetti teorici (=connessi a
entità inosservabili) possiedano una corrispondenza osservabile o sperimentale. È sufficiente che alcuni dei
concetti teorici di una teoria siano collegati a concetti osservativi. Prende vita la concezione standard delle
teorie scientifiche (=una teoria scientifica è costituita da un calcolo o sistema assiomatico, sviluppato
deduttivamente e non interpretato e da un’interpretazione che conferisce significato empirico ai termini e
alle proposizioni di tale sistema). Si basa su due presupposti: 1) distinguo di due linguaggi (uno delle
proposizioni teoretiche e uno con quelle osservative) 2) la possibilità di conferire significato empirico al
livello delle proposizioni teoretiche. Molte critiche che vanno sotto il nome di “paradossi della conferma”:
esempio, paradosso dei corvisecondo i neopositivisti una teoria è scientifica se si esprime in una forma
logica (tutti i corvi sono neri), il paradosso consiste nel dimostrare che un enunciato così non è confermato
dalla scoperta di corvi neri, ma anche da cose che non sono corvi e non sono neri (palle rosse). Ma la
conferma è paradossale perché non si comprende quale sia il collegamento tra la scoperta di una palla
rossa e i corvi neri.
Paradossi connessi con l’induzione (da giudizi particolari si passa a quelli universali).
Si afferma il nomologico-deduttivouna spiegazione scientifica necessita di una legge esprimibile
mediante una forma logica; la spiegazione scientifica si risolve in una deduzione logica. Non fa appello al
concetto di causa e vale per tutte le discipline. Le critiche rivolte sono circa l’identità di struttura logica tra
spiegazione e previsione. Il fatto che il concetto di legge utilizzato non è chiaro.
POPPER
Nell’epistemologia si distinguono tre fasi di sviluppo.
1) Critica dell’empirismo logico e dalla formulazione del principio di falsificabilità.
2) Sottolinea il carattere teorico di ogni osservazione e volge in senso realistico la sua epistemologia,
accogliendo come nozione di verità assoluta che è ideale regolativo della ricerca scientifica.
3) Approfondisce il tema della verità assoluta e oggettiva, indipendentemente dalle nostre credenze,
fino a sviluppare un’ontologia platonica “la teoria dei tre mondi”.
Condivide con gli empiristi logici le tesi secondo cui le teorie scientifiche esprimono una legge mediante una
proposizione logica universale. In questa caratteristica fa sì che la loro verificabilità sia un obiettivo
irrealizzabile. Per poter verificare se tutti i corvi sono neri secondo Popper dovrei vedere tutti i corvi del
mondo, tempo presente passato futuro, il che è impossibile.
Tale verifica andrebbe bene se fosse giusto il metodo induttivo(da un numero finito a generalizzazioni), ma
questo è invalido. Russel e l’esempio del tacchino induttivista: il tacchino è stato nutrito ogni giorno della
sua vita, per cui il giorno di natale quando vede il padrone arrivare pensa che gli darà da mangiare, invece
gli tira il collo. Così come noi siamo convinti che il sole sorgerà domani, ma poi non è così. Il mero fatto che
una cosa sia avvenuta più di una volta, non fa sì che avvenga sempre.
Lo stesso Schlick ammise che una verifica completa delle teorie scientifiche è impossibile, ma aveva
proposto di non considerarle proposizioni autentiche, per la formulazioni di proposizioni di più basso livello
di generalità. Questo secondo Popper non fa si che aumentare la convinzione che il criterio di verificabilità
non funzioni, perché non risolve il principio di demarcazione (=come distinguere le proposizioni scientifiche
da quelle che non lo sono), infatti stando a come dice Schilick, le proposizioni scientifiche mancano di
significato.
Popper sostituisce a questo, il principio di falsificabilità, secondo cui una proposizione è empirica o
scientifica solo se e soltanto se può essere falsificata, cioè se può entrare in conflitto con l’esperienza.
Questo si basa sul concetto di asimmetria logica tra verificazione e falsificazione: miliardi di conferme non
rendono certa una teoria, ma un solo fatto negativo la falsifica tutta.
Nella Logica della scoperta non c’è spazio né per la verifica, né per la conferma empirica, ma solo per una
“corroborazione” (conferma), attribuita solo dopo il fallimento di una serie di tentativi di falsificazione. Lo
scienziato deve seguire il metodo di congetture e confutazioni, o tentativi ed errori; proporre ipotesi audaci
e poi tentare in ogni modo di confutarle. Se è smentita dall’esperienza di conclude che la teoria è falsa, se il
tentativo di falsificazione supera il controllo, si afferma che è stata corroborata, cosa che non esclude una
seconda falsificazione in seguito. Questo non è come quello di verificabilità un criterio di senso, ma di
demarcazione. Il principio di falsificabilità è per lui metafisico, cioè non falsificabile e come tutti gli
enunciati metafisici, è razionalmente criticabile, cioè discusso criticamente alla luce di criteri quali coerenza
interna, fecondità e capacità di risolvere problemi meglio di altri principi.
Alla luce di tale principio, reinterpreta molti concetti epistemologici tradizionali. Introduce la nozione di
contenuto empirico di una teoriaquanti sono gli eventi osservabili da cui una teoria può essere falsificata
tanto maggiore è il suo contenuto empirico (tanto più una teoria vieta, tanto più dice intorno al mondo
dell’esperienza). Reinterpreta il concetto di semplicitàgli scienziati non attribuiscono mai importanza alla
semplicità di una teoria, eppure tanto una teoria è semplice, tanto più è falsificabile.
Un problema che il falsificazionismo doveva risolvere era: si basa sull’asimmetria logica tra verificazione e
falsificazioni di proposizioni universali. Ma a quali condizioni accettiamo un caso contrario per procedere
alla falsificazione dell’ipotesi?
IL PROBLEMA DELLA BASE EMPIRICA: nella disputa sui protocolli Popper segue Neurath nel rifiutare la
soluzione che i neopositivisti davano (gli enunciati protocollari sono certi perché descrivono le percezioni
personali di chi sperimenta), che per Popper era in contrasto con una tratto irrinunciabile del sapere
scientifico, cioè l’oggettività (controllabilità intersoggettiva). Chi vuole l’assoluto deve mettere da parte la
soggettività. Ciò che è esperito immediatamente è certo, ma anche soggettivo, perché non è accessibile a
altri e come tale non solo non ha diritto di cittadinanza nella scienza, dove ogni concetto deve essere
intersoggettivamente controllabile, ma neppure possiamo utilizzarlo come giudizio di realtà (allucinazione).
Dall’ipotesi che si vuole controllare si deduce un evento che deve essere espresso attraverso un asserto
base che sono messe a controllo anch’esse. Potrebbe esserci un regresso all’infinito che per Popper non c’è
perché non necessario. Infatti ricorre a una decisione convenzionale presa dagli scienziati al lavoro che
quindi decidono loro. Sembra a favore del convenzionalismo di Neurath, ma per non sfociare
nell’empirismo convenzionale senza limiti, rifiuta la tesi secondo cui, in caso di conflitto tra una teoria
universale e un enunciato protocollare, può rifiutare entrambe le scelte. Per Popper ciò che
contraddistingue il metodo empirico è che non accettiamo asserzioni universali, ma solo di base, che hanno
una forma logica singolare e quindi sono facilmente controllabili. Il problema è che fa coesistere tale tesi
con quella della theory ladennes (=cariche di teorie), secondo la quale non esistono dati ultimi ed
osservazioni pure perché all’opposto ogni osservazione è tale alla luce di una teoria. Contro tale teoria
Popper osserva che la ripetizione da cui secondo Hume dovrebbe originarsi l’abitudine, non è perfetta,
perché i casi non si presentano sempre perfettamente uguali, sono solo simili al massimo. La ripetizione
quindi presuppone la similarità e questa un punto di vista, ma questo non può essere il risultato di una
ripetizione o si avrebbe un regresso all’infinito, il punto di vista deve precedere la ripetizione. Così si
presuppone ciò che si dovrebbe derivare. L’argomento dimostra l’impossibilità di osservare un certo evento
come simile ad altro senza disporre in precedenza di un punto di vista, di un’ipotesi, di una congettura
liberamente prodotta dal soggetto che conosce. Il rifiuto dell’induzione di Popper porta alle conseguenze
scettiche della svolta relativistica. Se la singolarità delle asserzioni base non modifica il loro carattere
ipotetico rispetto a quelle universali, essa diviene irrilevante per comprendere perché gli scienziati si
mettano più facilmente d’accordo intorno alle asserzioni base che intorno a quelle universali. Popper dice
che per considerare falsificata una teoria occorre che sia stata corroborata un’altra ipotesi che afferma un
certo effetto riproducibile. Consideriamo falsa sono se scopriamo un effetto riproducibile che confuta la
teoria. Si accetta la falsificazione solo se un’ipotesi empirica è proposta e corroborataipotesi falsificante.
Questa è comunque universale. Ora, nulla (se non un induttivista) ci può assicurare che in futuro non ci sia
qualche esito negativo; Popper dice che la ripetibilità di un esperimento provoca difficoltà all’induttivista,
ma no al falsificazionista. Esiste infatti una “legge dei profitti decrescenti derivanti da controlli ripetuti”
dove lo scienziato non ripete infinite volte l’esperimento, poiché si toglie l’interesse, invece se la
conoscenza di sfondo sembra improbabile il controllo è più severo, se è scontata, il controllo è una
ripetizione priva d’interesse.
Critiche: tale legge trova una spiegazione nella concezione induttivistica dove un esperimento non viene
ripetuto perché l’induttivismo è un procedimento valido. Lo stesso falsificazionismo sulla scia
dell’induttivismo, afferma che ogni controllo riuscito accresce la probabilità di successo delle future
ripetizioni.
Popper stesso non soddisfatto, introdurrà concetti nuovi, come quelli di corrispondenza e approssimazione
alla verità assoluta. Questo porterà a cambiare il concetto di progresso presente nella Logica della scoperta
scientifica.
In un primo momento aveva detto che non è possibile usare concetti di vero/falso, poi riprende il concetto
di verità come corrispondenza tra pensiero e realtà. Tarski distingue metalinguaggio e linguaggio
oggettivonozione semantica della verità = il linguaggio di cui ci serviamo deve possedere i mezzi
necessari per riferirsi a proposizioni e descrivere fatti deve essere metalinguaggio entro il quale si parla di
un linguaggio oggetto che a sua volta deve descrivere un fatto.
La nozione semantica Tarski la usava sui linguaggi formalizzati, Popper voleva estenderla ai linguaggi
ordinari per evitare anche qui i paradossitorna la nozione di verità assoluta.
Al concetto di corroborazione di un’ipotesi, Popper ha affiancato quello di verosimiglianza come misura di
approssimazione alla vicinanza alla verità assoluta: una teoria è più vicina alla verità di un’altra se derivano
da essa più proposizioni vere. Separa la verità dai criteri per accettarla per togliere la contraddizione tra
l’adesione alla teoria della verità come corrispondenza e il suo fallibilissimo.
TESI DUHEM-QUINE E CRITICA POPPERIANA DELL’OLISMO METODOLOGICO: la critica di Duhem al controllo
di un’ipotesi isolata, colpisce anche il falsificazionismo. Teoria ripresa da Quine con il suo olismo dei
controlli che è più radicale di quello di Duhem perché ogni controllo sottopone al tribunale dell’esperienza
non un semplice insieme d’ipotesi, ma tutto il nostro sapere.
”Qualsiasi asserzione può essere ritenuta vera,qualunque siano i dati di fatto, se facciamo degli
aggiustamenti sufficientemente drastici in qualche altra parte del sistema. Si potrebbe persino ritenere vera
un’asserzione molto vicina alla periferia, nonostante l’esperienza recalcitrante, adducendo a pretesto
un’allucinazione o modificando alcune di quelle asserzioni che si chiamano leggi logiche. Analogamente, per
converso, nessun’asserzione è immune, per le stesse ragioni, da modifiche”.
TESI DUHEM-QUINE
Colpisce il principio popperiano: se siamo disposti ad operare modificazioni radicali nelle altre parti del
sistema delle nostre conoscenze, ogni asserzione può sempre essere conservata come vera nonostante
qualsiasi verdetto sperimentale contrario, nonostante qualsiasi falsificazione. Popper introduce il concetto
di “conoscenza di sfondo” che indica il patrimonio scientifico storicamente ereditato. Obietta al metodo
olistico dei controlli che la critica razionale non può mettere in discussione ogni nostra conoscenza tutta
insieme contemporaneamente, ma può mettere in discussione una conoscenza alla volta facendo leva sulla
conoscenza di sfondo(=elementi posti in maniera non problematica).
Ammettendo che esista un insieme di teorie che non sono problematiche perché hanno superato controlli
severi (il tutto sempre in maniera provvisoria), la tesi olistica perde la sua forza perché è possibili mettere
alla prova ipotesi isolate senza mettere in dubbio l’intero sistema.
Ammettendo ciò però si torna ad una simmetria tra verificazione e falsificazionela falsificazione può
avvenire solo se si riconosce come verificato il patrimonio di conoscenze storicamente ereditato.
CONCETTO DI PROGRESSO: condivide con la posizione neopositivista uno sviluppo interno della scienza, che
può prescindere da condizionamenti esterni, storici. Per un verso la sua concezione era diversa: per lui non
c’è spazio per la verifica e conferma empirica, ma solo per la corroborazione che può essere attribuita ad
un’ipotesi solo dopo il fallimento di un tentativo di falsificazione. Lo scienziato deve proseguire per tentativi
ed errori. Deve enunciare una teoria e confutarla, se questa supera i controlli è stata solo corroborata (non
esclude una falsificazione futura). Le teorie scientifiche sono solo congetture. Da questa tesi si rovescia
l’ideale di progresso cumulativo degli empiristi logici. Con Popper il falsificazionismo non avviene più con
accumulazione di risultati positivi, ma con il rovesciamento rivoluzionario ed eliminazioni di teorie
precedenti. In un secondo momento dirà che c’è bisogno di una conferma anche empirica. Lo stesso
falsificazionismo richiede una posizione realistica.
Si scaglia contro due concezioni della conoscenza umana:
l’essenzialismo (=lo scienziato mira a trovare una teoria vera del mondo che coglie la natura
essenziale delle cose) secondo Popper sbaglia perché la scienza non deve perseguire una
spiegazione ultima, che non sia cioè messa di nuovo in discussione.
- Lo strumentalismo (=le teorie sono strumenti per formulare previsioni di eventi futuri) secondo
Popper sbaglia perché non è in grado di distinguere due tipi diversi di previsione scientifica, quelli di
genere noto (eclissi) e nuovi generi di eventi (nuovi fenomeni). Loro possono discutere di cose solo
già note.
Popper parla di essenzialismo modificato: assume la capacità di descrivere una realtà indipendente da noi
e lo scienziato non può mai sapere con certezza se le scoperte sono vere. Il realismo scientifico di Popper
presuppone che ha diversi gradi di congetturalità corrispondono diversi gradi di profondità ontologica(es.
anche se tutti i livelli del reale sono reali, alcuni sono più reali).
ANTOLOGIA DI POPPER: rifiuto dell’induzione e proposta del metodo ipotetico deduttivo dei controlli.
Induttivo è ciò che procede da asserzioni singolari (risultati di osservazioni) ad asserzioni universali. Da un
punto di vista logico, non è ovvio inferire da asserzioni singolari a universali. Se le inferenze induttive siano
giustificate è noto come il problema del il problema dell’induzione. Per provare a giustificarle si deve
trovare prima un principio d’induzione, deve essere un’asserzione sintetica (=un’asserzione la cui negazione
non è autocontradditoria, ma logicamente possibile). Il tentativo di dare una base all’induttivismo genera
un regresso all’infinito, poiché dovrei piegarmi su inferenze induttive per giustificarlo, e da qui a un
principio d’induzione superiore e così all’infinito. Kant cercò di uscire da questo problema assumendo che
tale principio (chiamato da lui di causazione universale), fosse valido a priori.
CRITICA DELL’OLISMO METODOLOGICO: criticando lo strumentalismo risponde anche ai problemi sollevati
da Duhem e Quine difendendo il realismo scientifico, delineando una concezione di progresso scientifico
diverso da quello della logica della scoperta scientifica. Lo strumentalismo non è in grado di rendere conto
dell’importanza del controllo severo delle sue teorie.
CONGETTURE, VERITà E REALTà: per lui le teorie scientifiche sono congetture genuine che possono essere
sottoposte a controlli critici. L’essenzialismo considera il mondo come apparenza dove c’è il mondo reale.
Concezione che cade quando divento consapevole che i mondo di ciascuna delle nostre teorie possono
essere spiegati da altri mondi. Le teorie sono invenzioni che non sono imposte. Ma alcune di esse possono
essere in conflitto con la realtà, e quando questo accade capiamo che c’è una realtà, ecco perché il realista
ha ragione.
IL DIBATTITO SUL REALISMO SCIENTIFICO
Negli anni ’60 dibattito tra realismo scientifico e strumentalismo. La seconda pensa che la scienza sia solo
uno strumento per salvare i fenomeni e formulare previsioni più precise, pone un forte accento sulla
funzione attiva del soggetto nella costruzione dell’oggetto scientifico. I realisti scientifici sostengono che lo
scopo della scienza sia quello di dirci come sia realmente il mondo e che le teorie scientifiche sono in grado
di darne una risposta approssimata.
Molti sostenitori del realismo scientifico vanno alla ricerca di un accesso alla realtà del discorso scientifico:
- Molti si sono rivolti alla filosofia del linguaggio (Frege)
- Alcuni hanno rinunciato ad un accesso diretto al referente e si accontentano di un modello (Harrè)
- Altri hanno ripreso l’idea dell’evoluzionismo di Spencer di una funzione biologica e sopravvivenza
delle conoscenze vere.
- Capacità dell’uomo di interagire con l’ambiente (nuovo strumentalismo).
Vediamo le varie prospettive realistiche.
TEORIA CASUALE DEL RIFERIMENTO E L’INFERENZA ALLA MIGLIORE SPIEGAZIONE: una delle strade per
difendere il realismo scientifico era quella di abbandonare ogni teoria del significato che ponesse schermo
tra noi e le cose e cercare un’accesso diretto all’oggetto cui si riferiscono i termini o enunciati linguistici.
Nacquero le teorie del riferimento di Kripke e di Putnami nomi si riferiscono direttamente alle cose senza
che ci sia una catena casuale che risale sino al momento dell’introduzione del nome.
Per Putnam ciò che fissa il riferimento di un termine è l’evento introduttivo. Affinché si mantenga questo
riferimento, occorre che esista una catena casuale tra l’introduzione iniziale del termine e gli usi successivi.
Boyd riprende la teoria casuale di riferimento del maestro, anche se secondo lui questa non risolveva tutti i
problemi. Essa consentiva di mantenere lo stesso riferimento per i termini che nel passaggio da varie teorie
cambiavano significato, ma non forniva alcuna indicazione per sapere se le teorie scientifiche sono vere.
Boyd utilizzò il concetto di “inferenza alla migliore spiegazione” secondo cu lo scienziato preferisce le
ipotesi che costituiscono la migliore spiegazione dei dati che gli sono disponibili. La migliore spiegazione per
lui è fornita da due tesi 1)nelle scienze mature i termini fondamentali sono denotanti (=dotati di
riferimento) 2)la scienza ci fornisce una rappresentazione teorica sempre più accurata.
TEORIA SCIENTIFICA E MODELLI IN NORMAN ROBERT CAMPBELL: i concetti di analogia, modello e metafora
furono al centro di discussioni non solo di filosofia della scienza e del linguaggio, ma anche in filosofia
ermeneutica con Paul Ricoeur. Tuttavia questi termini furono ripresi anche prima con Campbell per il quale
la teoria scientifica era un sistema di proposizioni matematiche connesse all’esperienza tramite un insieme
di regole.
Contro Duhem e della successiva concezione standard delle teorie scientifiche, Campbell ritiene che i ricorsi
a concetti di analogia e modello sia costitutivo per la teoria scientifica. L’analogia non possiede solo un
valore euristico (dopo essere cioè stata usata nel campo della scoperta, potrebbe essere rimossa dal
contesto della giustificazione), ma è la parte essenziale della teoria, grazie alla quale può sempre
convincersi della sua verità. Questo avviene per due ragioni: nel tentativo di spiegare un insieme di leggi
note ci consente di scegliere una teoria particolare. Inoltre il suo valore deriva dal fatto che tutti gli
esperimenti eseguiti fino a un certo momento non sono abbastanza numerosi o accurati da persuaderci
della verità.
MODELLI, SPIEGAZIONE SCIENTIFICA E PROBLEMA DEL RIFERIMENTO IN MARY HESSE E ROM HARRè:
riprendono anche loro la funzione costitutiva e non meramente euristica dell’analogia. Secondo loro una
teoria scientifica non si spiega senza i concetti d’inferenza analogica e di modello (si riferisce a qualcosa di
fisico, analogo al sistema che deve essere spiegato). Hesse distingue tra analogia positiva, negativa e
neutra. Quando consideriamo un insieme di palle da biliardo in moto casuale come modello per un gas, non
intendo che le molecole sono di vario colore, ma che c’è un’analogia (aspetti di somiglianza e non).
-Analogia positiva è l’insieme delle proprietà che scriviamo sia alle palle da biliardo, sia alle molecole.
-Analogia negativa è l’insieme delle proprietà che sappiamo non sono proprie dell’oggetto che indaghiamo.
-Analogia neutra sono proprietà che non sappiamo se rientrano nell’analogia positiva o negativa. Sono il
nucleo più importante di una teoria perché rendono possibili delle previsioni che potranno risultare vere o
false quindi accrescere la teoria.
Hesse ha osservato che anche i termini osservativi a causa delle estensioni analogiche finiscono per
acquisire nuovi significati. L’estensione analogica non è arbitraria, ma si basa su somiglianze oggettive. I
modelli svolgono un’importante funzione di dimostrare in termini familiari che le entità e i processi descritti
dalla teoria possono esistere logicamente e forse anche fisicamente.
Queste tesi sono state sviluppate da Harrè. Secondo lui l’errore fondamentale della concezione tradizionale
delle teorie scientifiche consiste nel fatto di aver disconosciuto l’importanza essenziale dei modelli.
Dall’inizio lui non intende le teorie scientifiche cono strumenti di previsione, ma come ipotesi della
struttura del reale. Secondo il realismo scientifico, le proposizioni di una teoria scientifica sono vere o false
ed esistono realmente enti ai quali fa riferimento la teoria. Per sostenere ciò, fa riferimento a due modi di
riferirsi agli enti reali –“riferimento dimostrativo diretto” dove c’è la possibilità concreta di puntare il dito
verso l’ente a cui ci si riferisce. –“riferimento non ostensivo” dove non c’è la possibilità di vedere ciò di cui
si parla.
Per la dimostrazione della realtà degli enti teorici, sostiene la tesi che il riferimento è una pratica materiale,
che istituisce una relazione fisica tra un’entità teorica e la realtà corporea di uno scienziato. L’esistenza
dell’ente è legata allo scienziato. Parla di tre regni: nel primo c’è l’esperienza comune, nel secondo gli enti
che possono essere accessibili alla percezione umana e il terzo che sono ogni possibile esperienza.
Si dice che abbia difeso un realismo che può fare a meno della nozione di verità. Ciò perché nota come sia
possibile riferirsi a qualcosa mediante una descrizione falsa.
MODELLI E IDEALIZZAZIONE IN NOWAK: contro l’empirismo logico sostiene che le leggi delle scienze mature
non sono descrizioni o generalizzazioni induttive derivanti da osservazioni, ma sono enunciati che
contengono delle assunzioni idealizzanti che danno origine ad un universo d’oggetti ideali che è impossibile
trovare nella vita reale di tutti i giorni. Il mondo della fisica è ottenuto a partire da quello di tutti i giorni.
L’essenza d’indagini scientifiche non è la ricerca di teorie generali il fatto di essere presenti in numerosi
casi), ma la loro idealità (=esprimere aspetti essenziali e caratteristici di un certo fenomeno). Nell’idealità
non si ha un’astrazione di dati reali, qui non si ha nessun tipo di realtà empirica concreta, ma si costituisce
una nuova realtà. Le leggi di idealizzazione, non descrivono come di fatto si produce un fenomeno, ma
come ci produrrebbe se certi fattori in esso non si produrrebbero. Se si desidera che la legge
idealizzazionale fornisca previsione vicine ai fenomeni empirici occorre che si integri con il processo di
concretizzazione, dove le assunzioni idealizzanti vengono soppresse. I concetti di idealizzazione non hanno
estensione, ma hanno un proprio contenuto, per cui il processo di concretizzazione incontra un ostacolo di
principio, perché dipendente dal contenuto particolare ideale di quel concetto idealizzante. Una buona
idealizzazione si distingue da una cattiva per il fatto che consente previsioni che corrispondono bene a
quanto possiamo constatare sperimentalmente. Il processo di concretizzazione finisce così con il coincidere
con il procedimento del controllo sperimentale, con la variazione controllata e sistematica di alcuni fattori
per vedere se in quale misura condizionano il fenomeno indagato. In caso contrario i concetti di
idealizzazione smettono di essere ciò mediante cui conosciamo e diventano ciò che conosciamo.
EPISTEMOLOGIA EVOLUZIONISTICA: l’idea di questa è arrivata agli anni ’70 grazie a Lorenz, per il naturalista
l’uomo è un essere le cui caratteristiche sono un prodotto dell’evoluzione di quel processo svoltosi per
epoche intere nel corso del quale tutti gli organi viventi si sono trovati a confronto con gli elementi del
reale con il quale si sono dovuti adattare ad essi. Ogni adattamento è un’informazione acquisita dal sistema
organico. Qui c’è una forma particolare di realismo sostenuta dall’epistemologia evoluzionistica. Popper e
Vollmer sono coloro che hanno maggiormente sviluppato tale epistemologia (in questa si distinguono due
tendenze: una di Darwin e Spencer secondo cui la teoria biologica dell’evoluzione consente di spiegare
l’evoluzione dei meccanismi cognitivi coinvolte nell’attività di tipo cognitivo. L’altra tendenza intende
comprendere l’evoluzione dei concetti delle teorie scientifiche, usando modelli e metafore tratti dalla
teoria dell’evoluzione secondo cui le idee lottano per la sopravvivenza in modo analogo in cui gli esseri
viventi lottano per la sopravvivenza biologica).
L’epistemologia di Vollmer è connessa ad un realismo ipotetico secondo il quale esiste un mondo reale
indipendente dalla nostra coscienza, tale mondo è dotato di certe strutture che possono essere
parzialmente conosciute da noi e tali ipotesi possono essere sottoposte a controllo e si può accertare sino
a che punto siano corrette.
Prende in considerazione varie obiezioni che gli possono essere state mosse: in quanto epistemologia deve
fornire una giustificazione del sapere empirico, ma essa stessa si concepisce come sapere empirico, quindi
sembra un circolo vizioso. La risposta è che in linea di principio l’epistemologia evoluzionistica non è in
grado di dare risposte ultime diverse dalle scienze empiriche. Se si rinuncia a ciò non si genera nessun
circolo vizioso, infatti se ha uno statuto empirico volto a spiegare teorie empiriche non è vizioso.
Secondo un’altra obiezione è impossibile spiegare come l’evoluzione biologica abbia alla fine condotto ad
una conoscenza. La risposta di Vollmer è che l’indagine disinteressata del mondo non è in contrasto con il
valore biologico della conoscenza.
Popper negli anni 70 ha elaborato un’epistemologia evoluzionistica che estende il metodo del tentativo e
dell’errore dall’attività scientifica al comportamento animale. Entrambi sotto la luce dell’esperienza
tentano varie strade per risolvere i loro problemi. Uno iato tra l’analogia del processo scientifico e quello
biologico, è che Einstein va alla ricerca dell’errore, l’ameba paga il proprio errore con la vita. La possibilità di
far morire una teoria al nostro posto, dipende dal fatto che non possiamo darne una formulazione
linguistica che quindi le distacca da noiiato tra natura e cultura.
Se è tipico degli animali morire insieme con le teorie errate, va da se che è forviante parlare di teorie.
Queste hanno un carattere ipotetico: si congettura che sia vera, ma ciò non significa che lo sia davvero.
 In via congetturale l’epistemologia evoluzionistica può rivelarsi indirettamente utile per la
sopravvivenza del genere umano.
EMPIRISMO COSTRUTTIVO DI BAS C.FRAASSEN: l’emergere di posizione diverse nel realismo, va di pari
passo con posizioni strumentalistiche/antirealistiche. Un primo influsso era da parte di Quine. Un’altra di
Laudan, ma soprattutto Fraassen. Quest’ultimo definisce il realismo scientifico come la concezione secondo
cui la scienza mira a fornirci con le sue teorie una storia vera di come è il mondo, l’accettazione di una
teoria scientifica implica la credenza che essa sia vera. Secondo l’empirismo costruttivo invece la scienza va
in cerca di teorie che sono semplici strumenti di previsione.
L’accettazione di una teoria non implica la sua credenza, ma solo che si creda alla sua adeguatezza empirica
(=se salva i fenomeni). Fraassen distingue comunque la sua posizione da quella dello strumentalismo
rifiutandone la concezione standard delle teorie (=per formulare una teoria occorre un linguaggio
esattamente definito, un insieme di assiomi che collega il linguaggio teorico ai fenomeni osservati).
Secondo lui una teoria non è un insieme di enunciati, ma una struttura che si deve usare come base di un
programma di ricerca, è una famiglia di modelli.
Rifiuta il concetto di verità e falsità delle teorie scientifiche e lo conserva per le proposizioni su osservabili
che deduciamo dalle teorie. Soluzione per il problema degli enti teorici: sostiene la possibilità di distinzione
tra entità osservabili e non, e sostiene l’esistenza delle prime e rimanendo agnostico nei confronti delle
seconde. Tale ipotesi la cambia in un secondo momento sostenendo l’esistenza degli strumenti che
permettono di vedere realtà altre in sé.
ANTOLOGIA SCHILICK
IL PRINCIPIO DI VERIFICABILITà COME CRITERIO DI SENSO: ripropone il presupposto gnoseologico
dell’epistemologia neopositivistica, cioè la dicotomia tra enunciati analitici e sintetici. Per lui il compito
essenziale della filosofia è di chiarire il senso delle affermazioni e delle domande. Con l’analisi filosofica non
si può decidere se qualcosa sia reale o no, ma solo se il significato contenuta in essa è vero. Per capre se è
reale o meno lo si può attraverso l’esperienza (metodo comune scienza e vita quotidiana). Siamo certi che il
senso di una domanda è chiaro se si indicano con esattezza le circostanze che debbano darsi affinché
l’affermazione sia vera. Se le circostanze non sussistono è falsa.
Per trovare il senso di una proposizione noi dobbiamo trasformarla introducendo una dopo l’altra delle
definizioni. Il criterio per la verità o falsità di una proposizione sta nella circostanza, che date certe
condizioni (indicate nelle definizioni) siano o no presenti certi dati di fatto. La verificazione è logicamente
possibile e questo è l’importante.
ANTOLOGIA DI KUHN
LA SCIENZA NORMALE COME SOLUZIONE DI ROMPICAPI: paragona la scienza normale alla soluzione dei
giochi enigmistici. La soluzione esiste già, occorre trovarla. Non è il paradigma a essere sottoposti a
controlli, ma lo scienziato. I risultati della ricerca normale sono significativi perché accrescono la portata e
la precisione con cui il paradigma può essere applicato. Per essere un vero rompicapo, i problemi della
scienza devo essere delimitate da regole sia per la natura delle soluzioni accettabili sia per i passaggi
attraverso i quali si devono ottenere tali soluzioni.
PARADIGMI E INCOMMENSURABILITà: Kuhn distingue tre aspetti dell’incommensurabilità tra paradigmi
rivali: quello metodologico connesso alla diversa importanza attribuita ai problemi da risolvere e al tipo di
soluzioni ritenute legittime. Quello semantico connesso al diverso significato attribuito agli stessi termini da
paradigmi rivali. Quello ontologico in virtù del quale diversi paradigmi, assumendo l’esistenza di entità
diverse come base per la spiegazione della realtà fisica. La scelta tra paradigmi solleva molte questioni che
non possono essere risolte con i criteri della scienza normale. Poiché i nuovi paradigmi sono nati da quelli
vecchi, di solito incorporano una grande parte del dizionario usato dal paradigma precedente. I vecchi
termini e vecchi concetti entrano in nuove relazioni.
Una legge che a un gruppo sembra ovvia, ad un altro nemmeno se dimostrata può risultare esatta. Per la
stessa ragione, prima che possa sperare di comunicare completamente, uno dei due gruppi deve fare
l’esperienza della conversione detta “trasformazione di paradigma”. Proprio perché è un passaggio tra
incommensurabili, il passaggio fra paradigmi in competizione non può essere realizzato un passo alla volta,
ma tutto insieme. I singoli scienziati abbracciano un nuovo paradigma per ogni genere di ragioni.
Scarica