Giovanni Stile Criminologia e complessità Una prospettiva sistemica, dinamica, evoluzionistica ARACNE Copyright © MMVI ARACNE editrice S.r.l. www.aracneeditrice.it [email protected] via Raffaele Garofalo, 133 A/B 00173 Roma tel. / fax 06 93781065 ISBN 88–548–922–5 I diritti di traduzione, di memorizzazione elettronica, di riproduzione e di adattamento anche parziale, con qualsiasi mezzo, sono riservati per tutti i Paesi. I edizione: dicembre 2006 I ristampa aggiornata: marzo 2007 Indice Sommario Introduzione 9 Capitolo I Conoscenza scientifica 17 1.1 Introduzione 1.2 Metodo scientifico 1.3 Oggettività e neutralità 1.4 L'equivoco postmoderno 1.5 Conclusioni su oggettività e neutralità 1.6 La crisi della sociologia 17 18 21 37 49 54 Capitolo II La criminologia è una scienza? 65 2.1 Introduzione 2.2 Criminologia come disciplina e nucleo teorico centrale 2.3 La crisi della criminologia 2.4 Superare la crisi 65 69 74 86 Capitolo III L'oggetto di studio della criminologia 93 3.1 Introduzione 3.2 Corpo mobile e nucleo stazionario 3.3 Le tre dimensioni del crimine 3.4 Le tre categorie di comportamento criminale Biocrimini Sociocrimini Pseudocrimini Precisazioni 3.5 Conclusioni sull'oggetto di studio della criminologia 93 95 101 103 106 112 117 118 125 6 Capitolo IV La Scienza della Complessità 4.1 Introduzione Le molte vie della Complessità Complessità matematica e complessità fisica 4.2 Complessità dei fenomeni naturali, umani e sociali Sistemi fisici Sistemi dinamici e non-equilibrio Spazio delle fasi e attrattori Sistemi biologici e sociali Emergenza Definizione di sistema complesso 4.3 Complessità e determinismo Determinismo e probabilità Determinismo e emergenza Determinismo e indeterminismo microfisico Determinismo e libero arbitrio 4.4 Natura e cultura Determinismo biologico vs. potenzialità biologiche Il mito dell'incompletezza Complessità ontogenetica 4.5 Complessità e scienze sociali Meccanismi di transizione Constraint Embedding Definizione di Sistema sociale Convergenza esplicativa Struttura e processo Conclusioni 4.6 Simulazione Isole di stabilità e fasi di transizione Uso rigoroso e uso metaforico di caos e complessità Metodo sperimentale e metodo simulativo Analogia e omologia Chiusura logica 129 129 129 131 133 133 134 137 140 143 150 151 152 153 155 155 156 157 160 161 162 164 165 166 167 168 169 174 176 177 178 179 181 182 7 Assenza di alternative Vantaggi del metodo simulativo Simulazione sociale Modelli Conclusioni Capitolo V Complessità e criminologia 5.1 Introduzione 5.2 Complessità e transizione tra micro e macro (il punto critico aggregato) 5.3 Complessità e risposta differenziale (il punto critico individuale) 5.4 Un esempio: complessità delle relazioni tra condizioni economiche e criminalità 5.5 Integrazione 5.6 Proposta di modello teorico generale 183 186 187 190 193 197 197 200 213 5.7 Strategie contro il crimine 218 223 231 231 232 236 241 245 247 249 253 254 255 259 262 263 265 271 275 278 Bibliografia 287 Premessa Precisazioni Schema generale e variabili rilevanti Variabili socioculturali Interazioni 12-17 anni Interazioni 18-25/30 anni Desistenza Motivazione Variabilità individuale della scelta quasi-razionale Autocontrollo Situazione e opportunità Ulteriori implicazioni della prospettiva generale Estensione del modello ai comportamenti violenti collettivi Estensione del modello alla criminalità non-convenzionale Variabili Strutturali Conclusioni Capitolo I Conoscenza scientifica 1.1 Introduzione – 1.2 Metodo scientifico – 1.3 Oggettività e neutralità – 1.4 L'equivoco postmoderno – 1.5 Conclusioni su oggettività e neutralità – 1.6 La crisi della sociologia 1.1 Introduzione La conoscenza scientifica è uno dei diversi tipi di conoscenza possibili. Si lega agli altri per continuità, condividendo con essi diversi attributi, ma differenziandosi soprattutto per alcune particolari prerogative, in virtù delle quali può essere a buon diritto considerata lo strumento più efficace che l'uomo abbia mai avuto a disposizione per ottenere una conoscenza del mondo reale: a) Persegue cognizioni intersoggettive e sistematico-razionali (è un'impresa di conoscenza collettiva basata sull'esperienza sistematica e sul ragionamento logico) e nella maggior parte dei casi le sue cognizioni sono empiriche. I caratteri di tali cognizioni sono: rigore, istituzionalità (o socialità), ampiezza e generalità, analiticità, rilevanza fattuale, controllabilità e attendibilità, continua approssimazione e rivedibilità, criticità e tendenza auto-correttiva, gradualità cumulativa, processualità, fecondità, dinamicità, funzionalità, natura nomologica, probabilistica e induttiva, articolazione, complessità e astrattezza. b) Utilizza un linguaggio dai caratteri e dalle peculiarità diversi da quelli della lingua comune: ha una semantica, una sintassi, un lessico e una metodologia propri. c) Ha per scopo descrivere, ma anche, e soprattutto, spiegare (in maniera nomologico-causale) e prevedere. d) Si basa sulla generalizzazione e sulla concettualizzazione. e) Le sue cognizioni sono "metodicamente fondate", in altre 17 18 Capitolo I parole ottenute con metodo sperimentale, ipotetico-deduttivo e derivate con metodicità che determina assiomatizzazione. f) Qualora, invece, la conoscenza scientifica si occupi esclusivamente di cognizioni astratte, è conoscenza basata su convenzioni linguistico-concettuali non soggette a esigenza di conformità verso domini di fenomeni empirici (es. matematica, logica) e, pertanto, non essendo euristica, non assicura conoscenze concrete (ma può nondimeno fornire potentissimi strumenti per perseguire e/o organizzare tali conoscenze). 1.2 Metodo scientifico Le scienze si distinguono dalle discipline umanistiche, come la filosofia, la storia o gli studi letterari, o dalle pseudoscienze, come la psicanalisi o l'omeopatia, o da altri tipi di conoscenze ancora, come la religione o la magia, per il procedimento con il quale esse stabiliscono la verità delle loro teorie, vale a dire per il loro metodo. In effetti, una teoria può essere considerata scientifica se, e solo se, rispetta le seguenti tre condizioni: 1) I suoi enunciati generali sono delle ipotesi che danno luogo alla deduzione di certi altri enunciati di fatti pertinenti al dominio circoscritto dai concetti utilizzati nella formulazione dell'ipotesi. 2) Le osservazioni effettuate sugli oggetti della teoria sono formulate in forma simbolica suscettibili di trattamento logicoformale, o almeno suscettibili di una concettualizzazione precisa. 3) Le osservazioni registrate empiricamente, cioè i fatti, corroborano gli enunciati generali della teoria. In effetti, tutte le teorie scientifiche, per essere definite tali, devono stabilire delle proposizioni generali (ipotesi) capaci di spiegare i fatti conosciuti e di farne scoprire di nuovi. Devono essere formulate attraverso chiare concettualizzazioni, suscettibili di essere modellizzate. Devono stimolare nuove ricerche basate su ipotesi collegate. Invero, poche discipline possono definirsi perfettamente scien- Conoscenza scientifica 19 tifiche alla luce di quanto precedentemente esposto. Passando dal piano formale a quello operativo, il metodo scientifico risale, nella sostanza, a Galileo, e fissa tre momenti nella procedura di costruzione della conoscenza scientifica: 1) La raccolta e l'organizzazione dei dati di misura; ciò presuppone la capacità di isolare, fra la molteplicità di aspetti che caratterizzano il fenomeno, quelli intrinseci al fenomeno stesso, separandoli da quelli dovuti al suo manifestarsi in determinate condizioni. È ovvio che non esistono regole precise per giungere all'identificazione di tali caratteristiche essenziali dei fenomeni: solo l'esecuzione di numerosi esperimenti in condizioni diverse e l'intuizione dello scienziato possono consentire di raggiungere lo scopo. 2) La formulazione di un modello (o legge teorica, o legge astratta) del fenomeno che si vuole studiare, che sia capace di rendere conto dei dati misurati; poiché le leggi ottenute rappresentano la descrizione di proprietà di fenomeni dedotte empiricamente, la loro validità sarà limitata all'ambito di valori delle grandezze forniti nelle misure. La successiva estrapolazione della validità della legge a intervalli di valori non misurati è, quindi – a rigore – un procedimento arbitrario. 3) Il "cimento", cioè il confronto fra ulteriori previsioni ottenibili in base al modello adottato e l'esito degli esperimenti volti a verificare tali previsioni. È chiaro che quanto più le previsioni del modello risulteranno confermate, tanto più aumenterà la fiducia nel fatto che esso descriva uno stato di cose effettivamente esistente. Tuttavia è bene ricordare che un modello non può mai essere definitivamente "provato", ma può – al massimo – non risultare contraddetto. Naturalmente qui ci stiamo riferendo ai modelli, o "leggi teoriche", in contrapposizione alle cosiddette "leggi empiriche", che al contrario possono avere conferma diretta dagli esperimenti (come ad esempio l'equazione di stato dei gas, o la legge di Ohm, e così via). I modelli, che sono poi quelli che interessano la criminologia, hanno infatti una natura molto diversa, poiché fanno affermazioni su oggetti non direttamente o completamente accessibili all'esperienza (per fare solo alcuni esempi: atomi, 20 Capitolo I nuclei, quarks, big bang, processi evoluzionistici, comportamento umano e, quale caso particolare, comportamento criminale), e quindi, proprio per questo, essi non possono essere confermati dall'esperienza, ma solo contraddetti (o, come si suol dire, "falsificati"). Fin d'ora, comunque, è necessario anticipare un punto estremamente importante, e cioè che "metodo scientifico" e "metodo sperimentale" non sono da intendersi quali sinonimi, poiché all'interno del metodo scientifico rientra anche il c.d. "metodo simulativo", che ha subito un potente impulso grazie all'elaborazione elettronica. Anzi – come si avrà modo di vedere in seguito (par. 4.6) – il metodo simulativo è probabilmente l'unico metodo adottabile nello studio dei fenomeni complessi, tra cui quelli sociali. «La simulazione rende in certa misura sperimentali le scienze sociali: si schematizza un sistema reale, se ne identificano le variabili strutturali, si provocano eventi a imitazione di realtà possibili e si inferiscono le reazioni del sistema, in obbedienza alle regole codificate dal modello. È sempre il canone ipotetico-deduttivo della scienza moderna (...). Smontare e rimontare i "pezzi" del modello è come scomporre il sistema di riferimento nei suoi costituenti, per trarne opportune combinazioni alternative, dando luogo a una sorta di empiria immaginaria e multiversa» (SCARDOVI, 1997, pp. 788-789). Anzi, a rigor di logica, proprio la simulazione può essere considerata l'essenza stessa del metodo scientifico, poiché qualsiasi modellizzazione può essere definita una simulazione. Infatti, «scienza non è rappresentazione dei fenomeni nell'interezza del loro apparire: è riduzione analogica, è simulazione modellistica. La pallina che Galileo fa rotolare su un asse cavo inclinato – un modello – esemplifica l'inerzia del "cader de' corpi" e prefigura il grave ideale che cade in un vuoto ideale (un vuoto soltanto pensato, in quelle esperienze). Questo è il significato euristico dell'esperimento galileiano, il canone metodologico che ha avviato alla scienza moderna; non è ripetizione della realtà fenomenica: è realtà resa modello, fatto ridotto ad artefatto. Non l'evento concreto nella sua contingente unicità, bensì una sua figurazione emblematica: una simulazione» (SCARDOVI, Conoscenza scientifica 21 1997, p. 787). In ogni caso, è certo che il metodo scientifico ha rivoluzionato la conoscenza dell'uomo: ha permesso il passaggio da un sapere che si costruiva su verità date come postulati, attraverso un sistema inferenziale di stampo sostanzialmente teologico dipendente da dogmi o da principi a priori, a un sapere che si costruisce come processo di relazione infinita col mondo proprio in virtù dell'uso del suo particolare metodo. 1.3 Oggettività e neutralità Il concetto di "verità scientifica" – inteso come oggettività, ovvero come corrispondenza tra affermazione (o proposizione) e realtà – fu messo in discussione, all'inizio del secolo scorso, dalla critica convenzionalista di Henri POINCARÉ (1902), secondo la quale le leggi della meccanica newtoniana, al pari degli assiomi della geometria euclidea, non erano né verità a priori né verità sperimentali, ma convenzioni che, in virtù della loro semplicità, nessun esperimento avrebbe mai potuto invalidare. In realtà fu, paradossalmente, lo stesso Poincaré a contribuire – come si avrà modo di vedere nei paragrafi 4.1 e 4.2 – a rendere insostenibile il suo convenzionalismo proprio perché, in seguito ai suoi studi sul c.d. "problema dei tre corpi" e, successivamente, alla formulazione da parte di Einstein della meccanica relativistica, la convinzione dell'assoluta validità in ogni situazione della meccanica classica dovette essere abbandonata; e, infatti, lo stesso Poincaré dovette rivedere drasticamente, nel giro di due anni, la sua posizione filosofica riguardo alla meccanica newtoniana. Negli stessi anni Pierre DUHEM (1904-05) sosteneva come in fisica non fosse possibile effettuare un vero "esperimento cruciale" volto alla verificazione di una ipotesi, poiché non è mai possibile essere sicuri di aver preso in considerazione tutte le ipostesi potenzialmente in grado di spiegare un insieme di fenomeni. L'empirismo logico (o neopositivismo) cercò di ridare un valo- 22 Capitolo I re forte alla nozione di verità scientifica, (ri)ponendo la verificazione empirica come criterio fondamentale di scientificità. L'impostazione neopositivista del circolo di Vienna egemonizzò gli studi di filosofia della scienza per vari anni, ma alla fine sfociò in un sostanziale fallimento. Vediamo ora come si pose POPPER di fronte a queste tematiche, e quale fu il suo atteggiamento nei confronti del problema della verità e del progresso scientifico. Da giovane, Popper si trovò di fronte ad alcune teorie scientifiche, allora al centro di grandi dibattiti: la teoria marxista della storia, la psicoanalisi, e la teoria della relatività di Einstein. Il filosofo notò che le prime due teorie, pur molto differenti tra loro, erano apparentemente sempre capaci di spiegare tutto; in altre parole, erano sorprendentemente sempre "vere". Addirittura sembravano in grado di spiegare sia un dato evento sia il suo opposto, ed erano investite da un ininterrotto e univoco flusso di "conferme". In definitiva tali teorie, sempre verificate ed omniesplicative, erano organizzate in modo tale da sfuggire al rischio della falsificazione. Di segno completamente opposto apparve a Popper l'atteggiamento di Einstein riguardo alla validità della propria teoria: lo scienziato, in una conferenza a Vienna nel 1919, affermò chiaramente che la sua teoria sarebbe stata da considerarsi insostenibile nel caso avesse dovuto fallire in certe prove, cioè in alcuni esperimenti, che possiamo definire "cruciali". Nacque così il nucleo di tutta la successiva riflessione popperiana: la vera attitudine scientifica, data una certa ipotesi, deve consistere nell'andare alla ricerca non di prove – e se ne potrebbero trovare innumerevoli – volte alla sua verificazione, ma di prove cruciali volte alla sua confutazione, cioè potenzialmente in grado di smentirla. L'impegno dello scienziato deve dunque dirigersi verso la falsificazione più che verso la verificazione. Quest'intuizione trovò una più compiuta elaborazione nel suo celebre saggio Logica della scoperta scientifica, del 1934, nel quale procedette a una dura critica dei capisaldi del neopositivismo allora imperante, soprattutto dell'induttivismo. Secondo Popper non è logicamen- Conoscenza scientifica 23 te giustificabile inferire asserzioni universali da asserzioni particolari, per quanto numerose queste possano essere. Ma l'induttivismo non può essere neppure salvato postulando – come tentò di fare Russell a garanzia della possibilità di operare inferenze induttive – un "principio di induzione": se infatti quest'ultimo fosse una verità puramente logica, allora anche tutte le inferenze induttive dovrebbero essere considerate trasformazioni puramente logiche (o tautologiche) e quindi non euristiche; se al contrario il principio fosse una verità empirica, ci si troverebbe al punto di partenza avendo solo spostato la difficoltà, senza risolverla, in un regresso all'infinito. Una volta ammessa l'inesistenza di procedure induttive, bisogna di conseguenza riconoscere che la scienza non è, in senso stretto, verificabile empiricamente. Tuttavia il collegamento tra teoria ed esperienza che in tal modo si perde, può essere recuperato adottando la prospettiva falsificazionista. «Fare vera una teoria significa dimostrare vero il suo contenuto che è rappresentato dalle sue conseguenze; ma siccome le conseguenze anche della proposizione più banale sono di numero infinito, quella della verificazione si rivela un'operazione logicamente impossibile. Ciò non significa che non possiamo scoprire teorie vere per sempre, ma che tale verità non può essere logicamente dimostrata. Né va confusa la sicurezza psicologica circa la verità di una teoria, che ognuno può provare, dalla certezza logica che nessuno può dimostrare. L'hard core di tutta l'epistemologia popperiana è costituito proprio da questa asimmetria logica tra la conferma e la smentita di una teoria: miliardi e miliardi di conferme non rendono certa una teoria, perché le sue conseguenze da confermare sono infinite, mentre una sola smentita la rende logicamente falsa, dato che una teoria vera contiene soltanto conseguenze vere. Ecco dunque che se abbiamo deciso, sulla base di ragioni extra-scientifiche, che quello della conoscenza scientifica è un valore da incrementare, allora – data l'asimmetria tra conferma e smentita – non ci resta che tentare di falsificare le teorie esistenti, perché prima scopriamo l'errore che esse contengono e prima tenteremo di rimuoverlo. L'errore diventa dunque la "felix culpa" nella scienza come nella vita di 24 Capitolo I ogni giorno, perché la sua individuazione e la sua eliminazione è la conditio sine qua non per la crescita della conoscenza» (DI NUOSCIO , 2002). Popper propone dunque di caratterizzare la scienza come l'insieme delle proposizioni falsificabili. Il buon scienziato, anche se spesso non parte dai fatti per arrivare alla teoria, ma dai problemi che cerca di risolvere ipotizzandone alcune soluzioni, dovrà poi sempre andare alla ricerca di quelle conseguenze della sua teoria che sembrano avere la più alta probabilità di risultare false. La storia della scienza si presenta quindi come una serie di congetture e falsificazioni, e ciò, apparentemente, sembrerebbe implicare un'idea di conoscenza scientifica come assolutamente incerta e provvisoria. Tuttavia, e questo è un punto fondamentale, l'approccio falsificazionista non nega affatto la possibilità di parlare di verità della scienza. Al contrario, il falsificazionismo richiede indubbiamente una nozione di verità oggettiva: che senso avrebbe, altrimenti, sostenere che un'ipotesi è falsa, se non si ammettesse, nello stesso tempo, che deve esistere un'ipotesi vera? Popper non nega quindi che esista la verità, e che la scienza abbia proprio il compito della ricerca della verità. Quello che egli nega è che esista un criterio per riconoscere la verità. Lo scienziato non sarà mai in grado di dimostrare che la sua teoria è vera, ma potrà al massimo dimostrare che essa ha superato positivamente dei severi tentativi di falsificazione, e ciò potrà certamente essere considerato come un sintomo di verità. Ma procedendo oltre, ed arrivando al punto che maggiormente ci interessa, bisogna ricordare che Popper affrontò il problema della verità anche da un altro punto di vista, vale a dire quello della scelta tra due teorie rivali. Anche se, di fronte a due teorie rivali, l'esperienza non ci consentirà mai di dimostrare la verità né dell'una né dell'altra, è possibile tuttavia stabilire un criterio che ci consenta di scegliere l'una piuttosto che l'altra? In altre parole, se non esiste un criterio per riconoscere la verità, esiste almeno un criterio per riconoscere una maggiore o minore vicinanza alla verità? Conoscenza scientifica 25 Popper risponde in modo nettamente positivo, introducendo la teoria della verosimilitudine (1962). Un asserto sarà da considerarsi tanto più verosimile, quanto maggiore sarà la misura del suo contenuto di verità rispetto a quella del suo contenuto di falsità; naturalmente, bisognerà preferire la teoria che ha un maggior grado di verosimilitudine.10 Pertanto resta fermo il principio per cui il confronto tra teorie rivali va fatto sul terreno del loro maggiore o minore approssimarsi alla verità assoluta. Tuttavia è necessario mettere in evidenza che l'idea di verità assoluta ha solo un valore regolativo, e che in tutta la teoria della verosimiglianza non c'è mai il riferimento ad una misura della differenza tra una teoria e la verità, ma sempre tra due teorie. Quindi, grazie alla teoria della verosimilitudine, Popper, nella seconda fase del suo falsificazionismo (falsificazionismo moderato), può parlare di progresso anche in senso forte, sostenendo che, dal momento che la scienza procede scegliendo teorie con gradi di verosimiglianza crescenti, il contenuto di conoscenza aumenta progressivamente. In sostanza vi è l'idea di un continuo approssimarsi a una verità oggettiva: anche se questa non potrà mai essere raggiunta, non v'è, in astratto, alcun ostacolo a un continuo e infinito perfezionamento della conoscenza. Ecco quindi che anche nel pensiero di Popper, grande oppositore del Neopositivismo, non v'è traccia di sfiducia nella scienza, non ci sono appigli per coloro che, di fronte agli scarsi risultati del loro procedere scientifico, continuano a fraintendere i concetti scientifici e filosofici al fine di dimostrare una generalizzata non-oggettività, parzialità e in definitiva arbitrarietà della conoscenza scientifica. Aprendo una breve parentesi, in verità la vera lezione da trarre da quanto detto dovrebbe riguardare un altro aspetto, e cioè la scarsa fiducia da attribuire alle classiche procedure di verificazione che vengono di regola adottate nell'ambito delle scienze sociali, e quindi della criminologia, e che – guarda caso – ten10 Popper propose anche una formula, che in verità non dice molto più di quanto non possa essere espresso a parole: Vs(a) = CtV (a) – CtF (a) 26 Capitolo I dono invariabilmente a "confermare" l'ipotesi di partenza. Ma di questo ci occuperemo a tempo debito. Ora, invece, è venuto il momento di approfondire il problema dell'oggettività, e quello collegato della neutralità (quest'ultima intesa quale indipendenza dalle coordinate psicologico-culturali del ricercatore, ovvero dall'ideologia), della conoscenza scientifica. Questi rappresentano dei punti fondamentali di riflessione, soprattutto per i fraintendimenti, volontari o meno, che a tal proposito sono derivati dalla grande rivoluzione che la fisica ha vissuto agli inizi del Novecento. Fraintendimenti di cui i responsabili sono stati in primis filosofi della scienza, intellettuali postmoderni e sociologi che si sono occupati di problemi epistemologici. La relatività einsteiniana e la meccanica quantistica rappresentano certamente dei paradigmi rivoluzionari. Al di là del radicale mutamento dei concetti di spazio e di tempo, della relativizzazione degli stessi in funzione della velocità dei sistemi di osservazione, dell'impossibilità di stabilire con esattezza e simultaneamente posizione e velocità di una particella, dell'impossibilità di andare oltre a predizioni di tipo probabilistico, esse segnano un passaggio fondamentale nella concezione stessa del soggetto osservante ed esperiente la realtà. Nell'ambito della meccanica classica newtoniana l'uomo, pur facendo parte della realtà analizzata, in quanto soggetto conoscitivo si considerava osservatore esterno non vincolato nella sua attività conoscitiva ad alcuna limitazione di ordine fisico. Quello che la fisica del molto grande e del molto piccolo mette in discussione è proprio questa concezione del soggetto. Da una parte, la teoria della relatività di Einstein segnala l'esistenza di un orizzonte temporale che non può essere valicato dall'uomo11. Dall'altra, il principio di indeterminazione di Heisenberg relativizza l'osservazione rispetto alle condizioni dell'osservatore: ogni stato di osserva11 Lo spazio-tempo è funzione della velocità, e la velocità massima è quella della luce; poiché anche l'informazione non può viaggiare a una velocità maggiore di quella della luce, esiste una barriera temporale oltre la quale il soggetto non può ottenere informazioni Conoscenza scientifica 27 zione e misurazione di un fenomeno (a livello subnucleare) influisce sullo stato del sistema analizzato. Esistono pertanto dei limiti al perfezionamento continuo della sperimentabilità scientifica. In sostanza, Einstein e Heisenberg determinano un nuovo paradigma metodologico euristico, per il quale il soggetto conoscente è parte del sistema osservato, e la sua conoscenza non è indipendente dalle sue caratteristiche fisiche in quanto soggetto-oggetto dinamicamente connesso a questo sistema12. Questo radicale mutamento di prospettiva, spesso frainteso, ha fornito ad alcuni scienziati sociali – a onor del vero istigati da certi filosofi e sociologi della scienza (v. infra, par. 1.4, note 41 e 42) – il pretesto per conferire una veste di "rispettabilità" al frequente mancato utilizzo da parte loro di un corretto metodo scientifico. Addirittura, è accaduto anche che si volesse ribaltare la situazione, e sulla scia della "fine" dell'oggettività della conoscenza scientifica si è proposto di trasferire il "metodo" delle scienze umane e sociali alle scienze della natura. In sostanza il principio di indeterminazione di Heisenberg (più esattamente: una forma alquanto volgarizzata e fraintesa di tale principio), al pri di altre importanti scoperte scientifiche del Novecento, è stato utilizzato per nascondere le gravi pecche di un procedere scientifico che spesso scientifico non è stato. E ciò, da un punto di vista psicologico, non può certo stupire: è di molto conforto lo scoprire che anche la fisica – la più rigorosa tra le scienze naturali –, per lungo tempo il modello ideale di tutte le scienze, ha dei limiti. Ma, nonostante il principio di indeterminazione, la meccanica quantistica è per certi aspetti una teoria deterministica. Sebbene, infatti, il risultato di un dato processo quantistico possa rimanere indeterminato, le probabilità relative dei diversi risultati possibili evolvono in modo deterministico. Questo significa che non possiamo sapere con esattezza cosa avverrà in ogni singolo 12 Da questo punto di vista anticipando di molti anni i risultati a cui perverranno, successivamente, gli studi fondati su approcci sistemici e cibernetici. Capitolo I 28 caso preso in esame, ma possiamo sapere con precisione assoluta quale sarà in ogni momento la probabilità dell'evento quantistico. Pertanto, come teoria statistica, la meccanica quantistica è deterministica (v. più ampiamente infra, par. 4.3) e mantiene ancora alcune vestigia della visione di Newton-Laplace (v. infra, note 15 e 16). D'altra parte non bisogna dimenticare che, nell'ambito dellameccanica quantistica, è stata sviluppata durante la seconda metà del secolo scorso la teoria che, attualmente, ha una forza, una coerenza interna e un'eleganza mai raggiunte in precedenza da nessun'altra teoria. Ci riferiamo al cosiddetto "Modello Standard delle Interazioni Subnucleari", che permette di descrivere con una precisione sorprendente, e in modo quantitativo, il comportamento delle particelle elementari a livello fondamentale, rispettando nello stesso tempo i principi della relatività ristretta e della meccanica quantistica13. Bisogna porre in evidenza il fatto che il Modello Standard ha superato con successo tutte le prove sperimentali alle quali è stato sottoposto, e ha permesso di anticipare (ovvero: prevedere) un gran numero di scoperte sperimentali decisive14. Nonostante il principio di indeterminazione, quindi, le ricerche in fisica proseguono con ottimi risultati proprio nel dominio della meccanica quantistica, e non solo dal punto di vista descrittivo, ma anche predittivo. Inoltre la teoria quantistica trova anche una miriade di applicazioni in vari campi dell'attuale tec13 In sostanza, il Modello Standard consiste in una serie di algoritmi che permettono di calcolare, per approssimazioni successive, e con l'aiuto di un numero fisso e finito di parametri determinati sperimentalmente, le probabilità di reazione dei quanti di materia (leptoni e quarks) e dei quanti di forza (fotoni, bosoni vettori intermedi e gluoni), nell'interazione elettrodebole (Elettrodinamica Quantistica) e nell'interazione forte (Cromodinamica Quantistica). 14 Attualmente tutte le previsioni del Modello Standard sono state confermate dagli esperimenti, con una sola eccezione: l'esistenza del c.d. bosone di Higgs; tuttavia, i fisici nutrono una grande fiducia nella possibilità di rilevare tale particella quando entrerà in funzione il loro nuovo "microscopio", il potente acceleratore di particelle Large Hadron Collider (LHC), attualmente in costruzione presso il CERN di Ginevra. Conoscenza scientifica 29 nologia, dai reattori nucleari ai semiconduttori (che hanno permesso l'enorme sviluppo dell'elettronica e dell'informatica), dal laser alla crittografia, e così via. In sostanza ciò che qui preme sottolineare è che la teoria funziona perfettamente, ovvero stiamo trattando di qualcosa di estremamente valido e concreto, e non di "indeterminato". Se, pertanto, il mondo dell'infinitamente piccolo è, in fin dei conti, deterministico, o quantomeno studiabile e controllabile, lo deve essere, a maggior ragione, anche il mondo a livello macroscopico. Perché, allora, nell'ambito di alcune scienze (soprattutto quelle umane e sociali, ma non solo esse) il cui oggetto di studio si pone a tale livello di organizzazione della realtà, è estremamente difficile, se non impossibile, formulare delle previsioni efficaci? Prima di cercare di rispondere a questa domanda, è necessario fare un passo indietro. In passato si riteneva che gli eventi apparentemente casuali fossero dovuti alla nostra ignoranza o approssimazione nella stima di un gran numero di variabili nascoste o di gradi di libertà. A seguito della scoperta e dell'enorme successo delle leggi della dinamica di Newton (e della conseguente formulazione della meccanica classica) l'universo veniva infatti considerato come un gigantesco meccanismo. Nell'Ottocento Laplace immaginò ogni singola particella come costretta da un abbraccio di inflessibili leggi matematiche in grado di definirne il moto in ogni unità di spazio e di tempo. Di conseguenza, dato lo stato dell'universo in un dato istante, sarebbe stato teoricamente possibile definire univocamente, e con precisione assoluta, tutta l'evoluzione futura (determinismo universale)15. Oggi, come dicevamo ci rendiamo conto che non è possibile 15 «Un'intelligenza che, per un dato istante, conoscesse tutte le forze da cui è animata la natura e la situazione rispettiva degli esseri che la compongono, se per di più fosse abbastanza profonda per sottomettere questi dati a un'analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell'universo e dell'atomo più leggero: nulla sarebbe incerto per essa e l'avvenire, come il passato, sarebbe presente ai suoi occhi» (LAPLACE, 1825). Capitolo I 30 predire ogni cosa con precisione assoluta16. Coloro che si sono impegnati, ad esempio, nella formulazione di teorie eziologiche caratterizzate da velleità predittive in criminologia ne sanno qualcosa. A rigor di logica, i fisici stanno usando la meccanica quantistica per descrivere le proprietà fondamentali della materia e le forze in gioco nell'universo, sperando di spiegarne l'origine e l'evoluzione. Una volta formulata la cosiddetta "Teoria del Tutto" (cui molti fisici teorici lavorano assiduamente), che dovrebbe unificare tutte le forze presenti in natura, dovrebbe essere possibile spiegare unitariamente tutti i fenomeni naturali, dai più semplici ai più complessi, quali il comportamento di atomi e molecole (fisica e chimica), e il modo in cui si organizzano e si riproducono (biologia). Dovrebbe essere solo una questione di tempo, di lavoro e di capacità di elaborazione dei dati. D'altra parte, gli uomini sono soggetti alle medesime leggi della natura per cui, alla fine, dovremmo poter essere in grado di fare previsioni anche sugli eventi umani. Teoricamente, quindi, la vita dovrebbe essere prevedibile17. Tutto ciò si scontra con la realtà: gli scienziati non sono neanche in grado di prevedere quali saranno le condizioni del tempo fra due settimane. Non parliamo poi della possibilità di preve16 In realtà, nonostante quanto si va sempre ripetendo a proposito di Laplace ogni qualvolta ci si accinge a criticare il determinismo e il meccanicismo, il grande scienziato francese era perfettamente conscio che una conoscenza assoluta, del tipo necessario a prevedere ogni cosa, era e sempre sarebbe stata preclusa all'uomo. E infatti egli enunciò quanto appena riportato nella nota precedente proprio nell'introduzione di un suo saggio sulla teoria della probabilità, la quale – per l'autore – non era altro che un metodo per ragionare in situazioni di ignoranza parziale, che rappresenta per l'appunto la condizione umana. In altre parole l'Uomo, non essendo in grado di prestazioni analoghe a quelle dell'ipotetica "intelligenza superiore", ma essendo – tuttavia – in grado di conoscere alcune leggi e alcuni stati, può servirsi di queste conoscenze per formulare previsioni valide entro limiti di approssimazione grazie all'uso del calcolo delle probabilità. 17 Giova sottolineare che un'idea simile è conseguenza dell'adesione al riduzionisimo forte, e non al determinismo: i due concetti non sono né sinonimi, né necessariamente costituiscono un binomio inscindibile. Conoscenza scientifica 31 dere il comportamento umano. Per questo motivo – aprendo una breve parentesi e anticipando quanto sarà esposto più dettagliatamente nel capitolo 4 – negli ultimi trent'anni, scienziati di diverse discipline si sono impegnati nell'elaborazione della cosiddetta "teoria del caos"18, che ipotizza l'esistenza di limiti intrinseci alla prevedibilità del futuro, a vari livelli di complessità. Con tale teoria è possibile dare una ragione al sostanziale determinismo dell'universo e alla contemporanea impossibilità di prevedere ogni cosa. La teoria del caos presenta quindi un universo deterministico, che segue le leggi fondamentali della fisica, ma con una predisposizione al disordine, alla complessità, all'imprevedibilità; spiega come molti sistemi in continua evoluzione siano molto sensibili alle loro condizioni iniziali: a mano a mano che il sistema evolve nel tempo, delle variazioni, inizialmente anche piccole, si amplificano rapidamente a causa della retroazione (feedback). Ne consegue che sistemi caratterizzati da condizioni iniziali anche molto simili possono divergere rapidamente col passare del tempo. Questo comportamento pone quindi dei vincoli molto stretti alla prevedibilità dello stato futuro del sistema, poiché la previsione dipende dall'accuratezza con cui siamo in grado di misurarne le condizioni iniziali. Una situazione del genere può essere facilmente compresa se si prova a rappresentare un sistema caotico sull'elaboratore elettronico: dopo aver fornito equazioni e dati, anche una semplice variazione nell'arrotondamento di una cifra decimale può modificare radicalmente l'evoluzione del sistema stesso. Mentre in un sistema non caotico gli errori crescono in proporzione al tempo (o ad una sua bassa potenza), rimanendo così relativamente controllabili, al contrario, in un sistema caotico, un errore iniziale si moltiplica in modo esponenziale col passare del tempo e, in breve, è destinato a fagocitare il calcolo rendendo vana qualsiasi previsione. A questo punto bisogna fare un'ulteriore precisazione. Abbiamo 18 Detta anche teoria dei sistemi dinamici non-lineari, e che è uno dei filoni da cui sono nati gli studi sulla Complessità (v. infra, par. 4.1, 4.2). Capitolo I 32 già osservato che, se in definitiva anche la meccanica quantistica è – almeno dal punto di vista statistico – deterministica, a maggior ragione anche gli eventi che accadono a livello macroscopico lo devono essere. Si è soliti ritenere, tuttavia, che il determinismo debba andare di pari passo con la prevedibilità. Questa affermazione è da ritenersi errata proprio in virtù di quanto affermato in precedenza: in un sistema deterministico19 gli stati futuri sono completamente determinati dagli stati precedenti in una sorta di corrispondenza biunivoca. Tuttavia ogni calcolo previsionale conterrà sempre degli errori in ingresso, poiché non siamo in grado di misurare delle quantità fisiche con precisione assoluta, e i computer possono elaborare solo quantità finite di dati. Il determinismo implica la prevedibilità solo nel limite idealizzato della precisione infinita. In un sistema non caotico questa limitazione non è grave perché gli errori si propagano molto lentamente, ma in un sistema caotico gli errori crescono a ritmo accelerato. Ecco dunque rotta la simmetria tra causalità e previsione. Ma se è impossibile prevedere ogni cosa, non è per questo impossibile, o inutile lo studio delle cause. La teoria del caos getta dunque un ponte fra le leggi della fisica e quello che siamo soliti chiamare "caso". In un certo senso è ancora possibile considerare – come facevano i sostenitori della "macchina cosmica" di Newton-Laplace – gli eventi apparentemente casuali come ignoranza di dettagli. Il caos deterministico appare casuale perché necessariamente ignoriamo i dettagli più minuti, ma in realtà casuale non è! In definitiva la teoria del caos rappresenta la possibilità di riconciliare la complessità del mondo fisico e i suoi comportamenti a volte "capricciosi" con l'ordine e la semplicità delle leggi fondamentali della natura, a dispetto dell'uso distorto e disinvolto che così spesso si fa, da parte di alcuni intellettuali – sociologi o filosofi della scienza – dei termini e dei concetti 19 E anche la società umana lo è, benché complessissimo sistema composto da individui, i quali a loro volta sono caratterizzato dall'aggregato di materia più complesso dell'universo, vale a dire il cervello umano. Conoscenza scientifica 33 scientifici. Ma di tutto questo si parlerà più diffusamente oltre (v. infra, par. 1.4). In conclusione, chiudendo con ciò la parentesi aperta poco sopra, e tornando al punto da cui siamo partiti, la rivoluzione che la fisica ha vissuto all'inizio del Novecento, lungi dallo stravolgere i classici concetti, principi e metodi sui quali le scienze fisiche e, in generale, naturali, si sono andate costruendo nel corso degli ultimi tre secoli e mezzo, ha invece offerto, insieme ad una griglia concettuale sistematica e di maggiore efficacia operativa nei confronti dei dati osservati rispetto alle teorie precedenti, un nuovo status al soggetto conoscitivo, non più osservatore distaccato della realtà (del noumeno), ma, in certo senso e kantianamente, "legislatore" della natura, o meglio dei fenomeni naturali. Tuttavia è giusto precisare che alcuni scienziati, già alla fine negli anni Venti del secolo scorso, proposero un'interpretazione della meccanica quantistica secondo cui gli oggetti quantistici si trovano in certi stati che non sono definiti oggettivamente: le caratteristiche reali ed oggettive sarebbero definite solo nel momento in cui vengono misurate, e quindi sarebbero "create" in parte dall'osservatore. In tal modo la figura dell'osservatore cosciente e l'idea di un suo contributo alla creazione della realtà fecero capolino in una scienza – la fisica – fino ad allora considerata rigorosamente oggettiva. Ma la convinzione che in fisica il contributo dell'osservatore sia solo nella rappresentazione che egli si fa della realtà è rimasta sempre dominante, almeno tra gli scienziati, cioè coloro che la scienza la fanno. Infatti questa necessaria "distorsione" (le famose perturbazioni che l'osservatore necessariamente causa a ciò che osserva) è uguale per tutti gli osservatori, quindi è possibile considerarla neutrale e trascurarla senza problemi. Le proprietà osservate della materia in un dato istante sono inscindibili dallo stato dell'osservatore, ma non lo sono le proprietà intrinseche della materia stessa. E soprattutto, giova sottolinearlo, questa distorsione non dipende in alcun modo da propensioni, convinzioni o ideologie individuali. Capitolo I 34 E infatti vi furono delle vivaci reazioni alla concezione dell'osservatore "creatore", anche perché risulta alquanto difficile negare che l'universo esista in uno stato oggettivo, indipendentemente dal fatto che noi lo osserviamo o meno. Bene o male, l'universo ha fatto a meno di noi per molti miliardi di anni, e le leggi fisiche valevano allora come valgono oggi: l'attuale esistenza della vita è garanzia della validità, anche per il passato, delle stesse leggi fisiche che oggi la regolano e che precedentemente ne hanno permesso la nascita e l'evoluzione Le reazioni, come si diceva, furono numerose ed energiche, e misero a confronto le convinzioni di grandissimi scienziati, come Einstein (che riteneva che la meccanica quantistica fosse da considerarsi incompleta e perfettibile) e come Bohr (che sosteneva invece la validità della teoria in questione). Occorre comunque notare che lo stesso Bohr volle subito eliminare la figura di un osservatore cosciente, troppo scomoda per una scienza ritenuta puramente oggettiva. Nacque allora la cosiddetta "interpretazione di Copenhagen" di Bohr e Heisenberg, che è stata spesso fraintesa, anche se – bisogna dirlo – i due scienziati hanno fornito numerose e diverse varianti della stessa. Secondo la versione classica, è ben vero che la realtà quantistica esiste in uno stato indefinito e non oggettivo, ma non per questo è necessaria la figura di un osservatore cosciente: è sufficiente che avvenga una "reazione termodinamica irreversibile" affinché lo stato non oggettivo diventi uno stato oggettivo: per esempio un elettrone, per essere riscontrato in un rivelatore, deve avere una reazione termodinamica irreversibile col rivelatore stesso, e tale reazione è sufficiente a rivelarlo nel "mondo oggettivo" della fisica classica senza necessità di un soggetto cosciente che se ne accorga20. La critica di Einstein e di altri fisici fu invece radicale: essi so20 Di conseguenza nacque anche l'interpretazione "operativa" del principio di indeterminazione: per misurare una caratteristica di un oggetto fisico, occorre necessariamente interagire con esso, e questa interazione "perturba" inevitabilmente lo stato originario, creando appunto la "piccola indeterminazione". In questo modo, secondo gli scienziati di Copenhagen, si ottiene un'interpretazione del tutto ragionevole ed accettabile. Conoscenza scientifica 35 stennero che la meccanica quantistica era una teoria incompleta e provvisoria, che avrebbe dovuto essere perfezionata col tempo per eliminare alcuni aspetti indesiderati, sebbene funzionasse perfettamente sul piano sperimentale. Anzitutto Einstein non accettava l'idea che esistesse un'indeterminazione sulle misure quantistiche, ovvero che i risultati non fossero pienamente determinabili in anticipo: ciò, secondo Einstein, introduceva nella fisica l'influenza del "cieco caso", per lui assolutamente inaccettabile. A questo proposito viene ricordata la sua celebre frase: «Dio non gioca a dadi con il mondo!». Einstein inoltre non credeva alla possibilità di "stati nonoggettivi", ma riteneva che gli stati esistano oggettivamente anche prima della misura, indipendentemente dal fatto che vengano misurati o meno. Secondo il "realismo" di Einstein, quindi, gli stati quantistici esistono oggettivamente, al di là di tutte le limitazioni imposte dalla teoria quantistica, che perciò – secondo Einstein – sarebbe da considerarsi incompleta e provvisoria. Esisterebbero pertanto delle variabili nascoste che descrivono la realtà oggettiva dei sistemi quantistici, ma non sono ancora riconosciute dall'attuale teoria21. Non va comunque trascurato che la grande maggioranza dei fisici sono tuttora convinti della validità del realismo. In un sondaggio22 effettuato nel 1985 tra un campione di fisici il "reali21 Molto simile alla reazione di Einstein fu quella di molti scienziati sovietici. Accanto ad una critica rozzamente ideologica di alcuni di essi, per i quali era necessario combattere ogni nuova teoria elaborata dai fisici occidentali, se ne affiancò un'altra elaborata dai migliori e più preparati scienziati sovietici dell'epoca, quali Nikolski, Blokhintsev, Fock, Omelianowski, che si incentrava sull'affermazione che anche nel mondo dell'infinitamente piccolo la realtà preesiste all'osservatore ed è da lui indipendente, e che l'impostazione probabilistica della meccanica quantistica deriva non da una proprietà intrinseca della realtà, ma dalla limitata conoscenza che noi abbiamo degli eventi microfisici. Come si vede, la critica di Einstein e quella dei fisici sovietici sono completamente sovrapponibili. 22 Riportato da MASANI A., "La fisica e la realtà", in L'Astronomia n.73, 1988. Capitolo I 36 smo" veniva accettato ben dall'86% degli intervistati, non veniva più accettato solo dal 2%, mentre il 12% trovavano ambigua la domanda. Appare chiaro, allora, quanto sia intellettualmente disonesto utilizzare il principio di indeterminazione, la "non-oggettività"23 della realtà, e gli altri postulati della teoria quantistica, o, più in generale, altre teorie scientifiche più recenti (Complessità, Caos, ecc) a torto considerate "esotiche", al fine di negare l'oggettività e la neutralità della scienza. Questo significa distorcere il significato dei concetti scientifici, significa voler recepire un messaggio che fa comodo sentire, e che non è il vero messaggio che la fisica ci comunica. Certo, fraintendere è a volte molto comodo, soprattutto per chi si occupa di scienze umane e sociali; in tal modo, si ritiene di poter giustificare l'irrilevanza, o la non-neutralità, dei risultati che (spesso non) vengono raggiunti – mai ammessa per la propria teoria ma spesso attribuita alle teorie "antagoniste" – senza considerare che in questo caso si tratta di una "perturbazione" ben diversa, non dovuta alla circostanza che esistono determinati oggetti fisici (particelle elementari) dotati di proprietà tali che un osservatore umano non potrà probabilmente mai giungere ad averne una conoscenza completa, ma dovuta al condizionamento dell'ideologia dell'osservatore, unito all'estremamente complesso oggetto di studio e al frequente mancato utilizzo del metodo scientifico24. 23 In realtà, a ulteriore specificazione di quanto già detto, la meccanica quantistica – anche considerando esclusivamente la dominante "interpretazione di Copenhagen" – pur segnando la fine del concetto di oggettività nel senso "classico" del termine, permette ancora di parlare di "oggettività degli stati quantistici". Infatti, gli stati quantistici rimangono sempre esattamente definiti da un punto di vista matematico. La verità è che si tratta di un tipo di oggettività diversa rispetto a quella, familiare, della fisica classica, ed è per questo molti parlano correntemente di "non-oggettività", in ciò aiutati dalle più o meno volontarie distorsioni terminologiche operate da molti filosofi e sociologi della scienza. 24 I fenomeni sociali danno luogo ad azioni per le quali – visto il valore assoluto del quanto d'azione di Planck – il principio di Heisenberg non prevede problemi di misura. In effetti l'indeterminazione nel misurare contempora- Conoscenza scientifica 37 In conclusione, ai fini dello studio e dell'eventuale controllo dei sistemi complessi – quali l'individuo e la società – il giusto approccio rimane sempre quello scientifico, attraverso – come si vedrà in seguito – l'impianto teorico e gli strumenti della teoria del caos, all'interno di una prospettiva sistemico-cibernetica. In altre parole, si tratta di condurre lo studio dell'individuo e della società nell'alveo di quella convergenza di paradigmi che va sotto il nome di "Complessità"25 (v. supra, nota 1), e non certo rinunciando alla conoscenza scientifica dei fenomeni in nome di "indeterminazioni", "relatività" e "caoticità" varie. A questo proposito è purtroppo necessario evidenziare come, soprattutto da parte del pensiero postmoderno, sia già da alcuni anni in corso l'appropriazione, e la contestuale distorsione, di molti dei concetti propri della teoria del caos. Ma di questo si parlerà in modo più esteso – in relazione alle scienze sociali in generale – nel paragrafo che segue, e poi – relativamente alla criminologia in particolare – nel paragrafo 5.1. 1.4 L'equivoco postmoderno Sotto l'etichetta di "postmodernismo" (chiamato anche poststrutturalismo soprattutto nelle sue accezioni sociologiche) si cela una variegato movimento26 intellettuale, culturale e sociale neamente energia cinetica e posizione di un individuo, di un gruppo o di una scuola è – eufemisticamente parlando – trascurabile! (v. anche infra, par. 4.3). Il problema, come vedremo, è invece un altro, giacché attiene alla natura complessa del fenomeno, e non alla sua natura indeterminata. 25 Circa i rapporti tra caos e complessità, è possibile rilevare variegate posizioni (MARION, 1999): alcuni sostengono che la teoria del caos faccia parte della più generale scienza della Complessità, altri sostengono che tra i due concetti non ci sia poi molta differenza, rappresentando due facce della stessa medaglia. 26 A onor del vero, il termine "postmodernismo" nasce in campo artistico e architettonico, ma viene solitamente usato in una accezione solo parzialmente (e molto limitatamente) sovrapponibile, sia concettualmente sia temporalmente, a quella che qui ci interessa. Esempi di modernismo possono essere le opere di Le Corbusier in architettura e l'astrattismo, il cubismo o il futurismo in 38 Capitolo I sviluppatosi a partire dall'inizio degli anni Settanta e difficilmente riconducibile ad unità. Il suo minimo comun denominatore può essere individuato nella contrapposizione al modernismo27, la qual cosa del resto emerge con chiarezza dallo parola stessa28. Tale contrapposizione si manifesta essenzialmente nel rifiuto della fiducia modernista, o meglio illuminista, nel progresso e nel miglioramento dell'umanità attraverso la scienza, la tecnologia e il pensiero razionale. Gli intellettuali postmodernisti29, tra i quali spiccano i francesi Jacques Lacan, Julia Kristeva, Bruno Latour, Jean Baudrillard, Paul Virilio, Gilles Deleuze, Felix Guattari, Luce Irigaray, Jean-François Lyotard, Michel Serres, e altri, mettono in discussione i fondamenti stessi della conoscenza: la realtà sarebbe un costrutto mentale, e non qualcosa di esterno che la mente percepisce. Date queste premesse, è facile cadere nel solipsismo: poiché nulla si può conoscere, è conseguentemente inutile anche tentare di conoscere alcunché. pittura, mentre il dadaismo o il surrealismo potrebbero essere definite "avanguardie postmoderne". Anche dal punto di vista letterario può essere fatto un discorso simile, potendosi considerare come "postmoderne" le opere di autori come Joyce, Beckett o Borges. Appare superfluo chiarire che – a parere di chi scrive – non è certo il "postmodernismo" artistico e letterario che va criticato, ma quello filosofico, con le sue pericolose interpretazioni relativistiche della scienza, dell'etica e della politica. 27 Forse sarebbe più appropriato parlare di un più generale rifiuto della "modernità". 28 Il termine "postmodernismo" da un lato manifesta con precisione il legame "edipico", ambiguo e in ultima analisi parassitario che, alla stregua di un adolescente ribelle ma impotente, questo movimento conserva con il modernismo; dall'altro risulta però molto poco "postmoderno", dal momento che il postmodernismo (soprattutto il poststrutturalismo) rifiuta la concezione lineare del tempo, che invece è implicita nel prefisso post. 29 A rigore, Lacan e la prima Kristeva non rientrano propriamente all'interno del postmodernismo inteso in senso stretto, ma sono comunque considerati degli importanti punti di riferimento dai postmodernisti. Se invece si da allo stesso termine una accezione più lata, allora anche filosofi come Nietzsche e Heiddeger possono trovare qui il loro posto, se non altro nel ruolo di padri nobili.