Giovanni Stile
Criminologia e complessità
Una prospettiva sistemica,
dinamica, evoluzionistica
ARACNE
Copyright © MMVI
ARACNE editrice S.r.l.
www.aracneeditrice.it
[email protected]
via Raffaele Garofalo, 133 A/B
00173 Roma
tel. / fax 06 93781065
ISBN
88–548–922–5
I diritti di traduzione, di memorizzazione elettronica,
di riproduzione e di adattamento anche parziale,
con qualsiasi mezzo, sono riservati per tutti i Paesi.
I edizione: dicembre 2006
I ristampa aggiornata: marzo 2007
Indice Sommario
Introduzione
9
Capitolo I
Conoscenza scientifica
17
1.1 Introduzione
1.2 Metodo scientifico
1.3 Oggettività e neutralità
1.4 L'equivoco postmoderno
1.5 Conclusioni su oggettività e neutralità
1.6 La crisi della sociologia
17
18
21
37
49
54
Capitolo II
La criminologia è una scienza?
65
2.1 Introduzione
2.2 Criminologia come disciplina e nucleo teorico centrale
2.3 La crisi della criminologia
2.4 Superare la crisi
65
69
74
86
Capitolo III
L'oggetto di studio della criminologia
93
3.1 Introduzione
3.2 Corpo mobile e nucleo stazionario
3.3 Le tre dimensioni del crimine
3.4 Le tre categorie di comportamento criminale
Biocrimini
Sociocrimini
Pseudocrimini
Precisazioni
3.5 Conclusioni sull'oggetto di studio della criminologia
93
95
101
103
106
112
117
118
125
6
Capitolo IV
La Scienza della Complessità
4.1 Introduzione
Le molte vie della Complessità
Complessità matematica e complessità fisica
4.2 Complessità dei fenomeni naturali, umani e sociali
Sistemi fisici
Sistemi dinamici e non-equilibrio
Spazio delle fasi e attrattori
Sistemi biologici e sociali
Emergenza
Definizione di sistema complesso
4.3 Complessità e determinismo
Determinismo e probabilità
Determinismo e emergenza
Determinismo e indeterminismo microfisico
Determinismo e libero arbitrio
4.4 Natura e cultura
Determinismo biologico vs. potenzialità biologiche
Il mito dell'incompletezza
Complessità ontogenetica
4.5 Complessità e scienze sociali
Meccanismi di transizione
Constraint
Embedding
Definizione di Sistema sociale
Convergenza esplicativa
Struttura e processo
Conclusioni
4.6 Simulazione
Isole di stabilità e fasi di transizione
Uso rigoroso e uso metaforico di caos e complessità
Metodo sperimentale e metodo simulativo
Analogia e omologia
Chiusura logica
129
129
129
131
133
133
134
137
140
143
150
151
152
153
155
155
156
157
160
161
162
164
165
166
167
168
169
174
176
177
178
179
181
182
7
Assenza di alternative
Vantaggi del metodo simulativo
Simulazione sociale
Modelli
Conclusioni
Capitolo V
Complessità e criminologia
5.1 Introduzione
5.2 Complessità e transizione tra micro e macro (il punto
critico aggregato)
5.3 Complessità e risposta differenziale (il punto critico
individuale)
5.4 Un esempio: complessità delle relazioni tra condizioni
economiche e criminalità
5.5 Integrazione
5.6 Proposta di modello teorico generale
183
186
187
190
193
197
197
200
213
5.7 Strategie contro il crimine
218
223
231
231
232
236
241
245
247
249
253
254
255
259
262
263
265
271
275
278
Bibliografia
287
Premessa
Precisazioni
Schema generale e variabili rilevanti
Variabili socioculturali
Interazioni 12-17 anni
Interazioni 18-25/30 anni
Desistenza
Motivazione
Variabilità individuale della scelta quasi-razionale
Autocontrollo
Situazione e opportunità
Ulteriori implicazioni della prospettiva generale
Estensione del modello ai comportamenti violenti collettivi
Estensione del modello alla criminalità non-convenzionale
Variabili Strutturali
Conclusioni
Capitolo I
Conoscenza scientifica
1.1 Introduzione – 1.2 Metodo scientifico – 1.3 Oggettività e neutralità – 1.4 L'equivoco postmoderno –
1.5 Conclusioni su oggettività e neutralità – 1.6 La
crisi della sociologia
1.1 Introduzione
La conoscenza scientifica è uno dei diversi tipi di conoscenza
possibili. Si lega agli altri per continuità, condividendo con essi
diversi attributi, ma differenziandosi soprattutto per alcune particolari prerogative, in virtù delle quali può essere a buon diritto
considerata lo strumento più efficace che l'uomo abbia mai avuto a disposizione per ottenere una conoscenza del mondo reale:
a) Persegue cognizioni intersoggettive e sistematico-razionali
(è un'impresa di conoscenza collettiva basata sull'esperienza
sistematica e sul ragionamento logico) e nella maggior parte dei
casi le sue cognizioni sono empiriche. I caratteri di tali cognizioni sono: rigore, istituzionalità (o socialità), ampiezza e generalità, analiticità, rilevanza fattuale, controllabilità e attendibilità, continua approssimazione e rivedibilità, criticità e tendenza
auto-correttiva, gradualità cumulativa, processualità, fecondità,
dinamicità, funzionalità, natura nomologica, probabilistica e
induttiva, articolazione, complessità e astrattezza.
b) Utilizza un linguaggio dai caratteri e dalle peculiarità diversi da quelli della lingua comune: ha una semantica, una sintassi, un lessico e una metodologia propri.
c) Ha per scopo descrivere, ma anche, e soprattutto, spiegare
(in maniera nomologico-causale) e prevedere.
d) Si basa sulla generalizzazione e sulla concettualizzazione.
e) Le sue cognizioni sono "metodicamente fondate", in altre
17
18
Capitolo I
parole ottenute con metodo sperimentale, ipotetico-deduttivo e
derivate con metodicità che determina assiomatizzazione.
f) Qualora, invece, la conoscenza scientifica si occupi esclusivamente di cognizioni astratte, è conoscenza basata su convenzioni linguistico-concettuali non soggette a esigenza di conformità verso domini di fenomeni empirici (es. matematica, logica) e, pertanto, non essendo euristica, non assicura conoscenze concrete (ma può nondimeno fornire potentissimi strumenti
per perseguire e/o organizzare tali conoscenze).
1.2 Metodo scientifico
Le scienze si distinguono dalle discipline umanistiche, come la
filosofia, la storia o gli studi letterari, o dalle pseudoscienze,
come la psicanalisi o l'omeopatia, o da altri tipi di conoscenze
ancora, come la religione o la magia, per il procedimento con il
quale esse stabiliscono la verità delle loro teorie, vale a dire per
il loro metodo. In effetti, una teoria può essere considerata
scientifica se, e solo se, rispetta le seguenti tre condizioni:
1) I suoi enunciati generali sono delle ipotesi che danno luogo
alla deduzione di certi altri enunciati di fatti pertinenti al dominio circoscritto dai concetti utilizzati nella formulazione dell'ipotesi.
2) Le osservazioni effettuate sugli oggetti della teoria sono
formulate in forma simbolica suscettibili di trattamento logicoformale, o almeno suscettibili di una concettualizzazione precisa.
3) Le osservazioni registrate empiricamente, cioè i fatti, corroborano gli enunciati generali della teoria.
In effetti, tutte le teorie scientifiche, per essere definite tali, devono stabilire delle proposizioni generali (ipotesi) capaci di
spiegare i fatti conosciuti e di farne scoprire di nuovi. Devono
essere formulate attraverso chiare concettualizzazioni, suscettibili di essere modellizzate. Devono stimolare nuove ricerche
basate su ipotesi collegate.
Invero, poche discipline possono definirsi perfettamente scien-
Conoscenza scientifica
19
tifiche alla luce di quanto precedentemente esposto.
Passando dal piano formale a quello operativo, il metodo scientifico risale, nella sostanza, a Galileo, e fissa tre momenti nella
procedura di costruzione della conoscenza scientifica:
1) La raccolta e l'organizzazione dei dati di misura; ciò presuppone la capacità di isolare, fra la molteplicità di aspetti che
caratterizzano il fenomeno, quelli intrinseci al fenomeno stesso,
separandoli da quelli dovuti al suo manifestarsi in determinate
condizioni. È ovvio che non esistono regole precise per giungere all'identificazione di tali caratteristiche essenziali dei fenomeni: solo l'esecuzione di numerosi esperimenti in condizioni
diverse e l'intuizione dello scienziato possono consentire di
raggiungere lo scopo.
2) La formulazione di un modello (o legge teorica, o legge astratta) del fenomeno che si vuole studiare, che sia capace di
rendere conto dei dati misurati; poiché le leggi ottenute rappresentano la descrizione di proprietà di fenomeni dedotte empiricamente, la loro validità sarà limitata all'ambito di valori delle
grandezze forniti nelle misure. La successiva estrapolazione
della validità della legge a intervalli di valori non misurati è,
quindi – a rigore – un procedimento arbitrario.
3) Il "cimento", cioè il confronto fra ulteriori previsioni ottenibili in base al modello adottato e l'esito degli esperimenti volti a verificare tali previsioni. È chiaro che quanto più le previsioni del modello risulteranno confermate, tanto più aumenterà
la fiducia nel fatto che esso descriva uno stato di cose effettivamente esistente. Tuttavia è bene ricordare che un modello
non può mai essere definitivamente "provato", ma può – al
massimo – non risultare contraddetto.
Naturalmente qui ci stiamo riferendo ai modelli, o "leggi teoriche", in contrapposizione alle cosiddette "leggi empiriche", che
al contrario possono avere conferma diretta dagli esperimenti
(come ad esempio l'equazione di stato dei gas, o la legge di
Ohm, e così via). I modelli, che sono poi quelli che interessano
la criminologia, hanno infatti una natura molto diversa, poiché
fanno affermazioni su oggetti non direttamente o completamente accessibili all'esperienza (per fare solo alcuni esempi: atomi,
20
Capitolo I
nuclei, quarks, big bang, processi evoluzionistici, comportamento umano e, quale caso particolare, comportamento criminale), e quindi, proprio per questo, essi non possono essere confermati dall'esperienza, ma solo contraddetti (o, come si suol
dire, "falsificati").
Fin d'ora, comunque, è necessario anticipare un punto estremamente importante, e cioè che "metodo scientifico" e "metodo
sperimentale" non sono da intendersi quali sinonimi, poiché
all'interno del metodo scientifico rientra anche il c.d. "metodo
simulativo", che ha subito un potente impulso grazie all'elaborazione elettronica. Anzi – come si avrà modo di vedere in seguito (par. 4.6) – il metodo simulativo è probabilmente l'unico
metodo adottabile nello studio dei fenomeni complessi, tra cui
quelli sociali. «La simulazione rende in certa misura sperimentali le scienze sociali: si schematizza un sistema reale, se ne identificano le variabili strutturali, si provocano eventi a imitazione di realtà possibili e si inferiscono le reazioni del sistema,
in obbedienza alle regole codificate dal modello. È sempre il
canone ipotetico-deduttivo della scienza moderna (...). Smontare e rimontare i "pezzi" del modello è come scomporre il sistema di riferimento nei suoi costituenti, per trarne opportune
combinazioni alternative, dando luogo a una sorta di empiria
immaginaria e multiversa» (SCARDOVI, 1997, pp. 788-789).
Anzi, a rigor di logica, proprio la simulazione può essere considerata l'essenza stessa del metodo scientifico, poiché qualsiasi
modellizzazione può essere definita una simulazione. Infatti,
«scienza non è rappresentazione dei fenomeni nell'interezza del
loro apparire: è riduzione analogica, è simulazione modellistica. La pallina che Galileo fa rotolare su un asse cavo inclinato –
un modello – esemplifica l'inerzia del "cader de' corpi" e prefigura il grave ideale che cade in un vuoto ideale (un vuoto soltanto pensato, in quelle esperienze). Questo è il significato euristico dell'esperimento galileiano, il canone metodologico che
ha avviato alla scienza moderna; non è ripetizione della realtà
fenomenica: è realtà resa modello, fatto ridotto ad artefatto.
Non l'evento concreto nella sua contingente unicità, bensì una
sua figurazione emblematica: una simulazione» (SCARDOVI,
Conoscenza scientifica
21
1997, p. 787).
In ogni caso, è certo che il metodo scientifico ha rivoluzionato
la conoscenza dell'uomo: ha permesso il passaggio da un sapere
che si costruiva su verità date come postulati, attraverso un sistema inferenziale di stampo sostanzialmente teologico dipendente da dogmi o da principi a priori, a un sapere che si costruisce come processo di relazione infinita col mondo proprio in
virtù dell'uso del suo particolare metodo.
1.3 Oggettività e neutralità
Il concetto di "verità scientifica" – inteso come oggettività, ovvero come corrispondenza tra affermazione (o proposizione) e
realtà – fu messo in discussione, all'inizio del secolo scorso,
dalla critica convenzionalista di Henri POINCARÉ (1902), secondo la quale le leggi della meccanica newtoniana, al pari degli assiomi della geometria euclidea, non erano né verità a
priori né verità sperimentali, ma convenzioni che, in virtù della
loro semplicità, nessun esperimento avrebbe mai potuto invalidare. In realtà fu, paradossalmente, lo stesso Poincaré a contribuire – come si avrà modo di vedere nei paragrafi 4.1 e 4.2 – a
rendere insostenibile il suo convenzionalismo proprio perché,
in seguito ai suoi studi sul c.d. "problema dei tre corpi" e, successivamente, alla formulazione da parte di Einstein della meccanica relativistica, la convinzione dell'assoluta validità in ogni
situazione della meccanica classica dovette essere abbandonata;
e, infatti, lo stesso Poincaré dovette rivedere drasticamente, nel
giro di due anni, la sua posizione filosofica riguardo alla meccanica newtoniana.
Negli stessi anni Pierre DUHEM (1904-05) sosteneva come in
fisica non fosse possibile effettuare un vero "esperimento cruciale" volto alla verificazione di una ipotesi, poiché non è mai
possibile essere sicuri di aver preso in considerazione tutte le
ipostesi potenzialmente in grado di spiegare un insieme di fenomeni.
L'empirismo logico (o neopositivismo) cercò di ridare un valo-
22
Capitolo I
re forte alla nozione di verità scientifica, (ri)ponendo la verificazione empirica come criterio fondamentale di scientificità.
L'impostazione neopositivista del circolo di Vienna egemonizzò gli studi di filosofia della scienza per vari anni, ma alla fine
sfociò in un sostanziale fallimento.
Vediamo ora come si pose POPPER di fronte a queste tematiche,
e quale fu il suo atteggiamento nei confronti del problema della
verità e del progresso scientifico.
Da giovane, Popper si trovò di fronte ad alcune teorie scientifiche, allora al centro di grandi dibattiti: la teoria marxista della
storia, la psicoanalisi, e la teoria della relatività di Einstein. Il
filosofo notò che le prime due teorie, pur molto differenti tra
loro, erano apparentemente sempre capaci di spiegare tutto; in
altre parole, erano sorprendentemente sempre "vere". Addirittura sembravano in grado di spiegare sia un dato evento sia il suo
opposto, ed erano investite da un ininterrotto e univoco flusso
di "conferme". In definitiva tali teorie, sempre verificate ed
omniesplicative, erano organizzate in modo tale da sfuggire al
rischio della falsificazione.
Di segno completamente opposto apparve a Popper l'atteggiamento di Einstein riguardo alla validità della propria teoria: lo
scienziato, in una conferenza a Vienna nel 1919, affermò chiaramente che la sua teoria sarebbe stata da considerarsi insostenibile nel caso avesse dovuto fallire in certe prove, cioè in alcuni esperimenti, che possiamo definire "cruciali".
Nacque così il nucleo di tutta la successiva riflessione popperiana: la vera attitudine scientifica, data una certa ipotesi, deve
consistere nell'andare alla ricerca non di prove – e se ne potrebbero trovare innumerevoli – volte alla sua verificazione, ma di
prove cruciali volte alla sua confutazione, cioè potenzialmente
in grado di smentirla.
L'impegno dello scienziato deve dunque dirigersi verso la falsificazione più che verso la verificazione. Quest'intuizione trovò
una più compiuta elaborazione nel suo celebre saggio Logica
della scoperta scientifica, del 1934, nel quale procedette a una
dura critica dei capisaldi del neopositivismo allora imperante,
soprattutto dell'induttivismo. Secondo Popper non è logicamen-
Conoscenza scientifica
23
te giustificabile inferire asserzioni universali da asserzioni particolari, per quanto numerose queste possano essere. Ma l'induttivismo non può essere neppure salvato postulando – come
tentò di fare Russell a garanzia della possibilità di operare inferenze induttive – un "principio di induzione": se infatti quest'ultimo fosse una verità puramente logica, allora anche tutte le inferenze induttive dovrebbero essere considerate trasformazioni
puramente logiche (o tautologiche) e quindi non euristiche; se
al contrario il principio fosse una verità empirica, ci si troverebbe al punto di partenza avendo solo spostato la difficoltà,
senza risolverla, in un regresso all'infinito.
Una volta ammessa l'inesistenza di procedure induttive, bisogna di conseguenza riconoscere che la scienza non è, in senso
stretto, verificabile empiricamente. Tuttavia il collegamento tra
teoria ed esperienza che in tal modo si perde, può essere recuperato adottando la prospettiva falsificazionista. «Fare vera una
teoria significa dimostrare vero il suo contenuto che è rappresentato dalle sue conseguenze; ma siccome le conseguenze anche della proposizione più banale sono di numero infinito,
quella della verificazione si rivela un'operazione logicamente
impossibile. Ciò non significa che non possiamo scoprire teorie
vere per sempre, ma che tale verità non può essere logicamente
dimostrata. Né va confusa la sicurezza psicologica circa la verità di una teoria, che ognuno può provare, dalla certezza logica
che nessuno può dimostrare. L'hard core di tutta l'epistemologia popperiana è costituito proprio da questa asimmetria logica
tra la conferma e la smentita di una teoria: miliardi e miliardi di
conferme non rendono certa una teoria, perché le sue conseguenze da confermare sono infinite, mentre una sola smentita la
rende logicamente falsa, dato che una teoria vera contiene soltanto conseguenze vere. Ecco dunque che se abbiamo deciso,
sulla base di ragioni extra-scientifiche, che quello della conoscenza scientifica è un valore da incrementare, allora – data l'asimmetria tra conferma e smentita – non ci resta che tentare di
falsificare le teorie esistenti, perché prima scopriamo l'errore
che esse contengono e prima tenteremo di rimuoverlo. L'errore
diventa dunque la "felix culpa" nella scienza come nella vita di
24
Capitolo I
ogni giorno, perché la sua individuazione e la sua eliminazione
è la conditio sine qua non per la crescita della conoscenza» (DI
NUOSCIO , 2002).
Popper propone dunque di caratterizzare la scienza come l'insieme delle proposizioni falsificabili. Il buon scienziato, anche
se spesso non parte dai fatti per arrivare alla teoria, ma dai problemi che cerca di risolvere ipotizzandone alcune soluzioni,
dovrà poi sempre andare alla ricerca di quelle conseguenze della sua teoria che sembrano avere la più alta probabilità di risultare false.
La storia della scienza si presenta quindi come una serie di
congetture e falsificazioni, e ciò, apparentemente, sembrerebbe
implicare un'idea di conoscenza scientifica come assolutamente
incerta e provvisoria.
Tuttavia, e questo è un punto fondamentale, l'approccio falsificazionista non nega affatto la possibilità di parlare di verità
della scienza. Al contrario, il falsificazionismo richiede indubbiamente una nozione di verità oggettiva: che senso avrebbe,
altrimenti, sostenere che un'ipotesi è falsa, se non si ammettesse, nello stesso tempo, che deve esistere un'ipotesi vera?
Popper non nega quindi che esista la verità, e che la scienza abbia proprio il compito della ricerca della verità. Quello che egli
nega è che esista un criterio per riconoscere la verità. Lo scienziato non sarà mai in grado di dimostrare che la sua teoria è vera, ma potrà al massimo dimostrare che essa ha superato positivamente dei severi tentativi di falsificazione, e ciò potrà certamente essere considerato come un sintomo di verità.
Ma procedendo oltre, ed arrivando al punto che maggiormente
ci interessa, bisogna ricordare che Popper affrontò il problema
della verità anche da un altro punto di vista, vale a dire quello
della scelta tra due teorie rivali. Anche se, di fronte a due teorie rivali, l'esperienza non ci consentirà mai di dimostrare la verità né dell'una né dell'altra, è possibile tuttavia stabilire un criterio che ci consenta di scegliere l'una piuttosto che l'altra? In
altre parole, se non esiste un criterio per riconoscere la verità,
esiste almeno un criterio per riconoscere una maggiore o minore vicinanza alla verità?
Conoscenza scientifica
25
Popper risponde in modo nettamente positivo, introducendo la
teoria della verosimilitudine (1962). Un asserto sarà da considerarsi tanto più verosimile, quanto maggiore sarà la misura del
suo contenuto di verità rispetto a quella del suo contenuto di
falsità; naturalmente, bisognerà preferire la teoria che ha un
maggior grado di verosimilitudine.10
Pertanto resta fermo il principio per cui il confronto tra teorie
rivali va fatto sul terreno del loro maggiore o minore approssimarsi alla verità assoluta. Tuttavia è necessario mettere in evidenza che l'idea di verità assoluta ha solo un valore regolativo,
e che in tutta la teoria della verosimiglianza non c'è mai il riferimento ad una misura della differenza tra una teoria e la verità,
ma sempre tra due teorie.
Quindi, grazie alla teoria della verosimilitudine, Popper, nella
seconda fase del suo falsificazionismo (falsificazionismo moderato), può parlare di progresso anche in senso forte, sostenendo che, dal momento che la scienza procede scegliendo teorie con gradi di verosimiglianza crescenti, il contenuto di conoscenza aumenta progressivamente. In sostanza vi è l'idea di un
continuo approssimarsi a una verità oggettiva: anche se questa
non potrà mai essere raggiunta, non v'è, in astratto, alcun ostacolo a un continuo e infinito perfezionamento della conoscenza.
Ecco quindi che anche nel pensiero di Popper, grande oppositore del Neopositivismo, non v'è traccia di sfiducia nella scienza,
non ci sono appigli per coloro che, di fronte agli scarsi risultati
del loro procedere scientifico, continuano a fraintendere i concetti scientifici e filosofici al fine di dimostrare una generalizzata non-oggettività, parzialità e in definitiva arbitrarietà della
conoscenza scientifica.
Aprendo una breve parentesi, in verità la vera lezione da trarre
da quanto detto dovrebbe riguardare un altro aspetto, e cioè la
scarsa fiducia da attribuire alle classiche procedure di verificazione che vengono di regola adottate nell'ambito delle scienze
sociali, e quindi della criminologia, e che – guarda caso – ten10
Popper propose anche una formula, che in verità non dice molto più di
quanto non possa essere espresso a parole: Vs(a) = CtV (a) – CtF (a)
26
Capitolo I
dono invariabilmente a "confermare" l'ipotesi di partenza. Ma
di questo ci occuperemo a tempo debito.
Ora, invece, è venuto il momento di approfondire il problema
dell'oggettività, e quello collegato della neutralità (quest'ultima
intesa quale indipendenza dalle coordinate psicologico-culturali
del ricercatore, ovvero dall'ideologia), della conoscenza scientifica. Questi rappresentano dei punti fondamentali di riflessione,
soprattutto per i fraintendimenti, volontari o meno, che a tal
proposito sono derivati dalla grande rivoluzione che la fisica ha
vissuto agli inizi del Novecento. Fraintendimenti di cui i responsabili sono stati in primis filosofi della scienza, intellettuali
postmoderni e sociologi che si sono occupati di problemi epistemologici.
La relatività einsteiniana e la meccanica quantistica rappresentano certamente dei paradigmi rivoluzionari. Al di là del radicale mutamento dei concetti di spazio e di tempo, della relativizzazione degli stessi in funzione della velocità dei sistemi di osservazione, dell'impossibilità di stabilire con esattezza e simultaneamente posizione e velocità di una particella, dell'impossibilità di andare oltre a predizioni di tipo probabilistico, esse segnano un passaggio fondamentale nella concezione stessa del
soggetto osservante ed esperiente la realtà. Nell'ambito della
meccanica classica newtoniana l'uomo, pur facendo parte della
realtà analizzata, in quanto soggetto conoscitivo si considerava
osservatore esterno non vincolato nella sua attività conoscitiva
ad alcuna limitazione di ordine fisico. Quello che la fisica del
molto grande e del molto piccolo mette in discussione è proprio
questa concezione del soggetto. Da una parte, la teoria della relatività di Einstein segnala l'esistenza di un orizzonte temporale
che non può essere valicato dall'uomo11. Dall'altra, il principio
di indeterminazione di Heisenberg relativizza l'osservazione
rispetto alle condizioni dell'osservatore: ogni stato di osserva11
Lo spazio-tempo è funzione della velocità, e la velocità massima è quella della luce; poiché anche l'informazione non può viaggiare a una velocità
maggiore di quella della luce, esiste una barriera temporale oltre la quale il
soggetto non può ottenere informazioni
Conoscenza scientifica
27
zione e misurazione di un fenomeno (a livello subnucleare) influisce sullo stato del sistema analizzato. Esistono pertanto dei
limiti al perfezionamento continuo della sperimentabilità scientifica.
In sostanza, Einstein e Heisenberg determinano un nuovo paradigma metodologico euristico, per il quale il soggetto conoscente è parte del sistema osservato, e la sua conoscenza non è
indipendente dalle sue caratteristiche fisiche in quanto soggetto-oggetto dinamicamente connesso a questo sistema12.
Questo radicale mutamento di prospettiva, spesso frainteso, ha
fornito ad alcuni scienziati sociali – a onor del vero istigati da
certi filosofi e sociologi della scienza (v. infra, par. 1.4, note 41
e 42) – il pretesto per conferire una veste di "rispettabilità" al
frequente mancato utilizzo da parte loro di un corretto metodo
scientifico. Addirittura, è accaduto anche che si volesse ribaltare la situazione, e sulla scia della "fine" dell'oggettività della
conoscenza scientifica si è proposto di trasferire il "metodo"
delle scienze umane e sociali alle scienze della natura. In sostanza il principio di indeterminazione di Heisenberg (più esattamente: una forma alquanto volgarizzata e fraintesa di tale
principio), al pri di altre importanti scoperte scientifiche del
Novecento, è stato utilizzato per nascondere le gravi pecche di
un procedere scientifico che spesso scientifico non è stato. E
ciò, da un punto di vista psicologico, non può certo stupire: è di
molto conforto lo scoprire che anche la fisica – la più rigorosa
tra le scienze naturali –, per lungo tempo il modello ideale di
tutte le scienze, ha dei limiti.
Ma, nonostante il principio di indeterminazione, la meccanica
quantistica è per certi aspetti una teoria deterministica. Sebbene, infatti, il risultato di un dato processo quantistico possa rimanere indeterminato, le probabilità relative dei diversi risultati
possibili evolvono in modo deterministico. Questo significa che
non possiamo sapere con esattezza cosa avverrà in ogni singolo
12
Da questo punto di vista anticipando di molti anni i risultati a cui perverranno, successivamente, gli studi fondati su approcci sistemici e cibernetici.
Capitolo I
28
caso preso in esame, ma possiamo sapere con precisione assoluta quale sarà in ogni momento la probabilità dell'evento quantistico. Pertanto, come teoria statistica, la meccanica quantistica
è deterministica (v. più ampiamente infra, par. 4.3) e mantiene
ancora alcune vestigia della visione di Newton-Laplace (v. infra, note 15 e 16).
D'altra parte non bisogna dimenticare che, nell'ambito dellameccanica quantistica, è stata sviluppata durante la seconda
metà del secolo scorso la teoria che, attualmente, ha una forza,
una coerenza interna e un'eleganza mai raggiunte in precedenza
da nessun'altra teoria. Ci riferiamo al cosiddetto "Modello
Standard delle Interazioni Subnucleari", che permette di descrivere con una precisione sorprendente, e in modo quantitativo, il
comportamento delle particelle elementari a livello fondamentale, rispettando nello stesso tempo i principi della relatività ristretta e della meccanica quantistica13. Bisogna porre in evidenza il fatto che il Modello Standard ha superato con successo tutte le prove sperimentali alle quali è stato sottoposto, e ha permesso di anticipare (ovvero: prevedere) un gran numero di
scoperte sperimentali decisive14.
Nonostante il principio di indeterminazione, quindi, le ricerche
in fisica proseguono con ottimi risultati proprio nel dominio
della meccanica quantistica, e non solo dal punto di vista descrittivo, ma anche predittivo. Inoltre la teoria quantistica trova
anche una miriade di applicazioni in vari campi dell'attuale tec13
In sostanza, il Modello Standard consiste in una serie di algoritmi che
permettono di calcolare, per approssimazioni successive, e con l'aiuto di un
numero fisso e finito di parametri determinati sperimentalmente, le probabilità di reazione dei quanti di materia (leptoni e quarks) e dei quanti di forza (fotoni, bosoni vettori intermedi e gluoni), nell'interazione elettrodebole (Elettrodinamica Quantistica) e nell'interazione forte (Cromodinamica Quantistica).
14
Attualmente tutte le previsioni del Modello Standard sono state confermate dagli esperimenti, con una sola eccezione: l'esistenza del c.d. bosone di
Higgs; tuttavia, i fisici nutrono una grande fiducia nella possibilità di rilevare
tale particella quando entrerà in funzione il loro nuovo "microscopio", il potente acceleratore di particelle Large Hadron Collider (LHC), attualmente in
costruzione presso il CERN di Ginevra.
Conoscenza scientifica
29
nologia, dai reattori nucleari ai semiconduttori (che hanno permesso l'enorme sviluppo dell'elettronica e dell'informatica), dal
laser alla crittografia, e così via. In sostanza ciò che qui preme
sottolineare è che la teoria funziona perfettamente, ovvero
stiamo trattando di qualcosa di estremamente valido e concreto,
e non di "indeterminato".
Se, pertanto, il mondo dell'infinitamente piccolo è, in fin dei
conti, deterministico, o quantomeno studiabile e controllabile,
lo deve essere, a maggior ragione, anche il mondo a livello macroscopico.
Perché, allora, nell'ambito di alcune scienze (soprattutto quelle
umane e sociali, ma non solo esse) il cui oggetto di studio si
pone a tale livello di organizzazione della realtà, è estremamente difficile, se non impossibile, formulare delle previsioni efficaci?
Prima di cercare di rispondere a questa domanda, è necessario
fare un passo indietro.
In passato si riteneva che gli eventi apparentemente casuali
fossero dovuti alla nostra ignoranza o approssimazione nella
stima di un gran numero di variabili nascoste o di gradi di libertà. A seguito della scoperta e dell'enorme successo delle leggi
della dinamica di Newton (e della conseguente formulazione
della meccanica classica) l'universo veniva infatti considerato
come un gigantesco meccanismo. Nell'Ottocento Laplace immaginò ogni singola particella come costretta da un abbraccio
di inflessibili leggi matematiche in grado di definirne il moto in
ogni unità di spazio e di tempo. Di conseguenza, dato lo stato
dell'universo in un dato istante, sarebbe stato teoricamente possibile definire univocamente, e con precisione assoluta, tutta
l'evoluzione futura (determinismo universale)15.
Oggi, come dicevamo ci rendiamo conto che non è possibile
15
«Un'intelligenza che, per un dato istante, conoscesse tutte le forze da cui
è animata la natura e la situazione rispettiva degli esseri che la compongono,
se per di più fosse abbastanza profonda per sottomettere questi dati a un'analisi, abbraccerebbe nella stessa formula i movimenti dei più grandi corpi dell'universo e dell'atomo più leggero: nulla sarebbe incerto per essa e l'avvenire,
come il passato, sarebbe presente ai suoi occhi» (LAPLACE, 1825).
Capitolo I
30
predire ogni cosa con precisione assoluta16. Coloro che si sono
impegnati, ad esempio, nella formulazione di teorie eziologiche
caratterizzate da velleità predittive in criminologia ne sanno
qualcosa.
A rigor di logica, i fisici stanno usando la meccanica quantistica per descrivere le proprietà fondamentali della materia e le
forze in gioco nell'universo, sperando di spiegarne l'origine e
l'evoluzione. Una volta formulata la cosiddetta "Teoria del Tutto" (cui molti fisici teorici lavorano assiduamente), che dovrebbe unificare tutte le forze presenti in natura, dovrebbe essere possibile spiegare unitariamente tutti i fenomeni naturali, dai
più semplici ai più complessi, quali il comportamento di atomi
e molecole (fisica e chimica), e il modo in cui si organizzano e
si riproducono (biologia). Dovrebbe essere solo una questione
di tempo, di lavoro e di capacità di elaborazione dei dati. D'altra parte, gli uomini sono soggetti alle medesime leggi della natura per cui, alla fine, dovremmo poter essere in grado di fare
previsioni anche sugli eventi umani. Teoricamente, quindi, la
vita dovrebbe essere prevedibile17.
Tutto ciò si scontra con la realtà: gli scienziati non sono neanche in grado di prevedere quali saranno le condizioni del tempo
fra due settimane. Non parliamo poi della possibilità di preve16
In realtà, nonostante quanto si va sempre ripetendo a proposito di Laplace ogni qualvolta ci si accinge a criticare il determinismo e il meccanicismo, il grande scienziato francese era perfettamente conscio che una conoscenza assoluta, del tipo necessario a prevedere ogni cosa, era e sempre sarebbe stata preclusa all'uomo. E infatti egli enunciò quanto appena riportato nella
nota precedente proprio nell'introduzione di un suo saggio sulla teoria della
probabilità, la quale – per l'autore – non era altro che un metodo per ragionare
in situazioni di ignoranza parziale, che rappresenta per l'appunto la condizione
umana. In altre parole l'Uomo, non essendo in grado di prestazioni analoghe a
quelle dell'ipotetica "intelligenza superiore", ma essendo – tuttavia – in grado
di conoscere alcune leggi e alcuni stati, può servirsi di queste conoscenze per
formulare previsioni valide entro limiti di approssimazione grazie all'uso del
calcolo delle probabilità.
17
Giova sottolineare che un'idea simile è conseguenza dell'adesione al riduzionisimo forte, e non al determinismo: i due concetti non sono né sinonimi,
né necessariamente costituiscono un binomio inscindibile.
Conoscenza scientifica
31
dere il comportamento umano.
Per questo motivo – aprendo una breve parentesi e anticipando
quanto sarà esposto più dettagliatamente nel capitolo 4 – negli
ultimi trent'anni, scienziati di diverse discipline si sono impegnati nell'elaborazione della cosiddetta "teoria del caos"18, che
ipotizza l'esistenza di limiti intrinseci alla prevedibilità del futuro, a vari livelli di complessità. Con tale teoria è possibile dare
una ragione al sostanziale determinismo dell'universo e alla
contemporanea impossibilità di prevedere ogni cosa.
La teoria del caos presenta quindi un universo deterministico,
che segue le leggi fondamentali della fisica, ma con una predisposizione al disordine, alla complessità, all'imprevedibilità;
spiega come molti sistemi in continua evoluzione siano molto
sensibili alle loro condizioni iniziali: a mano a mano che il sistema evolve nel tempo, delle variazioni, inizialmente anche
piccole, si amplificano rapidamente a causa della retroazione
(feedback). Ne consegue che sistemi caratterizzati da condizioni iniziali anche molto simili possono divergere rapidamente
col passare del tempo. Questo comportamento pone quindi dei
vincoli molto stretti alla prevedibilità dello stato futuro del sistema, poiché la previsione dipende dall'accuratezza con cui
siamo in grado di misurarne le condizioni iniziali. Una situazione del genere può essere facilmente compresa se si prova a
rappresentare un sistema caotico sull'elaboratore elettronico:
dopo aver fornito equazioni e dati, anche una semplice variazione nell'arrotondamento di una cifra decimale può modificare
radicalmente l'evoluzione del sistema stesso.
Mentre in un sistema non caotico gli errori crescono in proporzione al tempo (o ad una sua bassa potenza), rimanendo così
relativamente controllabili, al contrario, in un sistema caotico,
un errore iniziale si moltiplica in modo esponenziale col passare del tempo e, in breve, è destinato a fagocitare il calcolo rendendo vana qualsiasi previsione.
A questo punto bisogna fare un'ulteriore precisazione. Abbiamo
18
Detta anche teoria dei sistemi dinamici non-lineari, e che è uno dei filoni da cui sono nati gli studi sulla Complessità (v. infra, par. 4.1, 4.2).
Capitolo I
32
già osservato che, se in definitiva anche la meccanica quantistica è – almeno dal punto di vista statistico – deterministica, a
maggior ragione anche gli eventi che accadono a livello macroscopico lo devono essere. Si è soliti ritenere, tuttavia, che il determinismo debba andare di pari passo con la prevedibilità.
Questa affermazione è da ritenersi errata proprio in virtù di
quanto affermato in precedenza: in un sistema deterministico19
gli stati futuri sono completamente determinati dagli stati precedenti in una sorta di corrispondenza biunivoca. Tuttavia ogni
calcolo previsionale conterrà sempre degli errori in ingresso,
poiché non siamo in grado di misurare delle quantità fisiche
con precisione assoluta, e i computer possono elaborare solo
quantità finite di dati. Il determinismo implica la prevedibilità
solo nel limite idealizzato della precisione infinita. In un sistema non caotico questa limitazione non è grave perché gli errori
si propagano molto lentamente, ma in un sistema caotico gli errori crescono a ritmo accelerato.
Ecco dunque rotta la simmetria tra causalità e previsione. Ma
se è impossibile prevedere ogni cosa, non è per questo impossibile, o inutile lo studio delle cause. La teoria del caos getta
dunque un ponte fra le leggi della fisica e quello che siamo soliti chiamare "caso". In un certo senso è ancora possibile considerare – come facevano i sostenitori della "macchina cosmica"
di Newton-Laplace – gli eventi apparentemente casuali come
ignoranza di dettagli. Il caos deterministico appare casuale perché necessariamente ignoriamo i dettagli più minuti, ma in realtà casuale non è!
In definitiva la teoria del caos rappresenta la possibilità di riconciliare la complessità del mondo fisico e i suoi comportamenti a volte "capricciosi" con l'ordine e la semplicità delle
leggi fondamentali della natura, a dispetto dell'uso distorto e
disinvolto che così spesso si fa, da parte di alcuni intellettuali –
sociologi o filosofi della scienza – dei termini e dei concetti
19
E anche la società umana lo è, benché complessissimo sistema composto da individui, i quali a loro volta sono caratterizzato dall'aggregato di materia più complesso dell'universo, vale a dire il cervello umano.
Conoscenza scientifica
33
scientifici. Ma di tutto questo si parlerà più diffusamente oltre
(v. infra, par. 1.4).
In conclusione, chiudendo con ciò la parentesi aperta poco sopra, e tornando al punto da cui siamo partiti, la rivoluzione che
la fisica ha vissuto all'inizio del Novecento, lungi dallo stravolgere i classici concetti, principi e metodi sui quali le scienze fisiche e, in generale, naturali, si sono andate costruendo nel corso degli ultimi tre secoli e mezzo, ha invece offerto, insieme ad
una griglia concettuale sistematica e di maggiore efficacia operativa nei confronti dei dati osservati rispetto alle teorie precedenti, un nuovo status al soggetto conoscitivo, non più osservatore distaccato della realtà (del noumeno), ma, in certo senso e
kantianamente, "legislatore" della natura, o meglio dei fenomeni naturali.
Tuttavia è giusto precisare che alcuni scienziati, già alla fine
negli anni Venti del secolo scorso, proposero un'interpretazione
della meccanica quantistica secondo cui gli oggetti quantistici
si trovano in certi stati che non sono definiti oggettivamente: le
caratteristiche reali ed oggettive sarebbero definite solo nel
momento in cui vengono misurate, e quindi sarebbero "create"
in parte dall'osservatore.
In tal modo la figura dell'osservatore cosciente e l'idea di un
suo contributo alla creazione della realtà fecero capolino in una
scienza – la fisica – fino ad allora considerata rigorosamente
oggettiva.
Ma la convinzione che in fisica il contributo dell'osservatore sia
solo nella rappresentazione che egli si fa della realtà è rimasta
sempre dominante, almeno tra gli scienziati, cioè coloro che la
scienza la fanno. Infatti questa necessaria "distorsione" (le famose perturbazioni che l'osservatore necessariamente causa a
ciò che osserva) è uguale per tutti gli osservatori, quindi è possibile considerarla neutrale e trascurarla senza problemi. Le
proprietà osservate della materia in un dato istante sono inscindibili dallo stato dell'osservatore, ma non lo sono le proprietà intrinseche della materia stessa. E soprattutto, giova sottolinearlo, questa distorsione non dipende in alcun modo da
propensioni, convinzioni o ideologie individuali.
Capitolo I
34
E infatti vi furono delle vivaci reazioni alla concezione dell'osservatore "creatore", anche perché risulta alquanto difficile negare che l'universo esista in uno stato oggettivo, indipendentemente dal fatto che noi lo osserviamo o meno. Bene o male,
l'universo ha fatto a meno di noi per molti miliardi di anni, e le
leggi fisiche valevano allora come valgono oggi: l'attuale esistenza della vita è garanzia della validità, anche per il passato,
delle stesse leggi fisiche che oggi la regolano e che precedentemente ne hanno permesso la nascita e l'evoluzione
Le reazioni, come si diceva, furono numerose ed energiche, e
misero a confronto le convinzioni di grandissimi scienziati,
come Einstein (che riteneva che la meccanica quantistica fosse
da considerarsi incompleta e perfettibile) e come Bohr (che sosteneva invece la validità della teoria in questione).
Occorre comunque notare che lo stesso Bohr volle subito eliminare la figura di un osservatore cosciente, troppo scomoda
per una scienza ritenuta puramente oggettiva.
Nacque allora la cosiddetta "interpretazione di Copenhagen" di
Bohr e Heisenberg, che è stata spesso fraintesa, anche se – bisogna dirlo – i due scienziati hanno fornito numerose e diverse
varianti della stessa. Secondo la versione classica, è ben vero
che la realtà quantistica esiste in uno stato indefinito e non oggettivo, ma non per questo è necessaria la figura di un osservatore cosciente: è sufficiente che avvenga una "reazione termodinamica irreversibile" affinché lo stato non oggettivo diventi
uno stato oggettivo: per esempio un elettrone, per essere riscontrato in un rivelatore, deve avere una reazione termodinamica
irreversibile col rivelatore stesso, e tale reazione è sufficiente a
rivelarlo nel "mondo oggettivo" della fisica classica senza necessità di un soggetto cosciente che se ne accorga20.
La critica di Einstein e di altri fisici fu invece radicale: essi so20
Di conseguenza nacque anche l'interpretazione "operativa" del principio
di indeterminazione: per misurare una caratteristica di un oggetto fisico, occorre necessariamente interagire con esso, e questa interazione "perturba" inevitabilmente lo stato originario, creando appunto la "piccola indeterminazione". In questo modo, secondo gli scienziati di Copenhagen, si ottiene un'interpretazione del tutto ragionevole ed accettabile.
Conoscenza scientifica
35
stennero che la meccanica quantistica era una teoria incompleta
e provvisoria, che avrebbe dovuto essere perfezionata col tempo per eliminare alcuni aspetti indesiderati, sebbene funzionasse perfettamente sul piano sperimentale.
Anzitutto Einstein non accettava l'idea che esistesse un'indeterminazione sulle misure quantistiche, ovvero che i risultati
non fossero pienamente determinabili in anticipo: ciò, secondo
Einstein, introduceva nella fisica l'influenza del "cieco caso",
per lui assolutamente inaccettabile. A questo proposito viene
ricordata la sua celebre frase: «Dio non gioca a dadi con il
mondo!».
Einstein inoltre non credeva alla possibilità di "stati nonoggettivi", ma riteneva che gli stati esistano oggettivamente anche prima della misura, indipendentemente dal fatto che vengano misurati o meno.
Secondo il "realismo" di Einstein, quindi, gli stati quantistici
esistono oggettivamente, al di là di tutte le limitazioni imposte
dalla teoria quantistica, che perciò – secondo Einstein – sarebbe
da considerarsi incompleta e provvisoria. Esisterebbero pertanto delle variabili nascoste che descrivono la realtà oggettiva dei
sistemi quantistici, ma non sono ancora riconosciute dall'attuale
teoria21.
Non va comunque trascurato che la grande maggioranza dei fisici sono tuttora convinti della validità del realismo. In un sondaggio22 effettuato nel 1985 tra un campione di fisici il "reali21
Molto simile alla reazione di Einstein fu quella di molti scienziati sovietici. Accanto ad una critica rozzamente ideologica di alcuni di essi, per i quali
era necessario combattere ogni nuova teoria elaborata dai fisici occidentali, se
ne affiancò un'altra elaborata dai migliori e più preparati scienziati sovietici
dell'epoca, quali Nikolski, Blokhintsev, Fock, Omelianowski, che si incentrava sull'affermazione che anche nel mondo dell'infinitamente piccolo la realtà
preesiste all'osservatore ed è da lui indipendente, e che l'impostazione probabilistica della meccanica quantistica deriva non da una proprietà intrinseca
della realtà, ma dalla limitata conoscenza che noi abbiamo degli eventi microfisici. Come si vede, la critica di Einstein e quella dei fisici sovietici sono
completamente sovrapponibili.
22
Riportato da MASANI A., "La fisica e la realtà", in L'Astronomia n.73,
1988.
Capitolo I
36
smo" veniva accettato ben dall'86% degli intervistati, non veniva più accettato solo dal 2%, mentre il 12% trovavano ambigua
la domanda.
Appare chiaro, allora, quanto sia intellettualmente disonesto utilizzare il principio di indeterminazione, la "non-oggettività"23
della realtà, e gli altri postulati della teoria quantistica, o, più in
generale, altre teorie scientifiche più recenti (Complessità, Caos, ecc) a torto considerate "esotiche", al fine di negare l'oggettività e la neutralità della scienza. Questo significa distorcere il
significato dei concetti scientifici, significa voler recepire un
messaggio che fa comodo sentire, e che non è il vero messaggio che la fisica ci comunica.
Certo, fraintendere è a volte molto comodo, soprattutto per chi
si occupa di scienze umane e sociali; in tal modo, si ritiene di
poter giustificare l'irrilevanza, o la non-neutralità, dei risultati
che (spesso non) vengono raggiunti – mai ammessa per la propria teoria ma spesso attribuita alle teorie "antagoniste" – senza
considerare che in questo caso si tratta di una "perturbazione"
ben diversa, non dovuta alla circostanza che esistono determinati oggetti fisici (particelle elementari) dotati di proprietà tali
che un osservatore umano non potrà probabilmente mai giungere ad averne una conoscenza completa, ma dovuta al condizionamento dell'ideologia dell'osservatore, unito all'estremamente
complesso oggetto di studio e al frequente mancato utilizzo del
metodo scientifico24.
23
In realtà, a ulteriore specificazione di quanto già detto, la meccanica
quantistica – anche considerando esclusivamente la dominante "interpretazione di Copenhagen" – pur segnando la fine del concetto di oggettività nel senso
"classico" del termine, permette ancora di parlare di "oggettività degli stati
quantistici". Infatti, gli stati quantistici rimangono sempre esattamente definiti
da un punto di vista matematico. La verità è che si tratta di un tipo di oggettività diversa rispetto a quella, familiare, della fisica classica, ed è per questo
molti parlano correntemente di "non-oggettività", in ciò aiutati dalle più o meno volontarie distorsioni terminologiche operate da molti filosofi e sociologi
della scienza.
24
I fenomeni sociali danno luogo ad azioni per le quali – visto il valore
assoluto del quanto d'azione di Planck – il principio di Heisenberg non prevede problemi di misura. In effetti l'indeterminazione nel misurare contempora-
Conoscenza scientifica
37
In conclusione, ai fini dello studio e dell'eventuale controllo dei
sistemi complessi – quali l'individuo e la società – il giusto approccio rimane sempre quello scientifico, attraverso – come si
vedrà in seguito – l'impianto teorico e gli strumenti della teoria
del caos, all'interno di una prospettiva sistemico-cibernetica. In
altre parole, si tratta di condurre lo studio dell'individuo e della
società nell'alveo di quella convergenza di paradigmi che va
sotto il nome di "Complessità"25 (v. supra, nota 1), e non certo
rinunciando alla conoscenza scientifica dei fenomeni in nome
di "indeterminazioni", "relatività" e "caoticità" varie. A questo
proposito è purtroppo necessario evidenziare come, soprattutto
da parte del pensiero postmoderno, sia già da alcuni anni in
corso l'appropriazione, e la contestuale distorsione, di molti dei
concetti propri della teoria del caos. Ma di questo si parlerà in
modo più esteso – in relazione alle scienze sociali in generale –
nel paragrafo che segue, e poi – relativamente alla criminologia
in particolare – nel paragrafo 5.1.
1.4 L'equivoco postmoderno
Sotto l'etichetta di "postmodernismo" (chiamato anche poststrutturalismo soprattutto nelle sue accezioni sociologiche) si
cela una variegato movimento26 intellettuale, culturale e sociale
neamente energia cinetica e posizione di un individuo, di un gruppo o di una
scuola è – eufemisticamente parlando – trascurabile! (v. anche infra, par. 4.3).
Il problema, come vedremo, è invece un altro, giacché attiene alla natura
complessa del fenomeno, e non alla sua natura indeterminata.
25
Circa i rapporti tra caos e complessità, è possibile rilevare variegate posizioni (MARION, 1999): alcuni sostengono che la teoria del caos faccia parte
della più generale scienza della Complessità, altri sostengono che tra i due
concetti non ci sia poi molta differenza, rappresentando due facce della stessa
medaglia.
26
A onor del vero, il termine "postmodernismo" nasce in campo artistico e
architettonico, ma viene solitamente usato in una accezione solo parzialmente
(e molto limitatamente) sovrapponibile, sia concettualmente sia temporalmente, a quella che qui ci interessa. Esempi di modernismo possono essere le opere di Le Corbusier in architettura e l'astrattismo, il cubismo o il futurismo in
38
Capitolo I
sviluppatosi a partire dall'inizio degli anni Settanta e difficilmente riconducibile ad unità. Il suo minimo comun denominatore può essere individuato nella contrapposizione al modernismo27, la qual cosa del resto emerge con chiarezza dallo parola
stessa28. Tale contrapposizione si manifesta essenzialmente nel
rifiuto della fiducia modernista, o meglio illuminista, nel progresso e nel miglioramento dell'umanità attraverso la scienza, la
tecnologia e il pensiero razionale.
Gli intellettuali postmodernisti29, tra i quali spiccano i francesi
Jacques Lacan, Julia Kristeva, Bruno Latour, Jean Baudrillard,
Paul Virilio, Gilles Deleuze, Felix Guattari, Luce Irigaray, Jean-François Lyotard, Michel Serres, e altri, mettono in discussione i fondamenti stessi della conoscenza: la realtà sarebbe un
costrutto mentale, e non qualcosa di esterno che la mente percepisce. Date queste premesse, è facile cadere nel solipsismo:
poiché nulla si può conoscere, è conseguentemente inutile anche tentare di conoscere alcunché.
pittura, mentre il dadaismo o il surrealismo potrebbero essere definite "avanguardie postmoderne". Anche dal punto di vista letterario può essere fatto un
discorso simile, potendosi considerare come "postmoderne" le opere di autori
come Joyce, Beckett o Borges.
Appare superfluo chiarire che – a parere di chi scrive – non è certo il "postmodernismo" artistico e letterario che va criticato, ma quello filosofico, con
le sue pericolose interpretazioni relativistiche della scienza, dell'etica e della
politica.
27
Forse sarebbe più appropriato parlare di un più generale rifiuto della
"modernità".
28
Il termine "postmodernismo" da un lato manifesta con precisione il legame "edipico", ambiguo e in ultima analisi parassitario che, alla stregua di un
adolescente ribelle ma impotente, questo movimento conserva con il modernismo; dall'altro risulta però molto poco "postmoderno", dal momento che il
postmodernismo (soprattutto il poststrutturalismo) rifiuta la concezione lineare del tempo, che invece è implicita nel prefisso post.
29
A rigore, Lacan e la prima Kristeva non rientrano propriamente all'interno del postmodernismo inteso in senso stretto, ma sono comunque considerati degli importanti punti di riferimento dai postmodernisti. Se invece si da
allo stesso termine una accezione più lata, allora anche filosofi come Nietzsche e Heiddeger possono trovare qui il loro posto, se non altro nel ruolo di
padri nobili.