Diego Chillo Facoltà di Lettere e Filosofia Corso di Laurea in Filosofia Scienze della Complessità e Intelligenza Artificiale Tesina Diego Chillo [email protected] Questo testo è stato scaricato da: http://www.portalefilosofia.com 1 1. INTRODUZIONE : visioni a confronto E' parere di molti che il ventesimo secolo sia privo di un contenuto scientifico autonomo rispetto all'Ottocento, e che le sue forme altro non siano che la ripetizione delle aspirazioni e delle prospettive illuministiche; nel ventesimo secolo si assiste infatti ad un' accelerazione nello sviluppo di tali forme. Questa accelerazione l'abbiamo sotto gli occhi quotidianamente, nella rapidità con cui un'innovazione tecnologica diventa di uso quotidiano, nello stravolgersi della geografia e nell'obsolescenza degli atlanti. L'Illuminismo è il trionfo della linearità, della certezza che la storia, la scienza, i fatti sociali si potessero governare trovando una precisa relazione tra causa ed effetto. Una visione totalizzante del mondo concedeva discrete possibilità di prevedere il futuro. E' il periodo di Lagrange e di Laplace, del sogno di poter stabilire una configurazione fisica di un qualche istante del futuro partendo dalla conoscenza di determinate condizioni iniziali. Per comprendere, almeno a grandi linee, come sia mutata la scienza nel XX secolo partiamo dalle due grandi scoperte che hanno rivoluzionato la meccanica (nel mondo fisico) e la logica (nel mondo matematico): da un lato, Poincaré “mostra che complessità e impredicibilità sono legate e sono conseguenze del determinismo delle equazioni di Newton. La seconda rivoluzione riguarda il comportamento disordinato o caotico che è conseguenza delle leggi della meccanica classica”; dall'altro, il Teorema di Gödel mostra “che esistono affermazioni che non possono essere provate come né vere né false, numeri che non possono essere computati, ecc. Non solo, questa complessità non è rara o patologica ma è comune e generalizzata essendo legata alla impredicibilità e al caos.” [Casati, 1997] Ecco dunque da dove nasce la necessità tutta contemporanea di definire una metodologia capace di organizzare i dati dell'esperienza: a fronte di queste scoperte, la stessa scienza, sfuggita al programma riduzionista, accetta, seppur con inquietudine, forme di razionalità che precedentemente non riteneva possibili (teoria delle catastrofi, caos deterministico, meccanica quantistica). Diventa sempre più urgente trovare nuove forme di interpretazione che consentano all'uomo di capire il mondo ed agire sul mondo stesso. Uno dei segni di questo mutamento è la nascita di una nuova comunità scientifica transdisciplinare dedita all'investigazione dei fenomeni del “caos” : finalmente sembra concretizzarsi la possibilita' di un inquadramento e di uno studio unificato di fenomeni che si verificano in ambito scientifico, economico, umanistico, politico e sociale. L'unificazione è resa possibile dalla sconvolgente scoperta che l'ordine appare di rado ed è suscettibile anche di perturbazioni di minima entità, mentre il caos, che appare stabile e robusto, è la condizione piu' frequente in natura. In un tale capovolto scenario si comprende meglio come il programma evolutivo della natura – che deve offrire alle forme di vita la possibilità di un continuo riadattamento in un ambiente continuamente in divenire – non possa che consistere nell'utilizzare lo stesso caos come strumento evolutivo, dando origine alle cosiddette “mutazioni casuali”. L'illusione illuministica di poter prevedere con certezza il futuro di un sistema svanisce grazie alla scoperta del caos deterministico, avvenuta negli anni '70. Ricordiamo che un sistema può dirsi deterministico quando il suo stato futuro è univocamente determinato dallo stato iniziale. Ma ritornando molto indietro nella storia dell'umanità, si ritrova una percezione del Caos come dominatore originario del mondo, riscontrabile fra l'altro dalla lettura di alcuni frammenti orfici, di Esiodo, di Ovidio e di Platone. L'osservazione di una certa regolarità nel moto dei corpi celesti generò successivamente l'illusione di un “universo ordinato e completamente predicibile”, regolato da un demiurgo con il compito preciso di riordinare il mondo. Dopo molti secoli, Laplace esaltava nella meccanica newtoniana la capacità di prevedere gli eventi, in altri termini il suo carattere deterministico; questa fiducia illuministica nella capacità dell'uomo di sempre meglio dominare gli eventi e controllarne e prevederne l'evoluzione ha continuato a permeare le convinzioni degli scienziati fino a poco tempo fa, confortata da scoperte quali la teoria della relatività, le forze nucleari. Questa plurisecolare convinzione comincia a mostrare le prime falle 2 dinanzi ad alcune osservazioni della meccanica quantistica, all'apparenza banali ma di grande importanza per l'evoluzione della sistemica, fondate sulla constatazione che se il futuro di un sistema è determinato in modo univoco dal suo stato presente non significa che noi siamo effettivamente in grado di determinarlo (ciò che afferma il principio di indeterminazione di Heisenberg). Inoltre si è cominciato ad osservare come sistemi che all'apparenza sono molto semplici possano avere soluzioni la cui complessità è tale da farle apparire casuali. Il primo a rivelare questo fatto fu il grande matematico e filosofo Henri Poincaré nei suoi studi di meccanica celeste, ma solo l'avvento dei moderni calcolatori ha consentito di coglierne la rilevanza e le implicazioni. A prima vista l'esistenza del “caos deterministico”, cioè l'esistenza di sistemi deterministici che sono allo stesso tempo caotici, può sembrare un fatto contraddittorio. In realtà, questa apparente contraddizione nasce dalle barriere psicologiche dovute a secoli di tradizione che hanno considerato determinismo e caos come concetti contrapposti. Nei cinque anni tra il 1970 e il 1975 le diverse linee di sviluppo della ricerca si fusero e prese piede il fenomeno interdisciplinare delle Scienze della Complessità. Il solo 1975 può essere ricordato per un paio di eventi che si rivelarono di grande importanza : Benoit Mandelbrot definì il concetto di “frattale”, struttura geometrica con dimensioni non intere e auto-similarità annidate all'infinito. Tien-Yen Li e James Allen Yorke applicarono l'espressione “Caos” al comportamento irregolare e instabile di sistemi matematici semplici. Il nuovo campo di indagine prese forma e divenne visibile alle diverse comunità e discipline all'interno delle scienze empiriche. 2. IL TEOREMA DI GODEL : la fine di un'illusione Se nel 1925 Hilbert cercava di provare la validità dell'affermazione matematica che un sistema formalizzato è coerente, fu Kurt Godel nel 1931 a dimostrare, procedendo esattamente nella direzione opposta, che il sistema descritto nei “Principia Mathematica” di Russell tollera l'introduzione di enunciati veri in tutti i modelli ma non derivabili. Senza addentrarci nei particolari della dimostrazione, possiamo dire con termine informatico che il “baco” è stato individuato costruendo una formula G che parla di se stessa; nel caso specifico, traducendo nel formalismo dell'aritmetica l'affermazione “la formula G non è dimostrabile nel sistema formalizzato della teoria dei numeri”. A questo punto, se G fosse un teorema allora sarebbe dimostrabile (ovvero esisterebbe una successione di trasformazioni che dagli assiomi conduce a G); in questo caso si avrebbe una contraddizione poiché G stessa afferma di non essere dimostrabile. Se invece G non fosse un teorema, non avremmo alcuna contraddizione, ma saremmo costretti ad ammettere che nel sistema assiomatizzato esistono formule vere che non possono essere dimostrate a partire dagli assiomi. Questo risultato diventerà più tardi argomento di discussione tra gli studiosi di I.A. : secondo alcuni infatti il teorema di Godel prova che nessuna macchina potrà mai emulare la mente umana, perchè non sarebbe in grado di costruire formule vere che non siano teoremi. Vedremo più avanti che questa posizione non è condivisa da tutti. Anche la capacità dei sistemi viventi di autoreplicarsi può essere considerata un isomorfismo dell'anello ricorsivo introdotto da Godel : le stringhe di DNA deteminano l'assemblaggio delle proteine, ma quest'ultimo è necessario a riprodurre le prime per consentirne la duplicazione, trascrizione e traduzione. Quello di Godel è stato quindi un contributo fondamentale non solo per la logica e la matematica, ma per i tutti successivi sviluppi delle scienze della complessità. 3. LA COMPLESSITA' : considerazioni generali Il fenomeno della auto-organizzazione e' solo una delle piu' interessanti manifestazioni che si 3 possono avere in un sistema complesso, cioe' in un sistema composto da un numero di parti cosi' elevato da rendere impossibile seguirne separatamente ciascuna. Ma ci sono anche altre emergenze e altri problemi, da cui nascono le scienze della complessita', il cui rapido sviluppo e' lungi dall'essere terminato. Fra i fenomeni piu' importanti che si possono verificare nei sistemi complessi c'e' una distribuzione dell'auto-organizzazione in una serie ascendente di livelli, tali che per ciascuno di essi bisogna escogitare – almeno in una certa misura – un diverso metodo d'indagine. Per fare un esempio, prendiamo gli atomi che costituiscono il nostro corpo. Essi si organizzano in macromolecole; le macromolecole si organizzano in cellule; le cellule si organizzano in vari tessuti; i tessuti danno luogo agli organi; infine si arriva all'intero corpo umano. I diversi livelli certamente interagiscono tra loro; ma in una prima approssimazione possono considerarsi come separati ed essere ciascuno studiato e trattato per suo conto. Faremmo ben pochi progressi se per esaminare un qualsiasi organismo vivente dovessimo analizzare ogni suo atomo: è evidente che in questi casi non sono applicabili i metodi della fisica atomica e della meccanica quantistica. Naturalmente un livello veramente superiore di organizzazione nel corpo umano e' il cervello, con i suoi miliardi di neuroni, che continuamente ristrutturano le loro connessioni (sinapsi) mediante l'informazione e l'apprendimento: un sistema complesso che le indagini neurologica, psichiatrica e psicologica sono ad oggi solo riuscite a sfiorare. Perche' poi fermarsi al singolo cervello individuale? Non e' la societa' con le sue istituzioni, i suoi costumi, la sua cultura un'organizzazione di livello ancora piu' alto del singolo individuo? Certamente lo studio dei sistemi complessi ha dinanzi a sé ancora un ricchissimo futuro, nel quale i vari livelli della ricerca umana s'intrecciano in modo quanto mai interessante e profondo. Per noi è naturale affrontare lo studio della natura cominciando da ciò che alla nostra mente appare semplice ed essenziale; la scienza occidentale ha seguito il cammino indicato da Galileo: nessuno vieta di affrontare lo studio della natura in senso olistico, cioe' in blocco, senza dividere l'universo in parti (per noi) semplici. E' quello che sosteneva, per esempio, un grande come Goethe; egli diceva che la natura non ha “ne' nocciolo ne' buccia ed e' data tutta insieme”. L'unico guaio e' che cominciando lo studio da quella parte non si arriva a nulla di progressivo e intersoggettivo. Galileo insegnava, invece, che nell'affrontare lo studio di un fenomeno fisico bisogna cominciare col liberarlo da tutti gl'impedimenti “esterni e accidentari”. E' evidente che siamo noi a giudicare in che misura un dato fattore e' esterno e accidentale. Per la natura tutto e' interno ed essenziale al fenomeno; la natura non puo' avere preferenze. Da questo punto di vista dobbiamo considerare una fortuna che gli scienziati del secolo XIX abbiano studiato gli insiemi di innumerevoli molecole con metodo boltzmanniano, con ammissioni di chiusura e di linearita', con vicinanza alle condizioni di equilibrio. Cosi' indubbiamente si comincio' a capirci qualcosa. Dopo, molto dopo, venne il momento di prendere in considerazione i sistemi aperti, la lontananza dalle condizioni di equilibrio, le inevitabili non.linearita'. In questo modo siamo riusciti a fare ulteriori passi avanti; ma – grazie a Galileo e ai suoi seguaci – sono stati passi avanti rispetto a mete gia' raggiunte. Cosa sono dunque i sistemi complessi? Tratti distintivi dei sistemi complessi e del comportamento complesso sono fenomeni dinamici specifici: sebbene molti sistemi complessi abbiano una struttura nomologica, e consistano di principi di base piuttosto semplici e di equazioni fondamentali altrettanto semplici, si possono individuare al loro interno instabilità dinamiche, biforcazioni e “Caos Deterministico”, come forme di strutturazione spaziale di dinamica complessa e di auto-organizzazione. La causa di tutti questi fenomeni in cui la complessità trova espressione è un'intrinseca e dinamica auto-referenzialità che appare in diverse varietà. Quali aree di ricerca riguardano le scienze della complessità? Il nocciolo delle scienze della complessità è costituito dalla Teoria dei Sistemi Dinamici, che forma parte della matematica pura. L'oggetto della Teoria dei Sistemi Dinamici è in primo luogo e soprattutto il comportamento dei sistemi di equazioni differenziali e, in seconda istanza, qualunque cosa possa essere trasformata in tali sistemi. 4 4. SISTEMI APERTI : il caos deterministico Da quando ci si e' avventurati nell'esame dei sistemi che scambiano materia ed energia con l'ambiente esterno -quindi lontani dalle condizioni di equilibrio termico- ci si e' accorti che molti dettagli in passato ritenuti inessenziali risultavano essere sommamente rilevanti per la comprensione delle cose del mondo e di noi stessi.. Tra i pionieri di questi studi e' Ilya Prigogine, il quale ne ha sviluppato notevoli conseguenze. Quei sistemi che sono troppo complessi per consentire a noi di farne un'analisi dettagliata come, per esempio, i sistemi formati da miriadi e miriadi di atomi e molecole- non possono essere trattati semplicisticamente considerando di essi la parte che conosciamo, mettendo poi in uno stesso calderone tutto quello che non sappiamo e facendo finta che non esista. In realta', quello che non sappiamo puo' essere altamente strutturato e dar luogo a risultati talmente significativi che non ci e' consentito di ignorarne l'esistenza. Tutto dipende dal modo in cui interagiscono fra loro gli elementi che costituiscono il sistema complessivo. Per lungo tempo abbiamo presupposto solo interazioni lineari, ovvero tali che gli effetti sono proporzionali alle cause. Ma nel mondo reale spesso le cose sono ben piu' complicate ed i fenomeni risultano non-lineari. Qui nascono parecchie difficolta' per chi vuole eseguire i calcoli; ma c'e' la possibilita' che emergano anche cose nuove. I sistemi aperti e non lineari possono essere tali da ospitare al loro interno sottosistemi ben strutturati, nei quali si riscontra la nascita di un'organizzazione spontanea, cioe' di una crescita di ordine. I sistemi chiusi sono una costruzione alquanto artificiale. Nell'universo in grande non esistono sistemi chiusi e isolati; infatti, ogni parte dell'universo scambia radiazioni con insiemi anche lontani di stelle e di galassie. Supponiamo che le condizioni iniziali di un sistema determinino tutto quello che in esso avverra' dopo l'istante iniziale. Quanto dopo? L'assegnazione di ciascuna condizione iniziale e' il risultato di una misura, effettuata necessariamente con una certa precisione x. Con quale precisione possiamo affermare che, trascorso un tempo T, troveremo il sistema in un determinato stato? Possiamo avere due casi differenti : 1.Per alcuni sistemi, trascorso un tempo T, le precisioni x con le quali possiamo predire i valori delle varie grandezze rimangono al di dentro delle precisioni iniziali (eventualmente possono anche diventare molto migliori).Dunque, per tali sistemi, con quanta maggior precisione misuriamo le condizioni iniziali, con tanta maggior sicurezza potremo pronunciarci sul risultato finale. Inoltre, se le cose non cambiano, possiamo scegliere la durata T – trascorsa la quale effettuiamo la verifica – lunga quanto vogliamo. 2.Ci sono invece altri sistemi per i quali succede che le x, dentro le quali possiamo essere sicuri del risultato finale, vanno aumentando – addirittura esponenzialmente – con l'allungarsi di T. Basta allora che il sistema sia un po' piu' complesso perche' si sia spinti a parlare di imprevedibilita' finale e di caos. Non c'e' precisione iniziale cosi' spinta che basti a garantirci da un fallimento alla lunga. In realta', si puo' dire che il procedimento della fisica classica e' ancora perfettamente valido, con l'unico avvertimento che nel secondo caso le x vanno presentate come funzioni (crescenti) di T. A volte diventeranno rapidamente cosi' grandi da impedirci qualsiasi previsione utile “a lungo termine”. Bisognerà dunque limitare T; ma ciò non ci autorizza a parlare di una fisica indeterministica. “Indeterminismo” e “imprevedibilità” non sono la stessa cosa. Inoltre, non bisogna dimenticare che nella stessa fisica classica non ci proponiamo sempre di seguire dettagliatamente la storia di ciascun componente del sistema.A volte – come abbiamo gia' spiegato – quello che ci interessa e' la predizione, magari probabilistica, del comportamento 5 dell'intero sistema; predizione che possiamo benissimo confrontare con l'esperienza. Uno dei casi ben noti in cui un sistema fisico complesso si avvia rapidamente al caos e' quello che si incontra nella meteorologia. Nessuno e' in grado di predire con sicurezza che tempo fara' in un dato luogo, poniamo, fra 25 giorni. Certamente si potra' osservare che non disponiamo di tutti i dati necessari. In parte questo e' vero. Anche le rilevazioni trasmesseci dai satelliti artificiali, che ci forniscono oggi un'enorme massa d'informazioni, lasciano tuttora maglie troppo larghe rispetto a quello che vorremmo. Ma anche se le informazioni arrivassero ben piu' dettagliate e precise, anche se poi disponessimo di calcolatori sufficientemente potenti per elaborarle, sta il fatto che una piccola imprecisione nella rilevazione si tradurrebbe presto nella inaffidabilita' della previsione. Emblematico a questo proposito è l'ormai celebre lavoro del metereologo Edward Lorenz, che nel 1963 mostrò come, per avere un comportamento caotico di un sistema dinamico, fosse sufficiente un modello assai semplice di equazioni differenziali non lineari. Accade cioè che due stati inizialmente prossimi quanto si vuole, si allontanino esponenzialmente col tempo. Dall'impossibilità, non soltanto pratica, ma di principio, di definire le condizioni iniziali con precisione infinita, discende dunque una sostanziale imprevedibilità dello stato del sistema che diventa sempre meno dominabile con il crescere dell'intervallo di tempo trascorso dall'istante iniziale. E' sufficiente quindi uno scarto piccolo a piacere nella determinazione della condizione iniziale per produrre, dopo un intervallo opportuno di tempo, uno scarto arbitrariamente grande nello stato finale del sistema considerato. Allora il tempo meteorologico e' assolutamente impredicibile ? Non esageriamo: si tratta semplicemente di limitare opportunamente T. Sara' bene notare che non sempre e' necessario avere un sistema enormemente complesso per dover rinunciare alla precisione. Basta anche considerare un sistema (apparentemente) semplice come quello solare. Nessuno puo' arrivare a predire che sara' di esso fra qualche miliardo di anni. Ma cio' non toglie che domani sera un astronomo che voglia osservare un determinato astro puntera' il suo telescopio verso un punto del cielo e lo troverà senza sorprese. Di nuovo si tratta di limitare T. E' comunque da meditare il fatto che in un sistema complesso puo' in teoria bastare un intervento minimo per scatenare il caos. Rimanendo sempre nel campo meteorologico, e' stato osservato che il battito delle ali di una farfalla – che e' un essere da considerare estraneo al sistema atmosferico – puo' provocare un ciclone a grandissima distanza. Accettiamolo pure, anche se da sempre le probabilita' infinitesime sono da considerarsi nulle. Dal punto di vista concettuale dunque, la scoperta che, salvo poche eccezioni, la stragrande maggioranza dei fenomeni naturali si presenta sotto le forme del caos deterministico fa cadere irreparabilmente il mito fondamentale della scienza ottocentesca: quello della prevedibilità della natura. 5. CAOS O CASO ? La tradizionale visione del Caos come una sorta di anomalia di un universo ordinato ci ha fino ad ora costretti a ripiegare sulla casualità per spiegare fenomeni che non rientravano deterministicamente nell'evoluzione prevista per determinati sistemi. Il fisico Giuseppe Zito fornisce una spiegazione adatta anche ai “profani” : “In matematica esiste questa astrazione che sono i numeri reali : astrazione perchè essi hanno precisione e informazione infinita e perciò sono impossibili da realizzare nella vita reale. Infatti i numeri risultato di misurazioni sono di necessità finiti come lo sono i numeri cosiddetti reali nel calcolatore. I matematici e i fisici non si erano resi conto che questa piccola differenza puo' provocare il caos. Da notare che questo tipo di caos prodotto dal algoritmi semplici non va confuso col caso dove non esistono algoritmi per riprodurre i risultati osservati, ad esempio i risultati del lotto. Per distinguere i due casi si parla del caos deterministico quando esso è prodotto da leggi semplici e di 6 “caso” quando l'unico algoritmo possibile è quello di enumerare tutti i risultati ottenuti senza che sia possibile prevedere quelli futuri. Il fatto che il caos sia possibile con leggi semplici è stata una grande scoperta ed ha fatto sperare che alcuni fenomeni finora considerati casuali (cioè impossibili da descrivere se non con leggi statistiche) siano in effetti dovuti a leggi semplici (ad esempio l'andamento della Borsa). Ce ne siamo resi conto col calcolatore che usa numeri approssimati come la realtà.” Riepilogando le caratteristiche della Rivoluzione Scientifico-Strutturale che ha avuto luogo con l'emergere delle Scienze della Complessità, possiamo distinguere quattro fasi. La prima fase consiste nel verificarsi di anomalie nel contesto delle scienze empiriche, soprattutto all'interno della meccanica classica. Queste anomalie erano dovute a una carenza di conoscenza delle implicazioni dei modelli teorici del linguaggio matematico utilizzato nelle teorie delle scienze empiriche. Nella seconda fase, un'esplorazione nelle zone problematiche dei modelli che riguardavano i modelli strutturali e dinamici utilizzati nelle scienze empiriche porto' a un'indagine che aveva come oggetto le corrispondenti classi di modelli. Si costituì allora una tradizione “sommersa” di indagine strutturale-scientifica. I problemi che avevano innescato l'indagine e i successivi sviluppi divennero perlopiù invisibili alle scienze empiriche. La terza fase consiste in un costante progresso interno alla matematica. Solo durante la quarta fase, dopo un significativo lasso di tempo e dopo aver appianato le carenze dei modelli teorici si manifestano le prime ripercussioni delle nuove intuizioni scientifico-strutturali all'interno delle scienze empiriche. Lo sviluppo, invisibile per lungo tempo per le scienze empiriche, riemerse: lo spettro delle scienze della complessità, unitamente alle loro implicazioni filosofiche, ne è il risultato. 6. LE FORME AUTOSOMIGLIANTI : i frattali Prima di approfondire i concetti di autoreferenzialità e autosomiglianza, prendiamo in considerazione quelle particolarissime e apparentemente caotiche forme grafiche che sono i “frattali”, che ci possiamo figurare come le coste frastagliate dei fiordi norvegesi. Il nome dei frattali (che deriva dal latino “fractus”, frammentato) è dovuto alla caratteristica di presentare irregolarità infinitamente stratificate, frammentazioni non osservabili né calcolabili se non per mezzo del computer. Il programma richiesto per la generazione di una forma frattale si basa sull'iterazione di una formula e pertanto richiede l'esecuzione di un programma di poche righe. Un frattale è un oggetto autosomigliante, in quanto ottenuto a partire da un oggetto di partenza con cui mantiene un rapporto di omotetia e di cui mantiene la forma e le proprietà; per spiegare questo concetto, il matematico francese Benoit Mandelbrot, creatore della geometria frattale(che definiva “un linguaggio per parlare di nuvole”!) staccava un pezzo di cavolfiore ed invitava ad osservare come esso fosse del tutto simile ad un cavolfiore più piccolo; e da quel pezzo staccava poi un pezzetto ancora più piccolo, ripetendo su di esso la medesima osservazione. Zoomando su una forma frattale, il suo frastagliato profilo evidenzia una struttura che si ramifica ulteriormente ad ogni successivo ingrandimento, svelando infiniti nuovi dettagli, e ciò vale per infiniti ulteriori ingrandimenti. Un'altra caratteristica dei frattali che li diversifica ulteriormente dalle forme della geometria classica è data dal fatto che essi hanno una dimensione non intera bensì decimale; questo significa, per esempio, che un frattale di dimensione 1,5 è una via di mezzo tra una linea e una superficie. Anche per i frattali ci si è accorti che tali forme non sono, nel mondo che ci circonda, un'astrusa eccezione, ma la regola. Le inedite caratteristiche dei nuovi oggetti della geometria frattale, riabilitata dalla scoperta del caos deterministico e dall'introduzione dei sistemi dinamici nello studio di comportamenti complessi, hanno consentito di analizzare e spiegare fenomeni quali ad esempio quello delle turbolenze; in particolare, i frattali appaiono strettamente collegati agli “attrattori strani”, riscontrabili nei sistemi dinamici nel cui comportamento il livello caotico va aumentando in presenza di perturbazioni esterne e di effetti dissipativi. 7 7. AUTOREFERENZIALITA' E AUTORGANIZZAZIONE Possiamo ora estendere le peculiarità introdotte dalle autosomiglianze frattali ad altri sistemi, ed in particolare a quelli implicati nelle applicazioni di intelligenza artificiale. E' a partire dagli anni '50 che nasce l'interesse per i sistemi autoreferenziali; in questo periodo infatti si costituisce un gruppo di discussione interdisciplinare sulle problematiche della cibernetica, tra i cui membri figurano i nomi notevoli di Norbert Wiener (il fondatore), Claude Shannon, von Neumann e Gregory Bateson.Secondo la teoria dei sistemi autorefenziali, uno sviluppo dei sistemi mediante differenziazione avviene solo tramite autoriferimento: vale a dire che, nella costituzione dei loro elementi e nelle loro operazioni elementari, i sistemi fanno riferimento a loro stessi (a elementi e a operazioni del loro sistema, e alla unità di questo). Perchè ciò avvenga i sistemi devono produrre e utilizzare una descrizione di se stessi; essi devono essere capaci di servirsi al loro interno della differenza tra sistema e ambiente come orientamento e come principio per la produzione di informazioni. Le varie forme di autoriferimento individuate da Luthmann sono unite da una comune idea di fondo : l'autoriferimento è un correlato della pressione esercitata dalla complessità del mondo. Ovvero: non è possibile rappresentare, trattare, controllare in maniera adeguata la complessità del mondo, perchè ciò produrrebbe di pari passo un aumento di tale complessità, in una regressione infinita, che invece l'autoriferimento evita. I sistemi formati mediante autoriferimento di base si dicono autopoietici; essi sono sistemi chiusi, cioè utilizzano per la propria riproduzione unità già costituite entro il sistema; Humberto Marturana e Francisco Varela sono stati i primi a riconoscere, con la formulazione del concetto di autopoiesi, l'autorganizzazione quale discriminante tra vivente e non vivente.Come abbiamo già accennato, la società è il sistema per il quale non esiste alcun sistema che lo comprenda, e per il quale di conseguenza non è possibile nessuna comprensione dall'esterno, ma solo autoosservazione, autodescrizione e autochiarimento delle proprie operazioni. Alla base dell'autoreferenzialità sta il concetto di “retroazione” (feedback), che permette al sistema di autoregolarsi nel corso del proprio funzionamento correggendo gli scarti dal programma previsto in sede di progetto. Il feedback si realizza quando la macchina è in grado di analizzare le proprie prestazioni in uscita e di confrontarle con quelle in entrata, ed è capace di appianare autonomamente eventuali differenze (questa autoregolazione viene detta omeostasi). Ove invece il segnale in entrata produca un segnale di uscita totalmente imprevedibile , ogni componente fornisce alle altre un segnale dotato di significato, ovvero contiene nuova informazione. L'esempio riportato da Marcello Cini nel suo Un Paradiso Perduto consente di comprendere meglio questa differenza : prendiamo in considerazione queste due frasi : LA FRASE SEGUENTE HA X LETTERE LA FRASE PRECEDENTE HA Y LETTERE Per quali X e Y, i cui nomi hanno lunghezza N(X) e N(Y), si rendono vere le due frasi ? Una possibile soluzione è X=35 (TRENTACINQUE=12 lettere), Y=36 (TRENTASEI=9 lettere), poiché così la prima frase contiene 24+12=36 lettere mentre la seconda ne contiene 26+9=35 lettere. Le due frasi sono le due componenti del sistema. Il segnale in entrata della frase (1) è il numero N(Y)+26 che contiene un'informazione sulla lunghezza Y di (1). Il segnale in uscita di (1), che è anche il segnale in entrata della frase (2), è il numero 24+N(X). Il punto essenziale è che non c' è una relazione univoca tra un numero X (o Y) e la lunghezza N(X) (o N(Y)) del suo nome. In altri termini il segnale in uscita ha un significato nuovo che non era presente in quello di entrata. Partendo da un numero a caso per X dopo un certo numero di iterazioni si cade su una delle soluzioni, che sono gli attrattori dell'evoluzione del sistema. 8 Un sistema autoreferenziale con un elevato numero di componenti “non banali” avrà dunque un gran numero di stati stabili che dipendono soltanto dalla sua struttura interna, che possiamo immaginare come organizzata in una gerarchia di livelli in comunicazione tra di loro. Questa gerarchia “intrecciata” non produce semplicemente autoregolazione bensì autoreferenzialità, perchè non c' è una corrispondenza biunivoca fra i linguaggi dei diversi livelli. Il concetto di “autorganizzazione” è strettamente connesso con l'autoreferenzialità, che ne è addirittura condizione necessaria; è questa la caratteristica che differenzia i sistemi viventi dalle macchine progettate per raggiungere scopi particolari.Al contrario di queste, l'organizzazione interna dei sistemi viventi è la premessa e simultaneamente il risultato dell'organizzazione stessa : il DNA contiene infatti l'informazione necessaria per la sintesi delle proteine, ma le proteine sono necessarie per realizzare questa sintesi e duplicare lo stesso DNA. Secondo Varela e Marturana, “una macchina autopoietica continuamente genera e specifica la sua propria organizzazione operando come sistema di produzione dei suoi propri componenti, e lo fa in un turnover senza fine di componenti in condizioni di continue perturbazioni e di compensazione di perturbazioni”. 8. SISTEMI ETERONOMI E SISTEMI AUTONOMI E' necessario ora capire in che cosa consista questo processo di apprendimento, cioè in che modo un sistema autorganizzatore possa passare da uno stato interno all'altro nell'ambito di una ricchissima molteplicità di stati stabili possibili e possa riprodurre invariata tale organizzazione interagendo con un ambiente esterno mutevole e imprevedibile. La stessa domanda si può porre se si passa dall'individuo singolo alla specie, e su scala temporale dall'arco della vita individuale a quello di un gran numero di generazioni successive, per quanto riguarda il processo evolutivo. Varela distingue due concezioni dell'apprendimento: quella tradizionale-rappresentazionista, secondo cui gli organismi sono sistemi la cui evoluzione dinamica genera una corrispondenza fra il mondo esterno e la sua rappresentazione interna (sistemi eternonomi), e quella secondo cui invece gli organismi sono sistemi autonomi sui quali il mondo esterno agisce soltanto come perturbazione. I comportamenti di questi ultimi sono la manifestazione di transizioni fra stati di coerenza interna strutturati autonomamente perchè generati dalla ricorsività degli anelli autoreferenziali che connettono le componenti del sistema. Questo non significa che il sistema è isolato, bensì che l'universo dei suoi stati possibili non dipende dal mondo esterno ma è generato dalla condizione di autoconsistenza imposta ai modi di funzionamento delle sue diverse componenti dalle loro reciproche interconnessioni. Va inoltre chiarito che le due visioni, eteronoma ed autonoma, non sono mutuamente esclusive, ma devono necessariamente essere integrate. 9. RUMORE E COMPLESSITA' : una nuova visione dell'evoluzionismo L'approccio rappresentazionista tradizionale consiste nell'assumere che il sistema nervoso funzioni a partire dal contenuto informativo delle istruzioni che provengono dall'ambiente, elaborando una rappresentazione fedele dell'ambiente stesso. Un diverso approccio invece consiste nel pensare che il sistema nervoso sia definito essenzialmente da differenti stati di coerenza interna, che risultano dalla sua interconnettività. La chiave di un sistema così strutturato è la sintesi e la diversità dei suoi autocomportamenti piuttosto che la natura delle perturbazioni che li modulano. Lo stesso discorso puo' essere rapportato all'evoluzionismo : nella visione tradizionale l'ambiente è il filo conduttore che permette di comprendere la dinamica delle trasformazioni di una specie di generazione in generazione. Nell'accoppiamento per chiusura operazionale invece si assume che i diversi modi di coerenza interna di una popolazione animale siano il filo conduttore 9 che permette di comprendere le trasformazioni filogenetiche. La successione di perturbazioni seguita da riorganizzazioni intese a mantenere la coerenza interna della popolazione ha per conseguenza dunque la generazione della diversità, cioè tutto il contrario dell'ottimizzazione dell'adattamento. Ecco dunque vacillare la fede nel darwinismo propriamente detto, secondo cui i dettagli della morfologia di un organismo sono una collezione di tratti frutto di un adattamento ottimale a determinate condizioni ambientali. Essa dimentica infatti che l'unità non funziona come una somma di caratteristiche, ma come un tutto coerente. Risultato ultimo è una modificazione della sensibilità e dell'epistemologia contemporanee, che sposta il significato della conoscenza da quello della formazione di un'immagine del mondo a quello della costruzione del mondo attraverso un processo di reciproca specificazione di un organismo e del suo ambiente che coemergono simultaneamente. Secondo alcuni la complessità si origina dal rapporto tra soggetto e oggetto piuttosto che dalla struttura intrinseca dell'oggetto osservato. E' un approccio “quantistico” e quindi probabilistico, dove la complessità consiste nell'informazione mancante necessaria per avere una spiegazione esauriente e completa della formazione del sistema e del suo funzionamento. Tale informazione mancante è tanto maggiore quanto minore è la probabilità che il sistema sia arrivato in modo puramente casuale ad avere la sua organizzazione. 10. LINGUAGGIO RIDUTTIVO E LINGUAGGIO SIMBOLICO La ricombinazione degli elementi del sistema è il processo basato sulla creazione di nuovi significati: infatti, perchè sia possibile produrre una riorganizzazione dal caos, è necessario che il significato delle relazioni tra le parti si trasformi. E' dunque necessario distinguere due tipi di significato che si possono attribuire alle descrizioni dei sistemi : uno riduttivo e uno simbolico. Nel primo caso, ad esempio, per descrivere il funzionamento di una serratura dobbiamo elencare le azioni meccaniche che intervengono nella liberazione del chiavistello quando la chiave provoca l'abbassamento dei denti del tamburo. La descrizione simbolica dello stesso evento si limiterebbe invece ad osservare come la serratura recepisca il significato del messaggio contenuto nella chiave. L'utilizzo della spiegazione simbolica diventa conveniente soprattutto per i sistemi particolarmente complessi : sarebbe improponibile pensare ad esempio ad una descrizione riduttiva del processo di assemblaggio delle proteine dell'RNA cellulare. E' indubbio che in un caso simile la descrizione simbolica permetta di comprendere senza difficoltà la funzione comune di una serie di elementi che differiscono notevolmente tra di loro. Nei sistemi particolarmente semplici come quello della serratura è evidente la corrispondenza diretta tra la spiegazione riduttiva e quella simbolica. Per i sistemi complessi, invece, una regola che metta in relazione i due non si può dare; addirittura potremmo dire che sono complessi quei sistemi per i quali questa regola non c'è. In poche parole, non siamo in grado di mettere biunivocamente in corrispondenza gli stati microscopici del sistema con i comportamenti coerenti evidenziati dalle macrostrutture. La struttura a livelli prevede che, sia per i sistemi complessi naturali che per quelli artificiali, tra i linguaggi degli strati inferiori e quelli dei superiori non vi sia corrispondenza, ma siano comunque tra loro vincolati. In pratica, le leggi che regolano la dinamica delle entità elementari che costituiscono il livello inferiore impongono dal basso vincoli di compatibilità sull'evoluzione delle grandezze del livello superiore, mentre queste ultime dall'alto selezionano gli stati dinamici microscopici ordinandoli in classi dotate di un significato che essi singolarmente di per sé non avrebbero. L'interazione fra livelli causa la perdita dei confini tra l'uno e l'altro, e tale gerarchia intrecciata comporta che nessun livello possa dirsi superiore ad un altro. 10 A questo punto, considerando che non può esistere altra descrizione della complessità differente da quella dell'osservatore, dobbiamo chiederci se i livelli di organizzazione sono reali o sono dovuti invece al fatto che abbiamo tagliato la realtà a differenti livelli in conseguenza delle tecniche di osservazione di cui disponiamo. Nell'impossibilità di avere una visione globale del sistema, è il nostro cervello che monta assieme i dati provenienti dalle singole osservazioni; rimane però irrisolta la questione su come debbano essere rappresentate le articolazioni tra i livelli. Possiamo dunque riconoscere che è nelle articolazioni che si crea ogni nuovo significato, oppure possiamo tentare di scoprire una nuova tecnica che dia accesso a una data articolazione; così facendo creiamo un nuovo livello, ed apriamo una catena infinita che non ci porta ad alcuna conclusione valida. In questo sistema gerarchizzato, l'osservatore rappresenta il livello di organizzazione superiore, che comprende cioè tutti i sistemi elementari che lo compongono. 11. LA SIMULAZIONE DELL'INTELLIGENZA UMANA La maggior parte dei ricercatori in I.A. è dell'idea che il pensiero razionale si produca assemblando simboli mentali secondo regole logiche. Non è di questo parere Douglas Hofstadter per il quale, a fronte dei livelli gerarchici introdotti dalle scienze della complessità, i simboli non sono enti passivi manipolabili quanto piuttosto fenomeni collettivi (ovvero che coinvolgono più elementi contemporaneamente) dotati di proprietà attive ma non necessariamente di significato. Egli sostiene che il cervello dell'uomo è un lampante esempio di “gerarchia aggrovigliata” di livelli di significati. Se il più basso dei livelli cerebrali è quello neuronale, è chiaro allora che la rappresentazione del mondo nel cervello include per lo più elementi che non hanno alcuna corrispondenza effettiva con il mondo fattuale: naturalmente esistono simboli corrispondenti a “casa”, “albero”, “gatto”, etc. ma le loro strutture interne sono estremamente complesse e non disponibili ad un esame psicologico. E' probabile che al livello più basso dei processi cerebrali, quello dei neuroni, non avvenga alcuna interpretazione degli eventi-scariche neuroniche, che sarebbero un semplice sostrato come per i moderni computer lo è l'insieme dei microchip che compongono il circuito; tali scariche acquisiscono un significato solo nei livelli superiori, quelli appunto dei simboli. E' un'impresa impossibile dare un significato all'attività degli strati inferiori se non li si considera in rapporto a quelli superiori. Sebbene sia sempre possibile simulare una rete neuronale, non è possibile che tale rete assuma un significato di livello superiore.Volendo dare un'interpretazione più rigorosa, potremmo citare una “Versione Microscopica” della tesi di Church-Turing così come è esposta da Hofstadter : Tesi di Church-Turing, Versione Microscopica: Il comportamento dei componenti di un sistema vivente può essere simulato su un calcolatore. Vale a dire, il comportamento di ogni componente (che normalmente si suppone essere la cellula) può essere calcolato da un programma in CicloI (cioè con una funzione generale ricorsiva) ad ogni livello di precisione voluto, data una descrizione sufficientemente precisa dello stato interno dei componenti e dell'ambiente locale. E' evidente il senso profondamente riduzionista si questa testi, dalla quale è immediato dedurre che “tutti i processi cerebrali derivano da un sostrato calcolabile” (Versione Riduzionistica della Tesi di Church-Turing). La speranza che questa tesi apre per la realizzabilità dell' Intelligenza Artificiale lascia comunque aperta la questione su quale sia il livello di precisione con cui dovremmo copiare il cervello prima di poter dire di aver raggiunto l'IA, ovvero a quale livello potremmo dirci sodisfatti, visto che esistono già numerosi programmi e “sistemi esperti” che riproducono determinati comportamenti umani in maniera perfetta (giocatori di scacchi, integratori di funzioni, etc.). Il supporre che l'irrazionalità sia incompatibile con i calcolatori, è una idea basata su una confusione 11 tra livelli : un funzionamento senza errori ad un certo livello potrebbe fare da base ad una manipolazione di simboli ad un livello superiore che sembra mancare di senso. Si pensi al fatto che anche il cervello è composto di elementi che non commettono errori, cioè i neuroni; non accade mai che un neurone non si comporti come ci si attende, cioè accumulando gli impulsi che gli arrivano e scaricando il loro prodotto. Eppure abbiamo continuamente davanti a noi esempi di situazioni in cui dal corretto funzionamento dei neuroni scaturiscono comportamenti sbagliati. Potrebbe essere dunque perfettamente plausibile che l'hardware di un calcolatore, assolutamente esente da errori, divenga il substrato di un comportamento di alto livello che rappresenti stati tipicamente “umani” quali indecisione, dimenticanza, capacità di giudizio. Da queste considerazioni si può far derivare un classico “credo” dei ricercatori in IA, la cosiddetta “Tesi dell'IA” : Tesi dell' IA: A mano a mano che l'intelligenza delle macchine evolve, i suoi meccanismi soggiacenti tendono gradualmente a coincidere con i meccanismi che soggiaciono all'intelligenza umana. Sembra quindi che ci si debba spingere a livelli sempre inferiori e più vicini ai processi cerebrali, perchè le regole del “software” ai vari livelli possono mutare dinamicamente, mentre il funzionamento dell' “hardware” è determinato e inviolabile. BIBLIOGRAFIA : M.L.Dalla Laterza Chiara, G. Toraldo di Francia : Introduzione alla filosofia della scienza, ed. 2000 Reiner Hedrich : Le scienze della complessità : una rivoluzione kuhniana ? (in Epistemologia Vol.1 anno XXII, 1999) Ersilia Salvatore : Teoria della complessità e caos deterministico Marcello Douglas Cini : Un Paradiso Perduto, ed. Feltrinelli 1999 R. Hofstadter : Godel, Escher, Bach–Un'Eterna Ghirlanda Brillante, ed. Adelphi 2000 12