Teoria della Complessità e Intelligenza Artificiale

annuncio pubblicitario
Diego Chillo
Facoltà di Lettere e Filosofia
Corso di Laurea in Filosofia
Scienze della Complessità
e Intelligenza Artificiale
Tesina
Diego Chillo
[email protected]
Questo testo è stato scaricato da: http://www.portalefilosofia.com
1
1. INTRODUZIONE : visioni a confronto
E' parere di molti che il ventesimo secolo sia privo di un contenuto scientifico autonomo
rispetto all'Ottocento, e che le sue forme altro non siano che la ripetizione delle aspirazioni e delle
prospettive illuministiche; nel ventesimo secolo si assiste infatti ad un' accelerazione nello sviluppo
di tali forme. Questa accelerazione l'abbiamo sotto gli occhi quotidianamente, nella rapidità con cui
un'innovazione tecnologica diventa di uso quotidiano, nello stravolgersi della geografia e
nell'obsolescenza degli atlanti.
L'Illuminismo è il trionfo della linearità, della certezza che la storia, la scienza, i fatti sociali si
potessero governare trovando una precisa relazione tra causa ed effetto. Una visione totalizzante del
mondo concedeva discrete possibilità di prevedere il futuro. E' il periodo di Lagrange e di Laplace,
del sogno di poter stabilire una configurazione fisica di un qualche istante del futuro partendo dalla
conoscenza di determinate condizioni iniziali.
Per comprendere, almeno a grandi linee, come sia mutata la scienza nel XX secolo partiamo
dalle due grandi scoperte che hanno rivoluzionato la meccanica (nel mondo fisico) e la logica (nel
mondo matematico): da un lato, Poincaré “mostra che complessità e impredicibilità sono legate e
sono conseguenze del determinismo delle equazioni di Newton. La seconda rivoluzione riguarda il
comportamento disordinato o caotico che è conseguenza delle leggi della meccanica classica”;
dall'altro, il Teorema di Gödel mostra “che esistono affermazioni che non possono essere provate
come né vere né false, numeri che non possono essere computati, ecc. Non solo, questa complessità
non è rara o patologica ma è comune e generalizzata essendo legata alla impredicibilità e al caos.”
[Casati, 1997]
Ecco dunque da dove nasce la necessità tutta contemporanea di definire una metodologia
capace di organizzare i dati dell'esperienza: a fronte di queste scoperte, la stessa scienza, sfuggita al
programma riduzionista, accetta, seppur con inquietudine, forme di razionalità che precedentemente
non riteneva possibili (teoria delle catastrofi, caos deterministico, meccanica quantistica).
Diventa sempre più urgente trovare nuove forme di interpretazione che consentano all'uomo
di capire il mondo ed agire sul mondo stesso.
Uno dei segni di questo mutamento è la nascita di una nuova comunità scientifica
transdisciplinare dedita all'investigazione dei fenomeni del “caos” : finalmente sembra
concretizzarsi la possibilita' di un inquadramento e di uno studio unificato di fenomeni che si
verificano in ambito scientifico, economico, umanistico, politico e sociale. L'unificazione è resa
possibile dalla sconvolgente scoperta che l'ordine appare di rado ed è suscettibile anche di
perturbazioni di minima entità, mentre il caos, che appare stabile e robusto, è la condizione piu'
frequente in natura. In un tale capovolto scenario si comprende meglio come il programma
evolutivo della natura – che deve offrire alle forme di vita la possibilità di un continuo
riadattamento in un ambiente continuamente in divenire – non possa che consistere nell'utilizzare lo
stesso caos come strumento evolutivo, dando origine alle cosiddette “mutazioni casuali”.
L'illusione illuministica di poter prevedere con certezza il futuro di un sistema svanisce grazie
alla scoperta del caos deterministico, avvenuta negli anni '70. Ricordiamo che un sistema può dirsi
deterministico quando il suo stato futuro è univocamente determinato dallo stato iniziale.
Ma ritornando molto indietro nella storia dell'umanità, si ritrova una percezione del Caos
come dominatore originario del mondo, riscontrabile fra l'altro dalla lettura di alcuni frammenti
orfici, di Esiodo, di Ovidio e di Platone. L'osservazione di una certa regolarità nel moto dei corpi
celesti generò successivamente l'illusione di un “universo ordinato e completamente predicibile”,
regolato da un demiurgo con il compito preciso di riordinare il mondo. Dopo molti secoli, Laplace
esaltava nella meccanica newtoniana la capacità di prevedere gli eventi, in altri termini il suo
carattere deterministico; questa fiducia illuministica nella capacità dell'uomo di sempre meglio
dominare gli eventi e controllarne e prevederne l'evoluzione ha continuato a permeare le
convinzioni degli scienziati fino a poco tempo fa, confortata da scoperte quali la teoria della
relatività, le forze nucleari. Questa plurisecolare convinzione comincia a mostrare le prime falle
2
dinanzi ad alcune osservazioni della meccanica quantistica, all'apparenza banali ma di grande
importanza per l'evoluzione della sistemica, fondate sulla constatazione che se il futuro di un
sistema è determinato in modo univoco dal suo stato presente non significa che noi siamo
effettivamente in grado di determinarlo (ciò che afferma il principio di indeterminazione di
Heisenberg). Inoltre si è cominciato ad osservare come sistemi che all'apparenza sono molto
semplici possano avere soluzioni la cui complessità è tale da farle apparire casuali.
Il primo a rivelare questo fatto fu il grande matematico e filosofo Henri Poincaré nei suoi
studi di meccanica celeste, ma solo l'avvento dei moderni calcolatori ha consentito di coglierne la
rilevanza e le implicazioni. A prima vista l'esistenza del “caos deterministico”, cioè l'esistenza di
sistemi deterministici che sono allo stesso tempo caotici, può sembrare un fatto contraddittorio. In
realtà, questa apparente contraddizione nasce dalle barriere psicologiche dovute a secoli di
tradizione che hanno considerato determinismo e caos come concetti contrapposti.
Nei cinque anni tra il 1970 e il 1975 le diverse linee di sviluppo della ricerca si fusero e prese
piede il fenomeno interdisciplinare delle Scienze della Complessità. Il solo 1975 può essere
ricordato per un paio di eventi che si rivelarono di grande importanza : Benoit Mandelbrot definì il
concetto di “frattale”, struttura geometrica con dimensioni non intere e auto-similarità annidate
all'infinito. Tien-Yen Li e James Allen Yorke applicarono l'espressione “Caos” al comportamento
irregolare e instabile di sistemi matematici semplici. Il nuovo campo di indagine prese forma e
divenne visibile alle diverse comunità e discipline all'interno delle scienze empiriche.
2. IL TEOREMA DI GODEL : la fine di un'illusione
Se nel 1925 Hilbert cercava di provare la validità dell'affermazione matematica che un
sistema formalizzato è coerente, fu Kurt Godel nel 1931 a dimostrare, procedendo esattamente nella
direzione opposta, che il sistema descritto nei “Principia Mathematica” di Russell tollera
l'introduzione di enunciati veri in tutti i modelli ma non derivabili.
Senza addentrarci nei particolari della dimostrazione, possiamo dire con termine informatico
che il “baco” è stato individuato costruendo una formula G che parla di se stessa; nel caso specifico,
traducendo nel formalismo dell'aritmetica l'affermazione “la formula G non è dimostrabile nel
sistema formalizzato della teoria dei numeri”.
A questo punto, se G fosse un teorema allora sarebbe dimostrabile (ovvero esisterebbe una
successione di trasformazioni che dagli assiomi conduce a G); in questo caso si avrebbe una
contraddizione poiché G stessa afferma di non essere dimostrabile. Se invece G non fosse un
teorema, non avremmo alcuna contraddizione, ma saremmo costretti ad ammettere che nel sistema
assiomatizzato esistono formule vere che non possono essere dimostrate a partire dagli assiomi.
Questo risultato diventerà più tardi argomento di discussione tra gli studiosi di I.A. : secondo
alcuni infatti il teorema di Godel prova che nessuna macchina potrà mai emulare la mente umana,
perchè non sarebbe in grado di costruire formule vere che non siano teoremi. Vedremo più avanti
che questa posizione non è condivisa da tutti. Anche la capacità dei sistemi viventi di autoreplicarsi
può essere considerata un isomorfismo dell'anello ricorsivo introdotto da Godel : le stringhe di
DNA deteminano l'assemblaggio delle proteine, ma quest'ultimo è necessario a riprodurre le prime
per consentirne la duplicazione, trascrizione e traduzione.
Quello di Godel è stato quindi un contributo fondamentale non solo per la logica e la
matematica, ma per i tutti successivi sviluppi delle scienze della complessità.
3. LA COMPLESSITA' : considerazioni generali
Il fenomeno della auto-organizzazione e' solo una delle piu' interessanti manifestazioni che si
3
possono avere in un sistema complesso, cioe' in un sistema composto da un numero di parti cosi'
elevato da rendere impossibile seguirne separatamente ciascuna. Ma ci sono anche altre emergenze
e altri problemi, da cui nascono le scienze della complessita', il cui rapido sviluppo e' lungi
dall'essere terminato.
Fra i fenomeni piu' importanti che si possono verificare nei sistemi complessi c'e' una
distribuzione dell'auto-organizzazione in una serie ascendente di livelli, tali che per ciascuno di essi
bisogna escogitare – almeno in una certa misura – un diverso metodo d'indagine. Per fare un
esempio, prendiamo gli atomi che costituiscono il nostro corpo. Essi si organizzano in
macromolecole; le macromolecole si organizzano in cellule; le cellule si organizzano in vari tessuti;
i tessuti danno luogo agli organi; infine si arriva all'intero corpo umano. I diversi livelli certamente
interagiscono tra loro; ma in una prima approssimazione possono considerarsi come separati ed
essere ciascuno studiato e trattato per suo conto. Faremmo ben pochi progressi se per esaminare un
qualsiasi organismo vivente dovessimo analizzare ogni suo atomo: è evidente che in questi casi non
sono applicabili i metodi della fisica atomica e della meccanica quantistica.
Naturalmente un livello veramente superiore di organizzazione nel corpo umano e' il cervello,
con i suoi miliardi di neuroni, che continuamente ristrutturano le loro connessioni (sinapsi)
mediante l'informazione e l'apprendimento: un sistema complesso che le indagini neurologica,
psichiatrica e psicologica sono ad oggi solo riuscite a sfiorare.
Perche' poi fermarsi al singolo cervello individuale? Non e' la societa' con le sue istituzioni, i
suoi costumi, la sua cultura un'organizzazione di livello ancora piu' alto del singolo individuo?
Certamente lo studio dei sistemi complessi ha dinanzi a sé ancora un ricchissimo futuro, nel quale i
vari livelli della ricerca umana s'intrecciano in modo quanto mai interessante e profondo.
Per noi è naturale affrontare lo studio della natura cominciando da ciò che alla nostra mente
appare semplice ed essenziale; la scienza occidentale ha seguito il cammino indicato da Galileo:
nessuno vieta di affrontare lo studio della natura in senso olistico, cioe' in blocco, senza dividere
l'universo in parti (per noi) semplici. E' quello che sosteneva, per esempio, un grande come Goethe;
egli diceva che la natura non ha “ne' nocciolo ne' buccia ed e' data tutta insieme”. L'unico guaio e'
che cominciando lo studio da quella parte non si arriva a nulla di progressivo e intersoggettivo.
Galileo insegnava, invece, che nell'affrontare lo studio di un fenomeno fisico bisogna
cominciare col liberarlo da tutti gl'impedimenti “esterni e accidentari”. E' evidente che siamo noi a
giudicare in che misura un dato fattore e' esterno e accidentale. Per la natura tutto e' interno ed
essenziale al fenomeno; la natura non puo' avere preferenze.
Da questo punto di vista dobbiamo considerare una fortuna che gli scienziati del secolo XIX
abbiano studiato gli insiemi di innumerevoli molecole con metodo boltzmanniano, con ammissioni
di chiusura e di linearita', con vicinanza alle condizioni di equilibrio. Cosi' indubbiamente si
comincio' a capirci qualcosa. Dopo, molto dopo, venne il momento di prendere in considerazione i
sistemi aperti, la lontananza dalle condizioni di equilibrio, le inevitabili non.linearita'. In questo
modo siamo riusciti a fare ulteriori passi avanti; ma – grazie a Galileo e ai suoi seguaci – sono stati
passi avanti rispetto a mete gia' raggiunte.
Cosa sono dunque i sistemi complessi? Tratti distintivi dei sistemi complessi e del
comportamento complesso sono fenomeni dinamici specifici: sebbene molti sistemi complessi
abbiano una struttura nomologica, e consistano di principi di base piuttosto semplici e di equazioni
fondamentali altrettanto semplici, si possono individuare al loro interno instabilità dinamiche,
biforcazioni e “Caos Deterministico”, come forme di strutturazione spaziale di dinamica complessa
e di auto-organizzazione. La causa di tutti questi fenomeni in cui la complessità trova espressione è
un'intrinseca e dinamica auto-referenzialità che appare in diverse varietà.
Quali aree di ricerca riguardano le scienze della complessità? Il nocciolo delle scienze della
complessità è costituito dalla Teoria dei Sistemi Dinamici, che forma parte della matematica pura.
L'oggetto della Teoria dei Sistemi Dinamici è in primo luogo e soprattutto il comportamento dei
sistemi di equazioni differenziali e, in seconda istanza, qualunque cosa possa essere trasformata in
tali sistemi.
4
4. SISTEMI APERTI : il caos deterministico
Da quando ci si e' avventurati nell'esame dei sistemi che scambiano materia ed energia con
l'ambiente esterno -quindi lontani dalle condizioni di equilibrio termico- ci si e' accorti che molti
dettagli in passato ritenuti inessenziali risultavano essere sommamente rilevanti per la
comprensione delle cose del mondo e di noi stessi.. Tra i pionieri di questi studi e' Ilya Prigogine, il
quale ne ha sviluppato notevoli conseguenze.
Quei sistemi che sono troppo complessi per consentire a noi di farne un'analisi dettagliata come, per esempio, i sistemi formati da miriadi e miriadi di atomi e molecole- non possono essere
trattati semplicisticamente considerando di essi la parte che conosciamo, mettendo poi in uno stesso
calderone tutto quello che non sappiamo e facendo finta che non esista. In realta', quello che non
sappiamo puo' essere altamente strutturato e dar luogo a risultati talmente significativi che non ci e'
consentito di ignorarne l'esistenza.
Tutto dipende dal modo in cui interagiscono fra loro gli elementi che costituiscono il sistema
complessivo. Per lungo tempo abbiamo presupposto solo interazioni lineari, ovvero tali che gli
effetti sono proporzionali alle cause. Ma nel mondo reale spesso le cose sono ben piu' complicate ed
i fenomeni risultano non-lineari. Qui nascono parecchie difficolta' per chi vuole eseguire i calcoli;
ma c'e' la possibilita' che emergano anche cose nuove. I sistemi aperti e non lineari possono essere
tali da ospitare al loro interno sottosistemi ben strutturati, nei quali si riscontra la nascita di
un'organizzazione spontanea, cioe' di una crescita di ordine.
I sistemi chiusi sono una costruzione alquanto artificiale. Nell'universo in grande non esistono
sistemi chiusi e isolati; infatti, ogni parte dell'universo scambia radiazioni con insiemi anche lontani
di stelle e di galassie.
Supponiamo che le condizioni iniziali di un sistema determinino tutto quello che in esso
avverra' dopo l'istante iniziale. Quanto dopo? L'assegnazione di ciascuna condizione iniziale e' il
risultato di una misura, effettuata necessariamente con una certa precisione x. Con quale precisione
possiamo affermare che, trascorso un tempo T, troveremo il sistema in un determinato stato?
Possiamo avere due casi differenti :
1.Per alcuni sistemi, trascorso un tempo T, le precisioni x con le quali possiamo predire i valori
delle varie grandezze rimangono al di dentro delle precisioni iniziali (eventualmente possono
anche diventare molto migliori).Dunque, per tali sistemi, con quanta maggior precisione
misuriamo le condizioni iniziali, con tanta maggior sicurezza potremo pronunciarci sul risultato
finale. Inoltre, se le cose non cambiano, possiamo scegliere la durata T – trascorsa la quale
effettuiamo la verifica – lunga quanto vogliamo.
2.Ci sono invece altri sistemi per i quali succede che le x, dentro le quali possiamo essere sicuri del
risultato finale, vanno aumentando – addirittura esponenzialmente – con l'allungarsi di T. Basta
allora che il sistema sia un po' piu' complesso perche' si sia spinti a parlare di imprevedibilita'
finale e di caos. Non c'e' precisione iniziale cosi' spinta che basti a garantirci da un fallimento
alla lunga.
In realta', si puo' dire che il procedimento della fisica classica e' ancora perfettamente valido,
con l'unico avvertimento che nel secondo caso le x vanno presentate come funzioni (crescenti) di T.
A volte diventeranno rapidamente cosi' grandi da impedirci qualsiasi previsione utile “a lungo
termine”. Bisognerà dunque limitare T; ma ciò non ci autorizza a parlare di una fisica
indeterministica. “Indeterminismo” e “imprevedibilità” non sono la stessa cosa.
Inoltre, non bisogna dimenticare che nella stessa fisica classica non ci proponiamo sempre di
seguire dettagliatamente la storia di ciascun componente del sistema.A volte – come abbiamo gia'
spiegato – quello che ci interessa e' la predizione, magari probabilistica, del comportamento
5
dell'intero sistema; predizione che possiamo benissimo confrontare con l'esperienza.
Uno dei casi ben noti in cui un sistema fisico complesso si avvia rapidamente al caos e' quello
che si incontra nella meteorologia. Nessuno e' in grado di predire con sicurezza che tempo fara' in
un dato luogo, poniamo, fra 25 giorni. Certamente si potra' osservare che non disponiamo di tutti i
dati necessari. In parte questo e' vero. Anche le rilevazioni trasmesseci dai satelliti artificiali, che ci
forniscono oggi un'enorme massa d'informazioni, lasciano tuttora maglie troppo larghe rispetto a
quello che vorremmo. Ma anche se le informazioni arrivassero ben piu' dettagliate e precise, anche
se poi disponessimo di calcolatori sufficientemente potenti per elaborarle, sta il fatto che una
piccola imprecisione nella rilevazione si tradurrebbe presto nella inaffidabilita' della previsione.
Emblematico a questo proposito è l'ormai celebre lavoro del metereologo Edward Lorenz, che
nel 1963 mostrò come, per avere un comportamento caotico di un sistema dinamico, fosse
sufficiente un modello assai semplice di equazioni differenziali non lineari. Accade cioè che due
stati inizialmente prossimi quanto si vuole, si allontanino esponenzialmente col tempo.
Dall'impossibilità, non soltanto pratica, ma di principio, di definire le condizioni iniziali con
precisione infinita, discende dunque una sostanziale imprevedibilità dello stato del sistema che
diventa sempre meno dominabile con il crescere dell'intervallo di tempo trascorso dall'istante
iniziale. E' sufficiente quindi uno scarto piccolo a piacere nella determinazione della condizione
iniziale per produrre, dopo un intervallo opportuno di tempo, uno scarto arbitrariamente grande
nello stato finale del sistema considerato.
Allora il tempo meteorologico e' assolutamente impredicibile ? Non esageriamo: si tratta
semplicemente di limitare opportunamente T.
Sara' bene notare che non sempre e' necessario avere un sistema enormemente complesso per
dover rinunciare alla precisione. Basta anche considerare un sistema (apparentemente) semplice
come quello solare. Nessuno puo' arrivare a predire che sara' di esso fra qualche miliardo di anni.
Ma cio' non toglie che domani sera un astronomo che voglia osservare un determinato astro puntera'
il suo telescopio verso un punto del cielo e lo troverà senza sorprese. Di nuovo si tratta di limitare
T.
E' comunque da meditare il fatto che in un sistema complesso puo' in teoria bastare un
intervento minimo per scatenare il caos. Rimanendo sempre nel campo meteorologico, e' stato
osservato che il battito delle ali di una farfalla – che e' un essere da considerare estraneo al sistema
atmosferico – puo' provocare un ciclone a grandissima distanza. Accettiamolo pure, anche se da
sempre le probabilita' infinitesime sono da considerarsi nulle.
Dal punto di vista concettuale dunque, la scoperta che, salvo poche eccezioni, la stragrande
maggioranza dei fenomeni naturali si presenta sotto le forme del caos deterministico fa cadere
irreparabilmente il mito fondamentale della scienza ottocentesca: quello della prevedibilità della
natura.
5. CAOS O CASO ?
La tradizionale visione del Caos come una sorta di anomalia di un universo ordinato ci ha fino
ad ora costretti a ripiegare sulla casualità per spiegare fenomeni che non rientravano
deterministicamente nell'evoluzione prevista per determinati sistemi.
Il fisico Giuseppe Zito fornisce una spiegazione adatta anche ai “profani” : “In matematica
esiste questa astrazione che sono i numeri reali : astrazione perchè essi hanno precisione e
informazione infinita e perciò sono impossibili da realizzare nella vita reale. Infatti i numeri
risultato di misurazioni sono di necessità finiti come lo sono i numeri cosiddetti reali nel
calcolatore.
I matematici e i fisici non si erano resi conto che questa piccola differenza puo' provocare il
caos. Da notare che questo tipo di caos prodotto dal algoritmi semplici non va confuso col caso
dove non esistono algoritmi per riprodurre i risultati osservati, ad esempio i risultati del lotto. Per
distinguere i due casi si parla del caos deterministico quando esso è prodotto da leggi semplici e di
6
“caso” quando l'unico algoritmo possibile è quello di enumerare tutti i risultati ottenuti senza che sia
possibile prevedere quelli futuri.
Il fatto che il caos sia possibile con leggi semplici è stata una grande scoperta ed ha fatto
sperare che alcuni fenomeni finora considerati casuali (cioè impossibili da descrivere se non con
leggi statistiche) siano in effetti dovuti a leggi semplici (ad esempio l'andamento della Borsa). Ce ne
siamo resi conto col calcolatore che usa numeri approssimati come la realtà.”
Riepilogando le caratteristiche della Rivoluzione Scientifico-Strutturale che ha avuto luogo
con l'emergere delle Scienze della Complessità, possiamo distinguere quattro fasi. La prima fase
consiste nel verificarsi di anomalie nel contesto delle scienze empiriche, soprattutto all'interno della
meccanica classica. Queste anomalie erano dovute a una carenza di conoscenza delle implicazioni
dei modelli teorici del linguaggio matematico utilizzato nelle teorie delle scienze empiriche. Nella
seconda fase, un'esplorazione nelle zone problematiche dei modelli che riguardavano i modelli
strutturali e dinamici utilizzati nelle scienze empiriche porto' a un'indagine che aveva come oggetto
le corrispondenti classi di modelli. Si costituì allora una tradizione “sommersa” di indagine
strutturale-scientifica. I problemi che avevano innescato l'indagine e i successivi sviluppi divennero
perlopiù invisibili alle scienze empiriche. La terza fase consiste in un costante progresso interno alla
matematica. Solo durante la quarta fase, dopo un significativo lasso di tempo e dopo aver appianato
le carenze dei modelli teorici si manifestano le prime ripercussioni delle nuove intuizioni
scientifico-strutturali all'interno delle scienze empiriche. Lo sviluppo, invisibile per lungo tempo per
le scienze empiriche, riemerse: lo spettro delle scienze della complessità, unitamente alle loro
implicazioni filosofiche, ne è il risultato.
6. LE FORME AUTOSOMIGLIANTI : i frattali
Prima di approfondire i concetti di autoreferenzialità e autosomiglianza, prendiamo in
considerazione quelle particolarissime e apparentemente caotiche forme grafiche che sono i
“frattali”, che ci possiamo figurare come le coste frastagliate dei fiordi norvegesi.
Il nome dei frattali (che deriva dal latino “fractus”, frammentato) è dovuto alla caratteristica
di presentare irregolarità infinitamente stratificate, frammentazioni non osservabili né calcolabili se
non per mezzo del computer. Il programma richiesto per la generazione di una forma frattale si basa
sull'iterazione di una formula e pertanto richiede l'esecuzione di un programma di poche righe. Un
frattale è un oggetto autosomigliante, in quanto ottenuto a partire da un oggetto di partenza con cui
mantiene un rapporto di omotetia e di cui mantiene la forma e le proprietà; per spiegare questo
concetto, il matematico francese Benoit Mandelbrot, creatore della geometria frattale(che definiva
“un linguaggio per parlare di nuvole”!) staccava un pezzo di cavolfiore ed invitava ad osservare
come esso fosse del tutto simile ad un cavolfiore più piccolo; e da quel pezzo staccava poi un
pezzetto ancora più piccolo, ripetendo su di esso la medesima osservazione. Zoomando su una
forma frattale, il suo frastagliato profilo evidenzia una struttura che si ramifica ulteriormente ad
ogni successivo ingrandimento, svelando infiniti nuovi dettagli, e ciò vale per infiniti ulteriori
ingrandimenti.
Un'altra caratteristica dei frattali che li diversifica ulteriormente dalle forme della geometria
classica è data dal fatto che essi hanno una dimensione non intera bensì decimale; questo significa,
per esempio, che un frattale di dimensione 1,5 è una via di mezzo tra una linea e una superficie.
Anche per i frattali ci si è accorti che tali forme non sono, nel mondo che ci circonda,
un'astrusa eccezione, ma la regola. Le inedite caratteristiche dei nuovi oggetti della geometria
frattale, riabilitata dalla scoperta del caos deterministico e dall'introduzione dei sistemi dinamici
nello studio di comportamenti complessi, hanno consentito di analizzare e spiegare fenomeni quali
ad esempio quello delle turbolenze; in particolare, i frattali appaiono strettamente collegati agli
“attrattori strani”, riscontrabili nei sistemi dinamici nel cui comportamento il livello caotico va
aumentando in presenza di perturbazioni esterne e di effetti dissipativi.
7
7. AUTOREFERENZIALITA' E AUTORGANIZZAZIONE
Possiamo ora estendere le peculiarità introdotte dalle autosomiglianze frattali ad altri sistemi,
ed in particolare a quelli implicati nelle applicazioni di intelligenza artificiale.
E' a partire dagli anni '50 che nasce l'interesse per i sistemi autoreferenziali; in questo periodo
infatti si costituisce un gruppo di discussione interdisciplinare sulle problematiche della cibernetica,
tra i cui membri figurano i nomi notevoli di Norbert Wiener (il fondatore), Claude Shannon, von
Neumann e Gregory Bateson.Secondo la teoria dei sistemi autorefenziali, uno sviluppo dei sistemi
mediante differenziazione avviene solo tramite autoriferimento: vale a dire che, nella costituzione
dei loro elementi e nelle loro operazioni elementari, i sistemi fanno riferimento a loro stessi (a
elementi e a operazioni del loro sistema, e alla unità di questo). Perchè ciò avvenga i sistemi devono
produrre e utilizzare una descrizione di se stessi; essi devono essere capaci di servirsi al loro interno
della differenza tra sistema e ambiente come orientamento e come principio per la produzione di
informazioni. Le varie forme di autoriferimento individuate da Luthmann sono unite da una comune
idea di fondo : l'autoriferimento è un correlato della pressione esercitata dalla complessità del
mondo. Ovvero: non è possibile rappresentare, trattare, controllare in maniera adeguata la
complessità del mondo, perchè ciò produrrebbe di pari passo un aumento di tale complessità, in una
regressione infinita, che invece l'autoriferimento evita.
I sistemi formati mediante autoriferimento di base si dicono autopoietici; essi sono sistemi
chiusi, cioè utilizzano per la propria riproduzione unità già costituite entro il sistema; Humberto
Marturana e Francisco Varela sono stati i primi a riconoscere, con la formulazione del concetto di
autopoiesi, l'autorganizzazione quale discriminante tra vivente e non vivente.Come abbiamo già
accennato, la società è il sistema per il quale non esiste alcun sistema che lo comprenda, e per il
quale di conseguenza non è possibile nessuna comprensione dall'esterno, ma solo autoosservazione,
autodescrizione e autochiarimento delle proprie operazioni.
Alla base dell'autoreferenzialità sta il concetto di “retroazione” (feedback), che permette al
sistema di autoregolarsi nel corso del proprio funzionamento correggendo gli scarti dal programma
previsto in sede di progetto. Il feedback si realizza quando la macchina è in grado di analizzare le
proprie prestazioni in uscita e di confrontarle con quelle in entrata, ed è capace di appianare
autonomamente eventuali differenze (questa autoregolazione viene detta omeostasi).
Ove invece il segnale in entrata produca un segnale di uscita totalmente imprevedibile , ogni
componente fornisce alle altre un segnale dotato di significato, ovvero contiene nuova
informazione.
L'esempio riportato da Marcello Cini nel suo Un Paradiso Perduto consente di comprendere
meglio questa differenza : prendiamo in considerazione queste due frasi :
LA FRASE SEGUENTE HA X LETTERE
LA FRASE PRECEDENTE HA Y LETTERE
Per quali X e Y, i cui nomi hanno lunghezza N(X) e N(Y), si rendono vere le due frasi ? Una
possibile soluzione è X=35 (TRENTACINQUE=12 lettere), Y=36 (TRENTASEI=9 lettere), poiché
così la prima frase contiene 24+12=36 lettere mentre la seconda ne contiene 26+9=35 lettere.
Le due frasi sono le due componenti del sistema. Il segnale in entrata della frase (1) è il
numero N(Y)+26 che contiene un'informazione sulla lunghezza Y di (1). Il segnale in uscita di (1),
che è anche il segnale in entrata della frase (2), è il numero 24+N(X). Il punto essenziale è che non
c' è una relazione univoca tra un numero X (o Y) e la lunghezza N(X) (o N(Y)) del suo nome. In
altri termini il segnale in uscita ha un significato nuovo che non era presente in quello di entrata.
Partendo da un numero a caso per X dopo un certo numero di iterazioni si cade su una delle
soluzioni, che sono gli attrattori dell'evoluzione del sistema.
8
Un sistema autoreferenziale con un elevato numero di componenti “non banali” avrà dunque
un gran numero di stati stabili che dipendono soltanto dalla sua struttura interna, che possiamo
immaginare come organizzata in una gerarchia di livelli in comunicazione tra di loro. Questa
gerarchia “intrecciata” non produce semplicemente autoregolazione bensì autoreferenzialità, perchè
non c' è una corrispondenza biunivoca fra i linguaggi dei diversi livelli.
Il concetto di “autorganizzazione” è strettamente connesso con l'autoreferenzialità, che ne è
addirittura condizione necessaria; è questa la caratteristica che differenzia i sistemi viventi dalle
macchine progettate per raggiungere scopi particolari.Al contrario di queste, l'organizzazione
interna dei sistemi viventi è la premessa e simultaneamente il risultato dell'organizzazione stessa : il
DNA contiene infatti l'informazione necessaria per la sintesi delle proteine, ma le proteine sono
necessarie per realizzare questa sintesi e duplicare lo stesso DNA.
Secondo Varela e Marturana, “una macchina autopoietica continuamente genera e specifica
la sua propria organizzazione operando come sistema di produzione dei suoi propri componenti, e
lo fa in un turnover senza fine di componenti in condizioni di continue perturbazioni e di
compensazione di perturbazioni”.
8. SISTEMI ETERONOMI E SISTEMI AUTONOMI
E' necessario ora capire in che cosa consista questo processo di apprendimento, cioè in che
modo un sistema autorganizzatore possa passare da uno stato interno all'altro nell'ambito di una
ricchissima molteplicità di stati stabili possibili e possa riprodurre invariata tale organizzazione
interagendo con un ambiente esterno mutevole e imprevedibile. La stessa domanda si può porre se
si passa dall'individuo singolo alla specie, e su scala temporale dall'arco della vita individuale a
quello di un gran numero di generazioni successive, per quanto riguarda il processo evolutivo.
Varela distingue due concezioni dell'apprendimento: quella tradizionale-rappresentazionista,
secondo cui gli organismi sono sistemi la cui evoluzione dinamica genera una corrispondenza fra il
mondo esterno e la sua rappresentazione interna (sistemi eternonomi), e quella secondo cui invece
gli organismi sono sistemi autonomi sui quali il mondo esterno agisce soltanto come perturbazione.
I comportamenti di questi ultimi sono la manifestazione di transizioni fra stati di coerenza
interna strutturati autonomamente perchè generati dalla ricorsività degli anelli autoreferenziali che
connettono le componenti del sistema. Questo non significa che il sistema è isolato, bensì che
l'universo dei suoi stati possibili non dipende dal mondo esterno ma è generato dalla condizione di
autoconsistenza imposta ai modi di funzionamento delle sue diverse componenti dalle loro
reciproche interconnessioni.
Va inoltre chiarito che le due visioni, eteronoma ed autonoma, non sono mutuamente
esclusive, ma devono necessariamente essere integrate.
9. RUMORE E COMPLESSITA' : una nuova visione dell'evoluzionismo
L'approccio rappresentazionista tradizionale consiste nell'assumere che il sistema nervoso
funzioni a partire dal contenuto informativo delle istruzioni che provengono dall'ambiente,
elaborando una rappresentazione fedele dell'ambiente stesso. Un diverso approccio invece consiste
nel pensare che il sistema nervoso sia definito essenzialmente da differenti stati di coerenza interna,
che risultano dalla sua interconnettività. La chiave di un sistema così strutturato è la sintesi e la
diversità dei suoi autocomportamenti piuttosto che la natura delle perturbazioni che li modulano.
Lo stesso discorso puo' essere rapportato all'evoluzionismo : nella visione tradizionale
l'ambiente è il filo conduttore che permette di comprendere la dinamica delle trasformazioni di una
specie di generazione in generazione. Nell'accoppiamento per chiusura operazionale invece si
assume che i diversi modi di coerenza interna di una popolazione animale siano il filo conduttore
9
che permette di comprendere le trasformazioni filogenetiche. La successione di perturbazioni
seguita da riorganizzazioni intese a mantenere la coerenza interna della popolazione ha per
conseguenza dunque la generazione della diversità, cioè tutto il contrario dell'ottimizzazione
dell'adattamento.
Ecco dunque vacillare la fede nel darwinismo propriamente detto, secondo cui i dettagli della
morfologia di un organismo sono una collezione di tratti frutto di un adattamento ottimale a
determinate condizioni ambientali. Essa dimentica infatti che l'unità non funziona come una somma
di caratteristiche, ma come un tutto coerente.
Risultato ultimo è una modificazione della sensibilità e dell'epistemologia contemporanee,
che sposta il significato della conoscenza da quello della formazione di un'immagine del mondo a
quello della costruzione del mondo attraverso un processo di reciproca specificazione di un
organismo e del suo ambiente che coemergono simultaneamente.
Secondo alcuni la complessità si origina dal rapporto tra soggetto e oggetto piuttosto che dalla
struttura intrinseca dell'oggetto osservato. E' un approccio “quantistico” e quindi probabilistico,
dove la complessità consiste nell'informazione mancante necessaria per avere una spiegazione
esauriente e completa della formazione del sistema e del suo funzionamento. Tale informazione
mancante è tanto maggiore quanto minore è la probabilità che il sistema sia arrivato in modo
puramente casuale ad avere la sua organizzazione.
10. LINGUAGGIO RIDUTTIVO E LINGUAGGIO SIMBOLICO
La ricombinazione degli elementi del sistema è il processo basato sulla creazione di nuovi
significati: infatti, perchè sia possibile produrre una riorganizzazione dal caos, è necessario che il
significato delle relazioni tra le parti si trasformi. E' dunque necessario distinguere due tipi di
significato che si possono attribuire alle descrizioni dei sistemi : uno riduttivo e uno simbolico.
Nel primo caso, ad esempio, per descrivere il funzionamento di una serratura dobbiamo
elencare le azioni meccaniche che intervengono nella liberazione del chiavistello quando la chiave
provoca l'abbassamento dei denti del tamburo. La descrizione simbolica dello stesso evento si
limiterebbe invece ad osservare come la serratura recepisca il significato del messaggio contenuto
nella chiave.
L'utilizzo della spiegazione simbolica diventa conveniente soprattutto per i sistemi
particolarmente complessi : sarebbe improponibile pensare ad esempio ad una descrizione riduttiva
del processo di assemblaggio delle proteine dell'RNA cellulare. E' indubbio che in un caso simile la
descrizione simbolica permetta di comprendere senza difficoltà la funzione comune di una serie di
elementi che differiscono notevolmente tra di loro.
Nei sistemi particolarmente semplici come quello della serratura è evidente la corrispondenza
diretta tra la spiegazione riduttiva e quella simbolica. Per i sistemi complessi, invece, una regola che
metta in relazione i due non si può dare; addirittura potremmo dire che sono complessi quei sistemi
per i quali questa regola non c'è. In poche parole, non siamo in grado di mettere biunivocamente in
corrispondenza gli stati microscopici del sistema con i comportamenti coerenti evidenziati dalle
macrostrutture.
La struttura a livelli prevede che, sia per i sistemi complessi naturali che per quelli artificiali,
tra i linguaggi degli strati inferiori e quelli dei superiori non vi sia corrispondenza, ma siano
comunque tra loro vincolati. In pratica, le leggi che regolano la dinamica delle entità elementari che
costituiscono il livello inferiore impongono dal basso vincoli di compatibilità sull'evoluzione delle
grandezze del livello superiore, mentre queste ultime dall'alto selezionano gli stati dinamici
microscopici ordinandoli in classi dotate di un significato che essi singolarmente di per sé non
avrebbero.
L'interazione fra livelli causa la perdita dei confini tra l'uno e l'altro, e tale gerarchia
intrecciata comporta che nessun livello possa dirsi superiore ad un altro.
10
A questo punto, considerando che non può esistere altra descrizione della complessità
differente da quella dell'osservatore, dobbiamo chiederci se i livelli di organizzazione sono reali o
sono dovuti invece al fatto che abbiamo tagliato la realtà a differenti livelli in conseguenza delle
tecniche di osservazione di cui disponiamo. Nell'impossibilità di avere una visione globale del
sistema, è il nostro cervello che monta assieme i dati provenienti dalle singole osservazioni; rimane
però irrisolta la questione su come debbano essere rappresentate le articolazioni tra i livelli.
Possiamo dunque riconoscere che è nelle articolazioni che si crea ogni nuovo significato, oppure
possiamo tentare di scoprire una nuova tecnica che dia accesso a una data articolazione; così
facendo creiamo un nuovo livello, ed apriamo una catena infinita che non ci porta ad alcuna
conclusione valida.
In questo sistema gerarchizzato, l'osservatore rappresenta il livello di organizzazione
superiore, che comprende cioè tutti i sistemi elementari che lo compongono.
11. LA SIMULAZIONE DELL'INTELLIGENZA UMANA
La maggior parte dei ricercatori in I.A. è dell'idea che il pensiero razionale si produca
assemblando simboli mentali secondo regole logiche. Non è di questo parere Douglas Hofstadter
per il quale, a fronte dei livelli gerarchici introdotti dalle scienze della complessità, i simboli non
sono enti passivi manipolabili quanto piuttosto fenomeni collettivi (ovvero che coinvolgono più
elementi contemporaneamente) dotati di proprietà attive ma non necessariamente di significato.
Egli sostiene che il cervello dell'uomo è un lampante esempio di “gerarchia aggrovigliata” di
livelli di significati. Se il più basso dei livelli cerebrali è quello neuronale, è chiaro allora che la
rappresentazione del mondo nel cervello include per lo più elementi che non hanno alcuna
corrispondenza effettiva con il mondo fattuale: naturalmente esistono simboli corrispondenti a
“casa”, “albero”, “gatto”, etc. ma le loro strutture interne sono estremamente complesse e non
disponibili ad un esame psicologico.
E' probabile che al livello più basso dei processi cerebrali, quello dei neuroni, non avvenga
alcuna interpretazione degli eventi-scariche neuroniche, che sarebbero un semplice sostrato come
per i moderni computer lo è l'insieme dei microchip che compongono il circuito; tali scariche
acquisiscono un significato solo nei livelli superiori, quelli appunto dei simboli. E' un'impresa
impossibile dare un significato all'attività degli strati inferiori se non li si considera in rapporto a
quelli superiori.
Sebbene sia sempre possibile simulare una rete neuronale, non è possibile che tale rete
assuma un significato di livello superiore.Volendo dare un'interpretazione più rigorosa, potremmo
citare una “Versione Microscopica” della tesi di Church-Turing così come è esposta da Hofstadter :
Tesi di Church-Turing, Versione Microscopica: Il comportamento dei componenti di
un sistema vivente può essere simulato su un calcolatore. Vale a dire, il comportamento di ogni
componente (che normalmente si suppone essere la cellula) può essere calcolato da un programma in
CicloI (cioè con una funzione generale ricorsiva) ad ogni livello di precisione voluto, data una
descrizione sufficientemente precisa dello stato interno dei componenti e dell'ambiente locale.
E' evidente il senso profondamente riduzionista si questa testi, dalla quale è immediato dedurre che
“tutti i processi cerebrali derivano da un sostrato calcolabile” (Versione Riduzionistica della Tesi di
Church-Turing).
La speranza che questa tesi apre per la realizzabilità dell' Intelligenza Artificiale lascia comunque
aperta la questione su quale sia il livello di precisione con cui dovremmo copiare il cervello prima
di poter dire di aver raggiunto l'IA, ovvero a quale livello potremmo dirci sodisfatti, visto che
esistono già numerosi programmi e “sistemi esperti” che riproducono determinati comportamenti
umani in maniera perfetta (giocatori di scacchi, integratori di funzioni, etc.).
Il supporre che l'irrazionalità sia incompatibile con i calcolatori, è una idea basata su una confusione
11
tra livelli : un funzionamento senza errori ad un certo livello potrebbe fare da base ad una
manipolazione di simboli ad un livello superiore che sembra mancare di senso. Si pensi al fatto che
anche il cervello è composto di elementi che non commettono errori, cioè i neuroni; non accade mai
che un neurone non si comporti come ci si attende, cioè accumulando gli impulsi che gli arrivano e
scaricando il loro prodotto. Eppure abbiamo continuamente davanti a noi esempi di situazioni in cui
dal corretto funzionamento dei neuroni scaturiscono comportamenti sbagliati.
Potrebbe essere dunque perfettamente plausibile che l'hardware di un calcolatore,
assolutamente esente da errori, divenga il substrato di un comportamento di alto livello che
rappresenti stati tipicamente “umani” quali indecisione, dimenticanza, capacità di giudizio. Da
queste considerazioni si può far derivare un classico “credo” dei ricercatori in IA, la cosiddetta
“Tesi dell'IA” :
Tesi dell' IA: A mano a mano che l'intelligenza delle macchine evolve, i suoi meccanismi soggiacenti
tendono gradualmente a coincidere con i meccanismi che soggiaciono all'intelligenza umana.
Sembra quindi che ci si debba spingere a livelli sempre inferiori e più vicini ai processi cerebrali,
perchè le regole del “software” ai vari livelli possono mutare dinamicamente, mentre il
funzionamento dell' “hardware” è determinato e inviolabile.
BIBLIOGRAFIA
:
M.L.Dalla
Laterza
Chiara, G. Toraldo di Francia : Introduzione alla filosofia della scienza, ed.
2000
Reiner
Hedrich : Le scienze della complessità : una rivoluzione kuhniana ? (in
Epistemologia
Vol.1
anno
XXII,
1999)
Ersilia
Salvatore : Teoria della complessità e caos deterministico
Marcello
Douglas
Cini : Un Paradiso Perduto, ed. Feltrinelli 1999
R. Hofstadter : Godel, Escher, Bach–Un'Eterna Ghirlanda Brillante, ed. Adelphi
2000
12
Scarica