1 Il problema della verità e la base ontologica della conoscenza F.T.

annuncio pubblicitario
Il problema della verità e la base ontologica della conoscenza∗
F.T. Arecchi
Università di Firenze
e
Istituto Nazionale di Ottica Applicata
[email protected]
1-Descrizione e spiegazione
Un compito cognitivo corrisponde a porsi due tipi di domande: COME? PERCHE’? e rispondervi
rispettivamente con descrizioni o spiegazioni. La scienza moderna è stata costruita su una
autolimitazione, e cioè “ non tentare le essenze (nature) ma contentarsi delle affezioni quantitative”
(lettera di G. Galilei a M. Welser ,1612). Questa autolimitazione sembra escludere l’indagine
ontologica dal programma scientifico.
Ogni “affezione” o apparenza è estratta da un corrispondente apparato di misura ed ordinata come
elemento di uno spazio metrico. Un qualunque oggetto diventa così una collezione di numeri
corrispondenti alle misure delle varie affezioni; donde il successo della matematica nella
descrizione scientifica. Le regolarità suggeriscono correlazioni stabili, le leggi, con un dominio di
validità stabilito da metodi di falsificazione. Il linguaggio operativo è “formale” e la verità di una
proposizione consiste nella sua corrispondenza con le regole del linguaggio.
Dunque la scienza si configura solo come descrizione, cioè caratterizzazione delle affezioni che
forniscono un resoconto soddisfacente di uno stato di fatto.
Tuttavia rimangono aperti due problemi e cioè
i)
la ricostruzione inversa : come organizziamo la molteplicità delle affezioni in oggetti
coerenti,
ii)
la completezza dell’approccio diretto : per usare il gergo della psicologia della Gestalt,
come le salienze percettive vengano selezionate in modo da attribuire significato solo ad
alcune delle molteplici apparenze che sperimentiamo.
Il concetto di significato non appare nelle descrizioni ma solo nelle spiegazioni. Esso si presenta
nella scienza come un meta-principio, cioè è al di fuori dell’insieme di regole che caratterizza un
linguaggio formale: tale è ad esempio la “fitness” Darwiniana. Potremmo tentare di estendere il
linguaggio includendo le meta regole, ma sarebbe un compito senza fine: la pretesa di un linguaggio
formale di fornire una descrizione completa è incompatibile con la sua coerenza, a meno che uno
non postuli un universo finitistico in cui tutti gli eventi e le corrispondenti procedure di valutazione
richiedano un numero finito di passaggi.
Questi problemi sono stati affrontati con attitudini differenti dai gruppi che genericamente
chiamiamo filosofi “analitici” e “continentali”. I primi identificano la filosofia con le descrizioni,
riducendo tutti i problemi all’interno di un linguaggio formale; i secondi considerano la cognizione
come intenzionale, cioè che punta a qualcosa e che pertanto pone dei perché e richiede spiegazioni ,
ma lasciano aperta la questione se l’oggetto di conoscenza è fuori o dentro la nostra mente
[Brentano].
Il programma scientifico sembra svilupparsi dentro la prima linea, strutturandosi in scienze diverse,
ognuna corrispondente a un diverso gruppo di descrizioni, selezionate attraverso un pacchetto
limitato di procedure di misura, cioè corrispondente a un gruppo limitato di affezioni. D’altra parte
∗
Presentato al Convegno sulla Verità, organizzato da “Veritatis Splendor”, Bologna 10-11 Maggio 2002; le parentesi
quadre si riferiscono alla bibliografia.
1
recentemente la dinamica non lineare ha sviluppato un approccio scientifico olistico. In questo
approccio le differenti variabili dinamiche, o gradi di libertà, non sono considerate su base uguale
ma sono organizzate secondo una gerarchia; precisamente poche variabili altamente stabili, cioè a
decorso lento, chiamate parametri d’ordine, schiavizzano quelle a decorso più rapido le quali si
aggiustano nel tempo in modo da porsi in equilibrio istantaneo con quelle lente. La nascita di un
nuovo parametro d’ordine avviene attraverso una biforcazione ed è rappresentativa di una nuova
realtà, dunque le biforcazioni sono indicatori di nuove realtà (H.Haken: sinergetica , R.Thom:
semiofisica o fisica del significato)[Haken,Thom1983,1988, Petitot]. Quando l’approccio
sinergetico è applicato a un sistema completamente specificato da un gruppo di variabili, allora esso
rappresenta solo un metodo di approssimazione che riduce i tempi di calcolo, trascurando le
variabili veloci. Una completa specificazione è ritenuta caratteristica delle descrizioni di principio
che abbiano esplicitato tutte le variabili del problema; questa presunzione era nata con la meccanica
newtoniana ed oggi caratterizza le cosiddette TOE ( theories of everything= teorie del tutto) . Al
contrario nella maggior parte delle situazioni noi abbiamo poche variabili macroscopiche
selezionate dall’intuizione del ricercatore su un sistema aperto, cioè in contatto con un ambiente,
sicché una completa specificazione è impossibile in linea di principio data la ricchezza
dell’ambiente non completamente catturabile dalle nostre procedure di misura.
Tutte le recenti tecniche di manipolazioni dei dati [Abarbanel] sono rispettabili, purché i dati siano
affidabili. Quale che sia stato l’approccio, vuoi di tipo galileiano, basato sul numero limitato di
affezioni corrispondenti alle caratteristiche salienti, vuoi di tipo newtoniano, che abbia tentato un
elenco completo di tutti i gradi di libertà, la descrizione risultante è all’interno di un linguaggio
formale, cioè consiste in un elenco di numeri, e nella teoria della computazione sono stati introdotte
diverse definizioni di complessità per quantificare il costo della soluzione di un problema.
Purtuttavia il problema scientifico non risolto è: come siamo arrivati a quella descrizione? E’ essa
un resoconto soddisfacente delle cose?
Thom ha tentato di rispondere a queste domande istituendo un parallelismo tra le salienze e le
nostre operazioni percettive e linguistiche, fondando in tal modo le descrizioni su percezioni di
aspetti obiettivi del mondo. Questa nuova filosofia della natura implica che l’approccio olistico
rifletta quanto accade nel processo cognitivo; la formazione di percezioni coerenti, o cognizione,
richiede la combinazione di una linea “bottom-up” in base a cui stimoli esterni sono cruciali per
indurre impressioni stabili, e di una “top-down”, in base a cui memorie pregresse regolano le soglie
neurali che danno luogo a stati sincronizzati collettivi. Questo scambio tra i due flussi è adattivo,
cioè si riaggiusta per armonizzare gli stimoli sensoriali con le aspettative legate a memorie
pregresse; pertanto la cognizione risulta come una “adaequatio intellectus et rei”, escludendo così
sia la registrazione passiva come su un film fotografico sia il solipsismo di una conoscenza
autopoietica.
Pertanto, combinando la dinamica complessa con la comprensione dei processi neurali, arriviamo
alle seguenti conclusioni:
1) “Realtà” denota eventi stabili che stimolano percezioni coerenti;
2) Un approccio dinamico considera diversi livelli di realtà, ciascuno emergente dalla propria
biforcazione;
3) La descrizione di un livello mediante un pacchetto di punti di vista separati (le affezioni di
Galileo) è insufficiente e la biforcazione peculiare da cui il livello emerge può essere catturata
solo da una descrizione collettiva (sinergetica) che combina i differenti punti di vista in un
singolo parametro d’ordine (indicatore di una natura);
4) La verità come adaequatio implica un processo adattivo;convenendo che ciascuna descrizione
separata corrisponda a una scienza differente ,allora la verità non si riferisce a una singola
scienza ma alla descrizione collettiva cui corrisponde un livello di percezione;
2
5) Diversi livelli di realtà implicano relazioni mutue, , causali o teleologiche, pertanto la domanda
del PERCHE’ e la corrispondente risposta (spiegazione) devono mettere in relazione livelli
differenti di realtà;
6) Come scienze diverse possono riferirsi alla stessa realtà, osservata da diversi punti di vista, così
l’osservazione di realtà differenti dallo stesso punto di vista implica l’attribuzione dello stesso
predicato: questa è la “analogia entis” che permette di costruire asserti veri (anche se
incompleti) su realtà non direttamente osservate, ma legate all’osservazione da relazioni causali
o finali.
Questo è il piano di un programma ambizioso , di cui questo testo rappresenta solo una prima
stesura. In Sez.2 riassumo gli aspetti principali dell’approccio computazionale alla cognizione,
evidenziandone i limiti rispetto a una dinamica realistica dei processi cognitivi che implica il caos
omoclinico del singolo neurone e la sincronizzazione delle dinamiche neurali su vaste aree cerebrali
(Sez.3 e 4). L’evidenza sperimentale è legata a esperimenti sui laser; che la stessa dinamica valga
per neuroni è congetturato attraverso misure indirette; misure dirette su neuroni isolati o su piccoli
gruppi di neuroni accoppiati sono in progresso. Infine la Sez.5 traccia un parallelismo tra la
dinamica non lineare e gli aspetti rilevanti di oggetti ed eventi di natura, confermando che
l’approccio dinamico non è una costruzione simbolica della realtà, ma piuttosto coglie un profondo
accordo tra la realtà e le nostre rappresentazioni. Pertanto possiamo colmare lo iato tra scienza e
filosofia della natura, nato con l’autolimitazione di Galileo, che peraltro è stata efficace nel produrre
una scienza ricca di scoperte, anche se irta di problemi concettuali ed interpretativi.
2- Una svolta nella scienza cognitiva
Una corrispondenza stretta tra rappresentazioni mentali ed eventi esterni all’osservatore è spesso
tacciata di “realismo ingenuo”. Per contro i cultori di intelligenza artificiale hanno propugnato il
punto di vista della costruzione della realtà in base a cui i nostri sensi ricevono sensazioni
atomistiche e le correlazioni tra di esse sono il risultato di una manipolazione simbolica operata dal
cervello.
Il cognitivismo classico è mentalista, simbolico e funzionalista [Fodor 1981 e Pylyshyn 1986]. Esso
assume che l’ambiente emetta informazione fisica (intensità, lunghezze d’onda, etc.) che non è
significante come tale per il soggetto conoscente, e perciò va tradotta dai trasduttori periferici
(retina, coclea, ecc.) in informazione neurale che successivamente viene elaborata dal sistema
nervoso centrale attraverso diversi livelli di rappresentazioni simboliche. La rappresentazione
mentale come una realtà psicologica è stata criticata dal fisicalismo radicale [Quine, Churchland] e
non radicale [Dennett] che accetta le rappresentazioni mentali come concetto descrittivo e non come
una realtà obiettiva. Per i cognitivisti classici, le rappresentazioni mentali sono considerate
simboliche (nel senso della logica simbolica) ed espressione di un linguaggio formale interno, che
Fodor chiama linguaggio del pensiero o “mentalese”. Si ipotizza che esista un calcolo attraverso cui
le espressioni sono manipolate, questo calcolo è implementato fisicamente, dunque causalmente, ma
la causalità si limita alla struttura sintattica delle espressioni. Tuttavia il funzionalismo distingue fra
implementazione (lo hardware neurale) e il calcolo simbolico stesso.
Dopo questo trattamento computazionale dei dati di ingresso ha luogo un processo di proiezione che
risulta nella costruzione cognitiva del mondo. La coscienza fenomenologica è considerata il
correlato di questo mondo proiettato; d’accordo con questa regola è possibile indagare sulla
relazione tra coscienza e mente computazionale. Inoltre il cognitivismo classico ritiene che la mente
computazionale comprenda due tipi di sistemi:
1) Sistemi modulari periferici che trasformano l’informazione dei trasduttori in
rappresentazioni dotate di proprietà proposizionali e pertanto adeguate al calcolo mentale
(bottom-up);
3
2) Sistema cognitivo centrale non modulare (che opera top-down) e interpretativo: poiché non
c’è un controllo nomologico del suo funzionamento, non è possibile trattarlo
scientificamente, cioè mediante delle regole.
Questo secondo punto solleva il problema dell’olismo semantico. Per Fodor i sistemi centrali sono
isotropi, cioè tutto il bagaglio immagazzinato è potenzialmente rilevante per interpretare i moduli di
uscita donde la sua critica alla nozione di sistemi esperti (Minsky, Winograd, Newel) secondo cui i
sistemi centrali sono modulari e specifici.
Il cognitivismo classico implica che ciò che è significativo nell’ambiente per il soggetto cognitivo
non può essere derivato dalle leggi di natura e perciò non è parte della psicologia scientifica in
quanto la scienza può essere solo nomologica. Una descrizione non nomologica non è scienza:
questa è la tesi del solipsismo nomologico, per cui non si può includere nella psicologia scientifica
alcun riferimento alle strutture del mondo esterno rifiutando così un approccio ecologico. Questa
attitudine è esemplificata da Fodor, che considera la realtà fisica come la sola realtà oggettiva; essa
agisce causalmente e nomologicamente attraverso i trasduttori, al livello del sistema centrale solo la
forma sintattica della rappresentazione agisce causalmente e pertanto la significazione non può
essere oggetto di investigazione scientifica.
La contro tesi che io difendo, e che è legata all’approccio correlativo della percezione (Sez.3 e 4) è
che esiste una semiotica naturale nell’ambiente che non è catturata dal cognitivismo classico.
Ugualmente si critica l’approccio di Dennett, il quale considera l’intenzionalità come una strategia
predittiva, cioè una euristica per predire come certi sistemi si comporteranno basandosi
sull’opposizione competenza- prestazione, Dennett ipotizza che sistemi cognitivi come il cervello
siano intenzionali (macchine semantiche) a livello della competenza cinematica (teoria formale del
funzionamento) ma che essi siano macchine sintattiche a livello dinamiche della prestazione. Nella
misura in cui la sintassi non determina la semantica uno si domanda come si possa produrre
semantica dalla sintassi. Dennett pretende che il cervello mimichi il comportamento di una
macchina semantica basandosi su corrispondenze tra regolarità della sua organizzazione interna e
dell’ambiente esterno. Ma questa tesi ha senso solo se il problema primo dell’intenzionalità è stato
risolto.
In questi anni è stata fornita evidenza sperimentale di “feature binding” (legame di configurazione)
cioè mutua sincronizzazione fra gli impulsi elettrici di quei neuroni i cui campi recettivi sono
esposti a qualche aspetto che consideriamo significativo. L’evidenza di laboratorio è ottenuta
mediante microelettrodi che catturano il segnale di un singolo neurone in gatti o scimmie [Singer et
al.] Nel caso di esseri umani la sincronizzazione dei segnali elettroencefalografici (EEG)
provenienti da diverse aree corticali è stata evidenziata dal gruppo di Varela [Rodriguez et al.]
Consideriamo ciascun neurone come un dispositivo non lineare a soglia, che fornisce in uscita un
treno di impulsi elettrici la cui frequenza aumenta con la stimolazione al disopra di una certa soglia .
Allora il compito di sincronizzare campi recettivi corrispondenti a regioni diverse dello stesso
oggetto, che in genere hanno una diversa illuminazione e pertanto forniscono stimoli diversi,
richiede il riaggiustamento della soglia di ciascun neurone, in modo da aggiustarne l’uscita con
quella di altri neuroni implicati nella stessa percezione. Ciò si ottiene se, oltre ai segnali bottom-up
provenienti dai trasduttori (retina, coclea, ecc.) c’è un sistema di segnali top down che riaggiustano
le soglie, basandosi su congetture associate a memorie precedenti (tracce di apprendimenti
pregressi).
Un tale sistema di feedback è stato ipotizzato da Grossberg e chiamato ART (Adaptive Resonance
Theory)[Grossberg]. Esso non va visto come una elaborazione computazionale aposteriori di dati
già acquisiti ma implica un processo dinamico; in effetti esso consiste di un sistema di
armonizzazione fra segnali bottom up e top down finché si raggiunga una situazione stabile. Il
meccanismo funziona anche in assenza di memorie passate (tabula rasa , come nei neonati) e in tal
4
caso le prime esperienze sono cruciali per riempire la memoria semantica con qualche contenuto.
Ovviamente la procedura di adattamento permette di cambiare il contenuto di memoria in presenza
di nuove esperienze pertanto non siamo in presenza di una computazione astratta data una volta per
tutte, ma di una riaggiustamento nel corso della vita.
Vogliamo mostrare la corrispondenza stretta che la dinamica non lineare stabilisce tra eventi e
cognizioni. Affrontiamo questo compito a livello più elementare della dinamica del singolo neurone
e a quello gerarchicamente superiore di una trama coerente collettiva che pervade tutta la
neocorteccia sensoria. I fatti scientifici che riporteremo danno evidenza che sia gli eventi del mondo
sia l’organizzazione del cervello condividono le stesse caratteristiche dinamiche. Rifacendoci a
Tommaso d’Aquino diciamo che l’adattamento cognitivo porta a una nozione di verità come
“adaequatio intellectus et rei”.
L’evidenza sperimentale di sincronizzazione e la ART implicano un meccanismo dotato di due
caratteristiche:
1) Caos deterministico: Infatti la corrispondente traiettoria nello spazio delle fasi è costituita
dalla sovrapposizione di un gran numero di orbite periodiche instabili; se ciascuna
codifica una informazione diversa, allora è cruciale assicurare una rapida transizione da
un’orbita a un’altra, senza barriere intermedie, e ciò sarebbe impossibile se la
codificazione avvenisse mediante orbite stabili.
2) Tra tutti i possibili meccanismi caotici, la natura deve avere selezionato un tipo di caos
che renda la mutua sincronizzazione facile e nello stesso tempo robusta rispetto a
disturbi ambientali.
Basandoci su questi criteri presentiamo una realizzazione plausibile di dinamica neurale in termini
di caos omoclinico. Abbiamo esplorato questo meccanismo in laboratorio con riferimento al laser e
costruito modelli dinamici. Sia gli esperimenti sia i modelli mimicano il comportamento dei
neuroni. Dobbiamo pertanto presumere di aver catturato il segreto del comportamento
neurodinamico [Arecchi 2000,2001,Allaria et al.,Meucci et al.]
La sincronizzazione implica correlazioni spaziali e temporali a lungo raggio, che caratterizzano il
passaggio da una situazione stabile a un’altra (biforcazioni: vedi Sez.5).
3- Neurodinamica
Premetto qualche informazione sui processi sensoriali. Nel caso della visione, abbiamo un milione
di fibre che collegano la parte posteriore della retina (conglobando ciascuna fibra circa cento
rivelatori retinali, coni o bastoncelli) alla corteccia visiva e ogni fibra ha un campo recettivo
angolare di circa 3,5 gradi; quindi una figura estesa –percepita come un continuum- è in effetti
dissezionata su molti canali che vanno “legati” fra loro [Arecchi e Farini]. E’ ormai stabilito che
una percezione olistica emerge combinando gli stimoli separati che afferiscono a diversi campi
recettivi attraverso una sincronizzazione dei treni di impulsi che caratterizzano i neuroni
corrispondenti [von der Malsburg,Singer].Questi impulsi neurali sono variazioni rapide del
potenziale elettrico attraverso la membrana cellulare e si propagano dal corpo del neurone (soma)
alle sinapsi attraverso gli assoni che sono come linee di trasmissione. Alla sinapsi avviene il
collegamento con un altro neurone. La comunicazione neurale è basata su un codice per cui aree
corticali diverse che devono contribuire alla stessa percezione sincronizzano i propri impulsi.
5
L’emissione di impulsi da un sistema dinamico non lineare è un accordo fra stimoli bottom-up dai
trasduttori e riaggiustamento delle soglie pilotato top-down.
Ricapitolo i punti salienti del processo integrandoli con l’esperienza di laboratorio da me sviluppata
sulla sincronizzazione di sistemi caotici omoclinici:
1) Un singolo impulso, o spike, corrisponde a una traiettoria omoclinica attorno a un punto di
sella;si entra dalla direzione stabile e si fuoriesce dalla direzione instabile (fig.1); la traiettoria
lascia la sella e ritorna ad essa.
2) Un treno di impulsi corrisponde al ritorno sequenziale al punto di sella. Un parametro di
controllo B può essere fissato a un valore BC per cui l’intervallo di ritorno sia erratico
(intervallo inter spike (ISI) caotico). Se B è aggiustato sopra o sotto BC il sistema passa da
eccitabile (cioè normalmente a riposo e che emette un singolo impulso in presenza di uno
stimolo di ingresso) a periodico (che da una sequenza regolare di impulsi senza bisogno di uno
stimolo di ingresso) con una frequanza di ripetizione che sale con la separazione ΔB da BC
(Fig.2).
3) Attorno al punto di sella, il sistema ha una grande suscettibilità, cioè un piccolo disturbo è
sufficiente a indurre una grande modifica; pertanto un treno diimpulsi omoclinici può essere
sincronizzato da una sequenza periodica di piccoli disturbi (Fig.3). Tuttavia ogni disturbo va
applicato per un tempo minimo, al disotto del quale esso non è efficace; ciò vuol dire che il
sistema è insensibile al rumore a larga banda, che è una collezione a caso di rapidi segnali
positivi o negativi.
4) Le considerazioni precedenti giustificano la sincronizzazione mutua come il modo più
conveniente che permette a neuroni diversi di rispondere coerentemente allo stesso stimolo,
organizzandosi in una trama spazialmente estesa: si pensi che la corteccia visiva V1 contiene
milioni di neuroni! Un singolo sistema dinamico può autosincronizzarsi ricevendo come
feedback una parte ritardata del suo stesso segnale. Questo processo può essere la base dinamica
per memoria a lungo termine [Arecchi et al.2001].
4- Il ruolo della sincronizzazione nelle comunicazioni neurali
Il meccanismo dei rivelatori di caratteristiche elementari (ad esempio barre verticali od orizzontali,
un particolare contrasto luminoso) è stato studiato in dettaglio [Hubel]; Tuttavia restava pendente il
problema: come fanno rivelatori elementari a contribuire a una percezione globale (cosiddetta
Gestalt)? Una spiegazione è data in Fig.4 [Singer]. Sia la donna sia il gatto sono costituiti dagli
stessi elementi visivi, barre orizzontali e verticali, differenti gradi di luminanza e così via; ma quali
sono i correlati neurali della identificazione di oggetti individuali? Ogni campo recettivo isola uno
specifico dettaglio dell’oggetto, pertanto noi spezziamo un’immagine in un mosaico di campi
recettivi adiacenti, come indicato nella figura con cerchi bianchi per la donna e cerchi neri per il
gatto. Ora l’ipotesi di “feature binding” (legame di configurazione) consiste nell’assumere che tutti i
neuroni nei cui campi recettivi ricadono parti di un oggetto specifico (sia la donna sia il gatto)
sincronizzano gli impulsi come mostrato sulla detsra della figura: qui ogni barretta verticale
corrisponde a un singolo impulso di durata un millisecondo, e ci sono due treni distinti per i due
oggetti. L’evidenza diretta di questa sincronizzazione è ottenuta inserendo microelettrodi in grado
di sentire il singolo neurone nel tessuto corticale di animali [Singer]. Evidenza indiretta di
sincronizzazione è stata raggiunta anche per gli esseri umani, elaborando i dati EEG
(elettroencefalografici) [Rodriguez et al.].
Il vantaggio di questo codice temporale, in confronto a precedenti proposte di codici sensibili alla
frequenza media di ripetizione è stato discusso in un lavoro recente [Softky].
Possiamo ora capire come avvengano questi fatti neurodinamici [Grossberg 1995a, Julesz]. In Fig.5
la nuvoletta centrale rappresenta gli stadi corticali alti dove ha luogo la sincronicìzzazione. Vi sono
due tipi di stimolo. Uno (bottom-up) viene dai rivelatori di caratteri elementari (stadi preliminari
della visione; questo stimolo di per se è insufficiente perché provvede indifferentemente lo stesso
segnale per es. per barre orizzontali che provengano sia dalla donna sia dal gatto; tuttavia, come già
6
detto, ogni neurone è un sistema non linerae che passa vicino a un punto di sella e l’applicazione di
una perturbazione può allungare o accorciare il tempo speso attorno a una sella, e pertanto variare
l’ISI: la perturbazione consiste in segnali top-down corrispondenti a congetture interpretative
formulate dalla memoria semantica.
In altre aprole la percezione non è l’impressione passiva di una pellicola fotografica, ma un
processo attivo in cui gli stimoli esterni sono interpretati in termini di memorie passate. Un
meccanismo di attenzione focale assicura che sia raggiunta una armonizzazione fra bottom-up e
top-down; esso è stata chiamato ART da Grossberg (1976) e sufficientemente specificato in termini
di sincronizzazione delle posizioni degli impulsi da Von der Malsburg e verificato da Singer e
collaboratori. Se l’armonizzazione non avviene si tenta con altre memorie finchè viene raggiunta; in
presenza di un’immagine completamente nuova allora il cervello accetta il fatto che è esposto a una
esperienza nuova senza precedenti.
Si noti il vantaggio di questo uso limitato nel tempo dei neuroni, i quali sono poi disponibili per
ulteriori percezioni, in confronto al paradigma computazionale di elementi fissi di memoria che
immagazzinano un oggetto specifico (la cosiddetta ipotesi del “neurone della nonna”).
5 –Dinamica nonlineare e ontologia
Abbiamo visto come il legame di configurazione permette di percepire un intero individuo con tutte
le sue caratteristiche. Questo aproccio olistico differisce dal programma di Galileo, che nella sua
lettera del 1612 a M. Welser, diceva di “non tentare le essenze (cioè le nature) ma limitarsi alle
affezioni quantitative”, cioè a singole apparenze misurabili. Vorrei chiarire ciò con un esempio: se
parlo di una mela senza mostrarla, ciascun interlocutore si fa una propria idea (verde o rossa, grossa
o piccola, etc.); per avere un consenso generale rinunciamo a parlare della mela e la spezziamo in
caratteristiche che possono essere misurate separatamente (sapore , colore, forma, etc.) attribuendo
un numero ad ogni caratteristica e descrivendo la mela come la collezione di questi N numeri.
Questo è stato il punto di partenza per l’efficace matrimonio tra matematica e scienze naturali: ora
la mela è stata ridotta a una N-pla di numeri o geometricamente a un punto in uno spazio Ndimensionale. Se ripetiamo la procedura a tutti gli oggetti di esperienza, allora le relazioni mutue
diventano relazioni matematiche tra gruppi di numeri che possiamo elaborare con un linguaggio
formale come quello del computer, estraendo predizioni. In tal modo ci limitiamo a descrizioni e
rinunciamo a spiegazioni.
Nasce un problema logico: quante caratteristiche sono necessarie per una descrizione fedele della
mela? E’ qui entriamo nei limiti di un linguaggio insiemistico: questa domanda è indecidibile nel
senso di Goedel. Storicamente le caratteristiche osservate sono state poi ridotte a interazioni tra
costituenti elementari (molecole, atomi, etc.); questo fu l’approccio di Newton esteso
successivamente dalle interazioni gravitazionali a quelle elettromagnetiche etc. e oggi perseguito
dalla TOE (Theory of everything=teoria del tutto). Un ostacolo fondamentale emerse tuttavia con la
dinamica non lineare e il corrispondente ruolo delle biforcazioni (Poincaré 1880). La dinamica
collettiva di una folla di corpi elementari dipende da alcuni, spesso pochi, parametri di controllo, in
corrispondenza ai quali il sistema può avere differenti stati stabili, separati da biforcazioni. Negli
ultimi decenni l’analisi delle biforcazioni ha scoperto situazioni in cui punti inizialmente vicini
nello spazio delle caratteristiche portano a situazioni molto differenziate dopo un certo tempo di
evoluzione: questo è stato chiamato caos deterministico.
In particolare Thom ha focalizzato al sua attenzione su quelle biforcazioni discontinue (catastrofi)
che rappresentano i contorni di un oggetto, definendone la forma nello spazio (morfogenesi).
Supponiamo di essere riusciti a descrivere il mondo con un gruppo finito di N caratteristiche,
ciascuna rappresentata dal suo valore misurato xi (i = 1 ad N ) . Una descrizione completa di uno
stato di fatto è data dal vettore N-dimensionale
7
x ≡ ( x1 , x2 ,....xi ,....x N )
(1)
≈
L’evoluzione generale del sistema dinamico x è descritta da N equazioni cinetiche per le derivate
≈
prime, o velocità di variazione, x& i = dxi / dt . Riassumiamo l’evoluzione globale con l’equazione
vettoriale
.
x = f ( x, μ )
≈
≈
(2)
≈
in cui la funzione f è un vettore N-dimensionale che dipende dai valori istantanei x oltre che da
≈
≈
un gruppo di parametri esterni (o di controllo) μ .
Risolvendo l’Eq .(2) con opportune condizioni iniziali si valuta una traiettoria x(t ) che descrive
≈
l’evoluzione temporale del sistema.
Consideriamo come ontologicamente rilevanti quelle caratteristiche che sono stabili, cioè che
persistono nel tempo anche in presenza di perturbazioni. Per esplorare la stabilità perturbiamo
ciascuna variabile xi di una piccola quantità e verifichiamo se la perturbazione tende a scomparire
o cresce catastroficamente.
Per complicata che sia la funzione non lineare f , la perturbazione di (2) fornisce soluzioni
≈
temporali semplici, con una velocità relativa di crescita λi per ciascun i; poiché λi appare in un
esponente, essa è detta esponente di stabilità.
Ciascuna perturbazione si riduce o cresce nel tempo a seconda che il corrispondente esponente di
stabilità sia positivo o negativo. Quando noi aggiustamo dall’esterno uno dei parametri di controllo
μ , ci può essere un valore critico μ c per cui uno dei λi attraversa lo zero (passa da più a meno)
mentre tutti gli altri rimangono positivi. Chiamiamo λu l’esponente che cambia segno (u indica un
“modo instabile” (unstable)) e λ s tutti gli altri (s sta per “stabile”) (fig.6 a).
Attorno a μ c la perturbazione di xu tende ad avere vita lunga, cioè la variabile xu è alquanto lenta
rispetto alle altre che raccogliamo nel gruppo x s il quale varia rapidamente; allora possiamo
spezzare la dinamica (2) in due subdinamiche, una 1-dimensionale (u) e l’altra (N-1) – dimensionale
(s).
Nel secondo gruppo le corrispondenti variabili x s vanno rapidamente all’equilibrio,adeguandosi
alle variazioni lente di xu ; possiamo esprimere ciò con la relazione funzionale x s = g ( xu ) .
Diciamo che le x s sono “schiavizzate” dalla xu e chiamiamo l’approssimazione come
“eliminazione adiabatica delle variabili veloci”. Sostituendo in Eq. (2) otteniamo una equazione
chiusa per la velocità di xu
x&u = f u ( xu , g ( xu ), μ )
(3)
Un’equazione chiusa significa una descrizione autoconsistente,in cui xu dipende solo da se stesso;
ciò dà una robustezza ontologica alla xu ; la sua lentezza significa che essa rappresenta una
caratteristica durevole e la sua evoluzione autoconsistente significa che possiamo ignorare le x s e
8
parlare solo di xu . Per esempio nel caso del laser siamo in presenza della nascita di un campo
coerente xu , che è la natura del laser, indipendentemente da dettagli legati ad x s (il laser può
essere dovuto ad atomi in gas o solidi, o ad elettroni liberi in semiconduttori, ed avere dimensioni
che vadano da 1 micrometro a parecchi metri ma le x s sono accidenti che non regolano la natura
del laser. Questo aspetto olistico o emergente, risultante dalla dinamica non lineare , era sconosciuto
a Galileo o Newton!
Inoltre, quando μ passa attraverso μ c , un valore xu(1) precedentemente stabile viene destabilizzato.
Una perturbazione crescente significa che infine la perturbazione lineare non è più corretta, e il
sistema si stabilizza a un nuovo valore xu( 2 ) (fig. 6 b). Tale è il caso del laser che va da sotto a sopra
soglia ; tale è il caso di un sistema in equilibrio termico che va da gas a liquido o da disordinato ad
ordinatoal variare della temperatura (qui rappresentata da μ ) che gli viene imposta.
Per riassumere, abbiamo isolato dalla dinamica generale (2) alcuni punti critici, o biforcazioni, in
cui emergono nuovi aspetti salienti; questa descrizione locale è alquanto accessibile anche se la
dinamica non lineare f è complicata.
Raccontato in questi termini, il programma scientifico è in linea con i fatti percettivi, rispetto agli
argomenti traballanti del cognitivismo classico; tuttavia esso è basato su una assunzione critica, che
ci sia un modo “naturale” di assegnare le xi .
Abbiamo visto in Sez.2 che ci sono due strade per assegnare parametri misurabili, quella di Galileo
basata sua spetti macroscopici e quella di Newton basata su componenti elementari. Poiché
l’eliminazione adiabatica delle variabili veloci riduce la descrizione a pochi parametri d’ordine
percettualmente rilevanti in quanto a vita media lunga, le due strade sono euqivalenti anche se
quella di Newton può sembrare più fondamentale e quella di Galileo più rapida.
Una volta formalizzato il problema in qualche modo, l’ammontare di risorse computazionali da
impeganre per la soluzione è chiamato complessità (Arecchi,2000,2001). Rimane aperta la
domanda: la formalizzazione è sufficiente per estrarre la natura? In situazioni artificiali, cioè create
dall’uomo (problemi di traffico, aziendali, industriali o finanziari) la risposta è SI; invece per
fenomeni naturali, dagli astri alla vita, siamo in presenza di sistemi aperti , che noi modellizziamo
con un certo numero di variabili senza sapere se sono sufficienti; in generale NON LO SONO, e la
conoscenza parziale dà luogo a differenti modelli (cioè descrizioni parziali) mutuamente irriducibili
che danno informazione rilevante ma solo da un punto di vista limitato.
Piuttosto che sviluppare considerazioni matematiche, riferiamoci a immagini intuitive. La fig.7a
mostra biforcazioni con transizioni discontinue: queste sono chiamate catastrofi e rappresentano i
bordi di oggetti confinati nello spazio, cioè sono associati a salienze (Thom). La fig. 7 b) mostra
biforcazioni multiple; quando parecchi rami stabili coesistono, siamo in presenza di molti livelli di
realtà, ciascuno caratterizzato da un parametro d’ordine diverso, il corrispondente x che uno legge
sull’asse verticale di Fig.7b.
Chiamiamo descrizione come un sistema si comporta, cioè la dinamica di un singolo ramo, e
spiegazione le interazioni olistiche fra i parametri d’ordine che specificano i rami differenti,
ciascuno matematicamente descritto da una differente versione dell’equazione collettiva Eq.(3). La
spiegazione non richiede una conoscenza dettagliata di tutti gli x s ma solo di pochi xu . Le
interazioni tra due livelli di realtà rappresentano una causa se un livello influenza il futuro di un
altro e uno scopo o fine se viste nella direzione opposta. In tal modo le interazioni globali assegnano
a categorie filosofiche una rilevanza ontologica, senza bisogno di dover ridurre ogni descrizione
alle interazioni della fisica microscopica. Queste categorie non son certo gli apriori di Kant che
legano entità osservabili: infatti lo statuto ontologico dei livelli di realtà giustifica la rilevanza di
causa e fine anche se solo un livello di realtà è sotto osservazione.
In conclusione , la rifondazione della ontologia basata sulla dinamica non lineare permette risposte
a vecchi problemi filosofici.
9
Bibliografia
Abarbanel, H.D., R. Brown, J. Sidorowich e L.S. Tsimring, 1993 “The analysis of observed chaotic
data in physical systems”, Review of Modern Physics, 65, 1331
Arecchi F.T., A. Farini, 1998 “Come vediamo il mondo: il punto di vista del fisico”, KOS (Rivista
dell’H.S.R., Milano) n. 157, pp. 14-27
Allaria E., Arecchi F.T., Di Garbo A., Meucci R. 2001 “Synchronization of homoclinic chaos”
Phys. Rev. Lett .86, 791.
Arecchi F.T. 2000 “Complexity and adaptation: a strategy common to scientific modeling and
perception” Cognitive Processing 1, 23.
Arecchi F.T. 2001, “Complexity versus complex systems: a new approach to scientific discovery”
Nonlin.Dynamics, Psychology, and Life Sciences, 5, 21.
Arecchi F.T., Meucci R., Allaria E., Di Garbo A., Tsimring L.S., 2002 “Delayed selfsynchronization in homoclinic chaos” Pys.Rev.E65,046237
Brentano F. (1973), Psychology from an empirical standpoint, New York: Humanities Press
(original 1874).
Churchland P.M. (1984), Matter and consciousness: a contemporary introduction to the philosophy
of mind, Cambridge MA: M.I.T. Press.
Dennett D. (1987), Intentional stance, Cambridge MA: MIT Press.
Fodor J.A. (1981), Representations, Philosophical essays on the foundations of cognitive science,
Cambridge MA: MIT Press.
Grossberg S., 1995a “The attentive brain” The American Scientist, 83, 439.
Grossberg S., 1995b “Review of the book by F.Crick: The astonishing hypothesis: The scientific
search for a soul” 83 (n.1)
Haken H. 1983 Synergetics, an introduction 3rd edition,Berlin: Springer Verlag
Hubel D.H., 1995 “Eye, brain and vision”, Scientific American Library, n. 22, W.H. Freeman, New
York.
Julesz, B., 1991 “Early vision and focal attention”, Reviews of Modern Physics, 63, 735-772,
10
Meucci R., Di Garbo A., Allaria E., Arecchi F.T. 2002 “Autonomous Bursting in a Homoclinic
System” Phys Rev.Lett. 88,144101
Petitot J. (1990), Semiotics and cognitive sciences: the morphological turn, in The semiotic review
of books, vol. 1, page 2.
Putnam H. (1988), Representation and reality, Cambridge MA: M.I.T. Press.
Pylyshyn Z.W. 1986 Computation and cognition, Cambridge MA: MIT Press
Quine W.V.O. (1969), Ontological relativity and other essays, New York: Columbia University
Press.
Rodriguez E., George N., Lachaux J.P., Martinerie J., Renault B.and Varela F. 1999, “Perception's
shadow:Long-distance synchronization in the human brain”, Nature 397:340-343.
Singer W. E Gray C.M., 1995, “Visual feature integration and the temporal correlation hypothesis”
Annu.Rev.Neurosci. 18, 555.
Softky W., 1995 “Simple codes versus efficient codes” Current Opinions in Neurobiology, 5, 239.
Thom R. (1983), Mathematical models of morphogenesis, Chichester: Ellis Horwood.
Thom R. (1988), Esquisse d’une semiophysique, Paris : InterEditions.
Turing A. 1950 “Computing Machinery and Intelligence” Mind 59, 433
Von der Malsburg C., 1981 “The correlation theory of brain function”, reprinted in E. Domani, J.L.
Van Hemmen and K. Schulten (Eds.), “Models of neural networks II”, Springer, Berlin.
11
Fig. 1 : (a) Serie temporale sperimentale dell’intensità di un laser CO2 con feedback nel regime di
caos omoclinico. (b) Magnificazione temporale di una singola orbita. (c) Traiettoria nello spazio
delle fasi costruita mediante una tecnica di immersione con ritardi appropriati [da Allaria et al.].
12
Fig.2 : Incremento a) e decremento b) a scalino del parametro di controllo B0 di +/- 1% (linea
tratteggiata) modifica il sistema da comportamento omoclinico a periodico o eccitabile. c) Nel caso
a), la frequenza νr degli impulsi cresce monoticamente con ΔB0 [da Meucci et al.].
13
Fig. 3: Serie temporale speriemntale per differenti sincronizzazioni indotte da perturbazioni
periodiche nel parametro di controllo (a) Vincolamento 1:1, (b) 1:2, (c) 1:3, (d) 2:1 [da Allaria et
al.].
14
Fig. 4 : Feature binding (legame di configurazione): la donna e il gatto sono rappresentate da un
mosaico di cerchi vuoti o pieni, ciascuno relativo al campo recettivo di un gruppo di neuroni della
corteccia visuale. Dentro ciascun cerchio l’elaborazione si riferisce a un dettaglio specifico. Le
relazione tra dettagli sono codificate da correlazioni temporali tra i neuroni, come mostrato dalle
stesse sequenze di impulsi elettrici per due cerchi pieni o vuoti. Neuroni che si riferiscono allo
stesso individuo (p.es. il gatto) hanno scariche sincrone, mentre i loro impulsi sono scorrelati
rispetto a quelli che si riferiscono a un altro individuo (la donna) [da Singer].
15
Fig.5 ART = Adaptive Resonance Theory. Ruolo degli stimoli bottom-up degli stadi visivi
preliminari e segnali top-down dovuti ad apsettazioni formulate dalla memoria semantica.
L’attenzione focale assicura l’armonizzazione (risonanza) fra i due flussi [da Julesz].
16
Fig. 6 a) Quando il parametro di controllo μ passa per il valore critico μc, gli esponenti λs
rimangono positivi, assicurando un comportamento stabile alle corrispondenti variabili xs, mentre λu
passa da positivo a negativo, destabilizzando la corrispondente variabile xu, che pertanto ha un
comportamento lento (autocorrelazione di lunga durata)
Fig. 6 b) Soluzioni stazionarie in funzione del parametro di controllo: in μc il ramo x’u diventa
instabile (ramo tratteggiato) e un nuovo ramo stabile x’’u emerge dal punto di biforcazione.
17
Fig. 7 a) Biforcazione diretta e inversa: nel caso diretto il sistema cambia ramo stabile in μc; nel
caso inverso, in μ1 e μ2 il ramo stabile è rimpiazzato da una porzione instabile (tratteggiata),
muovendo μ da destra o sinistra il sistema salta discontinuamente sull’altro ramo e la biforcazione
è detta catastrofe (si noti il ciclo di isteresi man mano che μ va avanti e indietro)
Fig. 7 b) Diagramma di biforcazione multiplo. Le linee intere (tratteggiate) rappresentano stati
stabili (instabili) al variare del parametro di controllo.
18
Scarica