Il problema della verità e la base ontologica della conoscenza∗ F.T. Arecchi Università di Firenze e Istituto Nazionale di Ottica Applicata [email protected] 1-Descrizione e spiegazione Un compito cognitivo corrisponde a porsi due tipi di domande: COME? PERCHE’? e rispondervi rispettivamente con descrizioni o spiegazioni. La scienza moderna è stata costruita su una autolimitazione, e cioè “ non tentare le essenze (nature) ma contentarsi delle affezioni quantitative” (lettera di G. Galilei a M. Welser ,1612). Questa autolimitazione sembra escludere l’indagine ontologica dal programma scientifico. Ogni “affezione” o apparenza è estratta da un corrispondente apparato di misura ed ordinata come elemento di uno spazio metrico. Un qualunque oggetto diventa così una collezione di numeri corrispondenti alle misure delle varie affezioni; donde il successo della matematica nella descrizione scientifica. Le regolarità suggeriscono correlazioni stabili, le leggi, con un dominio di validità stabilito da metodi di falsificazione. Il linguaggio operativo è “formale” e la verità di una proposizione consiste nella sua corrispondenza con le regole del linguaggio. Dunque la scienza si configura solo come descrizione, cioè caratterizzazione delle affezioni che forniscono un resoconto soddisfacente di uno stato di fatto. Tuttavia rimangono aperti due problemi e cioè i) la ricostruzione inversa : come organizziamo la molteplicità delle affezioni in oggetti coerenti, ii) la completezza dell’approccio diretto : per usare il gergo della psicologia della Gestalt, come le salienze percettive vengano selezionate in modo da attribuire significato solo ad alcune delle molteplici apparenze che sperimentiamo. Il concetto di significato non appare nelle descrizioni ma solo nelle spiegazioni. Esso si presenta nella scienza come un meta-principio, cioè è al di fuori dell’insieme di regole che caratterizza un linguaggio formale: tale è ad esempio la “fitness” Darwiniana. Potremmo tentare di estendere il linguaggio includendo le meta regole, ma sarebbe un compito senza fine: la pretesa di un linguaggio formale di fornire una descrizione completa è incompatibile con la sua coerenza, a meno che uno non postuli un universo finitistico in cui tutti gli eventi e le corrispondenti procedure di valutazione richiedano un numero finito di passaggi. Questi problemi sono stati affrontati con attitudini differenti dai gruppi che genericamente chiamiamo filosofi “analitici” e “continentali”. I primi identificano la filosofia con le descrizioni, riducendo tutti i problemi all’interno di un linguaggio formale; i secondi considerano la cognizione come intenzionale, cioè che punta a qualcosa e che pertanto pone dei perché e richiede spiegazioni , ma lasciano aperta la questione se l’oggetto di conoscenza è fuori o dentro la nostra mente [Brentano]. Il programma scientifico sembra svilupparsi dentro la prima linea, strutturandosi in scienze diverse, ognuna corrispondente a un diverso gruppo di descrizioni, selezionate attraverso un pacchetto limitato di procedure di misura, cioè corrispondente a un gruppo limitato di affezioni. D’altra parte ∗ Presentato al Convegno sulla Verità, organizzato da “Veritatis Splendor”, Bologna 10-11 Maggio 2002; le parentesi quadre si riferiscono alla bibliografia. 1 recentemente la dinamica non lineare ha sviluppato un approccio scientifico olistico. In questo approccio le differenti variabili dinamiche, o gradi di libertà, non sono considerate su base uguale ma sono organizzate secondo una gerarchia; precisamente poche variabili altamente stabili, cioè a decorso lento, chiamate parametri d’ordine, schiavizzano quelle a decorso più rapido le quali si aggiustano nel tempo in modo da porsi in equilibrio istantaneo con quelle lente. La nascita di un nuovo parametro d’ordine avviene attraverso una biforcazione ed è rappresentativa di una nuova realtà, dunque le biforcazioni sono indicatori di nuove realtà (H.Haken: sinergetica , R.Thom: semiofisica o fisica del significato)[Haken,Thom1983,1988, Petitot]. Quando l’approccio sinergetico è applicato a un sistema completamente specificato da un gruppo di variabili, allora esso rappresenta solo un metodo di approssimazione che riduce i tempi di calcolo, trascurando le variabili veloci. Una completa specificazione è ritenuta caratteristica delle descrizioni di principio che abbiano esplicitato tutte le variabili del problema; questa presunzione era nata con la meccanica newtoniana ed oggi caratterizza le cosiddette TOE ( theories of everything= teorie del tutto) . Al contrario nella maggior parte delle situazioni noi abbiamo poche variabili macroscopiche selezionate dall’intuizione del ricercatore su un sistema aperto, cioè in contatto con un ambiente, sicché una completa specificazione è impossibile in linea di principio data la ricchezza dell’ambiente non completamente catturabile dalle nostre procedure di misura. Tutte le recenti tecniche di manipolazioni dei dati [Abarbanel] sono rispettabili, purché i dati siano affidabili. Quale che sia stato l’approccio, vuoi di tipo galileiano, basato sul numero limitato di affezioni corrispondenti alle caratteristiche salienti, vuoi di tipo newtoniano, che abbia tentato un elenco completo di tutti i gradi di libertà, la descrizione risultante è all’interno di un linguaggio formale, cioè consiste in un elenco di numeri, e nella teoria della computazione sono stati introdotte diverse definizioni di complessità per quantificare il costo della soluzione di un problema. Purtuttavia il problema scientifico non risolto è: come siamo arrivati a quella descrizione? E’ essa un resoconto soddisfacente delle cose? Thom ha tentato di rispondere a queste domande istituendo un parallelismo tra le salienze e le nostre operazioni percettive e linguistiche, fondando in tal modo le descrizioni su percezioni di aspetti obiettivi del mondo. Questa nuova filosofia della natura implica che l’approccio olistico rifletta quanto accade nel processo cognitivo; la formazione di percezioni coerenti, o cognizione, richiede la combinazione di una linea “bottom-up” in base a cui stimoli esterni sono cruciali per indurre impressioni stabili, e di una “top-down”, in base a cui memorie pregresse regolano le soglie neurali che danno luogo a stati sincronizzati collettivi. Questo scambio tra i due flussi è adattivo, cioè si riaggiusta per armonizzare gli stimoli sensoriali con le aspettative legate a memorie pregresse; pertanto la cognizione risulta come una “adaequatio intellectus et rei”, escludendo così sia la registrazione passiva come su un film fotografico sia il solipsismo di una conoscenza autopoietica. Pertanto, combinando la dinamica complessa con la comprensione dei processi neurali, arriviamo alle seguenti conclusioni: 1) “Realtà” denota eventi stabili che stimolano percezioni coerenti; 2) Un approccio dinamico considera diversi livelli di realtà, ciascuno emergente dalla propria biforcazione; 3) La descrizione di un livello mediante un pacchetto di punti di vista separati (le affezioni di Galileo) è insufficiente e la biforcazione peculiare da cui il livello emerge può essere catturata solo da una descrizione collettiva (sinergetica) che combina i differenti punti di vista in un singolo parametro d’ordine (indicatore di una natura); 4) La verità come adaequatio implica un processo adattivo;convenendo che ciascuna descrizione separata corrisponda a una scienza differente ,allora la verità non si riferisce a una singola scienza ma alla descrizione collettiva cui corrisponde un livello di percezione; 2 5) Diversi livelli di realtà implicano relazioni mutue, , causali o teleologiche, pertanto la domanda del PERCHE’ e la corrispondente risposta (spiegazione) devono mettere in relazione livelli differenti di realtà; 6) Come scienze diverse possono riferirsi alla stessa realtà, osservata da diversi punti di vista, così l’osservazione di realtà differenti dallo stesso punto di vista implica l’attribuzione dello stesso predicato: questa è la “analogia entis” che permette di costruire asserti veri (anche se incompleti) su realtà non direttamente osservate, ma legate all’osservazione da relazioni causali o finali. Questo è il piano di un programma ambizioso , di cui questo testo rappresenta solo una prima stesura. In Sez.2 riassumo gli aspetti principali dell’approccio computazionale alla cognizione, evidenziandone i limiti rispetto a una dinamica realistica dei processi cognitivi che implica il caos omoclinico del singolo neurone e la sincronizzazione delle dinamiche neurali su vaste aree cerebrali (Sez.3 e 4). L’evidenza sperimentale è legata a esperimenti sui laser; che la stessa dinamica valga per neuroni è congetturato attraverso misure indirette; misure dirette su neuroni isolati o su piccoli gruppi di neuroni accoppiati sono in progresso. Infine la Sez.5 traccia un parallelismo tra la dinamica non lineare e gli aspetti rilevanti di oggetti ed eventi di natura, confermando che l’approccio dinamico non è una costruzione simbolica della realtà, ma piuttosto coglie un profondo accordo tra la realtà e le nostre rappresentazioni. Pertanto possiamo colmare lo iato tra scienza e filosofia della natura, nato con l’autolimitazione di Galileo, che peraltro è stata efficace nel produrre una scienza ricca di scoperte, anche se irta di problemi concettuali ed interpretativi. 2- Una svolta nella scienza cognitiva Una corrispondenza stretta tra rappresentazioni mentali ed eventi esterni all’osservatore è spesso tacciata di “realismo ingenuo”. Per contro i cultori di intelligenza artificiale hanno propugnato il punto di vista della costruzione della realtà in base a cui i nostri sensi ricevono sensazioni atomistiche e le correlazioni tra di esse sono il risultato di una manipolazione simbolica operata dal cervello. Il cognitivismo classico è mentalista, simbolico e funzionalista [Fodor 1981 e Pylyshyn 1986]. Esso assume che l’ambiente emetta informazione fisica (intensità, lunghezze d’onda, etc.) che non è significante come tale per il soggetto conoscente, e perciò va tradotta dai trasduttori periferici (retina, coclea, ecc.) in informazione neurale che successivamente viene elaborata dal sistema nervoso centrale attraverso diversi livelli di rappresentazioni simboliche. La rappresentazione mentale come una realtà psicologica è stata criticata dal fisicalismo radicale [Quine, Churchland] e non radicale [Dennett] che accetta le rappresentazioni mentali come concetto descrittivo e non come una realtà obiettiva. Per i cognitivisti classici, le rappresentazioni mentali sono considerate simboliche (nel senso della logica simbolica) ed espressione di un linguaggio formale interno, che Fodor chiama linguaggio del pensiero o “mentalese”. Si ipotizza che esista un calcolo attraverso cui le espressioni sono manipolate, questo calcolo è implementato fisicamente, dunque causalmente, ma la causalità si limita alla struttura sintattica delle espressioni. Tuttavia il funzionalismo distingue fra implementazione (lo hardware neurale) e il calcolo simbolico stesso. Dopo questo trattamento computazionale dei dati di ingresso ha luogo un processo di proiezione che risulta nella costruzione cognitiva del mondo. La coscienza fenomenologica è considerata il correlato di questo mondo proiettato; d’accordo con questa regola è possibile indagare sulla relazione tra coscienza e mente computazionale. Inoltre il cognitivismo classico ritiene che la mente computazionale comprenda due tipi di sistemi: 1) Sistemi modulari periferici che trasformano l’informazione dei trasduttori in rappresentazioni dotate di proprietà proposizionali e pertanto adeguate al calcolo mentale (bottom-up); 3 2) Sistema cognitivo centrale non modulare (che opera top-down) e interpretativo: poiché non c’è un controllo nomologico del suo funzionamento, non è possibile trattarlo scientificamente, cioè mediante delle regole. Questo secondo punto solleva il problema dell’olismo semantico. Per Fodor i sistemi centrali sono isotropi, cioè tutto il bagaglio immagazzinato è potenzialmente rilevante per interpretare i moduli di uscita donde la sua critica alla nozione di sistemi esperti (Minsky, Winograd, Newel) secondo cui i sistemi centrali sono modulari e specifici. Il cognitivismo classico implica che ciò che è significativo nell’ambiente per il soggetto cognitivo non può essere derivato dalle leggi di natura e perciò non è parte della psicologia scientifica in quanto la scienza può essere solo nomologica. Una descrizione non nomologica non è scienza: questa è la tesi del solipsismo nomologico, per cui non si può includere nella psicologia scientifica alcun riferimento alle strutture del mondo esterno rifiutando così un approccio ecologico. Questa attitudine è esemplificata da Fodor, che considera la realtà fisica come la sola realtà oggettiva; essa agisce causalmente e nomologicamente attraverso i trasduttori, al livello del sistema centrale solo la forma sintattica della rappresentazione agisce causalmente e pertanto la significazione non può essere oggetto di investigazione scientifica. La contro tesi che io difendo, e che è legata all’approccio correlativo della percezione (Sez.3 e 4) è che esiste una semiotica naturale nell’ambiente che non è catturata dal cognitivismo classico. Ugualmente si critica l’approccio di Dennett, il quale considera l’intenzionalità come una strategia predittiva, cioè una euristica per predire come certi sistemi si comporteranno basandosi sull’opposizione competenza- prestazione, Dennett ipotizza che sistemi cognitivi come il cervello siano intenzionali (macchine semantiche) a livello della competenza cinematica (teoria formale del funzionamento) ma che essi siano macchine sintattiche a livello dinamiche della prestazione. Nella misura in cui la sintassi non determina la semantica uno si domanda come si possa produrre semantica dalla sintassi. Dennett pretende che il cervello mimichi il comportamento di una macchina semantica basandosi su corrispondenze tra regolarità della sua organizzazione interna e dell’ambiente esterno. Ma questa tesi ha senso solo se il problema primo dell’intenzionalità è stato risolto. In questi anni è stata fornita evidenza sperimentale di “feature binding” (legame di configurazione) cioè mutua sincronizzazione fra gli impulsi elettrici di quei neuroni i cui campi recettivi sono esposti a qualche aspetto che consideriamo significativo. L’evidenza di laboratorio è ottenuta mediante microelettrodi che catturano il segnale di un singolo neurone in gatti o scimmie [Singer et al.] Nel caso di esseri umani la sincronizzazione dei segnali elettroencefalografici (EEG) provenienti da diverse aree corticali è stata evidenziata dal gruppo di Varela [Rodriguez et al.] Consideriamo ciascun neurone come un dispositivo non lineare a soglia, che fornisce in uscita un treno di impulsi elettrici la cui frequenza aumenta con la stimolazione al disopra di una certa soglia . Allora il compito di sincronizzare campi recettivi corrispondenti a regioni diverse dello stesso oggetto, che in genere hanno una diversa illuminazione e pertanto forniscono stimoli diversi, richiede il riaggiustamento della soglia di ciascun neurone, in modo da aggiustarne l’uscita con quella di altri neuroni implicati nella stessa percezione. Ciò si ottiene se, oltre ai segnali bottom-up provenienti dai trasduttori (retina, coclea, ecc.) c’è un sistema di segnali top down che riaggiustano le soglie, basandosi su congetture associate a memorie precedenti (tracce di apprendimenti pregressi). Un tale sistema di feedback è stato ipotizzato da Grossberg e chiamato ART (Adaptive Resonance Theory)[Grossberg]. Esso non va visto come una elaborazione computazionale aposteriori di dati già acquisiti ma implica un processo dinamico; in effetti esso consiste di un sistema di armonizzazione fra segnali bottom up e top down finché si raggiunga una situazione stabile. Il meccanismo funziona anche in assenza di memorie passate (tabula rasa , come nei neonati) e in tal 4 caso le prime esperienze sono cruciali per riempire la memoria semantica con qualche contenuto. Ovviamente la procedura di adattamento permette di cambiare il contenuto di memoria in presenza di nuove esperienze pertanto non siamo in presenza di una computazione astratta data una volta per tutte, ma di una riaggiustamento nel corso della vita. Vogliamo mostrare la corrispondenza stretta che la dinamica non lineare stabilisce tra eventi e cognizioni. Affrontiamo questo compito a livello più elementare della dinamica del singolo neurone e a quello gerarchicamente superiore di una trama coerente collettiva che pervade tutta la neocorteccia sensoria. I fatti scientifici che riporteremo danno evidenza che sia gli eventi del mondo sia l’organizzazione del cervello condividono le stesse caratteristiche dinamiche. Rifacendoci a Tommaso d’Aquino diciamo che l’adattamento cognitivo porta a una nozione di verità come “adaequatio intellectus et rei”. L’evidenza sperimentale di sincronizzazione e la ART implicano un meccanismo dotato di due caratteristiche: 1) Caos deterministico: Infatti la corrispondente traiettoria nello spazio delle fasi è costituita dalla sovrapposizione di un gran numero di orbite periodiche instabili; se ciascuna codifica una informazione diversa, allora è cruciale assicurare una rapida transizione da un’orbita a un’altra, senza barriere intermedie, e ciò sarebbe impossibile se la codificazione avvenisse mediante orbite stabili. 2) Tra tutti i possibili meccanismi caotici, la natura deve avere selezionato un tipo di caos che renda la mutua sincronizzazione facile e nello stesso tempo robusta rispetto a disturbi ambientali. Basandoci su questi criteri presentiamo una realizzazione plausibile di dinamica neurale in termini di caos omoclinico. Abbiamo esplorato questo meccanismo in laboratorio con riferimento al laser e costruito modelli dinamici. Sia gli esperimenti sia i modelli mimicano il comportamento dei neuroni. Dobbiamo pertanto presumere di aver catturato il segreto del comportamento neurodinamico [Arecchi 2000,2001,Allaria et al.,Meucci et al.] La sincronizzazione implica correlazioni spaziali e temporali a lungo raggio, che caratterizzano il passaggio da una situazione stabile a un’altra (biforcazioni: vedi Sez.5). 3- Neurodinamica Premetto qualche informazione sui processi sensoriali. Nel caso della visione, abbiamo un milione di fibre che collegano la parte posteriore della retina (conglobando ciascuna fibra circa cento rivelatori retinali, coni o bastoncelli) alla corteccia visiva e ogni fibra ha un campo recettivo angolare di circa 3,5 gradi; quindi una figura estesa –percepita come un continuum- è in effetti dissezionata su molti canali che vanno “legati” fra loro [Arecchi e Farini]. E’ ormai stabilito che una percezione olistica emerge combinando gli stimoli separati che afferiscono a diversi campi recettivi attraverso una sincronizzazione dei treni di impulsi che caratterizzano i neuroni corrispondenti [von der Malsburg,Singer].Questi impulsi neurali sono variazioni rapide del potenziale elettrico attraverso la membrana cellulare e si propagano dal corpo del neurone (soma) alle sinapsi attraverso gli assoni che sono come linee di trasmissione. Alla sinapsi avviene il collegamento con un altro neurone. La comunicazione neurale è basata su un codice per cui aree corticali diverse che devono contribuire alla stessa percezione sincronizzano i propri impulsi. 5 L’emissione di impulsi da un sistema dinamico non lineare è un accordo fra stimoli bottom-up dai trasduttori e riaggiustamento delle soglie pilotato top-down. Ricapitolo i punti salienti del processo integrandoli con l’esperienza di laboratorio da me sviluppata sulla sincronizzazione di sistemi caotici omoclinici: 1) Un singolo impulso, o spike, corrisponde a una traiettoria omoclinica attorno a un punto di sella;si entra dalla direzione stabile e si fuoriesce dalla direzione instabile (fig.1); la traiettoria lascia la sella e ritorna ad essa. 2) Un treno di impulsi corrisponde al ritorno sequenziale al punto di sella. Un parametro di controllo B può essere fissato a un valore BC per cui l’intervallo di ritorno sia erratico (intervallo inter spike (ISI) caotico). Se B è aggiustato sopra o sotto BC il sistema passa da eccitabile (cioè normalmente a riposo e che emette un singolo impulso in presenza di uno stimolo di ingresso) a periodico (che da una sequenza regolare di impulsi senza bisogno di uno stimolo di ingresso) con una frequanza di ripetizione che sale con la separazione ΔB da BC (Fig.2). 3) Attorno al punto di sella, il sistema ha una grande suscettibilità, cioè un piccolo disturbo è sufficiente a indurre una grande modifica; pertanto un treno diimpulsi omoclinici può essere sincronizzato da una sequenza periodica di piccoli disturbi (Fig.3). Tuttavia ogni disturbo va applicato per un tempo minimo, al disotto del quale esso non è efficace; ciò vuol dire che il sistema è insensibile al rumore a larga banda, che è una collezione a caso di rapidi segnali positivi o negativi. 4) Le considerazioni precedenti giustificano la sincronizzazione mutua come il modo più conveniente che permette a neuroni diversi di rispondere coerentemente allo stesso stimolo, organizzandosi in una trama spazialmente estesa: si pensi che la corteccia visiva V1 contiene milioni di neuroni! Un singolo sistema dinamico può autosincronizzarsi ricevendo come feedback una parte ritardata del suo stesso segnale. Questo processo può essere la base dinamica per memoria a lungo termine [Arecchi et al.2001]. 4- Il ruolo della sincronizzazione nelle comunicazioni neurali Il meccanismo dei rivelatori di caratteristiche elementari (ad esempio barre verticali od orizzontali, un particolare contrasto luminoso) è stato studiato in dettaglio [Hubel]; Tuttavia restava pendente il problema: come fanno rivelatori elementari a contribuire a una percezione globale (cosiddetta Gestalt)? Una spiegazione è data in Fig.4 [Singer]. Sia la donna sia il gatto sono costituiti dagli stessi elementi visivi, barre orizzontali e verticali, differenti gradi di luminanza e così via; ma quali sono i correlati neurali della identificazione di oggetti individuali? Ogni campo recettivo isola uno specifico dettaglio dell’oggetto, pertanto noi spezziamo un’immagine in un mosaico di campi recettivi adiacenti, come indicato nella figura con cerchi bianchi per la donna e cerchi neri per il gatto. Ora l’ipotesi di “feature binding” (legame di configurazione) consiste nell’assumere che tutti i neuroni nei cui campi recettivi ricadono parti di un oggetto specifico (sia la donna sia il gatto) sincronizzano gli impulsi come mostrato sulla detsra della figura: qui ogni barretta verticale corrisponde a un singolo impulso di durata un millisecondo, e ci sono due treni distinti per i due oggetti. L’evidenza diretta di questa sincronizzazione è ottenuta inserendo microelettrodi in grado di sentire il singolo neurone nel tessuto corticale di animali [Singer]. Evidenza indiretta di sincronizzazione è stata raggiunta anche per gli esseri umani, elaborando i dati EEG (elettroencefalografici) [Rodriguez et al.]. Il vantaggio di questo codice temporale, in confronto a precedenti proposte di codici sensibili alla frequenza media di ripetizione è stato discusso in un lavoro recente [Softky]. Possiamo ora capire come avvengano questi fatti neurodinamici [Grossberg 1995a, Julesz]. In Fig.5 la nuvoletta centrale rappresenta gli stadi corticali alti dove ha luogo la sincronicìzzazione. Vi sono due tipi di stimolo. Uno (bottom-up) viene dai rivelatori di caratteri elementari (stadi preliminari della visione; questo stimolo di per se è insufficiente perché provvede indifferentemente lo stesso segnale per es. per barre orizzontali che provengano sia dalla donna sia dal gatto; tuttavia, come già 6 detto, ogni neurone è un sistema non linerae che passa vicino a un punto di sella e l’applicazione di una perturbazione può allungare o accorciare il tempo speso attorno a una sella, e pertanto variare l’ISI: la perturbazione consiste in segnali top-down corrispondenti a congetture interpretative formulate dalla memoria semantica. In altre aprole la percezione non è l’impressione passiva di una pellicola fotografica, ma un processo attivo in cui gli stimoli esterni sono interpretati in termini di memorie passate. Un meccanismo di attenzione focale assicura che sia raggiunta una armonizzazione fra bottom-up e top-down; esso è stata chiamato ART da Grossberg (1976) e sufficientemente specificato in termini di sincronizzazione delle posizioni degli impulsi da Von der Malsburg e verificato da Singer e collaboratori. Se l’armonizzazione non avviene si tenta con altre memorie finchè viene raggiunta; in presenza di un’immagine completamente nuova allora il cervello accetta il fatto che è esposto a una esperienza nuova senza precedenti. Si noti il vantaggio di questo uso limitato nel tempo dei neuroni, i quali sono poi disponibili per ulteriori percezioni, in confronto al paradigma computazionale di elementi fissi di memoria che immagazzinano un oggetto specifico (la cosiddetta ipotesi del “neurone della nonna”). 5 –Dinamica nonlineare e ontologia Abbiamo visto come il legame di configurazione permette di percepire un intero individuo con tutte le sue caratteristiche. Questo aproccio olistico differisce dal programma di Galileo, che nella sua lettera del 1612 a M. Welser, diceva di “non tentare le essenze (cioè le nature) ma limitarsi alle affezioni quantitative”, cioè a singole apparenze misurabili. Vorrei chiarire ciò con un esempio: se parlo di una mela senza mostrarla, ciascun interlocutore si fa una propria idea (verde o rossa, grossa o piccola, etc.); per avere un consenso generale rinunciamo a parlare della mela e la spezziamo in caratteristiche che possono essere misurate separatamente (sapore , colore, forma, etc.) attribuendo un numero ad ogni caratteristica e descrivendo la mela come la collezione di questi N numeri. Questo è stato il punto di partenza per l’efficace matrimonio tra matematica e scienze naturali: ora la mela è stata ridotta a una N-pla di numeri o geometricamente a un punto in uno spazio Ndimensionale. Se ripetiamo la procedura a tutti gli oggetti di esperienza, allora le relazioni mutue diventano relazioni matematiche tra gruppi di numeri che possiamo elaborare con un linguaggio formale come quello del computer, estraendo predizioni. In tal modo ci limitiamo a descrizioni e rinunciamo a spiegazioni. Nasce un problema logico: quante caratteristiche sono necessarie per una descrizione fedele della mela? E’ qui entriamo nei limiti di un linguaggio insiemistico: questa domanda è indecidibile nel senso di Goedel. Storicamente le caratteristiche osservate sono state poi ridotte a interazioni tra costituenti elementari (molecole, atomi, etc.); questo fu l’approccio di Newton esteso successivamente dalle interazioni gravitazionali a quelle elettromagnetiche etc. e oggi perseguito dalla TOE (Theory of everything=teoria del tutto). Un ostacolo fondamentale emerse tuttavia con la dinamica non lineare e il corrispondente ruolo delle biforcazioni (Poincaré 1880). La dinamica collettiva di una folla di corpi elementari dipende da alcuni, spesso pochi, parametri di controllo, in corrispondenza ai quali il sistema può avere differenti stati stabili, separati da biforcazioni. Negli ultimi decenni l’analisi delle biforcazioni ha scoperto situazioni in cui punti inizialmente vicini nello spazio delle caratteristiche portano a situazioni molto differenziate dopo un certo tempo di evoluzione: questo è stato chiamato caos deterministico. In particolare Thom ha focalizzato al sua attenzione su quelle biforcazioni discontinue (catastrofi) che rappresentano i contorni di un oggetto, definendone la forma nello spazio (morfogenesi). Supponiamo di essere riusciti a descrivere il mondo con un gruppo finito di N caratteristiche, ciascuna rappresentata dal suo valore misurato xi (i = 1 ad N ) . Una descrizione completa di uno stato di fatto è data dal vettore N-dimensionale 7 x ≡ ( x1 , x2 ,....xi ,....x N ) (1) ≈ L’evoluzione generale del sistema dinamico x è descritta da N equazioni cinetiche per le derivate ≈ prime, o velocità di variazione, x& i = dxi / dt . Riassumiamo l’evoluzione globale con l’equazione vettoriale . x = f ( x, μ ) ≈ ≈ (2) ≈ in cui la funzione f è un vettore N-dimensionale che dipende dai valori istantanei x oltre che da ≈ ≈ un gruppo di parametri esterni (o di controllo) μ . Risolvendo l’Eq .(2) con opportune condizioni iniziali si valuta una traiettoria x(t ) che descrive ≈ l’evoluzione temporale del sistema. Consideriamo come ontologicamente rilevanti quelle caratteristiche che sono stabili, cioè che persistono nel tempo anche in presenza di perturbazioni. Per esplorare la stabilità perturbiamo ciascuna variabile xi di una piccola quantità e verifichiamo se la perturbazione tende a scomparire o cresce catastroficamente. Per complicata che sia la funzione non lineare f , la perturbazione di (2) fornisce soluzioni ≈ temporali semplici, con una velocità relativa di crescita λi per ciascun i; poiché λi appare in un esponente, essa è detta esponente di stabilità. Ciascuna perturbazione si riduce o cresce nel tempo a seconda che il corrispondente esponente di stabilità sia positivo o negativo. Quando noi aggiustamo dall’esterno uno dei parametri di controllo μ , ci può essere un valore critico μ c per cui uno dei λi attraversa lo zero (passa da più a meno) mentre tutti gli altri rimangono positivi. Chiamiamo λu l’esponente che cambia segno (u indica un “modo instabile” (unstable)) e λ s tutti gli altri (s sta per “stabile”) (fig.6 a). Attorno a μ c la perturbazione di xu tende ad avere vita lunga, cioè la variabile xu è alquanto lenta rispetto alle altre che raccogliamo nel gruppo x s il quale varia rapidamente; allora possiamo spezzare la dinamica (2) in due subdinamiche, una 1-dimensionale (u) e l’altra (N-1) – dimensionale (s). Nel secondo gruppo le corrispondenti variabili x s vanno rapidamente all’equilibrio,adeguandosi alle variazioni lente di xu ; possiamo esprimere ciò con la relazione funzionale x s = g ( xu ) . Diciamo che le x s sono “schiavizzate” dalla xu e chiamiamo l’approssimazione come “eliminazione adiabatica delle variabili veloci”. Sostituendo in Eq. (2) otteniamo una equazione chiusa per la velocità di xu x&u = f u ( xu , g ( xu ), μ ) (3) Un’equazione chiusa significa una descrizione autoconsistente,in cui xu dipende solo da se stesso; ciò dà una robustezza ontologica alla xu ; la sua lentezza significa che essa rappresenta una caratteristica durevole e la sua evoluzione autoconsistente significa che possiamo ignorare le x s e 8 parlare solo di xu . Per esempio nel caso del laser siamo in presenza della nascita di un campo coerente xu , che è la natura del laser, indipendentemente da dettagli legati ad x s (il laser può essere dovuto ad atomi in gas o solidi, o ad elettroni liberi in semiconduttori, ed avere dimensioni che vadano da 1 micrometro a parecchi metri ma le x s sono accidenti che non regolano la natura del laser. Questo aspetto olistico o emergente, risultante dalla dinamica non lineare , era sconosciuto a Galileo o Newton! Inoltre, quando μ passa attraverso μ c , un valore xu(1) precedentemente stabile viene destabilizzato. Una perturbazione crescente significa che infine la perturbazione lineare non è più corretta, e il sistema si stabilizza a un nuovo valore xu( 2 ) (fig. 6 b). Tale è il caso del laser che va da sotto a sopra soglia ; tale è il caso di un sistema in equilibrio termico che va da gas a liquido o da disordinato ad ordinatoal variare della temperatura (qui rappresentata da μ ) che gli viene imposta. Per riassumere, abbiamo isolato dalla dinamica generale (2) alcuni punti critici, o biforcazioni, in cui emergono nuovi aspetti salienti; questa descrizione locale è alquanto accessibile anche se la dinamica non lineare f è complicata. Raccontato in questi termini, il programma scientifico è in linea con i fatti percettivi, rispetto agli argomenti traballanti del cognitivismo classico; tuttavia esso è basato su una assunzione critica, che ci sia un modo “naturale” di assegnare le xi . Abbiamo visto in Sez.2 che ci sono due strade per assegnare parametri misurabili, quella di Galileo basata sua spetti macroscopici e quella di Newton basata su componenti elementari. Poiché l’eliminazione adiabatica delle variabili veloci riduce la descrizione a pochi parametri d’ordine percettualmente rilevanti in quanto a vita media lunga, le due strade sono euqivalenti anche se quella di Newton può sembrare più fondamentale e quella di Galileo più rapida. Una volta formalizzato il problema in qualche modo, l’ammontare di risorse computazionali da impeganre per la soluzione è chiamato complessità (Arecchi,2000,2001). Rimane aperta la domanda: la formalizzazione è sufficiente per estrarre la natura? In situazioni artificiali, cioè create dall’uomo (problemi di traffico, aziendali, industriali o finanziari) la risposta è SI; invece per fenomeni naturali, dagli astri alla vita, siamo in presenza di sistemi aperti , che noi modellizziamo con un certo numero di variabili senza sapere se sono sufficienti; in generale NON LO SONO, e la conoscenza parziale dà luogo a differenti modelli (cioè descrizioni parziali) mutuamente irriducibili che danno informazione rilevante ma solo da un punto di vista limitato. Piuttosto che sviluppare considerazioni matematiche, riferiamoci a immagini intuitive. La fig.7a mostra biforcazioni con transizioni discontinue: queste sono chiamate catastrofi e rappresentano i bordi di oggetti confinati nello spazio, cioè sono associati a salienze (Thom). La fig. 7 b) mostra biforcazioni multiple; quando parecchi rami stabili coesistono, siamo in presenza di molti livelli di realtà, ciascuno caratterizzato da un parametro d’ordine diverso, il corrispondente x che uno legge sull’asse verticale di Fig.7b. Chiamiamo descrizione come un sistema si comporta, cioè la dinamica di un singolo ramo, e spiegazione le interazioni olistiche fra i parametri d’ordine che specificano i rami differenti, ciascuno matematicamente descritto da una differente versione dell’equazione collettiva Eq.(3). La spiegazione non richiede una conoscenza dettagliata di tutti gli x s ma solo di pochi xu . Le interazioni tra due livelli di realtà rappresentano una causa se un livello influenza il futuro di un altro e uno scopo o fine se viste nella direzione opposta. In tal modo le interazioni globali assegnano a categorie filosofiche una rilevanza ontologica, senza bisogno di dover ridurre ogni descrizione alle interazioni della fisica microscopica. Queste categorie non son certo gli apriori di Kant che legano entità osservabili: infatti lo statuto ontologico dei livelli di realtà giustifica la rilevanza di causa e fine anche se solo un livello di realtà è sotto osservazione. In conclusione , la rifondazione della ontologia basata sulla dinamica non lineare permette risposte a vecchi problemi filosofici. 9 Bibliografia Abarbanel, H.D., R. Brown, J. Sidorowich e L.S. Tsimring, 1993 “The analysis of observed chaotic data in physical systems”, Review of Modern Physics, 65, 1331 Arecchi F.T., A. Farini, 1998 “Come vediamo il mondo: il punto di vista del fisico”, KOS (Rivista dell’H.S.R., Milano) n. 157, pp. 14-27 Allaria E., Arecchi F.T., Di Garbo A., Meucci R. 2001 “Synchronization of homoclinic chaos” Phys. Rev. Lett .86, 791. Arecchi F.T. 2000 “Complexity and adaptation: a strategy common to scientific modeling and perception” Cognitive Processing 1, 23. Arecchi F.T. 2001, “Complexity versus complex systems: a new approach to scientific discovery” Nonlin.Dynamics, Psychology, and Life Sciences, 5, 21. Arecchi F.T., Meucci R., Allaria E., Di Garbo A., Tsimring L.S., 2002 “Delayed selfsynchronization in homoclinic chaos” Pys.Rev.E65,046237 Brentano F. (1973), Psychology from an empirical standpoint, New York: Humanities Press (original 1874). Churchland P.M. (1984), Matter and consciousness: a contemporary introduction to the philosophy of mind, Cambridge MA: M.I.T. Press. Dennett D. (1987), Intentional stance, Cambridge MA: MIT Press. Fodor J.A. (1981), Representations, Philosophical essays on the foundations of cognitive science, Cambridge MA: MIT Press. Grossberg S., 1995a “The attentive brain” The American Scientist, 83, 439. Grossberg S., 1995b “Review of the book by F.Crick: The astonishing hypothesis: The scientific search for a soul” 83 (n.1) Haken H. 1983 Synergetics, an introduction 3rd edition,Berlin: Springer Verlag Hubel D.H., 1995 “Eye, brain and vision”, Scientific American Library, n. 22, W.H. Freeman, New York. Julesz, B., 1991 “Early vision and focal attention”, Reviews of Modern Physics, 63, 735-772, 10 Meucci R., Di Garbo A., Allaria E., Arecchi F.T. 2002 “Autonomous Bursting in a Homoclinic System” Phys Rev.Lett. 88,144101 Petitot J. (1990), Semiotics and cognitive sciences: the morphological turn, in The semiotic review of books, vol. 1, page 2. Putnam H. (1988), Representation and reality, Cambridge MA: M.I.T. Press. Pylyshyn Z.W. 1986 Computation and cognition, Cambridge MA: MIT Press Quine W.V.O. (1969), Ontological relativity and other essays, New York: Columbia University Press. Rodriguez E., George N., Lachaux J.P., Martinerie J., Renault B.and Varela F. 1999, “Perception's shadow:Long-distance synchronization in the human brain”, Nature 397:340-343. Singer W. E Gray C.M., 1995, “Visual feature integration and the temporal correlation hypothesis” Annu.Rev.Neurosci. 18, 555. Softky W., 1995 “Simple codes versus efficient codes” Current Opinions in Neurobiology, 5, 239. Thom R. (1983), Mathematical models of morphogenesis, Chichester: Ellis Horwood. Thom R. (1988), Esquisse d’une semiophysique, Paris : InterEditions. Turing A. 1950 “Computing Machinery and Intelligence” Mind 59, 433 Von der Malsburg C., 1981 “The correlation theory of brain function”, reprinted in E. Domani, J.L. Van Hemmen and K. Schulten (Eds.), “Models of neural networks II”, Springer, Berlin. 11 Fig. 1 : (a) Serie temporale sperimentale dell’intensità di un laser CO2 con feedback nel regime di caos omoclinico. (b) Magnificazione temporale di una singola orbita. (c) Traiettoria nello spazio delle fasi costruita mediante una tecnica di immersione con ritardi appropriati [da Allaria et al.]. 12 Fig.2 : Incremento a) e decremento b) a scalino del parametro di controllo B0 di +/- 1% (linea tratteggiata) modifica il sistema da comportamento omoclinico a periodico o eccitabile. c) Nel caso a), la frequenza νr degli impulsi cresce monoticamente con ΔB0 [da Meucci et al.]. 13 Fig. 3: Serie temporale speriemntale per differenti sincronizzazioni indotte da perturbazioni periodiche nel parametro di controllo (a) Vincolamento 1:1, (b) 1:2, (c) 1:3, (d) 2:1 [da Allaria et al.]. 14 Fig. 4 : Feature binding (legame di configurazione): la donna e il gatto sono rappresentate da un mosaico di cerchi vuoti o pieni, ciascuno relativo al campo recettivo di un gruppo di neuroni della corteccia visuale. Dentro ciascun cerchio l’elaborazione si riferisce a un dettaglio specifico. Le relazione tra dettagli sono codificate da correlazioni temporali tra i neuroni, come mostrato dalle stesse sequenze di impulsi elettrici per due cerchi pieni o vuoti. Neuroni che si riferiscono allo stesso individuo (p.es. il gatto) hanno scariche sincrone, mentre i loro impulsi sono scorrelati rispetto a quelli che si riferiscono a un altro individuo (la donna) [da Singer]. 15 Fig.5 ART = Adaptive Resonance Theory. Ruolo degli stimoli bottom-up degli stadi visivi preliminari e segnali top-down dovuti ad apsettazioni formulate dalla memoria semantica. L’attenzione focale assicura l’armonizzazione (risonanza) fra i due flussi [da Julesz]. 16 Fig. 6 a) Quando il parametro di controllo μ passa per il valore critico μc, gli esponenti λs rimangono positivi, assicurando un comportamento stabile alle corrispondenti variabili xs, mentre λu passa da positivo a negativo, destabilizzando la corrispondente variabile xu, che pertanto ha un comportamento lento (autocorrelazione di lunga durata) Fig. 6 b) Soluzioni stazionarie in funzione del parametro di controllo: in μc il ramo x’u diventa instabile (ramo tratteggiato) e un nuovo ramo stabile x’’u emerge dal punto di biforcazione. 17 Fig. 7 a) Biforcazione diretta e inversa: nel caso diretto il sistema cambia ramo stabile in μc; nel caso inverso, in μ1 e μ2 il ramo stabile è rimpiazzato da una porzione instabile (tratteggiata), muovendo μ da destra o sinistra il sistema salta discontinuamente sull’altro ramo e la biforcazione è detta catastrofe (si noti il ciclo di isteresi man mano che μ va avanti e indietro) Fig. 7 b) Diagramma di biforcazione multiplo. Le linee intere (tratteggiate) rappresentano stati stabili (instabili) al variare del parametro di controllo. 18