S C I E N Z A LE DIMENSIONI DELLA COMPLESSITÀ BIOLOGICA

S
Saverio Forestiero
C
I
E
N
Z
A
LE DIMENSIONI DELLA COMPLESSITÀ
BIOLOGICA
L’esame di alcuni punti critici del dibattito filosofico sulla complessità biologica precede la presentazione delle componenti, quantitativa e qualitativa, della complessità biologica. L’illustrazione delle
varie manifestazioni della complessità degli organismi è fatta ricorrendo alle tre nozioni chiave di organizzazione, individualità e
relazionalità. Il saggio contiene anche un’analisi del rapporto tra
biocomplessità e selezione naturale, e riassume in pochi punti
salienti l’ipotesi ricostruttiva dell’incremento di complessità lungo
l’organizzazione gerarchizzata dei viventi. La riflessione finale è
dedicata agli effetti della storia sulla complessità biologica.
“Complessità” è una tra le parole più ricorrenti e uno dei
concetti più trasversali delle scienze fisico-matematiche e
naturali. Esaminando gli scritti che trattano della complessità
biologica si nota subito che la nozione di complessità ha
carattere multidimensionale e che la relativa discussione
sull’argomento presenta molteplici aspetti. Senz’altro c’è l’irrisolta questione della definizione, c’è l’interrogativo se
complessi siano gli oggetti biologici o i modelli e le teorie,
ci sono posizioni antagoniste sulle eventuali differenze qualitative tra complessità dei sistemi fisici e dei biosistemi, troviamo il dibattito sulla misurazione della complessità, ricerche sul rapporto tra complessità e ordine e tra complessità e
informazione, saggi sugli aspetti semantici della complessità
e riflessioni sul rapporto tra complessità biologica e semiotica. Molto interesse suscitano anche gli interrogativi sull’ipotetico incremento di complessità dei sistemi viventi e sulle
eventuali tendenze progressive della complessità nell’evoluzione organica.
Sebbene da un punto di vista scientifico l’instabilità semantica della nozione di complessità biologica rappresenti
ovviamente una limitazione, tuttavia questa nozione conserva dei contenuti euristicamente utili e spendibili anche sul
piano teorico. Perciò tenteremo qui di seguito una sorta di
fenomenologia della complessità dei sistemi viventi. Naturalmente sarà una fenomenologia in formato ridotto: un’illustrazione corredata da alcune riflessione su certi fatti biologici, e su problemi e metodi dove entra in scena la complessità.
76
Kéiron
La complessità biologica
come problema
epistemologico
Sappiamo che i sistemi viventi della biosfera vengono di
norma ordinati in una gerarchia di entità secondo un criterio
di complessità crescente. L’organismo unicellulare, quello pluricellulare, la popolazione di organismi, e la biocenosi rappresentano quattro distinti livelli di organizzazione della materia vivente (Eldredge e Salthe, 1984). Ma diciamo subito che
non c’è accordo sul numero dei livelli gerarchici della complessità strutturale, sulla quantità delle scatole cinesi in cui è
C omplessità
C
organizzata la materia vivente. McShea (1991), ad esempio, riferisce che Ledyard
Stebbins individua non quattro ma otto differenti gradi di
organizzazione: i sistemi
organici capaci di autoriproduzione, i procarioti, gli
eucarioti monocellulari, gli
eucarioti pluricellulari semplici, gli organismi provvisti
di tessuti e organi differenziati, gli organismi con arti
ben sviluppati e dotati di
sistema nervoso, gli organismi omeotermi, l’uomo.
Sia come sia, tale complessità è stata giudicata come
un fatto tanto ovvio, da non
suscitare nessuna particolare attenzione teorica. Fino a
tempi recenti, questa accettazione acritica della complessità biologica non ha
prodotto ricerche mirate a
chiarirne i vari aspetti; prerequisito viceversa indispensabile per una definizione.
Come dire: i viventi sono
complessi, non c’è bisogno
di dimostrarlo e tanto meno
è necessario definire in cosa
consista tale complessità.
Ora, dietro questo atteggiamento trapela una precisa posizione filosofica, una scelta realista che dà per scontata la
complessità e non si dà pena di discutere un’altra possibilità,
l’alternativa, nominalista, che la complessità sia non un attributo dei viventi quanto piuttosto delle rappresentazioni
costruite dalla scienza. In questo secondo caso, intrinsecamente complessi sarebbero semmai i modelli della conoscenza biologica e non gli oggetti del mondo biologico, che
certo potranno essere più o meno complicati ma non complessi. Chiedersi perciò se i sistemi viventi siano oggetti “davvero” complessi può essere una domanda filosoficamente
interessante ma non scientificamente produttiva, perché
quel “davvero” complica anziché semplificare la strada verso
l’osservazione e la sperimentazione. Noi avvieremo il nostro
discorso assumendo invece, come artifizio operativamente
utile, che i sistemi viventi possiedano un qualche tipo di
complessità (della quale a priori non vogliamo decidere se
abbia natura reale o nominale) e che essa sia una proprietà
interessante che noi vogliamo caratterizzare. Agiremo perciò
Il passaggio critico nella gerarchia della
complessità corrisponde all’incremento
di complessità dei sistemi viventi, particolarmente intenso durante le transizioni evolutive più importanti (procarioti/eucarioti, unicellulari/pluricellulari).
Charles Darwin,
“Illustrazione italiana”, a.VII, n.6, 1880.
77
Kéiron
S
Una distinzione
C
I
E
N
Z
A
come se la complessità dei viventi fosse reale, e ne ricercheremo le manifestazioni visto che siamo interessati a esplorarne la fenomenologia e non a dimostrarne fondata o infondata l’ontologia.
fondamentale
Complessità algoritmica:
il contenuto informativo
dei sistemi viventi
78
Kéiron
In campo scientifico, il termine complessità viene impiegato
in due differenti accezioni (Lepschy, 2000). Chi ha familiarità
con l’informatica e con l’analisi numerica sa che la complessità corrisponde a una caratteristica quantitativa di un algoritmo di calcolo che ne determina la possibilità di impiego
per la soluzione pratica di un problema. Nell’ambito dei sistemi dinamici, invece, la complessità è di solito considerata
una caratteristica qualitativa di un sistema. Prima di abbozzare un identikit della complessità dei sistemi viventi visti
come sistemi dinamici, consideriamo brevemente la complessità biologica di tipo algoritmico.
Sappiamo che nei sistemi viventi l’informazione è conservata
e trattata negli acidi nucleici che specificano in maniera non
lineare i vari fenotipi; i quali, a loro volta, manifestano complessità gerarchizzata. Nel decennio successivo al 1953,
dopo che Watson e Crick ebbero scoperto la struttura a doppia elica del DNA, altri ricercatori concorsero tra il 1962 e il
1966 a decifrare il cosiddetto codice genetico grazie al quale
una sequenza di nucleotidi di un gene viene tradotta nella
sequenza di amminoacidi di una proteina (Corbellini, 1999).
Probabilmente anche la prossimità temporale tra la scoperta
dell’esistenza di tale codice e l’elaborazione teorica della
nozione di informazione a opera di E. Shannon e W. Weaver
(1949), concorse a suggerire l’accostamento tra l’informazione
biologica e l’informazione della teoria omonima. Più precisamente vennero cercate correlazioni e analogie in ordine alla
misura del contenuto di informazione di sequenze (normali e
mutanti per una o più variazioni) e alla misura dell’entropia
di informazione.
Nell’approccio algoritmico, le sequenze nucleotidiche vengono considerate sequenze di simboli dell’alfabeto a quattro lettere proprio degli acidi nucleici. La formazione di una data
sequenza Ik di lunghezza n avviene allora con probabilità
pk = 4-n, e il contenuto di informazione, espresso in bit, della
sequenza è Ik = 2n. Tutto questo vale indipendentemente
dalla particolare sequenza considerata. Infatti l’informazione
di Shannon considera solo la componente statistica dell’informazione senza riferimento al suo contenuto, dunque al
significato, che è invece estremamente importante per i sistemi viventi dato che è il significato del messaggio a determinare le conseguenze dell’informazione erogata. Approcci
successivi dovuti a A. N. Kolmogorov e a G. J. Chaitin (rispettivamente nel 1968 e nel 1969) considerarono la struttura
interna delle sequenze. Nella teoria algoritmica dell’informazione il contenuto informativo di un messaggio è pari alla
lunghezza del più piccolo programma di computer che, una
volta eseguito, è in grado di produrre l’oggetto. Ne deriva
C omplessità
C
che messaggi periodici o
molto ridondanti possiedono
basso rapporto di informazione algoritmica/complessità, mentre sequenze casuali hanno un alto rapporto di
i n f o r m a z i o n e
algoritmica/complessità, non
potendo essere create attraverso un programma che sia
più breve delle sequenze
stesse. Tuttavia, come ogni
biologo sa, il fatto che una
sequenza casuale sia dotata
di alta complessità (nel
senso algoritmico-informatico sopra specificato) contraddice la realtà biologica
nella quale i sistemi viventi
giudicati altamente complessi non hanno strutture e
comportamenti governati dal
caso ma possiedono invece
un elevato livello di organizzazione interna. Neanche la
nozione di complessità algoritmica, essendo interessata
alla struttura interna del
messaggio consente di
affrontare il problema cruciale della significatività dell’informazione. Quanto sia
importante questo punto è immediatamente chiaro considerando per esempio che i geni strutturali dell’uomo e dello
scimpanzé sono identici al novantanove per cento (come
dimostrarono King e Wilson nel 1975, le differenze amminoacidiche del loro corredo preoteico non superano l’uno
per cento) e che basta solo una frazione piccola, ma altamente significativa, di geni diversi per determinare differenze biologiche di grande rilievo. La distanza genetica media
tra le due specie, stimata su circa cinquanta geni strutturali,
è risultata essere addirittura inferiore a quella tra specie
sorelle (sibling species) del moscerino di Drosophila, che
sono per definizione morfologicamente indistinguibili. È
peraltro noto che tali piccole differenze di sequenza, capaci
però di generare differenze organizzative tra le due specie,
vanno quasi certamente ricondotte a cambiamenti prodotti
da pochi geni regolatori.
Il passaggio critico nella gerarchia della complessità corrisponde ovviamente all’incremento di complessità dei sistemi
viventi, particolarmente intenso durante le transizioni evolutive più importanti: per esempio il passaggio da cellula pro-
Frontespizio della prima edizione in
opuscolo de L’uomo e le scimmie, 1864.
79
Kéiron
S
Complessità qualitativa
L’evoluzione dell’uomo secondo un’incisione del periodico satirico inglese
“Punch” (6 dicembre 1881).
80
Kéiron
C
I
E
N
Z
A
cariotica a cellula eucariotica, quello da sistema unicellulare
a sistema pluricellulare oppure quello da individuo a colonia
(Maynard Smith e Szathmary, 1995). Ancora manca una teoria generale dell’incremento di complessità, ma questo fenomeno ha iniziato ad avere una sua spiegazione quando l’analisi è stata circoscritta a sistemi molto semplici come i virus.
Alla fine degli anni Settanta, Manfred Eigen e Peter Schuster
hanno proposto un modello teorico, detto dell’iperciclo, di
notevole interesse euristico, in cui sono specificate le condizioni minime che permettono di conservare e di accumulare
informazione biologica: un passo indispensabile per l’aumento di complessità di un sistema (Eigen e Schuster, 1979).
Sistemi complessi se ne trovano già nel mondo non vivente.
Sono tali i ben noti sistemi a molte componenti interagenti e
caratterizzati da dinamiche dissipative: le turbolenze nei fluidi
di una turbina o di una camera di scoppio di un motore a
combustione, le nuvole, i profili delle coste, gli alberi, danno
C omplessità
C
luogo a strutture complesse accomunate dalla nascita di una
spontanea autosomiglianza interna e da invarianza di scala
(Mandelbrot, 1983). Si tratta di strutture dotate della cosiddetta “auto-organizzazione”, una proprietà che rappresenta tra
l’altro un ottimo esempio di proprietà emergente di un sistema.
I fenomeni di auto-organizzazione sono diffusamente presenti anche nei sistemi biologici, basti pensare alla complessità organizzativa delle reti metaboliche intracellulari. Secondo alcuni, anzi essi potrebbero spiegare molti comportamenti dei sistemi viventi intrattabili con i tradizionali utensili
esplicativi della biologia evoluzionistica. Stuart Kauffmann,
ad esempio, ha ipotizzato che l’ordine biologico si sviluppi
spontaneamente, che esso sia prodotto dall’interno dei sistemi viventi grazie agli stessi principi di auto-organizzazione
(leggi della complessità), agenti nei sistemi fisici (Kauffmann,
1995). All’origine delle configurazioni ordinate dei sistemi
complessi vi sarebbero sistemi in equilibrio dotati di bassa
energia e strutture dissipative. Ora noi osserviamo che mentre l’idea che l’auto-organizzazione possa concorrere alla
variabilità dei sistemi è un’ipotesi plausibile, è invece già
dimostrato che soltanto l’interazione con l’ambiente esterno
determina selettivamente quali stati del sistema saranno mantenuti e quali no. Per dirla con Antoine Danchin (1998): la
selezione non è sensibile alla struttura ma all’organizzazione;
insomma, l’ambiente non giudica direttamente le strutture ma
le loro organizzazioni attraverso i loro funzionamenti. L’autoorganizzazione potrà spiegare il panorama di forme potenziali, l’insieme delle strutture consentite dalle leggi della complessità, ma non ci sono indicazioni che tali leggi riescano a
spiegare né tantomeno a prevedere (come invece Kauffmann
sembra sostenere) le strutture, le forme che effettivamente
sono o saranno prodotte e riprodotte. Anche per il cosiddetto problema dell’ “universalità”. Infatti, se i sistemi fisici
dotati di auto-organizzazione sembrano essere caratterizzati
da una “ridotta universalità”, è chiaro che quelli biologici lo
sono in misura ancora maggiore (Pietronero, 1998).
L’organizzazione, l’individualità e la relazionalità non sono
soltanto tre caratteristiche comuni a tutti i sistemi viventi ma
sono anche tre diverse manifestazioni della complessità biologica (Forestiero, 2000, 2001). Vediamole singolarmente più
da vicino.
Proprietà fondamentale di tutti i viventi è quella di essere
sistemi organizzati (Mayr, 1982). Possedere un’organizzazione significa presentare un certo insieme di relazioni non
casuali che assicurano la coerenza interna del sistema. Queste relazioni sono responsabili dell’unitarietà di ogni sistema
vivente e della sua tenuta. L’organizzazione dei viventi
mostra di avere una natura gerarchica per cui i sistemi dei
vari livelli si presentano come entità fenomeniche caratteriz-
81
Un primo identikit della
complessità biologica
L’organizzazione
Kéiron
S
L’individualità
e le sue conseguenze:
la biodiversità
C
I
E
N
Z
A
zate da configurazioni strutturali e da dinamiche processuali differenti a ciascun livello, e dotate di proprietà né immediatamente deducibili né prevedibili. Oltre che gerarchica,
tale organizzazione è anche chiusa, grazie all’innesco di circolarità in meccanismi altrimenti lineari di causa ed effetto.
La logica circolare (perfettamente esemplificata dal rapporto
causale: gameti-zigote-gameti) percorre tutti i livelli della
gerarchia, dalla cellula all’ecosistema.
L’individualità dei sistemi viventi risulta dal fatto che essi non
sono ripetitivi: l’eterogeneità è la norma (Ageno, 1986). Di
norma ogni vivente possiede una propria individualità (un’unicità originariamente dovuta alle proprietà stocastiche della
sorgente di variazione) che viene codificata nei geni, viene
costruita epigeneticamente e viene trasmessa alla posterità.
L’unicità degli individui è una caratteristica essenziale per l’adattamento della popolazione a un ambiente perennemente
mutevole. L’individualità dei sistemi biologici ha duplice natura: essa è con-causa ed effetto dell’evoluzione. La più appariscente conseguenza dell’individualità è la diversità biologica o
biodiversità. Globalmente, la biodiversità è costituita dall’insieme delle differenze osservabili tra i viventi. Tali differenze
possono essere descritte in termini di quantità, di variazione
e di variabilità degli organismi; nonché, semplificando, in rapporto ai geni, alle specie e agli ecosistemi (Heywood, 1995).
La relazionalità
82
Kéiron
A differenza di quanto accade nei sistemi fisici dove le relazioni tra le parti sono mantenute dall’azione di forze, la coesione tra le componenti della materia vivente è affidata innanzitutto ai segnali. Per esempio è mediante segnali che le cellule di una coltura batterica o le componenti di un sistema
pluricellulare trasferiscono informazione dall’una all’altra,
oppure coordinano i processi interni con quanto accade all’esterno di ciascuna di esse. A livello degli organismi pluricellulari, il sistema costituito dal segnale e dal suo recettore non
solo assicura l’integrazione tra le varie cellule, per esempio
durante i processi di sviluppo (Bonner, 1984), ma negli animali può anche consentire l’integrazione sociale degli individui vuoi attraverso l’azione ormonale, vuoi attraverso quella
dei neurotrasmettitori. In tutti i gruppi di organismi si assiste
a una diversificazione della coppia segnale-recettore (Bonner,
1984, 1988). Tale diversificazione evolutiva produce sia una
complicazione del sistema sia la sua compartimentalizzazione,
con la localizzazione, in alcune regioni del corpo, delle cellule contenenti i differenti recettori. Inoltre, se da una parte l’evoluzione filogenetica della coppia segnale-recettore rende
più efficiente e affidabile l’integrazione tra gli individui (con
ciò aumentando la diversità interna, intrasistemica, dei sistemi
viventi), dall’altra essa serve a mantenere isolati sistemi tra
loro incompatibili e in competizione (favorendo così la diversità esterna, intersistemica). I segnali coinvolti nel comportamento riproduttivo e responsabili della produzione delle barriere interspecifiche di isolamento pre-copula, esemplificano
puntualmente la funzione di
mantenimento e di incremento della diversità intersistemica. Negli animali dotati
di un sistema nervoso e di un
cervello
sufficientemente
complesso, il sistema segnale-recettore è ancora all’opera nel consentire l’apprendimento e dunque, ricorsivamente, nel permettere la
generazione di più sofisticati
meccanismi di produzione di
diversità e di complessità. Se
poi guardiamo a un altro
ambito fenomenologico, è
sempre la capacità relazionale dei sistemi viventi che
viene chiamata in causa nell’
elaborazione epigenetica dell’informazione
genomica,
come pure nei processi di
riconoscimento immunitario,
nella morfogenesi, nell’ontogenesi del comportamento.
Rientra in una più ampia
accezione di relazionalità,
infine, anche la capacità dei
sistemi viventi di mantenersi
in rapporto con l’esterno sia
attraverso
l’adattamento
genetico che quello ecologico.
Progresso?
Il consueto ordinamento di complessità crescente: cellula procariotica, cellula eucariotica, organismo pluricellulare, popolazione, comunità, ecosistema, di solito si accompagna all’idea
che nella storia della vita sul pianeta sia riconoscibile una tendenza storica verso la crescita di complessità dei sistemi viventi. Niente di più inesatto. Si tratta di una convinzione errata
perché se da una parte è indiscutibile che le forme organizzative più semplici hanno preceduto di norma quelle più complesse, tuttavia la coesistenza temporale di forme poco complesse accanto a forme molto complesse testimonia non della
sostituzione di sistemi relativamente semplici con sistemi complessi, ma della coesistenza di sistemi a vario grado di complessità. Inoltre, è anche noto che spesso nell’evoluzione i
sistemi viventi sono andati incontro a processi di drastica semplificazione di alcune subunità, dunque a una riduzione della
loro complessità generale (ad es. anoftalmia degli animali troglobi). Si può invece sostenere con buone argomentazioni che
nel corso dell’evoluzione vi sia stata una sorta di processo di
83
Kéiron
Incisione su rame acquerellata nell’Historie naturelle di George-Louis
Leclerc Conte di Buffon (1785 - 91).
Questa raffigurazione di scimpanzè,
volutamente rappresentato in atteggiamento umanizzato, suscitò scandalo.
S
Riferimenti bibliografici
Ageno, M., Le radici della biologia,
Milano, Feltrinelli, 1986.
C
I
E
N
Z
A
diffusione della complessità biologica, nel senso che sembra
essere aumentata la capacità dei sistemi viventi di adattarsi a
un ambiente che pone richieste tra loro contrastanti (Omodeo,
1987).
Bonner, J. T., The Evolution of Chemical Signal-receptor Systems (from slime
moulds to man), in Oxford Surveys in
Selezione naturale, complessità gerarchica
e complessità biologica come effetto storico
Evolutionary Biology, a cura di R.
Dawkins e M. Ridley, vol.1, 1984, pp. 115.
- The Evolution of Complexity, Princeton, Princeton U.P., 1988.
Corbellini, G., Le grammatiche del
vivente, (II ed.), Roma-Bari, Laterza,
1999.
Dahlberg, J. E. e Tocchini Valentini, G.
P. (a cura di), Frontiere della vita. Vol.
I. All’origine della vita, Roma, Istituto
della Enciclopedia Italiana, 1998.
Danchin, A., La barque de delphes. Ce
que révèle le texte des génomes, Paris,
Odile Jacob, 1998.
Eigen, M. e Schuster, P., The Hypercycle: a Principle of Natural Self-organization, Berlin, Springer-Verlag, 1979.
Eldredge, N. e Salthe, S.N., Hierarchy
and Evolution, in Oxford Surveys in
Evolutionary Biology, cit., pp.184-220.
Forestiero, S., Complessità: complessità
biologica, in Enciclopedia italiana, VI
Appendice, Roma, Istituto della Enciclopedia Italiana, 2000, pp.405-410.
- Identification Clues of the Biological
Complexity, in “Systema naturae”, vol.
84
3, 2001 (in stampa).
Hamilton, W. D., The Genetical Evolu-
Kéiron
tion of Social Behaviour, in “Journal of
Theorethical Biology”, 7, 1964, pp. 152.
Heywood, V. H. e Watson, R. T., Global Biodiversity Assessment, Cambridge, Cambridge U.P., 1995.
Kauffman, S. A., At Home in the Universe, Oxford, Oxford U.P., 1995, trad.
it. A casa nell’universo, Roma, Editori
Riuniti, 2001.
King, J. L. e Wilson, A. C., Evolution at
Two Levels: Molecular Similarities and
Biological
Differences
Between
Humans and Chimpanzees, in “Science”, 188, 1975, pp. 107-116.
In larga misura la storia dei viventi è storia dei passaggi da un
livello di complessità all’altro, cioè da un’unità di selezione
all’altra. Secondo una ricostruzione ampiamente accettata,
l’avvio del processo evolutivo coincise con l’originarsi di
molecole capaci di autoreplica; queste furono poi incorporate in unità cellulari assai ben delimitate, capaci successivamente di integrare al loro interno i genomi di organelli dotati
di autoreplicabilità, e poi diventate capaci di sfruttare con la
sessualità l’enorme vantaggio della ricombinazione genetica.
A questo punto del processo evolutivo, con la comparsa del
sesso e della specie la selezione naturale assunse la forma che
è più familiare ai biologi, quella di riproduzione differenziale
di genotipi.
Negli anni Sessanta, dopo il lavoro di Hamilton (1964), la questione dell’esistenza di multipli livelli di azione della selezione
naturale (livelli sia sopra che sottoindividuali) diventò un argomento molto scottante. La questione in sé è della massima rilevanza e si presenta in modo assai articolato. Qui di seguito
illustriamo i punti salienti della ipotetica logica processuale
con cui si può salire da un livello di complessità a quello successivo.
Il quadro generale che sta dietro all’idea di molteplici unità di
selezione è che al nascere di un nuovo livello organizzativo
della materia vivente si verifichi un cambiamento nel bersaglio e nella forma della selezione. Mentre fino a quel momento la selezione viene esercitata soltanto dall’ambiente esterno,
con la nascita del nuovo livello strutturale (a condizione che
esso però contenga fisicamente il livello strutturale più antico)
l’ambiente esterno agisce solo sull’unità di questo nuovo livello (l’unità neoformata) e la selezione sull’unità gerarchicamente inferiore non è più esercitata dallo stesso ambiente di
prima (quello che precedentemente era esterno) ma dall’unità
neoformata, che pertanto funzionerà come ambiente per l’unità più vecchia e gerarchicamente inferiore. Questa concezione prevede un controllo verticale, dall’alto, dell’unità maggiore sull’ambito delle possibili variazioni dell’unità minore. E
anche se, in effetti, i cambiamenti dell’unità di livello inferiore possono arrivare a influenzare la replica dell’unità del livello immediatamente superiore, tale azione dal basso è consentita nella misura in cui questi cambiamenti non sono svantaggiosi per l’unità maggiore che è quella che interagisce con
l’ambiente esterno. In questa visione, all’incremento di complessità è associato lo slittamento della selezione dal vecchio
al nuovo livello di organizzazione, che quindi perde gradi di
libertà trasformandosi in vincolo interno al sistema.
C omplessità
C
Uno degli aspetti più ricchi di conseguenze teoriche dei sistemi viventi è quello di essere sistemi non universalmente
necessitati nel senso che le loro strutture e i loro comportamenti non sono descrivibili con leggi universali bensì da
enunciati validi caso per caso, o tutto al più validi per una
casistica assai limitata. Da cosa derivi questa caratteristica è
facilmente comprensibile considerando un esempio che illustra un altro peculiare aspetto dei sistemi viventi: l’enorme
discrepanza tra quanto è teoricamente possibile su base combinatoria e quanto invece si è storicamente realizzato.
Preso il caso del polimorfismo genetico, cerchiamo di rappresentarci quello che Lewontin (1974) ha chiamato “lo spazio dei genotipi”. Partendo da seimila geni strutturali (numero medio stimato per Drosophila) e ammettendo verosimilmente che la metà sia polimorfica, avremo tremila geni. Assumendo, quindi, una media di due alleli per locus elettroforetico, avremo tre possibili combinazioni alleliche per ciascun
locus; che per tutti i loci fa un numero totale di combinazioni alleliche pari a 33.000 (63.000 nel caso diploide). Come si
vede, l’insieme potenziale di tutti i genotipi così calcolato, è
costituito da una quantità strabiliante, non solo assolutamente superiore al totale dei genotipi aploidi già prodotti e producibili in futuro, ma addirittura di gran lunga superiore
anche al numero stimato di tutte le particelle elementari del
nucleo atomico presenti nell’universo (circa 1079). La massa
di questi genotipi, se tutti fossero prodotti, supererebbe la
massa dei nucleoni.
In conclusione, il fatto, invece, che di tutte le possibili combinazioni genotipiche solo alcune effettivamente si siano realizzate e solo alcune altre si potranno realizzare in futuro, rappresenta una chiara evidenza della natura relativa e contingente dei sistemi biologici. È questa contingenza a fondare la
natura storica dei viventi: la complessità osservabile deriva da
vincoli strutturali e funzionali pre-esistenti che a loro volta
determinano la dinamica futura dei sistemi. Non tutti i cammini evolutivi sono dunque possibili ma solo quelli compatibili con il regime di vincoli esterni e interni al sistema. I sistemi viventi sono dunque entità storicamente determinate e la
biologia assume anche essa carattere storico ogni volta che si
pone problemi che vanno oltre il comportamento delle molecole.
La natura dei vincoli che determinano le condizioni di possibilità dei sistemi viventi è esplicitabile solo in termini evolutivi. Si tratta dei vincoli adattativi, sincronici, che strutturano il
collegamento con l’ambiente, e dei vincoli di sviluppo che
specificano diacronicamente il modo d’essere di ciascun individuo e di ciascuna specie. La natura di questi vincoli legittima, inoltre, gli interrogativi teleonomici sui perché di certe
manifestazioni dei viventi (Mayr, 1982, 1997). Le domande sui
perché non sembrano riducibili a domande sul come. Piuttosto si hanno spiegazioni di due ordini distinti: una funzionale, finalizzata all’esplicitazione delle cause prossime, dei meccanismi in gioco; l’altra tesa a elaborare una spiegazione che
è storia delle vicende responsabili del fenomeno osservato.
Lepschy, A., Complessità: sistemi complessi, in Enciclopedia italiana, VI
Appendice, cit., pp. 401-405.
Lewontin, R. C., The Genetic Basis of
Evolutionary Change,
New
York,
Columbia U. P., 1974.
Mandelbrot, B., The Fractal Geometry
of Nature, New York, Freeman, 1983.
Maynard Smith, J. e Szathmary, T., The
Major
Transitions
in
Evolution,
Oxford, Oxford U.P., 1995.
Mayr, E., The Growth of Biological
Thou-ght, Diversity, Evolution, and
Inheritan-ce. Cambridge (Mass.), The
Belknap Press of Harvard University
Press, 1982, trad.it., Storia del pensiero
biologico, Torino, Bollati-Boringhieri,
1990.
- This is Biology, Cambridge (Mass.),
Harvard U.P., 1997, trad. it. Il modello
biologico, Milano, McGraw-Hill, 1998.
McShea, D. W., Complexity and Evolution: What Everybody Knows, in “Biology and Philosophy”, 6, 1991, pp. 303324.
Omodeo, P., Progressive Evolution and
Increase of Genetic Information, in
Proceedings of the International Symposium on Biological Evolution (Bari,
9-14 April, 1985), a cura di V. Pesce
Delfino, Bari, Adriatica Editrice, 1987,
pp. 23-38.
Pietronero, L., Il semplice e il complesso dalla fisica alla biologia, in Frontiere della vita.Vol. I. All’origine della
85
vita, cit., pp. 71-87.
Wagensberg, J., Complexity versus
Uncertainty : the Question of Staying
Alive, in “Biology and Philosophy”, 15,
2000, pp. 493-508.
Kéiron
412-711_Vol1_Scienza.QXD
6-06-2007
12:09
Pagina 703
L’ecologia: aspetti scientifici e
problemi di conservazione
di Saverio Forestiero
L’idea che percorre tutta la storia dell’ecologia è la necessaria interdipendenza
dei viventi: nella biosfera tutto si tiene in equilibrio. L’ecologia studia strutture e
processi sincronicamente e diacronicamente, a varie scale spaziali e temporali; si
concentra sulle relazioni intra e interspecifiche, ne indaga la natura economica,
conflittuale o cooperativa, ne misura l’intensità; ricorre descrittivamente al
concetto di ecosistema. Il vocabolario dell’ecologia è spesso antropocentrico; la
conoscenza degli ecosistemi e degli ambienti di vita delle altre specie è
severamente condizionata dai limiti percettivi degli ecologi. L’ecologia del
secondo Novecento ha dovuto concentrarsi su problemi applicativi di enorme
complessità: boom demografico, inquinamento, crisi climatiche e della
disponibilità d’acqua, erosione della biodiversità di specie di interesse
agronomico o ittico, alterazione degli ecosistemi, insorgenza di nuove patologie
mediche e veterinarie, estinzione. Oggi molti dei problemi affrontati
dall’ecologia scientifica intercettano questioni economiche e politiche.
Identità dell’ecologia
Poche scienze sono allo stesso tempo tanto popolari e così mal conosciute e fraintese come l’ecologia. Anche se in modo ovviamente
assai meno vistoso di quanto non accada presso il pubblico, pure tra
gli addetti ai lavori si possono trovare punti di vista diversi e spesso
discordanti sull’identità e la natura dell’ecologia. Gli storici della
scienza si dividono sulla sua origine e la sua storia, gli ecologi ne
tratteggiano differenti profili a seconda della loro formazione accademica e del loro specifico oggetto di studio: piante, animali, cenosi (specie viventi) terrestri, lacustri, fluviali, marine, benthos, plancton, foreste, paesaggio ecc., arrivando a differenti conclusioni anche
a seconda della scala di osservazione e misura a cui si svolgono le loro ricerche. Potrà stupire ma non tutti gli ecologi concordano sulle
proprietà di base delle biocenosi e degli ecosistemi. La natura composita descrittiva e meccanicistica, quantitativa e olistica dell’ecologia si è manifestata sin dalle origini ottocentesche della disciplina attraverso i contributi della geobotanica, della fisiologia vegetale, interessata al rapporto tra piante, clima e suolo, dello studio della dinamica della vegetazione nel tempo. Tale natura polimorfica dell’ecologia in parte è frutto della sua storia e delle diverse tradizioni di
ricerca, in parte deriva dall’oggetto stesso della disciplina: le relazioni tra organismi e ambiente. Più che in altre discipline biologiche
è importante in ecologia il posizionamento teorico del ricercatore, il
suo punto di vista, la sua epistemologia. Diversamente dalla genetica o dalla biologia molecolare in ecologia non si fanno delle improvvise scoperte: è una scienza giovane e il suo oggetto di studio è
estremamente complesso, spazialmente eterogeneo e temporalmente variabile, sensibile agli effetti di scala. Gli avanzamenti sono rappresentati piuttosto da progressi nell’accuratezza delle misure, nella ricostruzione dei meccanismi, nell’attendibilità delle rappresentazioni dei fenomeni, dalla scoperta di regolarità piuttosto che di
leggi. La tensione e il contrasto teorico tra descrizioni ai diversi livelli organizzativi dei sistemi ecologici sono al momento alquanto
Veduta panoramica di Shangai
Negli ultimi anni, lo sviluppo
industriale in Cina e India,
accompagnato da un eccessivo
incremento nel consumo dei
combustibili, rischia di rendere
vani gli sforzi a tutela
dell’ambiente portati avanti
dagli altri Paesi.
forti: gli aspetti microscopici e quelli macroscopici restano abbastanza separati. La teoria dei flussi energetici nell’ecosistema non è
connessa con l’ecologia di popolazione né l’ecologia di comunità
sembra facilmente riducibile a quella di popolazione, la quale a sua
volta si interfaccia malamente con la genetica di popolazione; l’ecologia del paesaggio si connette a fatica con l’ecologia popolazionistica e ancora meno con l’ecologia fisiologica e con quella comportamentale dal momento che manca in sostanza una teoria integrata
e generale dell’ecologia: quello che vale per gli ecosistemi non è trasferibile ai livelli organizzativi più bassi.
Decisiva nella ricerca ecologica è l’attività di identificazione e rilevamento dei parametri ambientali, importantissime sono la descrizione demografica delle popolazioni, problematica è quasi sempre
la delimitazione spaziale delle cenosi e degli ecosistemi, l’analisi del
funzionamento dei medesimi, la descrizione dei grandi cicli biogeochimici della biosfera. L’indagine sul campo è molto sviluppata (forse più di quella sperimentale di laboratorio) e richiede molto dispendio di tempo e il contributo di molti specialisti che operano in
condizioni concrete spesso logisticamente difficili, quando non ostili, e mai pienamente controllabili. Si conosce l’autoecologia di pochissime specie, altrettanto poco si sa della loro sinecologia; ancora
meno della variabilità adattativa delle diverse popolazioni di una
703
412-711_Vol1_Scienza.QXD
6-06-2007
12:09
Pagina 704
Scienza e tecnologia “Conosci te stesso”: l’organismo e l’ambiente, la salute e la malattia
Un esempio di degrado ambientale,
Sardegna
stessa specie. Tenendo conto che le specie note alla scienza si aggirano come minimo attorno ai 2 milioni, si deduce che lo spazio tassonomico e quello ambientale indagato dall’ecologia sono estremamente lacunosi. Ambienti come quelli delle profondità oceaniche,
delle alte quote, dei grandi fiumi tropicali, della volta forestale, delle grotte, sono di difficile accesso e si conosce pochissimo dei loro
habitat e delle specie che li popolano. L’analisi statistica dei dati
ecologici può essere molto sofisticata e così pure sono i modelli di
simulazione di fenomeni intrattabili sperimentalmente e i modelli
matematici, deterministici o probabilistici, a carattere predittivo. Il
sostegno dell’informatica è indispensabile; lo stesso vale per l’uso di
strumenti e tecnologie che vanno dai semplici termometri ai satelliti da telerilevamento ai correntometri ai batiscafi, ecc. La fase descrittiva dell’ecologia è lontana dall’essere compiuta.
Parole, concetti, teorie
Ottocento, Storia:
Le trasformazioni
dell’ambiente fisico
Sebbene il termine sia stato coniato in tedesco (Ökologie) dal biologo Ernst Haeckel (1834-1919) nel 1866, molto prima che l’ecologia si rendesse autonoma dalla botanica e dalla zoologia, la maggior
parte dei teorici ha parlato e parla angloamericano. Attraverso molti autori, da Haeckel che cita la darwiniana economia della natura,
agli ecologi sperimentali di popolazione come Thomas Park (19081968), al limnologo e teorico George E. Hutchinson (1903-1991),
l’influenza di Darwin – soprattutto relativamente al concetto di selezione naturale – sul pensiero ecologico è assolutamente pervasiva
a livello organismico, popolazionale e biocenotico, meno sentita, invece, a livello ecosistemico. Mancando, quindi, una specifica teoria
generale dell’ecologia, l’unica teoria generale disponibile rimane
quella della selezione naturale, anche se poi questo non implica alcuna integrazione automatica delle conoscenze ecologiche con
quelle genetiche.
Tipicamente, l’ecologia studia i rapporti tra gli organismi e il loro
ambiente; sotto alcuni aspetti essa è l’erede moderna della più antica storia naturale degli organismi; moderna perché affianca allo studio qualitativo degli ottocenteschi “costumi” di animali e piante la
descrizione quantitativa e l’analisi causale dei fenomeni studiati.
Una sua caratteristica, rivelata dalla radice comune ai due termini
economia-ecologia, è l’interesse per la dimensione economica della
natura: attenzione manifestata attraverso l’elaborazione di stime
quantitative dell’efficienza ecologica. Stimare il rapporto tra le
quantità di materia vivente prodotta e i costi di produzione è una
sfida per gli ecologi. Quando, per esempio, dopo molti decenni di
lavoro si riesce a dimostrare che gli ecosistemi più efficienti ai tro-
704
La biocenosi
La biocenosi è un insieme di popolazioni vegetali
e animali che vivono in una medesima area. Si tratta
insomma della parte vivente di un ecosistema. Le specie che costituiscono la biocenosi sono legate le une
alle altre da complesse relazioni trofiche, cioè alimentari: di solito infatti in una biocenosi si trovano organismi produttori di sostanze organiche, organismi
consumatori e organismi decompositori. I primi sono
i vegetali che grazie alla clorofilla sintetizzano glucidi ricchi di energia e altre sostanze. I consumatori di
primo ordine sono gli animali erbivori, i consumatori
di ordine superiore sono i carnivori e i parassiti. Decompositori sono i microrganismi che, nutrendosi degli organismi morti, scindono le sostanze organiche liberando sostanze inorganiche. Attraverso questo ciclo
i singoli elementi e composti chimici circolano nel
pici sono le foreste pluviali mentre nei climi temperati sono i laghi
e gli stagni, tutti gli studiosi di ecologia hanno la forte consapevolezza di avere compiuto un progresso importante. Storicamente uno
dei contributi paradigmatici della nascente ecologia è l’idea deterministica e finalistica di Frederich Edward Clements (1874-1945)
secondo cui le cenosi si comportano analogamente a superorganismi, di cui le popolazioni sono loro organi. Per Clements (1916),
botanico del Nebraska, le cenosi, al pari degli organismi, sono dotate di omeostasi e, come quelli, si sviluppano nel tempo maturando attraverso la successione ordinata di stadi culminanti nel climax
(la cenosi terminale della serie in equilibrio con l’habitat). All’opposto, nel 1926, Henri A. Gleason (1882-1975) dell’Università dell’Illinois concepisce probabilisticamente le cenosi come associazioni opportunistiche, casuali e temporanee, di popolazioni di specie;
Gleason è contro l’approccio olistico alle cenosi: sono individui
piuttosto che classi.
Negli stessi anni in Inghilterra Arthur G. Tansley (1871-1955), fondatore del “New Phytologist” (1902), della British Ecological Society (1913) e del “Journal of Ecology” (1917) è favorevole a una
concezione quasi organismica delle cenosi e degli ecosistemi, ed è
convinto che le successioni ecologiche possano essere progressive
quanto regressive, quindi non destinate all’equilibrio. Nel 1925 con
Elements of physical biology, dell’americano Alfred James Lotka
(1880-1949), che tratta di demografia, cicli di nutrienti e flussi di
energia, nasce il primo libro di ecologia teorica. L’anno dopo, Raymond Pearl (1879-1940) fonda la rivista “The Quarterly review of
Biology”, inaugurando il primo numero con un articolo, poi diventato celeberrimo, di rassegna della crescita demografica di popolazioni di lievito, drosofile e uomo. Di solito si fa coincidere con quella data la “riscoperta” dell’equazione logistica del matematico bel-
mondo vivente per poi tornare nel mondo inorganico.
L’organizzazione di una biocenosi, dunque, potrebbe
essere paragonata a quella di un enorme organismo,
in cui tutte le attività metaboliche interagiscono in
modo ordinato.
Al pari di un organismo, poi, una particolare biocenosi acquisisce infatti caratteristiche proprie che
vanno al di là delle caratteristiche dei singoli individui
e delle popolazioni che la compongono, ma dipendono piuttosto dall’interazione fra le diverse specie
presenti. Questo concetto è fondamentale per l’ecologia applicata e fornisce linee guida per la gestione delle popolazioni: secondo questa visione, il controllo di
una certa popolazione, animale o vegetale che sia,
non va attuato agendo solo su quella popolazione ma
sull’intera comunità.
412-711_Vol1_Scienza.QXD
6-06-2007
12:09
Pagina 705
L’ecologia: aspetti scientifici e problemi di conservazione
Nicchia ecologica
Il termine nicchia (niche in inglese) viene introdotto la prima volta nel 1910 dall’americano Roswell Hill Johnson in un lavoro dedicato alla colorazione delle coccinelle. La seconda volta la parola
viene impiegata nel 1914 da Joseph Grinnell (18771939) in uno studio sui mammiferi e gli uccelli del
basso corso del fiume Colorado. Il termine, che non
ha ancora connotazioni tecniche, presenta il generico riferimento spaziale al luogo dove si può trovare
un animale. Il processo di tecnicizzazione proseguirà in successivi lavori di Grinnell ove è chiaro che
i referenti della nicchia diventano le relazioni di ordine funzionale (quello che la specie fa nella comunità, il suo ruolo) piuttosto che le variabili di tipo
spaziale (dove la si può trovare, il suo posto fisico).
Il riferimento alla componente biocenotica (le relazioni con le altre specie) è esplicita nei lavori di
Charles Elton. Con la teoria della nicchia elaborata
ga Pierre-François Verhulst (1804-1849) risalente al 1838 (ispiratagli a sua volta dal suo maestro Adolphe Quetelet (1796-1874) e l’inaugurazione di un nuovo campo di ricerche. Anni prima, nel 1908,
il fisiologo e biochimico australiano Thorburn Brailsford Robertson
(1884-1930) aveva però già pubblicato articoli in cui venivano riportati i dati di Quetelet e veniva introdotta la curva logistica, che
Robertson chiama autocatalitica; Pearl conosceva questi articoli e li
aveva anche molto criticati.
L’idea universale e astorica della curva logistica è che qualsiasi popolazione – a qualsiasi specie appartenga, non importa se di batteri
protisti funghi vegetali animali – nelle prime fasi della propria crescita aumenta di numero seguendo una legge matematica descrivibile mediante una curva di cui è nota la funzione. Nella logistica c’è
poi l’idea che il massimo numero di individui della popolazione che
può mantenere un equilibrio nell’ambiente non dipende dalle caratteristiche della popolazione, ma solo dal contesto ambientale,
cioè dalla sua capacità di sostenere la popolazione: è la nozione di
capacità portante dell’ambiente. Tutta l’ecologia dei rapporti tra le
specie – dalle equazioni di competizione, a quelle sulla predazione,
al principio di esclusione competitiva di Volterra-Gause – è stata
sviluppata a partire dall’equazione di Pearl-Verhulst.
Nel 1927 in Inghilterra Charles Elton (1900-1991) pubblica Animal
ecology dove, oltre a sostenere l’autoregolazione demografica, si occupa del rapporto tra livelli trofici dell’ecosistema, cioè tra tutti
quegli organismi che nella catena alimentare si nutrono della stessa
tipologia di cibo (piante, erbivori, carnivori, sostanze inorganiche),
e distribuzione delle biomasse, cioè delle masse di organismi prodotte da un ecosistema in un dato periodo, tra i livelli. Altrove vengono affrontate altre differenti questioni ecologiche: nello stesso anno lo svizzero Josias Braun-Blanquet (1884-1980) pubblica Pflanzensoziologie il trattato di riferimento della scuola fitosociologica di
Zurigo-Montpellier. Intanto nel 1926 il fondatore della biogeochimica, il russo Vladimir I. Vernadskij (1863-1945) elabora una concezione globalistica e panecologica del nostro pianeta, conia la parola biosfera, riconosce che tra i processi più importanti della biosfera c’è la produzione di materia vivente, reputa fondamentale –
anche per ragioni applicative – riuscire a stimare l’ammontare delle
risorse organiche del pianeta. Vernadskij conosce i lavori di Lotka e
li cita; Lotka citerà i suoi; entrambi concordano su una visione dell’ecologia che solo anni dopo verrà chiamata sistemica. Al loro punto di vista si rifarà, mezzo secolo dopo, il rumeno Nicholas George-
Ottocento, Scienza e
tecnologia: Charles Darwin,
Il secolo dell’evoluzione
in più riprese da G.E. Hutchinson – un ecologo di
origine britannica ma radicato a Yale e maestro di
una schiera di illustri studiosi tra cui i fratelli Eugene
P. e Howard T. Odum (1924-2002), Raymond Lindeman, Rachel Carson, Robert MacArthur (19301972), Lawrence Slobodkin (1923-) – si precisa finalmente l’idea che la nicchia ecologica, in quanto
“spazio occupato da una specie”, rimanda allo spazio astratto delle rappresentazioni matematiche e
non di certo a una porzione dell’ordinario spazio fisico-empirico dell’habitat. Nel 1957 durante i Concluding Remarks del simposio di biologia quantitativa di Cold Spring Harbor, Hutchinson formalizzerà
la nozione di nicchia servendosi del principio di
esclusione competitiva: “nicchia è l’espressione della risposta di una popolazione in un iperspazio a ndimensioni, descritto dall’insieme di tutte le Xn variabili, fisiche e biologiche”.
scu-Roegen (1906-1994) pioniere dell’economia ecologica, olistica
ed ecocentrica. Da metà degli anni Venti alla fine degli anni Trenta
matura l’ecologia teorica; oltre a Lotka tra i principali contributori
troviamo il matematico italiano Vito Volterra (1860-1940), il matematico Vladimir A. Kostitzin (1882-1950), e il microbiologo Giorgi
F. Gause (1910-1986), entrambi russi, e gli australiani Alexander
John Nicholson (1865-1969) e Victor Albert Bailey (1895-1964).
Il più importante concetto dell’ecologia scientifica è quello di ecosistema; il termine venne coniato dall’ecologo vegetale inglese
Arthur Tansley nel 1935 e sette anni più tardi implementato quantitativamente dal limnologo americano Raymond Lindeman (19151942). È su questo concetto, portato al successo nel 1953 dal più famoso dei trattati di ecologia, Fondamenti di ecologia di Eugene P.
Odum (1913-2002), che si fonda l’autonomia dell’ecologia come
scienza. Tutta l’ecologia è impregnata di pensiero sistemico, molto
essa deve alla teoria dei sistemi di Ludwig von Bertalanffy (19011972), alla cibernetica di Norbert Wiener (1894-1964) degli anni
Cinquanta e Sessanta e, più di recente, alla teoria del caos e della
complessità. I pattern (campioni) e i processi derivanti dall’interazione tra individui, popolazioni, specie e comunità all’interno di paesaggi sono al centro degli studi attuali dell’ecologia. Queste interazioni
Operazioni di smaltimento di rifiuti
radioattivi
705
412-711_Vol1_Scienza.QXD
6-06-2007
12:09
Pagina 706
Scienza e tecnologia “Conosci te stesso”: l’organismo e l’ambiente, la salute e la malattia
Gli effetti delle piogge acide sugli alberi
di una foresta
Le specie forestali coinvolte
nel problema delle piogge acide
sono numerose e alcune di esse
rivestono una grande
importanza produttiva e
paesaggistica. Tra queste si
trovano l’abete bianco, l’abete
rosso, il pino silvestre, il faggio
e molte specie di conifere
e latifoglie.
Novecento*, Storia:
Ambiente e ambientalismo,
La demografia
706
formano complesse reti (la nozione di rete è centrale in molte scienze
di fine Novecento), oggetto di intensa ricerca nell’ambito della teoria
della complessità, dell’informatica e della meccanica statistica. Oltre
ad avere stabilito rapporti con le scienze dure di tipo fisico-matematico, per il suo approccio sistemico e globalistico, l’ecologia conserva
intatti i legami con le altre scienze naturali e con la biologia e manifesta più di un’apertura verso le scienze umane attraverso l’economia,
l’antropologia, la geografia. Un’esame ravvicinato merita la nozione
di nicchia ecologica.
to Ambientale (VIA) di un intervento antropico è quella di offrire
eventuali alternative per l’ottimizzazione del progetto rispetto agli
inevitabili danni arrecati all’ambiente. Nel 1969 gli Stati Uniti sono
stati il primo Paese a legiferare adottando l’obbligo di una procedura di VIA; in Italia le prime norme sulla VIA risalgono al 1986.
Visto che dipendiamo dagli ecosistemi per l’aria, l’acqua, le materie
prime, il cibo, le medicine e altri beni e servizi, quello che è dannoso per la biodiversità è quasi sempre dannoso per la nostra specie.
Se l’uomo comune difficilmente si rende conto di questa dipendenza, invece essa è chiarissima agli esperti di conservazione. L’ecologia, o meglio la biologia della conservazione combina molte competenze settoriali per fronteggiare la crisi della biodiversità e più in generale quella ambientale. Questo obiettivo viene perseguito sia valutando gli effetti dell’attività antropica su specie, biocenosi ed ecosistemi, sia elaborando procedure capaci di prevenire l’estinzione
delle specie. Dato che la causa principale della crisi ecologica deriva dall’impatto umano, è diventato indispensabile modificare culturalmente i comportamenti delle persone nei confronti della natura. Solo in casi eccezionali è possibile ricorrere a degli strumenti
coercitivi come leggi restrittive delle libertà personali e particolarmente punitive. Nella maggioranza dei casi la società ricorre alla
mobilitazione di conoscenze antropologiche, sociologiche, economiche e geografiche per veicolare la cultura ecologica e programmare azioni di sensibilizzazione e di educazione alla difesa e alla
conservazione delle specie e degli ecosistemi. Come gran parte dell’ecologia applicata, anche la biologia della conservazione si presenta come una disciplina dell’emergenza, visto che è assai ricorrente che qualche Paese del mondo debba decidere su temi critici
di conservazione con pressante urgenza e disponendo di solito di
informazioni largamente insufficienti.
Ecologia e società: uno studio del secondo Novecento
Nel secondo Novecento l’interesse per le modificazioni ambientali,
il rapido degrado, l’esplosione demografica della nostra specie e
quindi per i correlati problemi alimentari e di inquinamento, ha influito pesantemente sugli sviluppi dell’ecologia promuovendo certi
temi con forte impatto sociale, spesso a scapito di altri forse anche
più interessanti sotto il profilo schiettamente scientifico. Nei Paesi
occidentali economicamente più ricchi, gli ecologi sono stati presto
chiamati a consigliare i politici in molte occasioni in cui erano in
ballo questioni ambientali. La nascita dell’ambientalismo postbellico può essere fatta risalire al 1962, quando con la pubblicazione Silent Spring Rachel Carson (1907-1964) denuncia i nefasti effetti ambientali del DDT e di altri pesticidi, criticando anche l’idea di
progresso tecnico-scientifico. Da allora l’interesse del pubblico verso le conoscenze dell’ecologia scientifica si è andato restringendo a
favore del richiamo dell’ecologia applicata orientata a studiare gli
impatti dell’inquinamento e di altri stress sulla struttura e il funzionamento degli ecosistemi.
Naturalmente, si potrebbero fare moltissimi esempi di impatto ambientale, ma una lista delle principali macrocategorie può bastare a
rendere l’idea: inquinamento dell’aria, contaminazione da elementi
tossici, acidificazione, inquinamento da petrolio, eutrofizzazione
delle acque, presenza di pesticidi, deforestazione, perdita di biodiversità, effetti ecologici delle guerre. L’azione antropica ha una tale
influenza sull’ambiente che oramai esistono protocolli standard di
riferimento e un apposito settore dell’ecologia applicata specializzato nella previsione degli effetti derivanti da interventi come l’apertura di un’autostrada, l’edificazione di un complesso industriale, la costruzione di una diga foranea, la posa sul fondo marino di
condutture e cavi. La finalità della Valutazione a priori dell’Impat-
La cultura della conservazione
Sono decine di anni che nei Paesi occidentali c’è la consapevolezza
di dover conservare la diversità biologica e gli ecosistemi. Naturalmente questa consapevolezza non è una prerogativa né dell’Occidente né dell’approccio scientifico alla natura in quanto in tutto il
mondo si trovano credenze religiose e filosofiche i cui precetti dettano la protezione della natura. Negli Stati Uniti, in particolare, la
cultura del rispetto della natura e della sua conservazione è molto antica e si può dire che sia nata ben prima che fosse elaborata dall’ecologia scientifica. Pensatori e profeti del pensiero ecologico e dell’azione ecologista come Ralph Waldo Emerson (1803-1882) poeta e filosofo di una visione romantica della natura con finalità moralistiche
e utopistiche, Henry David Thoreau (1817-1862) sostenitore di una
visione arcadica e sensuale ove la natura è animata e governata da
una forza vitale, John Muir (1838-1914) fondatore nel 1892 della prima organizzazione conservazionista, il Sierra Club, e quindi ritenuto
il padre del movimento ecologista, Aldo Leopold (1887-1948) che
per primo elaborò l’idea di risorsa ambientale, applicandola alla selvaggina, e stabilì i fondamenti scientifici della gestione razionale delle fauna selvatica, sono altrettanti precursori del moderno pensiero
conservazionista. Una prospettiva tardo novecentesca (1979) è offerto dall’idea del biofisico James Lovelock (1919) e della biologa
Lynn Margulis (1938), conosciuta come ipotesi Gaia secondo cui la
Terra con tutto l’insieme dei suoi ecosistemi abbia le proprietà di un
superorganismo e che, in quanto tale, sia capace di interagire e di regolare lo stato dell’atmosfera e del clima. Già agli albori della tradizione conservazionista coesistono perciò posizioni di intransigenza
nei riguardi dell’ambiente con posizioni che, con un occhio all’economia, hanno come obiettivo la gestione razionale degli ecosistemi
412-711_Vol1_Scienza.QXD
8-06-2007
16:12
Pagina 707
L’ecologia: aspetti scientifici e problemi di conservazione
naturali. Da queste posizioni gestionali deriva il moderno concetto
di sviluppo sostenibile, risalente al 1987, definito come quella forma
di sviluppo che soddisfa i bisogni primari del presente, senza compromettere la capacità delle generazioni future di soddisfare i propri
bisogni. Questa idea (espressa dal rapporto Brundtland della Commissione mondiale dell’ONU per l’ambiente e lo sviluppo) si basa
sull’assunto che possa esistere un modello economico capace di soddisfare contemporaneamente tre requisiti: i bisogni della popolazione globale in crescita, l’incremento del tenore di vita dei Paesi del
Terzo Mondo, la riduzione delle interazioni tra sistema produttivo e
ambiente in maniera compatibile con i cicli della biosfera. Attualmente l’entusiasmo che aveva accompagnato la nascita del concetto
di sviluppo sostenibile si è molto attenuato e sono in aumento le critiche alla sua inconsistenza teorica, e alla debolezza di alcune premesse come l’inesauribilità delle risorse naturali. Voci critiche si levano contro l’idea stessa che l’ambiente sia una risorsa, qualcosa da
potere sfruttare e non piuttosto un bene da tutelare.
Estinzioni
La ricerca ha dimostrato che l’estinzione non avviene a caso ma colpisce certe specie più di altre. L’identikit delle specie maggiormente minacciate contempla l’appartenenza a livelli trofici alti, la bassa
densità di popolazione, un lungo periodo di gestazione nei mammiferi e una piccola area di distribuzione geografica. Purtroppo oggi
le specie di animali che possiedono queste caratteristiche sono numerosissime. La perdita di biodiversità di specie fa danni maggiori
quanto più filogeneticamente isolate sono le specie che si estinguono. Specie, come per esempio il panda gigante, che appartengono a
branche evolutive poco ramificate dell’albero della vita, sono più in
pericolo di altre e la loro estinzione implica la perdita di interi brani di storia evolutiva. La distruzione degli habitat per scopi agricoli
o di sviluppo economico, lo sfruttamento di specie per la pesca e la
caccia, l’introduzione volontaria o involontaria di specie esotiche
rappresentano altrettante cause di modificazioni ambientali nocive
agli equilibri degli ecosistemi. Naturalmente, le condizioni geografiche di alcuni territori espongono le specie che li abitano a un maggiore rischio di estinzione. La teoria dell’equilibrio insulare di Robert MacArthur (1930-1972) ed Edward O. Wilson (1929-) elaborata negli anni Sessanta afferma che su di un’isola il numero di specie rimane pressoché stabile, è in equilibrio, quando il tasso di specie immigranti sull’isola eguaglia il tasso di specie che vi si estinguono. Più piccole sono le isole maggiore è la velocità di estinzione,
più lontane esse sono dal continente (o da isole maggiori) minore è
la velocità di immigrazione. La teoria prevede che le faune di isole
piccole e lontane dal continente siano caratterizzate da un equilibrio alquanto precario. Questo modello è stato confermato in moltissime occasioni, per molte isole e per molti gruppi di organismi.
La teoria sembra purtroppo convalidata anche da dati storici: la colonizzazione umana delle isole del Pacifico ha provocato l’estinzione di circa 2 mila specie di uccelli terrestri. L’induzione antropica
dell’estinzione è continuata nel Novecento. Similmente alle faune e
alle flore delle isole geografiche, anche le specie relegate in ambienti ecologicamente isolati, come le parti più elevate delle montagne o
i laghi, sono più a rischio di estinzione. Ci sono poi dei gruppi come gli anfibi che per specialissime caratteristiche biologiche sono
molto sensibili all’inquinamento e per questo corrono rischi più e
prima degli altri. Delle 5.743 specie di anfibi, 1856 (32 percento) sono già minacciate e altre 1.300 stanno per esserlo (per confronto: di
tutte le specie di uccelli ne sono a rischio il 12 percento, dei mammiferi il 23 percento). Dato che la pelle di rane, rospi e salamandre
è altamente permeabile essa è molto sensibile ai cambiamenti dei
parametri ecologici dell’habitat incluse le modificazioni nella qualità dell’acqua e dell’aria. Questi animali sono stati perciò scelti come indicatori privilegiati dello stato dell’ambiente. L’IUCN, che ha
promosso insieme ad altre agenzie e società il monitoraggio della
fauna mondiale di anfibi, ha accertato che nelle Americhe e in Australia la scomparsa degli anfibi è dovuta a infezioni fungine contratte a seguito dell’inaridimento climatico, mentre in Europa, Asia
e Africa ne sono responsabili la distruzione degli habitat, l’inquinamento e anche la domanda di mercato a scopo alimentare. L’allarme è a scala mondiale anche se, ovviamente, alcune aree sono più
toccate di altre; come era prevedibile gli anfibi delle isole tropicali
sono i più minacciati, addirittura il 92 percento della fauna di Haiti è in pericolo di estinzione. La drammatica situazione degli anfibi
suona come un campanello di allarme segnalando che la situazione
ambientale è critica a livello mondiale.
Novecento*, Scienza
e tecnologia: Chimica e
ambiente, La cibernetica
e le scienze dell’artificiale,
La biodiversità,
L’evoluzione
dell’evoluzionismo
Teorie del caos e della complessità
All’inizio degli anni Sessanta, il meteorologo Edward
Norton Lorenz asserì che, per sbagliare completamente nel prevedere che tempo farà a Boston, è sufficiente
trascurare il battito d’ali di una farfalla a migliaia di
chilometri di distanza. Insomma il caos (spesso chiamato “caos deterministico”) e l’impossibilità di azzardare previsioni nel lungo termine non sono caratteristiche tipiche solo dei sistemi più complessi, ma anche
di sistemi composti da pochi corpi (ad esempio, anche
il newtoniano sistema Terra-Sole). Il comportamento
più comune in natura segue infatti dinamiche non li-
Vista aerea di un impianto per il
trattamento dei reflui in Florida
Le acque, purificate con un
filtraggio su sabbia, vengono poi
utilizzate per l’irrigazione.
neari. Si può immaginare cosa questo significhi quando, ad esempio, da sistemi tutto sommato semplici si
passa a considerare oggetti ben più complessi, come il
cervello umano. Oltre che con la complessità dinamica, che mette in gioco la possibilità di prevedere il futuro, è inoltre inevitabile fare i conti con la complessità
cosiddetta strutturale, che comporta l’impossibilità di
descrivere esaurientemente sistemi complessi riducendoli a un’estrapolazione di poche proprietà dei loro
componenti: a ogni livello di complessità, infatti,
emergono nuove proprietà e comportamenti diversi.
707
412-711_Vol1_Scienza.QXD
6-06-2007
L’etologia
12:09
Pagina 693
di Saverio Forestiero
Il comportamento è la proprietà degli organismi animali che collega la loro
fisiologia alla loro ecologia, e rappresenta grazie a precisi movimenti coordinati
la forma con cui si esprime il legame tra il sistema nervoso e l’ambiente.
L’etologia, la scienza che studia il comportamento, investigando sulle sue
componenti innate o apprese, sulla sua ontogenesi individuale e sui vincoli
filogenetici, mette direttamente a tema e senza pregiudizi il dibattito naturacultura. Lo fa su base osservativa e sperimentale sia sul campo sia in laboratorio;
i suoi risultati contribuiscono a una conoscenza più precisa e attendibile della
natura degli animali e dell’uomo.
La nascita dell’etologia
L’etologia moderna nasce nel Novecento, ma il termine etologia, al
pari di ecologia, è tuttavia più antico della disciplina stessa e viene
impiegato la prima volta in ambiente francese da Étienne Geoffroy
Saint-Hilaire (1772-1844) e da suo figlio Isidore (1805-1861) che
per primo lo intende modernamente come studio naturalistico delle abitudini e degli istinti. Nel 1902 la parola compare in inglese in
un saggio dello studioso americano di formiche William Morton
Wheleer (1865-1937).
Guardando alla storia degli studi sul comportamento si possono
schematicamente rintracciare tre grandi filoni di ricerca, diversi per
la visione d’insieme, per le domande formulate, per le specie animali utilizzate, le tecniche e i metodi impiegati. Due di essi, la psicologia comparata e l’analisi neurofisiologica, derivano da una stessa radice filosofica: il meccanicismo riduzionista cartesiano. La terza, cioè l’etologia naturalistica, è un’applicazione del metodo comparativo allo studio naturalistico del comportamento, interpretato
in termini evoluzionistici. Va subito detto però che questi tre approcci non sono in effetti mai del tutto completamente separati; la
psicologia comparata dell’Ottocento per esempio è spesso sensibile
alla teoria darwiniana e nella moderna etologia si fa ricerca sui meccanismi nervosi che stanno alla base dei comportamenti stereotipati. Molti studiosi dell’Ottocento, dalle provenienze più diverse, si
interessano in termini puramente speculativi o attraverso l’osservazione e la sperimentazione della psicologia e del comportamento
umani, e molti di loro anche di quelli animali. Le riflessioni di filosofi come John Stuart Mill (1806-1873), Herbert Spencer (18201903), e le osservazioni e le conclusioni di psicologi come Alexandre Bain (1818-1903), di biologi come Charles Darwin (1809-1882),
Thomas Huxley (1825-1895), George Romanes (1848-1894) condividono l’idea sostanziale di continuità evolutiva tra l’uomo e gli altri animali. Grande sostenitore dell’etologia è il naturalista francese
Alfred Giard (1846-1908), evoluzionista lamarckiano, anche se non
mancano in Francia e nello stesso periodo antievoluzionisti come
Jean-Henri Fabre (1823-1915) che pure è un grande precursore dell’etologia di campagna. I suoi metodi di osservazione sono estremamente efficaci sia per la straordinaria acutezza osservativa sia per la
capacità di estrarre l’essenziale da comportamenti complessi (riconosce per primo l’esistenza dei comportamenti stereotipati), anche
se la sua posizione rimane decisamente antievoluzionista. Nell’ultima parte dell’Ottocento e nel primo ventennio del Novecento, in un
eterogeneo intreccio di figure, problemi ed esperienze, si accumu-
Konrad Lorenz
Konrad Lorenz (1903-1989),
zoologo austriaco, premio
Nobel per la medicina nel 1973.
Lorenz è considerato il
fondatore della moderna
etologia scientifica, definita
come ricerca comparata sul
comportamento.
lano nuove conoscenze sul comportamento e maturano le condizioni culturali che negli anni Trenta e Quaranta daranno origine alla
etologia moderna come la si intende comunemente: l’etologia di
Konrad Lorenz (1903-1989) e di Nikolaas Tinbergen (1907-1988).
Tra questi studiosi che contribuiscono a preparare la nascita dell’etologia vanno ricordati Douglas Spalding (1840-1877) geniale autodidatta che indaga sperimentalmente sugli istinti; lo psicologo
Conwy Lloyd Morgan (1852-1936) specialmente attivo nella psicologia comparata; il fisiologo della riproduzione Francis Hugh Adam
Marshall (1878-1949), eccellenti etologi dilettanti conoscitori del
comportamento degli uccelli come Edmund Selous (1858-1934);
zoologi professionisti come Julian Huxley (1887-1975), Charles O.
Whitman (1842-1910), Jacques Loeb (1859-1924) che elabora l’idea dei tropismi; Wallace Craig (1876-1954) analista del comportamento appetitivo, William M. Wheeler che scopre la trofallassi (lo
scambio di cibo liquido) negli insetti sociali; Oskar Heinroth (18711945) che impiega gli schemi comportamentali come caratteri omologici nella ricostruzione delle parentele tra specie di uccelli; Jakob
von Uexküll (1864-1944) che è anche tra i principali fondatori della fisiologia degli invertebrati e infine Karl von Frisch (1886-1982)
grande studioso della comunicazione nell’ape da miele. Nel 1973
von Frisch, Lorenz e Tinbergen ricevono il Nobel per la fisiologia e
la medicina.
Lorenz e Tinbergen
Le ricerche di Lorenz si basano principalmente sull’osservazione diretta di uccelli. L’etologo austriaco infatti vivendo insieme ad ana-
Ottocento, Scienza e
tecnologia: Charles Darwin,
Il secolo dell’evoluzione
693
412-711_Vol1_Scienza.QXD
6-06-2007
12:09
Pagina 694
Scienza e tecnologia “Conosci te stesso”: l’organismo e l’ambiente, la salute e la malattia
Novecento*, Scienza e
tecnologia: La biochimica,
La psichiatria, La
sociobiologia, L’ecologia:
aspetti scientifici e problemi
di conservazione,
L’evoluzione
dell’evoluzionismo
Un etologo osserva un esemplare di
pappagallo grigio africano (Psittacus
erithacus)
Il pappagallo gioca con un
computer nell’ambito di una
ricerca condotta presso il
Massachusetts Institute of
Technology (MIT), a
Cambridge. Il pappagallo è
stato addestrato a interagire con
le immagini sullo schermo e a
manipolare una leva di
comando installata sul trespolo.
Il tropismo
Il termine tropismo indica il movimento di una
cellula o di un organismo provocato e guidato in una
particolare direzione da uno stimolo esterno. È positivo se il movimento si compie verso lo stimolo, negativo se si compie nel senso opposto. Si tratta di reazioni non necessariamente costanti anche all’interno
di una data specie, ma che possono variare con l’età
dell’individuo e il suo stato fisiologico (per esempio
all’epoca della riproduzione).
Il tropismo può essere provocato da diversi fattori,
tre, oche e taccole, libere di muoversi e di interagire con altri individui – Lorenz compreso – dentro e fuori casa, è facilitato nell’osservazione dello sviluppo, giorno dopo giorno, di moduli comportamentali che si esprimono spontaneamente senza alcun apprendimento. Questa spontaneità è garantita dall’isolamento dei pulcini
rispetto agli adulti della specie. L’oggetto delle prime ricerche di
Lorenz è perciò lo schema motorio innato di cui egli riconosce la natura spontanea; diversamente da quanto sostenuto nella teoria classica del riflesso, secondo la quale uno schema motorio fisso si manifesta come risposta a uno stimolo. Altre sue ricerche riguardano
la natura degli stimoli chiave (ad esempio la colorazione rossa ventrale dei maschi dello spinarello, una specie territoriale, che scatena
nel maschio un comportamento aggressivo), stimoli che inducono
risposte nell’individuo indipendentemente dall’effettivo vantaggio
che offrono nella concreta situazione reale (lo spinarello reagisce
anche contro sagome di varia forma purché con la parte inferioreventrale colorata di rosso). La scoperta per cui Lorenz è diventato
famoso è quella dell’imprinting (Prägung, in tedesco). Altri autori
prima di lui (Spalding sui pulcini del pollo domestico ed Heinroth
sui piccoli dell’oca, per esempio) avevano osservato l’esistenza di
apprendimento nelle primissime fasi di vita degli animali, ma fu Lorenz nel 1935 a caratterizzarne le modalità, a osservarne la genesi in
molte specie di uccelli e a dimostrarne il valore evolutivo. L’imprinting si può realizzare solo durante una finestra temporale limitata e
precoce (dalle prime ore dopo la schiusa ai primissimi giorni di vita), ed è un apprendimento irreversibile. Gli esperimenti hanno dimostrato che negli uccelli questo attaccamento allo stimolo si mani-
che vanno dalla luce alla presenza di un campo elettrico. Molti insetti e pesci, ad esempio, mostrano un
fototropismo positivo, cioè si dirigono verso la sorgente luminosa; i lombrichi, i millepiedi, i centopiedi,
gli scarafaggi hanno invece un fototropismo negativo
e fuggono la luce. I parameci hanno un galvanotropismo negativo e si dirigono verso il catodo, se vengono posti in un campo elettrico. Il reotropismo è il movimento guidato dalla corrente: i pesci che risalgono i
fiumi, dunque, dimostrano un reotropismo negativo.
festa tipicamente come reazione dei piccoli a seguire (imprinting filiale). L’innesco può essere fornito da molti stimoli diversi: zimbelli
di adulti della propria specie e di specie simili, esseri umani, oggetti vistosi, suoni determinati. Lo studio dell’imprinting ne ha messo
in risalto ulteriori caratteristiche: in primo luogo l’apprendimento si
realizza anche laddove non vi sia premio; l’influenza dello stadio generale di sviluppo individuale e delle esperienze postschiusa; gli effetti nell’adulto sulle preferenze sessuali in quanto facilita l’apprendimento di tratti sopraindividuali che sono specie-specifici, il fatto
che l’imprinting può essere relativo al cibo, al canto, all’habitat. Lorenz dimostra sperimentalmente, e i lavori di altri dopo di lui lo confermano, che lo sviluppo ontogenetico di un modulo comportamentale si realizza attraverso un processo la cui efficacia migliora
gradualmente: in certi momenti mediante l’apprendimento, in altri
grazie alla maturazione della componente istintiva. Quest’ultimo fenomeno, in particolare, dimostra in molti casi la problematicità di
una netta opposizione tra natura e cultura: infatti molti comportamenti innati, a forte determinazione genetica, se sono complessi,
hanno bisogno per esprimersi compiutamente del contributo di
informazione proveniente dall’ambiente. Una sequenza comportamentale come la costruzione di un nido, per esempio, consiste nell’integrazione della componente innata con quella acquisita.
Niko Tinbergen è invece un etologo spiccatamente sperimentale,
famoso per la sua grande capacità di progettare eleganti esperimenti in natura. Sebbene sia olandese di nascita e di formazione, lavora
per la maggior parte del tempo in Inghilterra dopo un periodo trascorso in Austria, ad Altenberg, presso Lorenz. Tinbergen affronta
lo studio degli stimoli scatenanti utilizzando l’osservazione dei gabbiani; in seguito si rivolge agli imenotteri, (negli stessi anni in cui
von Frisch lavora al linguaggio della danza delle api). Tinbergen
adotta un approccio evoluzionistico ai segnali e alla loro ritualizzazione; getta poi le basi della cosiddetta ecologia comportamentale
inaugurando gli studi sui meccanismi che guidano il comportamento degli uccelli predatori. I suoi studi dimostrano che esiste un processo di prova ed errore che sfocia in un adattamento ecoetologico
del predatore e che tale adattamento retroattivamente ne modifica
il comportamento esplorativo; essi indicano, inoltre, l’esistenza di
una scelta attiva della preda del tutto indipendente dalla sua semplice abbondanza nell’ambiente.
Psicologi ed etologia
Nel Novecento gli studi neurofisiologici del comportamento sono
caratterizzati in particolare dalla riflessologia fondata e sviluppata
da Vladimir Bechterev (1857-1927) e da Ivan Petrovic Pavlov
(1849-1936) che tende a ridurre il comportamento a un complesso
gioco (catena) di riflessi condizionati e non. E mentre alcuni psicologi animali, come il vitalista olandese Johan A. Bierens de Haan
694
412-711_Vol1_Scienza.QXD
6-06-2007
12:09
Pagina 695
L’etologia
(1883-1958), arrivano a giudicare il comportamento animale non
analizzabile in termini meccanicistici, oppure pensano come William McDougall (1871-1938), che l’animale sia motivato da un insieme di attese largamente inspiegabili se non in termini di tendenze innate e di pulsioni istintuali ce ne sono altri, come l’associazionista Edward Lee Thorndike (1874-1949), inventore del labirinto
sperimentale, che vedono il comportamento come qualcosa di sostanzialmente appreso. Thorndike ritiene che l’apprendimento sia
guidato da due soli principi: la scelta di atti che danno soddisfazione e il miglioramento attraverso ripetizione delle prove (principi rispettivamente noti come legge dell’effetto e legge dell’esercizio).
Per il behaviorismo il modello epistemologico di riferimento è fornito dalle scienze naturali e il comportamento, giudicato dal suo
fondatore John B. Watson (1878-1958) come l’unica entità osservabile teoricamente, viene collegato alla coppia stimolo-risposta. Sul
piano fenomenologico stimolo e risposta corrispondono anche agli
unici enti osservabili e quindi sono al centro dell’analisi sperimentale; quello che eventualmente intercorre tra lo stimolo e la risposta,
in quanto non osservabile, per Watson e i comportamentisti non è
degno di interesse. Le ricerche di Watson danno molto risalto ai fattori esterni, al condizionamento ambientale e negano che nel comportamento si possa conoscere il ruolo dell’istinto, in quanto non
osservabile. Queste posizioni vengono poi adottate e sviluppate in
una solida cornice teorica da Burrhius F. Skinner (1904-1990) che
distingue tra risposta di un organismo a uno stimolo specifico e osservabile e risposta apparentemente spontanea a uno stimolo non
identificabile. La risposta di secondo tipo (condizionamento operante) introduce stimoli nell’ambiente i quali con retroazione positiva rinforzano la tendenza alla ripetizione di quel comportamento
di risposta. L’interpretazione di Skinner è che il rinforzo rappresentato dalla ricompensa produce a sua volta un condizionamento che
tende circolarmente a ottenere la ricompensa; questo significa che
l’apprendimento è migliorabile.
Diversamente dagli psicologi comportamentisti, gli etologi come
Lorenz e Tinbergen respingono il concetto di scatola nera collegato
alla coppia stimolo-risposta e fedeli alla tradizione darwiniana riconoscono nell’istinto e nell’apprendimento le due componenti copresenti nella produzione del comportamento. I due approcci mostrano una differenza sostanziale: il rapporto fra innato e appreso
viene ricercato dagli psicologi in laboratorio, mentre l’etologia, in
quanto scienza naturale, cerca di mettere a punto un metodo altamente rigoroso di descrizione del comportamento. Naturalmente la
scelta di studiare il comportamento in natura è perfettamente giustificata da un forte interesse negli studiosi darwiniani ed evoluzionisti per la funzione biologica del comportamento, più precisamente per la valutazione del suo contributo all’adattamento biologico e
all’evoluzione delle specie. Lo studio naturalistico, infatti, concepisce il comportamento come un qualunque altro carattere biologico
(biochimico, morfologico, ecologico): lo descrive, lo sottopone ad
analisi comparativa, lo classifica, ne traccia la storia evolutiva. È da
questo approccio che deriva l’idea di applicare il concetto di omologia trasferendolo dal campo morfo-anatomico a quello etologico.
Riconoscere omologie di comportamento significa osservare lo stesso modulo fisso di attività (tipicamente presente nella fase finale di
un comportamento istintuale) in distinte specie e quindi dedurne,
attraverso la conservazione della identità, la parentela. In questo
modo l’etologia partecipa alla ricostruzione macroevolutiva dell’albero filogenetico della vita animale. Oggi, lo studio filogenetico del
La trofallassi
Il termine trofallassi (dalla parola greca che significa nutrimento) è usato per indicare un reciproco scambio di cibo e secrezioni che avviene tra
i componenti della società di insetti, o tra questi e
i loro simbionti. La trofallassi è diffusa, ad esempio, tra le formiche e i bombi; le larve di insetto ricevono il cibo dalle nutrici e ricambiano fornendo
la secrezione di un liquido salivare.
comportamento si concentra sui quattro principali obiettivi indicati da Tinbergen. I primi due riguardano le domande sui meccanismi
causali e sul come: che cosa determina il comportamento e come si
sviluppa nell’individuo. Gli altri due riguardano le domande sulla
storia evolutiva e sul perché: qual è stata l’evoluzione filogenetica
del comportamento, qual è il suo contributo alla fitness per cui esso si è conservato. Le risposte alle domande di Tinbergen non possono che provenire da approcci diversi tra loro. Le risposte sulle
cause prossime si basano su di un approccio neurofisiologico integrato dall’analisi genetica, dalla genetica dello sviluppo e dall’epigenetica; le risposte sulle cause remote vanno trovate all’interno
della teoria dell’adattamento indagando gli aspetti funzionali ed
ecoetologici, e, su base comparativa, indagando le storie evolutive
dei taxa.
Dopo gli anni Cinquanta lo studio biologico del comportamento
ha affrontato la descrizione e l’analisi causale del comportamento
sociale negli insetti e nei vertebrati aprendo nuovi spazi di ricerca
da cui sono scaturite la scoperta di strategie evolutive complesse e
dei nuovi problemi etologici di cui si occupa la sociobiologia.
Novecento*, Filosofia:
Dal comportamentismo
al neocognitivismo
Un ittiologo effettua un esperimento
di imprinting sui salmoni
695
412-711_Vol1_Scienza.QXD
6-06-2007
12:04
Pagina 594
“Conosci te stesso”:
l’organismo e l’ambiente,
la salute e la malattia
L’evoluzione dell’evoluzionismo
di Saverio Forestiero
Nella prima metà del Novecento si elabora nella cosiddetta teoria sintetica
dell’evoluzione l’integrazione del darwinismo naturalistico con il mendelismo
sperimentale di laboratorio. Nella seconda metà del secolo, le conoscenze sui
meccanismi genetico-molecolari hanno permesso enormi progressi nell’analisi della
microevoluzione, mentre nuove interpretazioni dalla paleontologia e soprattutto
nuovi dati dalla genetica dello sviluppo degli anni Novanta stanno spingendo
l’evoluzionismo a ripensare i nessi tra micro e macroevoluzione. L’evoluzionismo
continua a cambiare e sembra probabile che nel XXI secolo il suo rinnovamento
sarà affidato a una nuova, più ampia teoria postsintetica dell’evoluzione.
Teoria dell’evoluzione di Charles Darwin
Al Museo di storia naturale di
Manhattan viene illustrata la
teoria evoluzionista di Darwin
attraverso l’evoluzione del
cranio. Secondo la teoria
dell'evoluzione, le specie non
sono immutabili, ma in continua
trasformazione; le specie oggi
viventi sono il risultato delle
modificazioni subite da quelle
vissute in altri tempi e, soggette
a cambiamenti di piccola entità,
ma numerosi e vari, daranno
origine alle specie del futuro.
594
L’affermazione della teoria dell’evoluzionismo
Se nelle scienze della vita l’Ottocento può essere visto a ragione come il secolo dell’evoluzionismo, solo a partire dagli anni Cinquanta
del Novecento l’evoluzionismo di derivazione darwiniana si affermerà come teoria unitaria della biologia, in molti casi divenendo un
paradigma esplicativo utile anche in altri campi del sapere: dalla psicologia all’economia, dalla sociologia alla medicina, dall’antropologia all’epistemologia. Nel Novecento si adotterà l’approccio evoluzionistico per spiegare, con un principio causale maggiore, molti fenomeni comuni sia ai viventi sia a quei sistemi culturali che dei viventi sono un prodotto dinamico. Il principio causale evocato è
quello di selezione naturale, la riproduzione differenziale di genotipi: un meccanismo anonimo capace di spiegare fenomeni che altrimenti richiederebbero un atto di fede nel soprannaturale, il ricorso
a ipotesi finalistiche. La forza dell’evoluzionismo, come di qualunque solida teoria scientifica, sta nella sua capacità di misurarsi con i
dati empirici offrendo riscontri verificabili delle spiegazioni proposte. Consapevoli dell’enorme complessità dei sistemi viventi, gli
evoluzionisti, da Darwin sino ai contemporanei, non hanno mai
avanzato pretese di perfezione teorica; al contrario il senso di provvisorietà e di relativa incompletezza hanno sempre caratterizzato la
teoria darwiniana e quella sintetica dell’evoluzione. Questa relatività della teoria, tuttavia, e tutte le regolazioni importanti e gli aggiustamenti che si sono succeduti per includervi le conseguenze di
scoperte completamente nuove, come quelle collegate agli sviluppi
della biologia molecolare, non ne hanno mai intaccato il cuore. Nel
processo di evoluzione dell’evoluzionismo rimangono perfettamente riconoscibili l’idea darwiniana di discendenza con modificazione
e l’identità della teoria della selezione naturale elaborata da Charles
Darwin (1809-1882) e da Alfred Russel Wallace (1823-1913), che
sono ancora oggi il cuore e il baricentro della teoria dell’evoluzione.
Il principio di selezione continua ad avere lo stesso potere esplicativo che aveva per Darwin: selezione naturale è in effetti il nome del
meccanismo che in presenza di variazione (genetica e ambientale)
produce l’ordine biologico e giustificandolo ne fonda il significato.
Tuttavia va osservato che l’evoluzionismo attuale, in quanto model-
412-711_Vol1_Scienza.QXD
6-06-2007
12:04
Pagina 595
L’evoluzione dell’evoluzionismo
lo di spiegazione di dati empirici del mondo vivente, non si riduce
a selezionismo giacché la moderna teoria dell’evoluzione (in perfetta coerenza con quanto sostenuto da Darwin) affianca alla selezione sia altri fattori responsabili dell’evoluzione (mutazione, deriva
genetica, migrazione-flusso genico, ecc.), sia nuove nozioni successive a Darwin e ai neodarwiniani. Questo per dire che l’attuale evoluzionismo non è identico a quello di Darwin e dei suoi seguaci ottocenteschi, ma è il frutto di quasi mezzo secolo di ricerca sfociata
nella teoria sintetica dell’evoluzione.
Prima legge di Mendel
Genitori
Una parola, molte teorie
Contrapposto al fissismo ancora vivo nel Settecento, sostenitore
dell’immutabilità e della costanza delle specie fin dalla loro creazione, l’evoluzionismo concepisce, la modificabilità delle specie e la
comparsa di specie nuove. La sua origine moderna è nell’Ottocento e Jean-Baptiste Lamarck (1744-1829), il primo naturalista capace di dimostrare scientificamente l’esistenza dell’evoluzione delle
specie, ne viene riconosciuto come l’autore. Sono però Darwin e
Wallace a individuare nel principio di selezione il meccanismo esplicativo dell’evoluzione, dato che Lamarck dell’evoluzione adattativa
delle specie aveva fornito una spiegazione errata, basata sull’ereditarietà dei caratteri acquisiti. Darwin in particolare elaborò una teoria complessa e rifinita dell’evoluzione biologica. Dai tempi di
Darwin le scienze della vita sono progredite enormemente e la teoria dell’evoluzione è cambiata molto e in molti modi diversi, sicché
si sono succeduti o hanno convissuto l’uno accanto all’altro numerosi e differenti evoluzionismi. Un primo gruppo di teorie evoluzionistiche è quello delle teorie autogenetiche accomunate dall’idea di
una tendenza intrinseca nei viventi al progresso, al loro perfezionamento.
L’idea di progresso, già presente in Lamarck, si ritrova in molti biologi dell’Ottocento e del primo Novecento. Per esempio, verso la fine dell’Ottocento a seguito della scoperta delle cosiddette “serie filetiche” di fossili prese piede in America una teoria autogenetica conosciuta come ortogenesi; era questo il nome del principio di perfezionamento che fu adottato e diffuso nel tardo Ottocento da Theodor Eimer (1843-1898), uno zoologo di Tubinga. Tale principio si
basa sull’idea di un’evoluzione lineare delle specie (esemplificata
dall’evoluzione sequenziale dell’arto negli antenati del cavallo moderno) sostenuta da una forza non fisica, ma da una causa interna,
che guida il mondo vivente verso una sempre maggiore perfezione.
La visione di un’evoluzione orientata deriva dal lamarckismo, giacché la linearità viene interpretata come il risultato operato sui caratteri da modificazioni ambientali, le quali, una volta acquisite vengono poi trasmesse alla progenie. Negli stessi anni di nascita dell’ortogenesi, due studiosi americani, il paleontologo Henry Fairfield
Osborn (1857-1935) e lo psicologo James Mark Baldwin (18611934), e lo zoologo e psicologo inglese Conwy Lloyd Morgan (18521936), elaborano indipendentemente uno dall’altro la teoria della
selezione organica. Nell’effetto Baldwin (la selezione organica è anche conosciuta con questo nome) gli individui messi di fronte a un
problema ambientale scelgono la risposta più idonea, compatibilmente con le loro capacità reattive. Una volta acquisita, la nuova
abitudine (il ruolo del comportamento è centrale nell’effetto
Baldwin) modifica il soma. Questo meccanismo non prevede l’ereditarietà dei caratteri acquisiti (sebbene Osborne fosse incline a vedere nella selezione organica un meccanismo ponte tra la spiegazione lamarckiana e quella darwiniana dell’evoluzione); anzi la teoria
affida all’eventuale insorgenza di mutazioni e all’azione selettiva la
possibilità di rendere ereditabili caratteri adattativi. Nell’effetto
Baldwin, tuttalpiù, c’è l’idea che l’adattabilità eco-etologica all’ambiente possa stimolare una futura azione della selezione naturale in
presenza di variazione genetica ereditabile, quando questa sarà disponibile.
Paleontologi come Osborn e il francese Pierre Teilhard de Chardin,
(1881-1955) hanno elaborato varianti di evoluzionismo ortogenetico rispettivamente noti come aristogenesi e principio omega. La teoria del gesuita francese rientra nel suo tentativo di accordare la teoria scientifica dell’evoluzione biologica con la dottrina cristiano-cattolica; la scienza con la fede. L’evoluzionismo ortogenetico delinea
l’immagine di una discendenza con modificazione (il cosiddetto “albero della vita”) dall’aspetto assai poco arborescente, al contrario
dell’evoluzionismo darwiniano, ove la struttura ad albero dell’evoluzione dei grandi gruppi di organismi manifesta continue ramificazioni (dovute alla nascita di nuove specie) come esito di cambiamenti evolutivi imprevedibili e in qualche modo collegati ai mutamenti dell’ambiente. Coeva e opposta all’ortogenesi è l’ologenesi,
un’altra teoria autogenetica, quindi anche essa non darwiniana, nata in Italia e accolta favorevolmente in Francia. Il suo autore, lo zoologo piemontese Daniele Rosa (1857-1944), assume che ogni specie
si sviluppi “nella sua interezza”. Per Rosa e gli ologenisti la forma
dell’albero della vita è rigidamente dicotomica e il suo andamento
ordinato è dovuto agli effetti delle continue scissioni evolutive attraverso cui una linea filetica evolve, originando un “ramo precoce”
e un “ramo tardivo”. Analogamente a quanto avviene alla cellula
che si divide continuamente in due fino ad avere esaurito le sue potenzialità, la variante ologenista dell’evoluzionismo ritiene vi sia all’interno della specie una causa materiale che ineluttabilmente la
obbliga ad evolvere: un’evoluzione che termina con l’esaurirsi della
vitalità della specie. Tutto ciò indipendentemente dal contesto ambientale. Né Rosa né gli altri sostenitori di teorie evoluzionistiche
per cause interne, riescono tuttavia a dimostrare l’esistenza di meccanismi evolutivi autogenetici.
All’inizio del Novecento l’evoluzionismo darwiniano muove già in
cattive acque e quando vengono riscoperte le leggi di Mendel le sue
condizioni di salute peggiorano. I genetisti sperimentali del primo
Novecento, infatti, sostengono l’idea che il nucleo della teoria evo-
Rappresentazione grafica della prima
legge di Mendel
La prima legge di Mendel, detta
“della segregazione”, riguarda
la trasmissione dei caratteri
ereditari. Le profonde
conoscenze di fisica e di
matematica di Gregor Mendel
(1822-1884) gli permisero di
concepire un metodo di
indagine sperimentale basato
sull'interpretazione dei dati
numerici risultanti
dall'ibridazione, che fu la chiave
attraverso la quale scaturì il vero
significato del meccanismo
dell'ereditarietà.
595
412-711_Vol1_Scienza.QXD
6-06-2007
12:04
Pagina 596
Scienza e tecnologia “Conosci te stesso”: l’organismo e l’ambiente, la salute e la malattia
Speciazione geografica
La speciazione geografica è la nascita di una
nuova specie come risultato dell’isolamento geografico di un gruppo di individui: esso deve rimanere separato dal resto della popolazione per un
periodo abbastanza lungo da far sì che la sua costituzione genica si differenzi da quella del gruppo
parentale al punto di creare difficoltà nell’interfecondazione. L’isolamento avviene di solito per motivi casuali: alcuni migranti possono raggiungere
un’isola senza che vi siano successive migrazioni
nel periodo successivo, oppure una parte di un
continente può restare separata dal resto a causa di
un innalzamento del livello del mare. Se però nel
periodo critico della differenziazione nella costituzione genica avvengono nuove migrazioni, il processo di speciazione molto probabilmente non si
completerà.
Rappresentazione grafica della seconda
legge di Mendel
La seconda legge di Mendel
riguarda la trasmissione dei
caratteri indipendenti. In
seguito alla scoperta del lavoro
di Mendel agli inizi del XX
secolo la genetica ha conosciuto
un rapido sviluppo, segno del
grande carattere innovativo
delle sue ricerche.
Mendeliani contro biometrici: la nascita della genetica
di popolazione
lutiva debba essere rappresentato dalla variazione genetica e non
dalla selezione naturale; inoltre siccome la variazione dei caratteri
studiati si manifesta attraverso discontinuità ne deducono che, analogamente, l’evoluzione stessa non possa che essere nel complesso
discontinua. La mutazione diventava perciò il meccanismo dell’evoluzione: ed ecco il mutazionismo. Negando il ruolo della selezione naturale e la dinamica gradualista dell’evoluzione, mendelismo e
mutazionismo sono teorie evoluzionistiche antidarwiniane. Gran
parte dei biologi sperimentali degli anni Venti e Trenta spiegherà la
produzione di nuove specie e l’adattamento ricorrendo alle mutazioni del patrimonio ereditario. Inoltre, visto che un punto qualificante dell’evoluzionismo lamarckiano considera le mutazioni di per
sé adattative, non stupisce che la maggioranza dei genetisti fosse lamarckiana: l’adattamento procede senza bisogno della selezione.
Sono antiselezionisti sia genetisti mendeliani e antigradualisti come
William Bateson sia saltazionisti puri come Hugo de Vries: è loro
convinzione che le variazioni di tipo continuo siano troppo piccole
per produrre pressioni selettive significative e che quindi la sorgente di variazione per l’evoluzione debbano essere solo le macromutazioni. Al contrario, Thomas Hunt Morgan (1866-1945), dopo ave-
Seconda legge di Mendel
Genitori
re sostenuto per oltre un ventennio posizioni antigradualiste e antiselezioniste, si converte al gradualismo una volta che constata su
Drosophila molti esempi degli effetti evolutivi collegati a mutazioni
di piccola entità.
Con la riscoperta delle leggi di Mendel, i genetisti del primo Novecento con una concezione particellare, mendeliania, dell’eredità si
concentrano nell’analisi della variazione genetica che presto indicano come principale causa del cambiamento evolutivo. A questa posizione subito si oppongono i biologi non genetisti di formazione
naturalistica o statistica, non a caso legati a una concezione continuista e adattazionista della variazione e dell’evoluzione. In effetti,
mentre i mendeliani possono facilmente osservare nei loro laboratori la produzione di singole cospicue mutazioni, ai naturalisti molto raramente capita altrettanto sul campo. Dunque, mentre i mendeliani danno grande rilievo alla variazione e in particolar modo a
quella discontinua assai vistosa, i biometrici giudicano del tutto
ininfluente il mendelismo per la teoria dell’evoluzione. I mendeliani sostengono che l’evoluzione sia eminentemente discontinua e sostanziata dalla mutazione; i biometrici, pur sostenendo correttamente l’importanza del gradualismo nell’evoluzione, ancora credono, erroneamente, che l’eredità avvenga per mescolanza. Il contrasto appare inconciliabile e specialmente in Gran Bretagna è molto
acceso quando, negli anni Venti, in Inghilterra e negli Stati Uniti
matura a opera di Ronald A. Fisher (1890-1962), di John B. S. Haldane (1892-1964) e di Sewall Wright (1889-1988) un approccio teorico all’evoluzione nato dal dibattito sulla continuità dell’evoluzione (gradualismo) e sull’efficacia della selezione naturale (selezionismo). I lavori di Fisher sulla dominanza, il polimorfismo bilanciato
e sul rapporto tra varianza genetica ed evoluzione; quelli di Wright
sugli effetti dell’incrocio, sull’importanza della deriva genetica nelle piccole popolazioni, sul coefficiente di parentela e sull’interazione tra loci genici; i modelli di Haldane sulla selezione a carico di geni autosomici: tutti questi studi furono alla base della genetica matematica di popolazione, ovviamente insieme al principio di HardyWeinberg risalente al 1908. In tre anni consecutivi Fisher (1930),
Wright (1931) e Haldane (1932) pubblicano i loro scritti più importanti fondando la genetica teorica di popolazione. Il loro lavoro
riesce a superare i contrasti tra mendeliani e biometrici dimostrando l’assenza di conflitto tra eredità discreta (posizione mendeliana)
e variazione continua (gradualismo) e l’efficacia della selezione naturale su piccole mutazioni (darwinismo). Ognuno di questi tre autori produce un proprio modello matematico che coglie e teorizza
solo alcuni aspetti del processo evolutivo; in qualche caso i modelli
proposti possono confliggere e tuttavia la sintesi tra mendelismo e
darwinismo viene realizzata a livello teorico dalla genetica. Tuttavia,
perché maturi la possibilità di una sintesi tra teoria e prassi e affinché essa sia più ampia e transdisciplinare, è necessario, come vedremo fra poco, che le previsioni dei singoli modelli di genetica di popolazione vengano provate sperimentalmente e che le acquisizioni
della genetica siano articolate con quelle della sistematica e della paleontologia, discipline che a due diverse scale di indagine si occupano dei risultati dei cambiamenti evolutivi.
La teoria sintetica dell’evoluzione: l’origine della
biologia evoluzionista
La formula “teoria sintetica dell’evoluzione” è coniata dallo zoologo inglese Julian Huxley (1887-1975) e compare nella seconda edi-
596
412-711_Vol1_Scienza.QXD
6-06-2007
12:04
Pagina 597
L’evoluzione dell’evoluzionismo
Ernst Mayr, 2003
Ernst Mayr (1904-2005),
ornitologo, biologo e genetista
tedesco, professore emerito di
zoologia alla Harvard
University, fotografato al
Museum of Comparative
Zoology. Mayr è considerato il
massimo studioso del
Novecento di microevoluzione
animale, avendo dedicato gran
parte della sua ricerca allo
studio dei meccanismi che
presiedono alla “speciazione”,
cioè alla differenziazione di due
specie da una specie genitrice.
zione del libro (1963) che egli dedica proprio alla sintesi moderna
dell’evoluzione, Evolution, the modern synthesis (la prima edizione
è del 1942). Come è risaputo, gli artefici principali della teoria sintetica sono: Theodosius Dobzhansky (1900-1975), Ernst Mayr
(1904-2005), Julian Huxley (1887-1975), George Gaylord Simpson
(1902-1984), Bernhard Rensch (1900-1990), George Ledyard Stebbins (1906-2000). Lungo un arco di anni che va dal 1937 al 1946,
con un’appendice che lo prolungherà fino al 1950, riescono ad articolare una serie di acquisizioni disciplinari locali, di genetica, biosistematica e paleontologia, in un corpo teorico globale: una teoria
unitaria dell’evoluzione biologica finalmente capace di spiegare
un’enorme ed eterogenea quantità di osservazioni e dati sperimentali fino a quel momento teoricamente scorniciati. Tra i caratteri
principali di questa teoria integrata troviamo il gradualismo sia nell’adattamento che nella speciazione; l’idea che la variazione è organizzata in un fondo o pool genetico di proprietà della popolazione;
il riconoscimento che soggetto dell’evoluzione è la popolazione; la
convinzione dimostrata dai fatti che la selezione è uno dei principali fattori di evoluzione nonché l’unica causa dell’adattamento. L’elaborazione della teoria sintetica inizia nel 1937 con la pubblicazione
di Genetics and origin of the species, un libro dello zoologo e genetista russo-americano Dobzhansky dedicato al rapporto tra genetica e origine delle specie, nel quale l’autore discute sul metodo più
idoneo per riunire in un unico quadro teorico dati informazioni e
conoscenze sull’evoluzione. Dobzhansky stesso è un esempio perfetto di sintesi ben riuscita tra la visione naturalistica e popolazionale della scuola russa e il metodo di ricerca sperimentale della citogenetica americana di Morgan di cui, una volta emigrato in America, era il 1927, è stato allievo. Nel suo studio, Dobzhansky riconosce come fatto di primaria importanza l’esistenza di discontinuità
tra le specie e la necessità di studiarne la genetica della variazione e
dei meccanismi di isolamento. Il problema della specie nel suo complesso, con la dimostrazione che le specie sono entità biologiche
concrete e non enti nominali; l’introduzione del pensiero popolazionale in biosistematica, lo studio della variazione geografica discontinua e di quella continua, l’importanza della distribuzione
geografica allopatrica e di quella simpatrica e finalmente l’individuazione dei meccanismi di speciazione geografica, rappresentano
i contributi di Mayr e di Huxley. Il contributo dello zoologo tedesco-americano Mayr, in particolare, riguarda soprattutto il problema della specie: statuto ontologico, definizione, origine. Elaborando in Systematics and the origin of the species (1942) il concetto biologico di specie, Mayr dimostra che la specie è biologicamente reale, politipica e pluridimensionale, composta di popolazioni (al limite una sola) e che l’appartenenza di una popolazione (l’entità biologica evolvibile) a una o a un’altra specie è stabilita da una relazione
di natura riproduttiva. La grande novità è che tale appartenenza
non costituisce più una proprietà essenziale, immutabile, inerente
l’ontologia della popolazione, ma diventa, invece, una proprietà relazionale e modificabile nel tempo. La probabilità di successo riproduttivo varia al passare delle generazioni ed è circolarmente
connessa al grado di parentela genetica (opportunamente definita)
tra le popolazioni. Oltre ad essere stato uno dei grandi protagonisti
della teoria sintetica, Mayr si dedicherà anche all’aggiornamento ed
alla sistematizzazione storico-critica delle conoscenze sull’evoluzione accumulatesi nei decenni successivi. All’epoca della Sintesi, i paleontologi sono contrari al darwinismo; tra loro figurano studiosi
evoluzionisti, neolamarckiani e antilamarckiani, saltazionisti e ortogenisti, ma nessuno di essi accetta il gradualismo selezionista dei
biologi. Un’interpretazione diretta della macroevoluzione in termini di analisi genetica è a quest’epoca impossibile, ed anche il paleontologo americano Simpson giudica opportuno mantenere distinte la teoria della microevoluzione da quella macroevolutiva. Tuttavia, visto che gli interessa dimostrare la consistenza dell’evoluzione paleontologica con le inferenze della genetica, tenta un’analisi
causale della macroevoluzione, non gli basta raccontarla. Nel suo
Tempo and mode in evolution (1944), opera veramente innovativa,
Simpson modellizza dati e informazioni sui fossili ispirandosi alla
demografia e alla genetica di popolazione, elabora la nozione di zona adattativa e ipotizza l’esistenza di una evoluzione quantica, a salti. Nel 1949 compare Factors of evolution: the theory of stabilizing
selection, l’importante contributo dello zoologo ucraino Ivan I. Schmalhausen (1884-1963) e nel 1950 il botanico americano Stebbins
con Variation and evolution in plants estende la teoria sintetica alla
botanica chiarendo il peso della poliploidia (ossia della presenza di
un numero di cromosomi superiore è diploide, cioè comprende due
597
412-711_Vol1_Scienza.QXD
6-06-2007
12:04
Pagina 598
Scienza e tecnologia “Conosci te stesso”: l’organismo e l’ambiente, la salute e la malattia
Julian Huxley, 1930
Julian Huxley (1887-1975),
zoologo e umanista inglese, con
Jacqueline lo scimpanzé. Viene
principalmente ricordato per i
suoi studi finalizzati alla
rifondazione della teoria
genetica all’interno della teoria
darwiniana della selezione
naturale.
cromosomi per ogni tipo, con la stessa forma e dimensione) e della
ibridogenesi nella speciazione delle piante. Il libro dello zoologo tedesco Rensch sull’evoluzione transpecifica giunge per ultimo, nel
1954; sarà tradotto in inglese come Evolution above the species level,
nel centenario dell’Origine della specie. Con il passare del tempo la
teoria sintetica viene modificata, ma intanto ne cresce la diffusione.
Un effetto non voluto ma facilitato da una certa formulazione schematica e rigida con cui la teoria circola fuori dal mondo della ricerca, una semplificazione che però ne ha favorito la grande diffusione
è costituito dal concetto di adattamentismo, secondo cui ogni carattere costituisce un adattamento. L’adattamentismo è una forma
distorta e ipersemplificata della teoria dell’adattamento in cui la selezione naturale viene acriticamente assunta come causa di qualunque fenomeno anche solo apparentemente adattativo. Va ricordato
che prima della nascita della teoria sintetica non esisteva ancora una
disciplina unitaria dell’evoluzione. Qua e là spuntavano spiegazioni
per lo più di stampo ottocentesco, darwiniane o neodarwiniane,
specialmente quando vi entrava in gioco l’adattamento, ma senza rilevanti conseguenze teoriche generali. Con la fine degli anni Cinquanta l’evoluzionismo si arricchisce di una disciplina nuova dedicata allo studio dell’evoluzione biologica: è la biologia evoluzionistica, un settore di studi che emerge come il prodotto più significativo e duraturo della teoria sintetica dell’evoluzione.
Ai margini della teoria sintetica: fenotipi, sviluppo ed
evoluzione
Nell’arco di tempo che grosso modo va dalla fine dell’Ottocento alla fine degli anni Cinquanta si succedono una serie di contributi teorici ed empirici di grande interesse per la storia dell’evoluzionismo.
Queste ricerche sono spesso collegate tra loro e possono essere viste oggi quasi come un tentativo precoce e intempestivo di elaborare una teoria evoluzionistica a partire dalla morfologia, dalla biologia dello sviluppo, quindi una teoria incentrata sulla macroevoluzione dei fenotipi individuali piuttosto che sulla microevoluzione
delle popolazioni. Tali ricerche davano anche grande spazio allo
studio sperimentale dell’adattamento, soprattutto però a quello postgenetico, fisiologico e regolativo, espresso come plasticità individuale sia a livello dell’adulto che dell’embrione in sviluppo. Per
molte ragioni tra cui le insufficienti conoscenze dei meccanismi genetici e molecolari dello sviluppo (l’embriologia era ancora nella sua
598
fase descrittiva e la genetica molecolare neanche era nata), gli autori di queste ricerche non giungono a una propria teoria evoluzionistica, e sebbene sia loro chiarissimo che la produzione del materiale fenotipico necessario alla selezione è dovuto ai geni e alla loro capacità di regolare lo sviluppo, l’embriologia praticamente non parteciperà all’elaborazione della teoria sintetica dell’evoluzione. Gli
interrogativi posti da quegli autori erano (e sono ancora) di grande
interesse scientifico; ad essi la biologia ha cominciato a rispondere
solo nell’ultimo ventennio del Novecento. Nelle ricerche sulle modificazioni dei genotipi e dei fenotipi durante l’evoluzione si potrebbero distinguere due fasi successive al decennio in cui fu riscoperto Mendel e nacque la genetica, quando il genetista danese
Wilhelm Ludvig Johannsen (1857-1927) elabora le nozioni di genotipo e di fenotipo e lo zoologo tedesco Richard Woltereck (18771944) il concetto di norma di reazione: quello che viene ereditato è
la predisposizione a reagire, durante lo sviluppo, in modo specifico
a un insieme di situazioni ambientali. Molti biologi degli anni Venti e Trenta dubitavano fortemente che l’origine delle novità morfologiche che rendono differenti le varie classi di animali e di piante
potesse essere spiegata attraverso gli effetti cumulativi di mutazione
e selezione. Proprio questa è la posizione del genetista tedesco-americano Richard Goldschmidt (1878-1958) autore di una teoria esplicativa della macroevoluzione che si colloca al di fuori della teoria
sintetica, e del morfologo ed embriologo Schmalhausen il cui lavoro verrà invece accolto nell’ultima fase della teoria sintetica. Questo
studioso è un po’ una figura ponte tra la grande tradizione di ricerca popolazionale che condurrà alla teoria sintetica dell’evoluzione
(a cui contribuirà, anche se tardi e indirettamente) e quella di embriologi, anatomisti, morfologi, ma anche di genetisti come Goldschmidt che non vi partecipano. Il contributo di Schmalhausen è
estremamente ricco e diversificato: distingue tra fattori interni e fattori esterni del cambiamento evolutivo ed è convinto che entrambe
le categorie contino nel vincolare e canalizzare l’evoluzione dei fenotipi; pur dedicando un’approfondita analisi all’evoluzione darwiniana delle popolazioni in rapporto alla variazione ambientale, fonda le sue ricerche su di un approccio organismico; percependo la
natura gerarchica dei sistemi viventi, cerca di illustrare i rapporti tra
le proprietà organismiche, quelle del genoma e quelle della popolazione. Inoltre si dedica allo studio del rapporto tra genotipo e ambiente e sviluppa il concetto di norma di reazione di Woltereck
avanzando l’idea di una selezione stabilizzante sulla norma di reazione; illustra i possibili meccanismi sottostanti la plasticità fenotipica, e infine individua nel rapporto tra selezione e processi di sviluppo uno dei grandi temi futuri della teoria dell’evoluzione. Il suo
libro più importante, Factors of evolution. The theory of stabilizing
selection, sarà pubblicato in inglese nel 1949. In una fase successiva,
ma in parte anche sovrapposta alla precedente, spiccano l’embriologo e genetista inglese Conrad Hal Waddington (1905-1975) e i tre
botanici Jens Christen Clausen (1891-1969), David D. Keck (19031995) e William M. Hiesey (1903-) che per un ventennio (tra il 1940
e il 1960) lavorano in California sulla plasticità fenotipica delle piante (i loro studi su Potentilla proseguono le analoghe ricerche dello
svedese Gunnar Turesson (1922) sugli ecotipi delle piante). Waddington dopo avere condotto molte ricerche di embriologia sperimentale sulla natura chimica dell’organizzatore e sul fenomeno dell’induzione, si interessa nel dopoguerra al ruolo dei geni nello sviluppo e riconosce l’importanza dei meccanismi epigenetici (il termine epigenetica è suo) nel ridurre il numero di geni necessari alla
produzione di strutture morfologiche anche molto complesse. Similmente e quasi contemporaneamente a Schmalhausen, Wadding-
412-711_Vol1_Scienza.QXD
6-06-2007
12:04
Pagina 599
L’evoluzione dell’evoluzionismo
ton propone un meccanismo che chiama assimilazione genetica, attraverso cui la plasticità fenotipica potrebbe funzionare come tappa
intermedia durante il processo di “evoluzione fenotipica”. In pratica modificazioni fenotipiche acquisite in certe condizioni ambientali verrebbero progressivamente trasformate in ereditarie, non lamarckianamente ma piuttosto attraverso la selezione di alleli (ossia
delle forme alternative di gene responsabili della particolare modalità con cui si manifesta un carattere ereditario) con effetti fenotipici simili a quelli osservabili durante i processi di sviluppo. Anche altri ricercatori tentano verifiche sperimentali di certe idee avanzate
da Schmalhausen nel suo programma di ricerca, e, come abbiamo
visto, già congetturate a fine Ottocento da Baldwin e altri studiosi:
e cioè che la plasticità del fenotipo, la reattività individuale a condizioni ambientali mutevoli, l’adattamento individuale raggiunto negli animali anche grazie al comportamento appreso, possono surrogare efficacemente l’adattamento ottenuto per via selettiva con l’evoluzione genetica della popolazione. I programmi di ricerca di
Schmalhausen e di Waddington sottolineano anche l’importanza
decisiva dell’adattamento ecologico e il peso, se non proprio la centralità, dell’individuo nei processi evolutivi.
Le nuove scoperte
L’attuale evoluzionismo non solo non è identico a quello di Darwin,
ma ha iniziato anche un processo di trasformazione interno alla teoria sintetica. La relativa fluidità dell’odierna teoria evoluzionistica è
dovuta alle scoperte dell’ultimo quarto di secolo che richiedono una
riconfigurazione della teoria sintetica. Tra queste novità in via di integrazione in una teoria allargata (la teoria di un evoluzionismo di
terza generazione, dopo quello di Darwin e quello della Sintesi),
possiamo trovare le risposte ad alcuni degli interrogativi e dei problemi sollevati da Darwin nell’Origine delle specie (1859) e nell’Origine dell’uomo (1871). Di alcune di queste scoperte diamo qui un
resoconto sommario.
Nel 1972 due paleontologi americani, Niels Eldredge e Stephen Jay
Gould (1942-2002) hanno proposto la teoria degli equilibri punteggiati, o intermittenti, secondo la quale, contrariamente alle attese
darwiniane e della teoria sintetica, le specie fossili non mostrano variazioni apprezzabili nel tempo e i cambiamenti morfologici al loro interno sono piccoli e non orientati. L’idea è che una specie si mantenga stabile per milioni e milioni di anni per essere poi bruscamente sostituita negli strati fossili da una nuova specie, generata in occasione
di intensi momenti di speciazione (stasi evolutiva punteggiata da im-
pulsi di speciazione). La teoria degli equilibri punteggiati è stata confermata dallo studio dei molluschi fossili del Cenozoico del lago
Turkana, in Kenia, in cui la morfologia della conchiglia rivela un periodo di stabilità di circa 3-5 milioni di anni, intervallati da periodi assai brevi (circa 50 mila anni) di trasformazioni e fenomeni di rapida
speciazione. In effetti i neontologi hanno dimostrato che ci sono circostanze in cui la speciazione può essere molto rapida anche per certe specie attuali. Il punto più importante ed innovativo della teoria
degli equilibri punteggiati, è quello secondo cui la macroevoluzione
sarebbe un fenomeno distinto dalla microevoluzione. La diversificazione di organismi a livello di generi, di famiglie, ordini e classi sarebbe cioè ottenuta in un modo improvviso e imprevedibile, grazie al
successo di particolari mutanti, a imponenti trasformazioni nella regolazione genetica a livello di singoli individui piuttosto che al graduale rimaneggiamento del patrimonio ereditario della popolazione.
Un’altra acquisizione mette in evidenza il meccanismo dell’estinzione
di massa, la subitanea scomparsa di molte specie di habitat anche molto diversi in tempi geologicamente molto brevi, è un fenomeno descritto da molto tempo che presenta caratteristiche differenti da quelle con cui si presenta la normale estinzione di fondo. I paleontologi
riconoscono oggi cinque principali estinzioni di massa (fine Ordoviciano, tardo Devoniano, fine Permiano, fine Triassico, fine CretaceoTerziario) più una ventina di episodi minori. L’aspetto innovativo sta
nella valutazione del loro ruolo nell’evoluzione. In sostanza si è rico-
Eucarioti e procarioti
I procarioti sono organismi unicellulari le cui dimensioni sono dell’ordine di grandezza del micron,
caratterizzati da un’organizzazione interna della cellula semplificata (soprattutto sul piano della trasmissione
dei segnali cellulari): manca infatti una compartimentazione dello spazio interno, per cui non sono mai presenti organelli circondati da una propria membrana
(come mitocondri, plastidi e lisosomi). In particolare,
manca un nucleo delimitato da una propria membrana: a questa caratteristica fa appunto riferimento il nome stesso dei procarioti, che originariamente erano
stati chiamati protocarioti (dal gr. proto- = primitivo e
káryon = nucleo).
Gli eucarioti, al contrario, sono raggruppamenti di
organismi unicellulari o pluricellulari caratterizzati da
una organizzazione della cellula molto diversa: in parti-
Pianta di tabacco in fiore (Nicotiana
tabacum)
colare, è presente nella cellula un certo numero di organelli differenti ognuno avvolto da una propria membrana e dotato di funzioni particolari. Un’altra diversità
morfologica riguarda la grandezza dei ribosomi, organuli citoplasmatici ai quali è affidata la sintesi proteica,
che negli eucarioti sono di dimensioni maggiori di quelli dei procarioti. Differenze fondamentali tra i due tipi di
organismi riguardano poi il metabolismo, il modo di divisione, la replicazione e conservazione del patrimonio
genetico, i meccanismi riproduttivi, le modalità di movimento. Una forma di organizzazione cellulare intermedia fra eucarioti e procarioti è il gruppo degli archeabatteri o archea, capaci di adattarsi ad alte concentrazioni saline, a bassissimi valori di pH o ad altissime temperature: per questo si pensa che siano stati tra le prime
forme di vita a colonizzare la Terra.
599
412-711_Vol1_Scienza.QXD
6-06-2007
12:05
Pagina 601
L’evoluzione dell’evoluzionismo
renti stretti più di quanto non faccia con quelli lontani. Hamilton dimostra in modo inconfutabile come si sia potuta affermare nel corso
dell’evoluzione la socialità di imenotteri come le api dove le operaie
formano una casta di femmine tutte sterili.
Le indagini dei biologi cellulari e molecolari sull’origine della cellula eucariotica a partire da quella procariotica hanno fatto ipotizzare
un antichissimo episodio di endosimbiosi. Questo evento, accaduto
tra i 2 e gli 1,5 miliardi di anni fa, fu decisivo per il futuro destino
della vita sulla Terra. Furono le nuove straordinarie proprietà associate all’evoluzione della cellula eucariotica (tra tutte, la capacità di
mitosi, di meiosi e la sessualità), di cui è fatto il corpo di tutti i protisti e di qualsiasi organismo pluricellulare della biosfera, a permettere infatti l’immenso incremento della diversità di geni, organismi
ed ecosistemi. La teoria endosimbiotica dell’origine della cellula eucariotica si basa principalmente sull’ipotesi (oramai quasi una certezza) di un incontro fatale tra una grande cellula batterica e i mitocondri o i cloroplasti – all’epoca anch’essi semplici batteri liberi –
che furono incorporati per sempre nella cellula ospite. Ma le cose,
come quasi sempre avviene in biologia, forse furono più complicate di così dato che, sulla base della diversa natura dei geni nucleari
e citoplasmatici delle moderne cellule eucariotiche, molti sospettano che la primitiva cellula procariotica fosse essa stessa il risultato
di una pregressa più antica fusione: quella di un eubatterio fornitore del citoplasma con un archeobatterio che funzionò forse come
donatore dell’apparato genetico. Sicché la cellula eucariotica sarebbe il risultato di almeno due incontri fatali: il primo tra un eu- e un
archeobatterio e quello successivo tra questo batterio-chimera e un
altro batterio libero di tipo aerobico (mitocondrio) o di tipo cianobatterio (cloroplasto). Lynn Margulis (1938-), la prima autrice della
teoria endosimbiotica dell’origine degli eucarioti, ritiene che una
volta entrate nella cellula ospite, mitocondri e cloroplasti continuano a funzionare e a replicarsi; con la scissione della cellula ospite, i
corpuscoli al suo interno si distribuiscono all’interno delle cellule
neoformate. Il possesso di una doppia membrana di rivestimento,
di un DNA circolare, la divisione per scissione binaria e la sensibilità di mitocondri e cloroplasti agli antibatterici confermano l’ipotesi endosimbiotica. Ci sono tuttavia altre caratteristiche eucariotiche che non sono spiegabili con quest’ipotesi: l’esistenza di organelli citoplasmatici con una sola membrana di rivestimento, il reticolo endoplasmatico, l’origine del nucleo. Una delle scoperte più
travolgenti per l’assetto della teoria sintetica dell’evoluzione è stata
quella dei cosiddetti geni omeotici (geni HOX). Questa è una fami-
glia di geni regolatori preposti all’accensione controllata di batterie
di altri geni. Specificamente, i geni HOX codificano per fattori di
trascrizione (proteine del nucleo legate al DNA) che hanno un ruolo molto importante nell’organizzazione spaziale dell’embrione.
Una loro caratteristica speciale è di essere colineari con i segmenti
corporei. In Drosophila per esempio, il complesso genico chiamato
bithorax (BX-C) è contiguo al complesso chiamato Antennapedia
(ANT-C) e insieme occupano una ristretta regione di DNA. Mutazioni a carico di BX-C (il complesso è composto da tre geni) comportano trasformazioni a carico del metatorace (T3) che diventa
omologo al mesotorace (T2) per cui si ottiene un moscerino mutante con quattro ali e quindi con due toraci (il torace degli Insetti è di
tre segmenti: il protorace T1 non porta ali, T2 porta il 1° paio, T3
porta il 2° paio; in Drosophila e negli altri Ditteri T3 non porta mai
ali bensì strutture a clava dette bilancieri). La colinearità implica
che l’allineamento di questi geni BX-C lungo il cromosoma non sia
casuale: quelli più anteriori controllano la costruzione delle regioni
più anteriori del corpo di Drosophila, quelli più posteriori controllano le regioni più posteriori. Abbastanza analogamente si comportano i cinque geni del complesso ANT-C coinvolti nel controllo dello sviluppo della testa e del protorace. Esiste una gerarchia genica:
alcuni geni sono più importanti di altri, e i ricercatori concordano
sul fatto che i geni omeotici occupano una posizione elevata in questa gerarchia; inoltre proprio studiando la struttura molecolare delle proteine codificate dagli otto geni di BX-C e ANT-C, hanno scoperto che tali proteine presentano una regione identica (chiamata
omeodominio): il tratto di DNA che codifica per questo elemento
strutturale conservato è noto come omeobox e viene identificato per
la prima volta a Basilea da Walter Gehring nel 1984. La caccia agli
omeogeni (geni con l’omeobox) è iniziata da vent’anni. In poco
tempo omeogeni sono stati scoperti anche in moltissimi altri tipi di
organismi, dal lievito alle piante verdi, dagli artropodi ai vertebrati.
Studiando gli omeogeni del topo e dell’uomo (una quarantina in
tutto) si è constatato non solo una reciproca somiglianza ma anche
un analogo compattamento nella stessa regione di DNA; essi inoltre specificano l’identità delle varie regioni del corpo situate lungo
l’asse antero-posteriore dell’organismo in sviluppo. Proprio come
avveniva per Drosophila. Ma la vera sorpresa si deve al confronto fra
gli omeogeni del moscerino dell’aceto e quelli dell’uomo dal quale
risulta che alcuni di loro erano geni omologhi. Da un punto di vista
Stephen Jay Gould, 1981
Stephen Jay Gould (1941-2002),
paleontologo statunitense,
è considerato uno dei
divulgatori scientifici
più prolifici e influenti
della sua generazione.
Micrografia elettronica a scansione
di un moscerino della frutta
(Drosophila melanogaster)
I moscerini della frutta vengono
utilizzati soprattutto per
studiare le mutazioni genetiche.
601
412-711_Vol1_Scienza.QXD
6-06-2007
12:05
Pagina 602
Scienza e tecnologia “Conosci te stesso”: l’organismo e l’ambiente, la salute e la malattia
Ottocento, Scienza e
tecnologia: Charles Darwin,
Il secolo dell’evoluzione,
Jean-Baptiste Lamarck
Novecento*, Scienza
e tecnologia:
Dall’antropologia fisica
all’antropologia genetica:
il dibattito sull’evoluzione
umana, La biochimica,
La biodiversità, La biologia
cellulare, La biologia
molecolare, La genetica,
La sociobiologia, L’etologia
evoluzionistico questo significa che almeno quattro-cinque degli
omeogeni comuni al moscerino e all’uomo sono gli stessi posseduti
dall’antenato comune vissuto prima della divergenza evolutiva tra
Insetti e Vertebrati. Una magnifica testimonianza di parentela che
risale a molte centinaia di milioni di anni. In sostanza la famiglia dei
geni HOX è antichissima e sembra essere anche altamente conservata; questo vuol dire che i modelli di sviluppo che dipendono dal
loro controllo sono soggetti a vincoli e quindi non possono più evolvere. Un secondo aspetto assai promettente per l’evoluzionismo è la
neonata biologia evoluzionistica dello sviluppo (evolutionary developmental biology), nota come evo-devo che si spera possa diventare la cornice teorica ed empirica in cui integrare i modelli microevolutivi popolazionali con le conoscenze sullo sviluppo genetico ed
epigenetico in vista del loro impiego nella comprensione della macroevoluzione. I primi risultati delle indagini di evo-devo stanno rivelando una novità: la centralità dell’ontogenesi nei processi evolutivi, che si manifesta da una parte come vincoli di sviluppo che non
solo limitano la produzione di variazione e dunque la possibilità di
selezione, ma che in alcuni casi possono bastare da soli per spiegare alcuni pattern morfologici (per esempio il numero dei segmenti
corporei di un verme metamerico) senza bisogno di ricorrere a una
spiegazione selezionistica ad hoc che chiami in causa automaticamente l’adattamento e la selezione naturale. Va detto che la costruzione di una evo-devo capace di integrare micro e macroevoluzione
non sarà un’impresa facile; vi si oppongono alcune dicotomie all’apparenza insuperabili che per questo rappresentano al momento
altrettanti punti fermi teorici: la distinzione tra genotipo e fenotipo;
l’idea weismanniana, confermata nel dogma centrale della biologia,
della separazione tra linea somatica e linea germinale; la distinzione
tra cause prossime (meccaniciste e funzionali) e cause ultime (storico-evenemenziali); le diverse implicazioni del pensiero popolazionale rispetto a quello organismico tipologico e strutturalistico della
biologia dello sviluppo.
A partire dagli anni postsintesi modelli teorici e studi sperimentali
oltre a confermare l’idea (risalente a Joannsen, Bateson, Woltereck,
Schmalhausen e altri) che la funzione di mappa genotipo-fenotipo
non è lineare (visto che esistono interazioni gene-gene e interazioni
genotipo-ambiente), hanno anche sottolineato l’importanza della
plasticità del fenotipo nell’evoluzione. Questo in quanto la plasticità
(che rappresenta una misura della norma di reazione di un organismo) determina il possibile insieme di habitat per un genotipo. Data
la loro sedentarietà le piante sono in media molto più capaci di pla-
602
Cloroplasti
Insieme ai vacuoli, i cloroplasti sono i più grandi e
caratteristici organelli delle cellule delle piante. Possono anzi essere considerati i motori della cellula vegetale, perché attraverso la fotosintesi catturano l’energia della luce e la trasformano in energia chimica,
producendo ossigeno e carboidrati (per esempio amido) a partire da anidride carbonica e acqua. Sebbene
di dimensioni maggiori, i cloroplasti possiedono una
struttura simile ai mitocondri: sono anch’essi circondati da una doppia membrana. Quella interna è, a sua
volta, collegata a un sistema di vescicole che forma un
fitto sistema di ripiegamenti, chiamato membrana tilacoide. Essa si organizza in strutture discoidali, appiattite e impilate una sull’altra, dette grana, che fanno da
supporto alla clorofilla e agli enzimi fotosintetici. I
grana sono collegati tra loro da membrane tilacoidi
non fotosintetiche. Lo spazio compreso tra i tilacoidi
sticità degli animali (tra gli animali le specie sessili, tipo spugne e coralli, lo sono rispetto a quelle dotate di locomozione) e dunque la
maggior parte degli studi riguarda proprio le specie vegetali.
Anthony D. Bradshaw, professore di botanica all’Università di Liverpool, nel 1965 sistema il campo delle ricerche sulla plasticità fenotipica conferendogli l’aspetto attuale. Le due idee centrali sono
che la plasticità del fenotipo abbia una base genetica e dunque possa evolvere come qualunque altro carattere, e che lo stesso genotipo
sia più o meno plastico a seconda dell’ambiente in cui si trova e dei
caratteri (biochimici, fisiologici, anatomici, morfologici) considerati.
Anni dopo, nel 1974, Richard Lewontin (1929-) chiarisce il rapporto tra analisi statistica della varianza impiegata dagli sperimentatori
e norma di reazione suggerendo che il grado di ereditarietà di un carattere può cambiare con l’ambiente. Negli anni Novanta altri autori come Carl D. Schlichting e Massimo Pigliucci negli Stati Uniti e
Paul Martin Brakefield in Europa intraprendono studi sperimentali
rispettivamente su piante e su farfalle per chiarire il funzionamento
dei meccanismi genetico-molecolari che presiedono alla plasticità fenotipica. Con la teoria sintetica venivano definitivamente abbandonati i tentativi di una interpretazione lamarckiana dell’evoluzione.
Tuttavia in anni recenti, grazie alla rinascita dell’interesse per i fenomeni dello sviluppo, all’interno della biologia evoluzionistica si assiste a una nuova attenzione per un punto di vista che potremmo continuare a chiamare lamarckiano che si manifesta negli studi sull’eredità epigenetica. Essa è costituita dall’insieme dei processi che modulano l’espressione dei geni degli eucarioti multicellulari innanzitutto durante lo sviluppo attraverso l’interazione tra i geni e l’interazione tra i geni e i loro prodotti. L’epigenetica comprende l’insieme
delle modificazioni canalizzate durante lo sviluppo (assimilazione
genetica di Waddington) nel passaggio da genotipo a fenotipo adulto. Waddington, che coniò il termine epigenetica, e altri genetisti dopo di lui hanno osservato che non tutta l’informazione per la produzione di fenotipi è conservata nel DNA: per esempio la differenza tra
api operaie e ape regina non è genetica (i loro genomi sono identici)
ma epigenetica (dipende solo dalla dieta larvale). Praticamente tutta
la variazione fenotipica non correlata a una sottostante variazione genotipica diventa un prodotto dell’eredità epigenetica. Esempi di fenomeni epigenetici sono l’inattivazione del cromosoma X nelle femmine dei mammiferi, l’imprinting genomico (per cui l’espressione di
un gene dipende dalla provenienza ereditaria, paterna o materna),
imprinting da metilazione del DNA (il cui grado di metilazione varia
durante l’ontogenesi individuale). Se è piuttosto chiaro che i cam-
e la membrana interna viene chiamato stroma: qui si
trovano DNA, RNA, i ribosomi e gli enzimi che catalizzano la fissazione dell’anidride carbonica e la sintesi dell’amido. Sulla superficie del grano tilacoidale
avvengono l’assorbimento della luce da parte della
clorofilla, la sintesi di ATP e la formazione dei gradienti elettrochimici fondamentali per la fotosintesi e
per gli scambi interni al cloroplasto.
Come i mitocondri, i cloroplasti possono inoltre
variare in numero, forma e dimensioni nelle diverse
cellule; come accade per i mitocondri, ogni cloroplasto prende origine da un altro cloroplasto. Per questo
si pensa che anche i cloroplasti si siano evoluti da un
primitivo procariote parassita, dotato di attività fotosintetica, inglobato per endocitosi da un altro procariote dando origine alle attuali cellule eucariote con
attività fotosintetiche.
412-711_Vol1_Scienza.QXD
6-06-2007
12:05
Pagina 603
L’evoluzione dell’evoluzionismo
Ala fossile di Rhamphorhynchus
È stata rinvenuta in un
sedimento calcareo della
Bavaria. Questo genere di
pterosauro è il primo vertebrato
in grado di volare ed è
considerato un animale
eterotermo. Recenti
ritrovamenti fossili hanno
permesso, invece, di ipotizzare
che sia stato un animale a
sangue caldo.
biamenti nell’attività genica indotti dall’esterno sul DNA (e internamente mediati dalla cromatina) vengono diffusi nell’organismo grazie alla replicazione del DNA durante la normale moltiplicazione
cellulare, ci sono ancora molti punti da chiarire nei meccanismi molecolari che durante la meiosi sembrano permettere il trasferimento
da una generazione alla successiva dell’informazione fenotipica presente nelle cellule.
Conflitti (e alleanze) tra cultura
Nel Novecento l’evoluzionismo diventa materia di conflitto con il
creazionismo, specialmente negli Stati Uniti. Il contrasto tra creazionismo ed evoluzionismo non è però una novità; già Darwin e i
paladini della teoria dell’evoluzione avevano dovuto lottare contro
gli attacchi del clero e dei benpensanti. D’altronde, anche se negli
ultimi anni del Novecento la Chiesa ha ammesso l’evidente esistenza dell’evoluzione dei viventi, uomo compreso, tuttavia essa continua a non accettarne la spiegazione scientifica naturalistica. La recrudescenza del creazionismo e la sua recente penetrazione e diffusione in Europa, Italia compresa, è forse un fenomeno sociologicamente interessante, ma non lo è sotto il profilo scientifico delle teorie biologiche. Il creazionismo infatti non è, né puo essere una teoria scientifica, nonostante vestendo i panni del cosiddetto Intelligent Design si stia rendendo popolare e forse anche accettabile presso i non addetti ai lavori. Data la sua natura fideistica, il creazionismo non può pretendere di spiegare su base empirica e razionale i
fenomeni della natura e infatti per i suoi scopi si serve di un’accorta mescolanza di dati scientifici e di superstizione. Sempre in tema
di conflitto mediatico tra evoluzionismo e creazionismo, è particolarmente istruttivo osservare come i creazionisti abbiano riportato il
grande dibattito pubblico tra scienziati sulle modalità dell’evoluzione, conosciuto come: “puntuazionisti contro gradualisti”, “critica all’adattamentismo”, “critica al riduzionismo panselezionista”,
ecc., dibattito che ha avuto tra i suoi più accesi protagonisti anche
ricercatori di grande prestigio come i già citati Richard Lewontin,
Stephen Jay Gould, Niels Eldredge e ancora Elisabeth Vrba, professoressa di geologia e Geofisica alla Yale University, Richard
Dawkins (1941-), il famoso teorico dell’evoluzione del gene egoista,
e John Maynard Smith (1920-2004), George Christopher Williams
(1926-), Edward Osborne Wilson (1929-). Nata negli anni Ottanta
in ambienti accademici americani e inglesi e subito sconfinata sulla
stampa e sui mass media, questa discussione a più voci tra sostenitori di un evoluzionismo darwiniano elastico e sostenitori di un evoluzionismo darwiniano rigido si è subito caratterizzata per la crescita esponenziale del disaccordo tra i partecipanti. A tal punto che
l’accentuazione mediatica degli elementi di contrasto, l’enfasi spesso caricaturale di dati e di interpretazioni, hanno ostacolato nell’osservatore estraneo al problema la vista del comune fondamento teorico di partenza: l’evoluzionismo darwiniano, rimasto sempre condiviso dalle parti in causa. Ebbene, nelle loro argomentazioni i sostenitori del creazionismo hanno mistificato il dibattito tra puntuazionisti e gradualisti presentandolo come prova dell’esistenza di una
insanabile frattura originaria, intrinseca all’evoluzionismo. L’accanimento con cui la spiegazione darwiniana dell’evoluzione viene attaccata da ambienti ostili alla razionalità laica della scienza appare
invece come ulteriore segno della sua vitalità di paradigma culturale. Quanto l’approccio evoluzionistico sia importante non solo nella conoscenza accademica, ma per la vita quotidiana di tutti noi è indiscutibilmente dimostrato dal fatto che ai suoi principi, a partire
dalla nozione di selezione naturale, sempre più si ricorre in sede applicativa, dalle biotecnologie alla progettazione di farmaci, dall’identificazione dei patogeni alla conservazione della natura. Per non
dire dell’informatica e dell’IA, campi dove da anni si sviluppa
software avanzato ricorrendo, come nel caso degli algoritmi genetici, a principi evoluzionistici di programmazione.
603