true
Accastampato non è un periodico, pertanto non è registrato e non ha un direttore responsabile, è solo un esperimento – per ora occasionale – realizzato dagli studenti di Fisica
dell’Università degli Studi di Roma “Sapienza”
Gli articoli contenuti in questo numero sono protetti con
marca digitale grazie a patamu.com
I QR Code in calce ad alcuni articoli codificano il loro URL di
pubblicazione on-line e sono generati mediante invx.com
La rivista è prodotta dal motore di composizione tipografica LATEX. I sorgenti sono disponibili richiedendoli alla
Redazione.
Quest’opera è rilasciata sotto la licenza Creative Commons
Attribuzione-Non commerciale-Condividi allo stesso modo
3.0 Unported. Se non specificato altrimenti, tutti gli articoli in essa contenuti sono rilasciati dai rispettivi autori sotto la medesima licenza. Per leggere una copia della
licenza visita il sito web http://creativecommons.
org/licenses/by-nc-sa/3.0/ o spedisci una lettera a Creative Commons, 171 Second Street, Suite 300, San
Francisco, California, 94105, USA.
accastampato
Rivista degli Studenti di Fisica
dell’Università Sapienza di Roma
www.accatagliato.org
EDITORIALE
R EDAZIONE
[email protected]
La divulgazione della Scienza a partire da chi la fa
La ricerca scientifica a Roma: informare, orientare, incuriosire
n pochi sanno che a Roma e dintorni si fa ricerca di livello internazionale. Una delle motivazioni di questa diffusa ignoranza è sicuramente il fatto che le riviste e i programmi di divulgazione
di qualità sono quasi sempre tradotti dall’inglese e si contrappongono a prodotti di scarso livello che, nel tentativo di essere commercialmente accattivanti, danno un’idea della scienza
completamente sbagliata, tale da renderli addirittura dannosi e fuorvianti. Al contrario, una delle differenze fra la scienza e, per esempio, l’alchimia è stata storicamente proprio la divulgazione. Solo
avendo delle conoscenze di base si può capire un dibattito serio sui temi di attualità che pressano, o
almeno dovrebbero, l’agenda politica nazionale e internazionale: esempi eclatanti sono la produzione
di energia, gli organismi geneticamente modificati, gli effetti dei campi elettromagnetici sulla salute.
Troppe volte si sentono dire cose che non sono neanche lontanamente verosimili e questo significa
che manca nel nostro paese una cultura minima in questo settore, non solo sugli argomenti di ricerca,
ma anche su cosa sia Scienza, su cosa la distingua dalla religione o, appunto, dall’alchimia. Per questi motivi abbiamo deciso di intraprendere un progetto ambizioso e difficile: realizzare una rivista di
divulgazione scientifica e diffonderla gratuitamente nelle scuole superiori con tutti i mezzi cui abbiamo accesso, una rivista redatta dagli studenti di Scienze della Sapienza dedicata principalmente agli
studenti dei licei di Roma. Non pensiamo di poter risolvere i problemi descritti prima, ovviamente.
Speriamo solo di poter generare curiosità in qualcuno dei nostri lettori.
I
Non è semplice scrivere e parlare della ricerca di frontiera a non specialisti: non bisogna dare nulla
per scontato e, nel mettersi nei panni del proprio interlocutore, è necessario usare un linguaggio comprensibile senza rinunciare a spiegare quali siano le cose fondamentali. Per questo ci poniamo due
obiettivi: incuriosire coloro che non studiano fisica e confrontarci con l’arte difficile del raccontare
cosa studiamo con parole accessibili. Nel mondo accademico italiano si è data sempre troppo poca
importanza alla divulgazione e questo progetto vuole configurarsi come un vero e proprio laboratorio
di comunicazione scientifica: per questo motivo invitiamo tutti i nostri lettori a inviarci commenti, critiche e giudizi di qualunque genere, in modo da poter correggere e migliorare sia la nostra competenza
specifica, sia la rivista stessa. Questo progetto è stato pensato e realizzato da studenti, ma si avvale
dell’importante collaborazione di ricercatori e docenti del Dipartimento di Fisica della Sapienza. Sono
loro che formano la nostra autorevole commissione scientifica che garantisce al lettore la qualità di ciò
che sta leggendo.
Ricerca, quindi, ma non solo: crediamo che una delle cose più interessanti sia sottolineare le ricadute
della ricerca di base nella vita di tutti i giorni, sia nel medio che lungo periodo. Siamo convinti che
il senso della ricerca non sia solo nelle applicazioni tecnologiche che ne possono derivare e in questo
concordiamo con l’affermazione di Feynman: “Non si lavora per le applicazioni pratiche, ma per
l’emozione della scoperta. . . l’emozione, che è la vera molla dell’impresa scientifica. Se non capite
questo, non avete capito niente”. Pensiamo però che spiegare come funzionino cose con cui si ha a che
fare nella vita quotidiana sia un modo efficace di spiegare la Scienza. È poi della politica il compito di
tradurre in atti concreti la possibilità di uscire dalla crisi grazie a investimenti in ricerca e conoscenza
e alle loro ricadute innovative. Purtroppo le politiche adottate dai governi che si sono succeduti in
questi ultimi anni sono state miopi da questo punto di vista: l’istruzione e la ricerca sono state oggetto
di tagli indiscriminati, fatti in nome della razionalizzazione e dell’efficientismo, ma spesso al di fuori
di un quadro strategico di largo respiro. Per questo una rubrica sarà dedicata all’analisi degli effetti,
anche nel breve periodo, di tali politiche.
Alla luce di tutto ciò riteniamo che una buona divulgazione scientifica non possa esimersi dal cercare
di far prendere coscienza di cosa sia la Scienza e del perché noi scienziati e comunicatori riteniamo
sia cosı̀ importante per la vita della nostra società.
Alessio Cimarelli
[email protected]
Carlo Mancini
[email protected]
Silvia Mariani
[email protected]
Leonardo Barcaroli
[email protected]
Erica Chiaverini
[email protected]
Niccolò Loret
[email protected]
Isabella Malacari
[email protected]
Massimo Margotti
[email protected]
Kristian Gervasi Vidal
[email protected]
C OMMISSIONE SCIENTIFICA
Giorgio Parisi
[email protected]
Giovanni Battimelli
[email protected]
Fabio Bellini
[email protected]
Lara Benfatto
[email protected]
Riccardo Faccini
[email protected]
Francesco Piacentini
[email protected]
Antonio Polimeni
[email protected]
Antonello Polosa
[email protected]
H ANNO CONTRIBUITO
L. Benfatto, A. Bonforti, A. Cimarelli, C. Cosmelli, U. Ferrari, M. Margotti, M. Mitrano, L. Orlando, la
Redazione, T. Scopigno.
S I RINGRAZIANO ANCHE
Donald E. Knuth, Leslie Lamport,
la Comunità del TEX Users Group
(TUG: www.tug.org) e Gianluca
Pignalberi
Con il patrocinio del
accastampato num. 1, Giugno 2010
Indice
num. 1, Giugno 2010
La ricerca scientifica a Roma: informare, orientare, incuriosire
EDITORIALE
La divulgazione della Scienza a partire
da chi la fa
3
Un progetto ambizioso e difficile, una rivista realizzata
interamente da studenti
accastampato, Creative Commons e
Patamu
9
di A. Bonforti
Tutti i contenuti di accastampato sono rilasciati sotto
licenza Creative Commons BY–NC–SA e la loro paternità
protetta da marca digitale grazie a patamu.com: vediamo
cosa significa. . .
IL RESTO DEL NEUTRINO
I segreti del cinema 3D
RECENSIONI
Storia del laser
6
di M. Mitrano
Breve storia di un’invenzione che ha cambiato il mondo
ESPERIMENTI
Un palloncino sul phon
7
di C. Cosmelli
Come il getto d’aria del phon tiene il palloncino sospeso
sopra di sé
ONDA LUNGA
h̄σω τσ. . .
di A. Cimarelli
Gli enormi passi avanti fatti dalle tecnologie stereoscopiche
aprono finalmente le porte a una forte espansione dell’intrattenimento cinematografico tridimensionale
Il comportamento
collettivo animale
16
di A. Cimarelli
Cosa hanno in comune gli stormi di uccelli con i banchi
di pesci o gli alveari di api? Un comportamento collettivo
emergente sorprendentemente simile nonostante le differenze tra le specie
8
di la Redazione
Breve descrizione di come è strutturata accastampato
4
11
accastampato num. 1, Giugno 2010
ONDA LUNGA
La riforma dell’Università italiana
22
di L. Benfatto
L’idea stessa di creare una vera competizione tra le varie
università, allo scopo di attrarre gli studenti migliori,
fallisce miseramente a fronte di un’obiettiva immobilità
sociale del sistema italiano
IL RICERCATORE ROMANO
La transizione
vetrosa
26
di T. Scopigno
Nonostante un utilizzo molto diffuso dei materiali vetrosi,
alcuni aspetti della transizione a questa particolarissima
fase della materia non sono ancora pienamente compresi
SCIENZARTE
La pittura silenziosa
30
di M. Margotti
Il lavoro di Piero della Francesca è emblematico del passaggio che nella sua epoca stava avvenendo in Italia a livello
intellettuale e sociale: l’incontro tra arte e matematica,
riconosciuta come unica risorsa per una descrizione della
realtà
NANOS GIGANTUM
La prima lezione di
Ettore Majorana
32
di A. Cimarelli
La Prolusione di Ettore Majorana del 13 gennaio 1938
per il suo corso di Fisica Teorica all’Università Federico
II di Napoli permette di comprendere le grandi capacità
didattiche dello scienziato, scomparso misteriosamente nel
marzo dello stesso anno
EVENTI
Copenhagen
36
di L. Orlando
“Copenhagen” di Michael Frayn, da dieci anni nei teatri di
tutto il mondo
RECENSIONI
Storia del laser
C OPERTINA
Breve storia di un’invenzione che ha cambiato il mondo
di Matteo Mitrano
(studente di Fisica)
Per completezza e per la sua chiarezza mi permetto di citare la quarta di copertina, pubblicata anche
sul sito della casa editrice.
Il termine laser è ormai conosciuto al grande pubblico e molte delle applicazioni della luce che esso emette sono sotto gli occhi di tutti. Si parla di operazioni chirurgiche e di cure mediche eseguite
mediante raggi laser; si sa che le discoteche usano questi raggi per creare particolari effetti di luce e
che, per esempio, brevi impulsi di luce, sempre emessi da laser, viaggiando entro fibre di vetro e sostituendosi agli impulsi elettrici, permettono di realizzare collegamenti telefonici. Il laser è l’elemento
essenziale delle stampanti dei quotidiani, di quelle dei computer e di alcuni radar e, inoltre, con i suoi
raggi si può tagliare e forare ogni sorta di materiale, leggere CD, registrare, e riprodurre fotografie
tridimensionali (ologrammi) e fare innumerevoli altre cose. Ma che cosa in effetti sia un laser e come
esso funzioni sono in pochi a saperlo, oltre agli addetti ai lavori. Questo libro cerca di spiegarlo in
modo comprensibile, pur senza prescindere da un certo numero di considerazioni strettamente tecniche, raccontando come si sia arrivati a costruirlo, insieme al maser, che è il suo gemello nel dominio
delle microonde. La caratteristica dei laser di emettere fasci collimati e colorati deriva dal diverso
modo in cui in essi è emessa la luce rispetto alle altre sorgenti. Nel libro si approfondisce cos’è la
luce e come viene emessa, e a tale scopo si esamina come si comportano gli atomi, utilizzando alcuni
concetti della meccanica quantistica adatti a descriverli... Nel cercare di capire i vari fenomeni seguendo un filo storico l’autore ricostruisce, in un certo senso, parte della storia della luce e i primi
passi della meccanica quantistica, sia pure a un livello elementare.
Detto questo il libro che sto descrivendo è un bel libro divulgativo che si muove in un segmento
editoriale sempre più trascurato ovvero quello del lettore con preparazione scientifica di base medioalta che desidera approfondire un singolo tema o settore a lui poco noto. Ovviamente è un libro di
lettura con un formalismo matematico veramente ridotto all’osso e presente solo quà e là nel testo
ove necessario. A mio avviso, specialmente all’inizio, l’autore la prende troppo alla larga partendo da
Galileo e il metodo scientifico e talvolta si perde in parentesi troppo dettagliate (ad es. il cap. 6 su
Einstein). Naturalmente questo è il parere di uno studente del I anno di specialistica e necessariamente
sarà diverso da quello del lettore non addetto ai lavori. Tuttavia gli ultimi capitoli riscattano tutto il
testo fornendo molti retroscena storici e veramente molte informazioni sulla grande varietà di lasers
oggi esistenti. Complessivamente i soldi investiti sono pienamente ripagati da questo saggio veramente
completo e molto scorrevole nella lettura.
Matteo Mitrano
I NDICE
1. Introduzione
2. Le teorie ondulatoria e corpuscolare della luce
3. La spettroscopia
4. La teoria del corpo nero
5. L’atomo di Rutherford e di Bohr
6. Einstein
7. Einstein e la luce, l’effetto fotoelettrico e l’emissione stimolata
8. Microonde
9. Spettroscopia: atto secondo
10. La risonanza magnetica
11. Il maser
12. La proposta per un maser ottico
13. Le disavventure di Gordon Gould
14. E finalmente fu il laser!
15. A che cosa serve il laser?
I N BREVE
Titolo
Autore
Editore
Anno
Pagine
Prezzo
6
accastampato num. 1, Giugno 2010
Storia del Laser
Mario Bertolotti
Bollati Boringhieri
1999
390
35.00 e
ESPERIMENTI
Un palloncino sul phon
S CHEMA
Come il getto d’aria del phon tiene il palloncino sospeso sopra di sé
di Carlo Cosmelli
(Professore di Fisica alla Sapienza)
A
ccendere il phon a mezza forza e tenerlo fermo con il getto d’aria rivolto verso l’alto.
Prendere il palloncino e poggiarlo delicatamente nel mezzo del flusso di aria sopra il
phon. Si vedrà che il palloncino si metterà in una posizione di equilibrio, più in alto o
più in basso del punto in cui l’avevate lasciato, e ci rimarrà stabilmente.
Suggerimenti e astuzie
Se il palloncino fosse troppo leggero, cioè se vola via, vuol dire che il getto d’aria è troppo forte. In
tal caso ridurre il getto d’aria. Se non fosse possibile, provare ad aumentare la massa del palloncino
inserendo un po’ d’acqua (circa mezzo cucchiaino) dentro di esso prima di gonfiarlo.
Approfondimento
Il palloncino rimane in equilibrio per due ragioni: la prima è semplicemente la forza generata dal
flusso d’aria diretto verso l’alto. Il flusso d’aria è più forte all’uscita del phon e diminuisce di intensità
man mano che ci si allontana dalla bocca del phon. Ci sarà un punto in cui la forza esercitata dal flusso
d’aria è uguale alla forza di gravità che si esercita sul palloncino. In questa posizione il palloncino
potrà stare in equilibrio.
Tuttavia questo potrebbe essere un punto di equilibrio instabile, per spostamenti laterali. Invece si può
vedere che se diamo delle piccole botte al palloncino, questo si sposta dalla posizione di equilibrio,
ma tende poi a ritornare verso il centro del getto d’aria, rimanendo sempre in equilibrio.
Questo vuol dire che c’è un secondo effetto che mantiene il palloncino in posizione: si tratta dell’effetto combinato del principio di Bernouilli e dell’effetto Coandă. Quello che succede è che l’aria che
esce dal phon crea una specie di guscio intorno al palloncino, dandogli un ulteriore supporto. Possiamo accorgerci di questo effetto anche spostando il getto di aria del phon dalla posizione verticale,
inclinandolo lateralmente. Si può vedere come, per angoli non troppo grandi, il palloncino continua
a restare sospeso nel mezzo del getto di aria, anche se ora si trova fuori dalla verticale innalzata dalla
bocca del phon.
Il palloncino può essere anche sostituito da una pallina da ping-pong, dipende dalla potenza del phon.
Principio di Bernoulli ed effetto Coandă
Esempio dell’effetto Coandă, da it.
wikipedia.org
M ATERIALE
• 1 palloncino gonfiato poco (10 ÷
15cm)
• 1 phon elettrico
A RGOMENTO
• Equilibrio di un corpo in un fluido
• Fluidi reali
di Isabella Malacari
Un problema con cui ci siamo confrontati tutti? Riuscire a bere da una fontanella senza bagnarsi completamente
volto e maglietta! Perché l’acqua che ci bagna il viso, anziché gocciolare giù dal mento, scorre lungo il collo?
L’adesione di un fluido (un liquido o un gas) lungo superfici ricurve prende il nome di effetto Coandă: lo strato del
fluido prossimo alla superficie su cui scorre, rallentando per attrito, vincola il movimento degli strati esterni a causa
della reciproca attrazione; l’effetto mette in rotazione gli strati esterni verso l’interno, facendo aderire il fluido
alla superficie stessa. Ma questo non è certo l’unico fenomeno visibile nella dinamica dei fluidi. Prendiamo ad
esempio tra le dita gli angoli del lato corto di un foglietto di carta (uno scontrino per esempio) e avviciniamoli alla
bocca. Soffiando delicatamente appena sopra il foglio, questo si alzerà, restando sospeso a mezz’aria; aumentando
la forza del soffio, il foglio inizierà a sbattere freneticamente. Il fluire dell’aria sul lato superiore del foglio causa,
infatti, una diminuzione della pressione rispetto al lato inferiore che, pertanto, è spinto verso l’alto. In questo caso
è il principio di Bernoulli che garantisce infatti che ad ogni aumento della velocità di un fluido corrisponde una
diminuzione della sua pressione e viceversa.
Effetto Coandă e principio di Bernoulli non sono indipendenti, ma possono essere descritti come casi particolari di
una teoria generale dei fluidi, fondata sui lavori degli scienziati Claude-Louis Navier e George Stokes.
accastampato num. 1, Giugno 2010
h̄σω τσ. . .
Breve guida per evitare di perdersi fra queste pagine
la Redazione
ara lettrice e caro lettore, queste poche righe sono
per spiegarti come è nata questa rivista e come provare a interpretarla. Accastampato è nata dall’impegno di un gruppo di studenti di Fisica della Sapienza, certamente non specialisti nella difficile arte della divulgazione scientifica, ma senza dubbio appassionati di ciò che
hanno scelto di studiare. L’intento esplicito è quello di raccontare non solo la fisica già data per assodata, ma soprattutto gli
esperimenti e la ricerca di frontiera, cercando di evidenziare quali siano i problemi ancora aperti delle teorie oggi comunemente accettate o ancora dibattute nella comunità scientifica. Non
pensiamo di poter riuscire a pieno in questo progetto ambizioso,
ma speriamo di poterti almeno incuriosire. Ti invitiamo a non
scoraggiarti nel caso in cui alcune cose ti siano poco chiare e
ti esortiamo ad approfondire i concetti più difficili. Per aiutarti ogni articolo è accompagnato da una bibliografia dettagliata
e da un indice di difficoltà (da 1 a 3 atomini) con cui stimiamo l’impegno richiesto per una buona comprensione. Non esitare a mandarci commenti, critiche o richieste di qualunque tipo
a [email protected].
C
Ecco qui si seguito una breve panoramica della rivista, divisa in
diverse sezioni e varie rubriche.
La sezione Il Ricercatore Romano racconterà il lavoro dei ricercatori del Dipartimento di Fisica della Sapienza. Abbiamo scelto
di non limitare troppo la lunghezza dei singoli articoli, pur sapendo di violare una delle prime regole dell’editoria contemporanea:
preferiamo rischiare e dilungarci un po’ più del dovuto che rinunciare a spiegare almeno nei punti essenziali quale sia il senso di
una ricerca che spesso richiede anni per essere portata a termine. Per facilitare la lettura abbiamo cercato di illustrare gli aspetti
fondamentali nelle prime pagine, lasciando alla seconda parte un
approfondimento successivo.
Una sezione speciale, Il Resto del Neutrino, sarà dedicata alla
spiegazione scientifica di tecnologie e fenomeni comuni, troppo
spesso sconosciuti e a volte percepiti come apparentemente misteriosi. Con questi articoli vogliamo sottolineare come la Scienza
e il metodo scientifico permeino ormai profondamente quasi ogni
aspetto della vita, con l’esplicito scopo di combattere il sempre
più diffuso utilizzo inconsapevole della tecnologia moderna.
La sezione Nanos Gigantum ripercorrerà alcune delle tappe fondamentali del pensiero scientifico, affinché le meraviglie naturali
a cui rivolge la sua attenzione possano essere comprese non solo
sul corretto piano logico o applicativo, ma anche nel loro inquadramento storico. Sarà quindi un’opportunità preziosa per recuperare il gusto del cammino verso la conoscenza, a fianco allo
stupore mai sopito per i contenuti della conoscenza stessa.
Completano la rivista le rubriche dedicate agli Eventi rilevanti nel
panorama scientifico italiano e internazionale, alle Recensioni di
libri e non solo, che possano fungere da spunto per un approfondimento o da guida per esplorare nuovi orizzonti, agli Esperimenti
da fare anche in casa per toccare con mano alcuni principi delle
leggi naturali, alle problematiche sociali, politiche ed economiche connesse alla pratica scientifica di Onda Lunga e infine ai
rapporti più o meno ovvi tra Arte e Scienza in ScienzArte.
In conclusione ti ricordiamo che Accastampato è protetta con licenza Creative Commons, il che significa che sei libero di scaricarla, copiarla, stamparla e diffonderla. Le uniche limitazioni sono l’obbligo di citare la fonte, di coprire con la stessa licenza le eventuali opere derivate e il divieto di usarle in opere
commerciali.
Buona lettura!
Cos’è Accatagliato
Accatagliato è un’associazione di studenti di Fisica della Sapienza, esiste di fatto dalla fine del 2005, ma da Dicembre 2009 è riconosciuta dalla Regione Lazio. Il sito è raggiungibile all’indirizzo www.accatagliato.org e le varie attività possono essere seguite online mediante la pagina Facebook (www.facebook.com/accatagliato), il canale Twitter (twitter.com/accatagliato) e il canale di Youtube (www.youtube.com/user/
accafilmato). Il nome un po’ bizzarro e difficilmente comprensibile per chiunque non abbia
studiato la Meccanica Quantistica deriva da una costante ben nota a tutti coloro che studiano FisiSimbolo di h̄, costante di Planck.
ca: si tratta della costante di Dirac, proporzionale alla più nota costante di Planck h, che definisce
la scala a cui è necessario usare la Meccanica Quantistica al posto della Fisica Classica.
8
accastampato num. 1, Giugno 2010
accastampato, Creative
Commons e Patamu
Una questione di licenze. . .
Adriano Bonforti
(Studente di Fisica, Terza Università degli Studi di Roma)
a rivista accastampato ha scelto di liberare sin dal
suo primo numero il proprio contenuto con licenze
Creative Commons (CC), attraverso la consulenza e
la collaborazione del sito patamu.com, che ha contestualmente fornito un servizio di tutela dal plagio. Per una rivista di carattere scientifico divulgativo la scelta non poteva essere migliore, poiché la Scienza e il Sapere in generale sono o
dovrebbero essere per definizione libere da vincoli di diffusione
ed elaborazione. D’altra parte la storia della scienza è un’ottima
e convincente dimostrazione di quanto virtuose possano essere la
condivisione e la libera fruizione del sapere per il progresso scientifico. In questo articolo proponiamo una breve panoramica sulle
licenze CC e sul servizio offerto da Patamu.
L
-------------------------------------------
accastampato ha scelto di liberare sin da
questo primo numero il proprio
contenuto con licenza Creative
Commons
------------------------------------------Per questo ci si riferisce spesso alle licenze di Creative Commons
come licenze copyleft. Per favorire il più possibile la libera circolazione di questa rivista e dei suoi contenuti, abbiamo scelto
di liberarla attraverso la licenza CC di tipo BY- NC - SA (attribution, non commercial, share alike): significa che tutti i suoi contenuti possono essere riprodotti e diffusi, a condizione che ciò
non avvenga per scopi commerciali e che venga sempre indicato
l’autore. Le opere possono inoltre essere modificate a condizione
che sussista l’assenza di lucro e che l’autore e l’opera originaria
vengano sempre indicati e informati ove possibile; infine, l’opera
derivata deve essere a sua volta liberata con le stesse condizioni.
Figura 1 Logo di patamu.com
Creative Commons Public Licenses
Le Creative Commons Public Licenses (CCPL) sono delle particolari licenze che permettono di distribuire un’opera d’arte o di
ingegno svincolandola parzialmente dalle rigide imposizioni del
diritto d’autore tradizionale (copyright). La loro nascita si ispira
al principio di natura legislativa in base al quale chi crea un’opera di ingegno, una volta dimostratane la paternità, può disporre
di essa come meglio crede, riservandosene i diritti in toto o solo
in parte. Le licenze CCPL si basano quindi sul principio “alcuni diritti riservati” anziché “tutti i diritti riservati”: attraverso di
esse l’autore svincola la propria opera secondo determinate modalità, concedendone ad esempio la diffusione gratuita e libera in
assenza di scopo di lucro. In altre parole, per mezzo delle CCPL
l’autore dà esplicitamente il consenso affinché la sua opera possa
circolare ed essere diffusa più o meno liberamente, disponendo
come vuole dei propri diritti. Ciò in contrapposizione al caso del
copyright tradizionale, nel quale ciò non è possibile.
Figura 2 Locandina Creative Commons (da OilProject)
accastampato num. 1, Giugno 2010
9
ONDA LUNGA
Patamu
Spendiamo infine qualche parola per presentare il sito Patamu,
attualmente in versione beta, che oltre ad offrire consulenza per
quanto riguarda le tematiche CC e la cultura libera in generale,
permette di integrare le licenze CC apponendo ad ogni opera inviata una sorta di timbro temporale informatico con validità legale
riconosciuta dallo Stato Italiano.
Il servizio al livello base è gratuito e permette di tutelare dal plagio e di rilasciare contestualmente in Creative Commons qualsiasi opera artistica o di ingegno: opere musicali, foto, ma anche
libri, articoli di giornale o di blog, articoli scientifici e quant’altro. Per case editrici, etichette, associazioni, società, o per chiunque volesse accedere a servizi più specifici e mirati, sarà possibile
abbonarsi con una piccola somma a vari servizi avanzati.
Pur essendo possibile su Patamu la semplice tutela dell’opera, abbiamo scelto di offrire il servizio gratuitamente per chiunque sia
disposto a liberare contestualmente l’opera in CC. Questa scelta è
stata certamente fatta per incoraggiare e favorire la diffusione della cultura cosiddetta open source, ma c’è anche un altro motivo:
capita spesso infatti che le persone rimangano diffidenti di fronte
alla dicitura “alcuni diritti riservati” e ritengano che il modo più
pratico e sicuro di tutelare la propria opera sia quello di rimanere
detentore di tutti i diritti. Paradossalmente, però, in questo modo sono essi stessi a frenare la diffusione della propria opera, in
quanto il copyright tradizionale ne rende più difficoltosa la diffusione – ad esempio via internet, o via radio – anche in assenza di
lucro.
Il copyleft è quindi, a nostro avviso, anche il modo più pratico e
moderno per permettere di promuovere e far conoscere ad un numero più ampio possibile di persone il proprio prodotto artistico.
In questo contesto la tutela dal plagio fornita dal sito non diventa
più un’azione di tutela dell’autore fine a se stessa, ma si trasforma in un mezzo per diffondere le proprie opere senza il timore
di essere plagiati, favorendo la libera circolazione della creatività
e della cultura sotto qualsiasi forma e contribuendo a innescare
un circolo virtuoso da cui possono trarre vantaggio autori e utenti
dell’opera allo stesso tempo.
Per richiedere qualsiasi informazione sulle tematiche CC o sui
servizi del sito, o per partecipare alla fase di test della versione
beta, siete i benvenuti su patamu.com.
Bibliografia
(1) Creative Commons: www.creativecommons.it
(2) Copyleft: www.copyleft-italia.it
(3) Patamu.com: www.patamu.com
Sull’autore
Adriano Bonforti ([email protected]) è esperto
in licenze di copyleft ed è amministratore del sito www.
patamu.com
I segreti del cinema 3D
Teoria e tecniche alla base della nuova era
dell’intrattenimento digitale
Alessio Cimarelli
(Laboratorio Interdisciplinare per le Scienze Naturali e Umanistiche – Sissa)
a visione tridimensionale o, in altre parole, la percezione della distanza a partire da una proiezione bidimensionale della luce in ingresso è basata sulle leggi
della stereometria. Il supporto può essere la retina,
una pellicola fotografica o una CCD, non c’è differenza: la stessa scena fotografata contemporaneamente da due posizioni leggermente diverse, ad esempio meno di una decina di centimetri nel caso degli occhi, produce due immagini in cui gli oggetti
più vicini presentano una traslazione laterale relativa all’interno
del campo visivo maggiore rispetto agli oggetti piu lontani (vedi
Figura 1).
L
Figura 2 Alcuni esempi di videocamere dedicate al cinema 3D (quelle
con doppio obiettivo) o adattate per lo scopo in alcuni recenti film 3D.
In fase di riproduzione si vuole far giungere all’occhio destro dello spettatore il film girato dalla macchina destra e viceversa, in
modo che il cervello possa combinare naturalmente le due immagini e ricostruire la scena tridimensionale. Ci sono molti modi per ottenere questo effetto: mediante filtri colorati (anaglifia),
filtri polarizzati circolarmente o linearmente oppure filtri shutter
LCD, la cui trasparenza varia alternativamente in sincronia con le
immagini.
Anaglifia
Figura 1 Sovrapposizione di due fotogrammi scattati da due posizioni
differenti, in cui il borotalco è centrato e a fuoco.
Attraverso questo shift relativo è possibile ricavare con una certa
precisione la distanza dell’oggetto in questione: nel caso di macchine fotografiche, conoscendo solo la distanza tra gli obiettivi,
le loro inclinazioni relative e applicando semplici equazioni. Il
cervello umano riesce a risolvere naturalmente queste equazioni
a partire dal secondo, terzo anno di età. Nel cinema 3D vero, cioè
né d’animazione, né adattato in post-produzione, il film viene girato contemporaneamente da due videocamere ad alta risoluzione
e velocità, montate l’una accanto all’altra con una certa distanza
tra gli obiettivi. Macchine di questo tipo molto diffuse sono per
esempio la Red One e la Silicon Imaging SI-2K Digital Cinema
Camera (vedi Figura 2).
Si tratta del 3D tradizionale e più conosciuto, che ha però il grosso limite di non poter rendere scene colorate, in quanto i filtri
utilizzati lavorano proprio in frequenza su due soli colori (vedi
Figura 3). La luce infatti non è altro che un’oscillazione del campo elettromagnetico e per questo è detta onda elettromagnetica:
i campi elettrico e magnetico oscillano in direzioni perpendicolari, tra loro e rispetto alla direzione di propagazione dell’onda.
La frequenza di quest’ultima è semplicemente il numero di oscillazioni che compie nell’unità di tempo. L’unità di misura delle
oscillazioni è l’Hz, un’oscillazione al secondo. In questo ambito si usa molto il terahertz (THz), che corrisponde a 109 Hz e ad
una lunghezza d’onda di 3 × 105 nm (nanometri, 10−9 m). Le due
grandezze sono legate tra loro dalla semplice relazione λ = νc , con
λ lunghezza d’onda, c velocità della luce e ν frequenza. L’insieme
dei valori della frequenza della luce viene detto spettro e la finestra del visibile (ovvero le frequenze della luce a cui i nostri occhi
sono in media sensibili) va dai 400 ai 790 THz o, se si preferisce,
dai 750 ai 380 nm. Il cervello percepisce le diverse frequenze
sotto forma di colori, dal rosso (basse frequenze, grandi lunghezze d’onda) al violetto (alte frequenze, piccole lunghezze d’onda),
come evidenziato nella Figura 4.
accastampato num. 1, Giugno 2010
11
IL RESTO DEL NEUTRINO
Figura 4 Spettro della luce, in cui è evidenziato l’intervallo a cui l’occhio
umano è in media sensibile. Qui sono riportati i valori della lunghezza
d’onda in nm (nanometri, 10−9 m) invece delle frequenze.
Figura 3 Esempio di anaglifo stampato su carta.
zione di raggi luminosi i cui campi sono diretti casualmente l’uno
rispetto all’altro. Una luce si dice invece polarizzata se la direzione di oscillazione del campo elettrico è costante nel tempo (tra le
due situazioni ce ne sono infinite intermedie, dette di luce parzialmente polarizzata). Dato che campo magnetico ed elettrico sono
perpendicolari, qualsiasi direzione sul piano che individuano può
essere scomposta in due contributi lungo due assi perpendicolari
a scelta. Mediante speciali filtri è possibile selezionare una particolare direzione di polarizzazione e scartare l’altra: è il caso delle
ben note lenti Polaroid (vedi Figura 6).
-------------------------------------------
La stereoscopia permette di ricavare la
distanza di un oggetto da una coppia di
immagini prese da due posizioni diverse
------------------------------------------Le due immagini stereoscopiche prendono il nome di stereogrammi e vengono stampate sulla stessa foto, ma mediante due colori
complementari, tipicamente rosso e verde. I filtri sono costituiti
da una coppia di lenti colorate montate su di un paio di occhiali
(vedi Figura 5). Questi filtri sono costituti da sostanze che assorbono o riflettono tutto lo spettro tranne la piccola porzione relativa al proprio colore, che viene trasmessa e/o in parte riflessa.
Essendo verde e rosso complementari, quindi lontani in frequenza, un filtro rosso assorbe tutta la luce verde e viceversa. Cosı̀ ad
ogni occhio giunge solo la sequenza di immagini che gli spetta e
il cervello interpreta la differenza tra i due flussi come distanza
degli oggetti. Il sistema è estremamente economico, ma ormai
superato.
Luce polarizzata e la soluzione RealD
La resa dei colori è invece ottima mediante filtri che lavorano in
polarizzazione, nome con cui si indica la direzione di oscillazione del campo elettrico. Normalmente la luce a cui siamo abituati
non è polarizzata, nel senso che è composta da una sovrapposi12
Figura 5 Schema di funzionamento del tradizionale cinema 3D.
Nel caso del cinema 3D, quindi, i due filmati, uno per l’occhio
destro e l’altro per quello sinistro, vengono proiettati contemporaneamente sullo schermo da due proiettori sincronizzati: di fronte a ognuno di essi è posto un polarizzatore, lineare o circolare.
Nel primo caso i campi elettrico e magnetico oscillano in fase,
cioè raggiungono il loro valore massimo insieme, mentre nel secondo in controfase: quando uno è massimo, l’altro è minimo e
viceversa.
In questo modo agli occhi dello spettatore la luce dei due filmati
giunge con due polarizzazioni indipendenti e le lenti montate op-
accastampato num. 1, Giugno 2010
IL RESTO DEL NEUTRINO
(vedi Figura 8).
Sono quindi necessari schermi speciali, detti silverscreen perché
trattati con particelle d’argento che, essendo un metallo, riflette quasi tutta la luce, lasciandone cosı̀ intatta la polarizzazione.
Schermi costosi e che soprattutto non sono adatti alle classiche
proiezioni 2D, perché troppo luminosi: necessitano quindi di sale
dedicate alle sole proiezioni 3D.
Figura 6 Schema intuitivo del funzionamento di un filtro Polaroid.
portunamente sugli occhiali selezionano quella corretta per ogni
occhio. In altre parole, di fronte ad ogni proiettore c’è lo stesso filtro Polaroid montato davanti all’occhio a esso associato. La scelta
dei due tipi di polarizzazione, lineare o circolare, non è equivalente: nel primo caso i filtri del proiettore e dell’occhio associato
sono uguali, cioè lasciano passare esattamente le stesse immagini,
solo se la testa dello spettatore è perfettamente verticale e quindi
allineata con il filtro del proiettore. In questo caso piegare la testa
di lato significa per ogni occhio vedere parte del filmato destinato all’altro perché i due filtri inclinati tra loro mescolano le due
polarizzazioni, fino a che l’effetto 3D non svanisce completamente. Nel caso della polarizzazione circolare questo problema non
esiste, ma in compenso i filtri relativi sono più costosi e un po’
meno efficienti: è il caso comunque della tecnologia più diffusa
al momento, RealD (vedi Figura 7), che tra l’altro utilizza un solo
proiettore a doppia velocità (48 fps, frames al secondo, con fotogrammi destro e sinistro alternati) e un filtro Polaroid oscillante,
che polarizza in maniera opposta i fotogrammi alternati. Ciò diminuisce sicuramente i costi, ma riduce anche sensibilmente la
luminosità delle immagini, anche del 50%, a causa del lavoro dei
filtri.
-------------------------------------------
Figura 7 Occhiali polarizzatori del sistema RealD.
Luce colorata e la soluzione Dolby3D
La tecnologia concorrente alla RealD più accreditata al momento
è quella della Dolby, Dolby3D (vedi Figura 9), basata invece su un
avanzato sistema di filtri in frequenza e il cui proiettore produce
ben 144 fps, 72 per ogni occhio: ogni frame viene ripetuto tre
volte consecutivamente.
I filtri Polaroid permettono a ogni occhio
di vedere solo il filmato a esso dedicato
------------------------------------------Un elemento importante per i sistemi basati sulla polarizzazione
della luce è lo schermo, in quanto la luce proiettata, prima di giungere agli occhi degli spettatori, deve essere da esso riflessa. Una
superficie qualsiasi, però, come quella degli schermi classici, fa
perdere irrimediabilmente polarizzazione alla luce incidente: la
rugosità della superficie in un certo senso mescola le carte, in
quanto ogni microsuperficie piana riflette la luce polarizzandola
in parte lungo la direzione parallela a sé, che è diversa dalla direzione di polarizzazione incidente e soprattutto casualmente diretta
Figura 8 Una luce incidente all’angolo di Brewster (specifico per ogni
materiale e dipendente anche dalla frequenza) viene riflessa e assorbita
in proporzioni diverse a seconda della polarizzazione.
accastampato num. 1, Giugno 2010
13
IL RESTO DEL NEUTRINO
Figura 9 Occhiali con filtri dicroici del sistema Dolby3D.
Come nel caso RealD, il proiettore non è dedicato, purché assicuri velocità e risoluzioni richieste. Tra la lampada e l’ottica viene
posto un filtro cromatico rotante (un disco diviso in sei settori colorati) che per ogni frame filtra un colore diverso. Tre settori sono
rosso, verde e blu, gli altri hanno gli stessi colori, ma di una tonalità leggermente più chiara. Su uno schermo bianco normale arrivano in un 24-esimo di secondo le sei immagini, riflesse verso gli
spettatori. Le lenti degli occhiali sono filtri dicroici composti da
qualche decina o centinaia di strati atomici depositati sotto vuoto
su un substrato di vetro. Hanno una finestra di trasmissione in
frequenza molto stretta proprio attorno ai colori del filtro rotante,
controllata con molta precisione variando lo spessore degli strati
depositati. Il resto della luce viene riflesso e ciò, come nel caso
di RealD, causa una diminuzione notevole della luminosità. In
questo modo, comunque, a ogni occhio giungono solo i rispettivi
tre fotogrammi colorati, che il cervello combina in un’immagine
tridimensionale a colori reali (vedi Figura 10).
I vantaggi di questa soluzione rispetto alle concorrenti sono molti: occhiali passivi, quindi economici quasi quanto quelli della
RealD, costi contenuti, ma soprattutto la possibilità di adattare in
poco tempo qualsiasi sala cinematografica 2D, purché dotata di
un proiettore digitale moderno, in maniera non permanente grazie all’uso dello schermo standard e alla rimovibilità del filtro rotante colorato. Un punto a favore molto importante per la rapida
estensione di questa tecnologia.
Schermi LCD
Un’ulteriore tecnologia 3D, messa in campo per prima dalla nVidia per il settore videoludico, si basa su particolari occhiali attivi le cui lenti, dette shutters, possono oscurarsi alternativamente,
passando da uno stato di trasmissione totale della luce a uno di
riflessione in pochi centesimi di secondo. Le lenti sono costituite
da uno strato di cristalli liquidi che si orientano opportunamente
quando sono sottoposti a una differenza di potenziale, esattamente come i ben conosciuti schermi LCD (Liquid Crystal Display).
Nel caso in esame rendono semplicemente la lente trasparente o
opaca. Un proiettore a doppia velocità (48 fps) alterna i fotogram14
Figura 10 Schema di funzionamento del sistema Dolby3D. 1) Colori
primari nei proiettori del cinema 2D standard. 2) Nel Dolby3D ogni
colore primario è separato in due tonalità, una per l’occhio sinistro e
l’altra per il destro. 3) Dato che per ogni occhio sono usati tutti e tre i
colori primari, la resa cromatica finale è realistica.
mi destinati ai due occhi e gli occhiali sono a esso sincronizzati
mediante un sistema wireless, in modo da selezionare il giusto
fotogramma per ogni occhio (vedi Figura 11).
Le lenti sono basate sulle peculiari proprietà ottiche dei cristalli
liquidi, che rispondono a campi elettrici esterni orientandosi parallelamente a essi. Tale liquido è intrappolato fra due superfici
vetrose provviste di contatti elettrici, ognuno dei quali comanda
una piccola porzione del pannello identificabile come un pixel.
Sulle facce esterne dei pannelli vetrosi sono poi posti due filtri
polarizzatori disposti su assi perpendicolari tra loro. I cristalli
liquidi, quando sono orientati casualmente, sono in grado di ruotare di 90◦ la polarizzazione della luce che arriva da uno dei polarizzatori, permettendole di passare attraverso l’altro. Quando il
campo elettrico viene attivato, invece, le molecole del liquido si
allineano parallelamente a esso, limitando la rotazione della luce
in ingresso. A un allineamento completo dei cristalli, corrisponde
una luce polarizzata perpendicolarmente al secondo polarizzatore, che quindi la blocca del tutto (pixel opaco). Controllando la
torsione dei cristalli liquidi in ogni pixel, proporzionale al campo
elettrico applicato, si può dunque regolare quanta luce far passare.
Questa tecnologia, che non fa uso di filtri né in frequenza né in
accastampato num. 1, Giugno 2010
IL RESTO DEL NEUTRINO
Figura 11 Alcuni esempi di occhiali LCD Shutters.
polarizzazione, risolve alla radice alcuni problemi, come la non
perfetta resa cromatica del primo caso, ma riduce sensibilmente
la luminosità e ha il costo più alto in assoluto (ogni occhiale può
raggiungere i 100$). È però la più accreditata, come dimostra
l’offerta dedicata all’Home Enterteinment di nVidia, per il prossimo futuro dell’Home Cinema 3D, soprattutto alla luce dei moderni schermi LCD o al plasma con frequenze di aggiornamento
di 200 Hz o più.
A margine segnalo che la Creative offre una soluzione ulteriore e
radicale con il suo nuovo sistema MyVu, in cui all’interno degli
occhiali sono montati veri e propri schermi LCD opportunamente
messi a fuoco da lenti ottiche: semplicemente infilandosi gli occhiali, si può vedere il filmato scelto come in un sistema head-up
(schermo virtuale sovrapposto alla realtà esterna) con una risoluzione di 640x480 a 24 bit di profondità di colore e una frequenza
di aggiornamento di 60Hz, vale a dire una qualità equivalente al
dvd, ma non ancora all’alta definizione del blu-ray.
Per ora non si parla di funzionalità 3D, ma è evidente che un
semplice sistema di input a doppio canale video, uno per ogni
schermo, lo permetterebbe. Soluzione sicuramente interessante
per l’intrattenimento privato, a differenza evidentemente di quello
cinematografico.
Commenti
A mio avviso nelle tecnologie appena elencate c’è un problema
di fondo che non è legato alla particolare implementazione usata,
ma proprio alle caratteristiche intrinseche della fotografia e della
stereoscopia. Il sistema visivo umano è tale che la messa a fuoco
è automatica e segue il processo attentivo: il punto della scena
su cui poniamo attenzione è sempre messo a fuoco (nei soggetti
sani o portatori di occhiali correttivi, naturalmente), a meno che
non cerchiamo consapevolmente di vedere zone sfocate dell’immagine (il classico caso delle gocce su una finestra). Nella fotografia (sia da stampa che cinematografica), invece, l’estensione
della zona di messa a fuoco (profondità di campo) è limitata, soprattutto per scene miste con oggetti sia in primo piano che sullo
sfondo. Guardando una foto o un film bidimensionale noi vediamo le zone sfocate e non possiamo ovviamente metterle a fuoco
ulteriormente. Usiamo però quest’informazione per ricostruire
idealmente le distanze relative tra i vari oggetti, partendo dal presupposto che gli oggetti più lontani siano più sfocati rispetto al-
l’oggetto in primo piano, a fuoco. Nel caso del cinema 3D, però,
noi già vediamo una scena tridimensionale e l’informazione data
dalle zone fuori fuoco non serve. Porre quindi l’attenzione su queste zone dà fastidio, soprattutto se ci sono oggetti in movimento,
che evidenziano l’omonimo effetto (motion blur, in inglese).
Curiosamente questo permette al
regista, che decide dove mettere a fuoco la scena, di catturare molto di più l’attenzione dello
spettatore sui particolari che gli
interessa sottolineare, quasi costringendolo a guardare ciò che
vuole.
Bibliografia
(1) Anaglifia:
http://en.wikipedia.org/wiki/
Anaglyph_image
(2) Semplice tutorial per realizzare stereogrammi:
http://dicillo.blogspot.com/2007/07/
tutorial-stereografia-come-realizzare.html
(3) Silicon Imaging SI-2K Digital Camera:
www.siliconimaging.com/DigitalCinema/SI_2K_
key_features.html
(4) 3DStereo.it: www.3Dstereo.it
(5) Bob’s trip into Dolby3D Technology:
www.moviestripe.com/dolby3D/
(6) The Dolby solution to Digital 3D:
http://www.edcf.net/edcf_docs/dolby-3D.pdf
(7) Dolby3D: http://www.dolby.com/consumer/
technology/dolby-3D.html
(8) Filtri dicroici: http://en.wikipedia.org/wiki/
Dichroic_filter
(9) LCD: http://it.wikipedia.org/wiki/LCD
(10) Creative MyVu: www.tecnologiecreative.it/
schede/MyVu_Edge_301/index.html
Sull’autore
Alessio Cimarelli ([email protected])
si è laureato in Fisica nel settembre 2009 alla Sapienza di Roma, con una tesi sul comportamento collettivo degli stormi di uccelli in volo (progetto Starflag). È tra gli ispiratori e gli amministratori del portale accatagliato.org. Al momento frequenta il Master in Comunicazione Scientifica alla Sissa di Trieste, collaborando attivamente con il portale
accatagliato.org e la rivista accastampato.
accastampato num. 1, Giugno 2010
15
Il comportamento
collettivo animale
Una grande varietà di specie animali mostrano spesso comportamenti di gruppo simili
Alessio Cimarelli
(Gruppo S TARFLAG, CNR/INFM)
on il termine comportamento collettivo si intende
l’emergenza di proprietà di un gruppo irriducibili a
quelle dei singoli individui che lo compongono, caratteristiche per lo più dipendenti dalle mutue interazioni tra di essi. Condizione fondamentale per un comportamento
emergente è che ogni individuo interagisca con gli altri alla pari, con le stesse modalità, che non ci siano cioè elementi primari
(ad es. leader) che dettino il comportamento ad altri elementi
secondari, né elementi esterni che influiscano globalmente sul sistema, individuo per individuo indipendentemente. Le interazioni
hanno normalmente natura locale, vale a dire che ogni individuo
interagisce con un numero limitato di altri suoi simili, rimanendo
sostanzialmente all’oscuro del comportamento globale del gruppo a cui appartiene, molto più vasto della sua sfera di interazione.
Spesso l’interazione con un ambiente esterno dinamico è centrale, specialmente nei sistemi biologici. Il principale indizio della
presenza di un comportamento collettivo è l’apparire di patterns
macroscopici ordinati, di configurazioni particolari e persistenti
del sistema su scala maggiore dell’estensione dei singoli individui. Questa è una condizione necessaria, ma non sufficiente, in
quanto ci sono casi in cui è sufficiente il teorema del Limite Centrale (box a pag. 20) dei processi aleatori per spiegare fenomeni
ordinati e apparentemente coordinati (2).
C
I principi base dell’auto-organizzazione, condizione primaria del
comportamento collettivo emergente, possono essere individuati
in feedback positivi e negativi, in meccanismi di amplificazione
di fluttuazioni casuali, di inibizione, catalizzazione, risposta a soglia, ridondanza e sincronizzazione (2). Tutta la ricerca che in
questi decenni è andata sotto il nome di complessità ha insegnato
che meccanismi di questo genere possono prodursi a partire da
elementi legati tra loro da semplici regole, per lo più di natura
non lineare. Ha insegnato come normalmente ci sia un parametro critico, interno o esterno al sistema, il cui valore permette la
presenza o meno di uno stato ordinato, l’emersione quindi di un
comportamento collettivo: la teoria delle transizioni di fase e dei
fenomeni critici è una delle maggiori conquiste della Fisica moderna e sta dimostrando di essere applicabile con successo a tutti
i fenomeni che mostrino auto-organizzazione.
Nel caso di sistemi biologici, però, non si può prescindere dall’evoluzione e dalla selezione naturale dovute all’interazione continua e profonda con l’ambiente, per cui devono essere considerati anche meccanismi di massimizzazione della sopravvivenza e
minimizzazione dei rischi, sia per gli individui, sia per l’intero
gruppo. In un’ottica evolutiva l’aggregazione nel mondo biolo16
gico porta all’emersione di nuove funzioni che il gruppo riesce
a espletare molto meglio del singolo individuo o che sono addirittura fuori dalla portata di quest’ultimo. Esempi sono l’abilità
di costruire un formicaio, di regolare termicamente un alveare,
di procacciarsi il cibo, di difendersi dai predatori, di aumentare
l’efficacia delle scelte in un processo decisionale complesso (2).
Figura 1 A sinistra, Lunepithema humile; a destra, code di turisti.
Tutto ciò può far pensare che la selezione naturale abbia individuato nel comportamento collettivo un efficace mezzo per sopravvivere meglio all’ambiente, ma spesso questa connessione non è
affatto immediata. Ad esempio l’aggregarsi in certi casi aiuta a
difendersi dai predatori, ma in altri li attira: si pensi ai banchi di
pesci, un incubo per gli squali, ma una benedizione per i pescatori.
Inoltre i singoli animali sono molto più complessi di qualsiasi molecola e nel comportamento collettivo le dinamiche sociali devono
sempre confrontarsi con quelle individuali: ad esempio la ricerca di cibo all’interno di una mandria è più efficiente, ma in caso
di risorse scarse richiede la suddivisione tra tutti i suoi membri.
Questo che potremmo definire dilemma dell’individualità si può
tradurre nella domanda: su che scala agisce la selezione? Quali
variabili determinano il punto oltre il quale il comportamento collettivo si esplica in configurazioni realmente adattative e con quali
modalità? Queste domande appaiono ancora più importanti alla
luce degli studi che hanno mostrato come l’auto-organizzazione
sia un ingrediente centrale anche a livello genetico e di sviluppo
dell’embrione.
Nel seguito, senza alcuna pretesa di essere esaustivo o esauriente,
presenterò e descriverò una parte degli studi sulla grande varietà
di fenomeni biologici che a buon titolo rientrano nella categoria
comportamento collettivo, sia dal punto di vista biologico e spe-
accastampato num. 1, Giugno 2010
IL RESTO DEL NEUTRINO
Figura 2 A sinistra, alveare di api; a destra, traffico a Los Angeles.
rimentale, che da quello matematico e computazionale. Il tutto
corredato da suggestive immagini che appartengono alla nostra
esperienza quotidiana, ma che celano fenomeni naturali ancora
non del tutto compresi.
Colonie di formiche
Una delle prime evidenze della presenza di meccanismi di autoorganizzazione nel mondo biologico si è avuta studiando le formiche (famiglia delle Formicidae, a cui appartengono più di 12000
specie, componenti il 10% dell’intera biomassa animale e il 50%
di quella degli insetti) e il loro sistema di comunicazione e coordinamento basato su tracce chimiche di feromone. In molte specie
le formiche operaie (foragers) rilasciano durante il loro cammino
una sostanza volatile rilevabile dalle altre, con cui riescono a tracciare una pista invisibile dal formicaio alle risorse di cibo. Essendo volatile, la persistenza della pista dipende dalla frequenza del
suo utilizzo da parte delle formiche, che la rafforzano seguendola. Questo è un tipico esempio di feedback positivo, unitamente
a un meccanismo di inibizione (la volatilità del feromone). La
possibilità che si instauri un procacciamento stabile di cibo basato sulle tracce di feromone dipende fortemente dal numero di
operaie impegnate in questo compito, o in altre parole dalla dimensione del formicaio: vari esperimenti hanno dimostrato che il
passaggio da una ricerca individuale e casuale a una basata sulle tracce chimiche ha le stesse caratteristiche delle transizioni di
fase del primo ordine, confermate anche da simulazioni apposite
(vedi box a pagina 29).
Storicamente lo studio delle società di insetti è considerato alla
base del paradigma dell’auto-organizzazione, perché inizialmente le incredibili capacità del formicaio o dell’alveare nel risolvere problemi molto al di là delle capacità della singola formica
o ape apparivano incomprensibili senza appellarsi a improbabili
capacità percettive e comunicative della regina. Poi, attraverso
osservazioni, modelli e soprattutto un cambio di paradigma interpretativo, è stata individuata tutta una serie di abilità e comportamenti con alla base meccanismi auto-organizzativi. Ad esempio
la presenza di fenomeni di biforcazione e di rottura spontanea di
una simmetria: in un classico esperimento si costruiscono due vie
identiche ma alternative tra il formicaio e una risorsa di cibo e si
scopre che, superato un certo numero di operaie, l’utilizzo prima
simmetrico di esse viene a mancare in favore di un solo cammino
(cfr. Figura 3). In questo caso le leggere differenze iniziali nel
numero di formiche che si dirigono da una parte o dall’altra divengono determinanti per la scelta finale del percorso. Da notare
che se le due vie sono diverse, per esempio una più lunga dell’altra, la deposizione del feromone fa sı̀ che sia più concentrato
lungo la via più breve e che quindi a regime sia sempre questa la
più usata dalle operaie.
È interessante anche un altro esperimento che dimostra come sia
importante nei sistemi biologici un buon bilanciamento tra comportamento sociale e individuale, quest’ultimo modellizzabile in
qualche caso come rumore statistico. Tale concetto è chiarito da
un semplice esempio. Introducendo una risorsa di cibo nei pressi
di un formicaio, dopo qualche tempo una formica scout la individuerà e, nel caso ci siano abbastanza operaie, si formerà una traccia persistente e un flusso stabile di cibo. Introducendo ora una
nuova risorsa più energetica, la possibilità che il formicaio la scopra e la sfrutti dipende dall’accuratezza delle formiche nel seguire
la vecchia traccia. Se fossero tutte infallibili, infatti, non abbandonerebbero mai un percorso già fissato. Solo se le caratteristiche
comportamentali individuali sono abbastanza forti le operaie sono invece in grado di stabilire una nuova traccia verso la nuova
risorsa, abbandonando la vecchia (3).
Da quando il meccanismo delle tracce chimiche è stato scoperto,
si è dimostrato che è alla base di numerose abilità delle formiche:
raccolta di cibo, ottimizzazione dei percorsi anche sulla scala dei
chilometri (4), strategie di combattimento, costruzione di formi-
Figura 3 Esempi di configurazioni auto-organizzate nelle colonie di formiche (3). A sinistra, selezione spontanea di un percorso verso il cibo
attraverso un ponte a diamante da parte di Lasius niger; a destra, gocce di Lunepithema humile cadono non appena raggiungono una taglia
critica.
accastampato num. 1, Giugno 2010
17
IL RESTO DEL NEUTRINO
Figura 4 A sinistra, stormo di pipistrelli; a destra, sciame di locuste.
cai sotterranei. Appare ora chiaro del perché quello degli insetti
sia un esempio paradigmatico: a fronte di interazioni non lineari
locali dirette (contatto e sfregamento) e indirette (deposito di feromone), grazie a meccanismi di feedback positivo (rafforzamento
della traccia) e negativo (volatilità del feromone), si produce un
qualche tipo di transizione di fase dipendente dalle dimensioni
del formicaio, da cui emergono abilità collettive che amplificano
enormemente le capacità dei singoli insetti.
scale differenti. La fase ordinata è individuata dal grado di allineamento dei pesci e anche in questo caso sono stati forniti indizi della presenza di una transizione dal disordine all’ordine al
variare della densità.
I primi tentativi di analisi quantitativa risalgono a metà degli anni
’70, con un lavoro di Graves in cui si presenta un setting sperimentale originale per fotografare banchi di pesci nel loro ambiente naturale e stimarne densità e distanza media di primo vicino.
Dal 1983 si inizia a utilizzare la tecnica stereoscopica per ricostruire le posizioni individuali dei pesci all’interno del banco, ottenendone una stima della densità, delle distanze reciproche, della
distanza media di primo vicino, della forma e delle proporzioni.
Vengono utilizzate tecniche di videofotografia stereo e un algoritmo di tracking per ricostruire le velocità dei pesci e individuare
cosı̀ l’emergenza di una fase con forte allineamento a partire dalle interazioni di primo vicino in tre dimensioni, ma limitandosi a
soli 8 pesci.
Sciami di locuste
Le locuste sono insetti molto particolari il cui comportamento collettivo è purtroppo tristemente famoso: per lunghi periodi della
propria vita sono insetti solitari, che tendono a mantenere territori separati l’uno dall’altro, ma in vari momenti attraversano fasi
di aggregazione, formando sciami di miliardi di individui capaci
di devastare completamente qualsiasi terreno attraversino, inclusi naturalmente quelli coltivati dall’uomo (5). Per avere un’idea
dell’imponenza di questi sciami, le loro dimensioni possono raggiungere i 1000km2 con una densità media di ben 50 milioni di
locuste per km2 , viaggianti a 10–15 km/h per migliaia di km: tenendo conto che ogni insetto mangia l’equivalente del proprio peso al giorno, si sta parlando di un consumo dello sciame pari a 200
milioni di kg al giorno! Le dinamiche interne di questi sciami
sembrano simili a quelle dei fluidi e sono trattabili matematicamente in modo analogo, cioè mediante modelli continui, grazie
alle loro dimensioni e densità. Il principale problema è capire come possa mantenersi la coesione dello sciame su dimensioni cosı̀
grandi rispetto a quelle del singolo insetto e i meccanismi che
sono alla base della transizione alla fase di aggregazione.
Banchi di pesci
Tra le innumerevoli specie di pesci molte presentano comportamenti di aggregazione, che originano da interazioni diverse da
quelle viste per le formiche.
Non si tratta ora di utilizzare l’ambiente come deposito del proprio segnale perché l’interazione è diretta, riassumibile nella terna di regole repulsione-allineamento-attrazione, ognuna agente a
18
Figura 5 Qualche esempio suggestivo di banchi di pesci nella loro fase
di aggregazione.
Sono poi videoregistrati gruppi di Nile Pilatias (Oreochromis niloticus L.) di un centinaio di elementi, costretti però a muoversi in
due dimensioni all’interno di una vasca opportunamente progettata. Su tempi di decine di secondi Becco et al. hanno tracciato le
traiettorie dei singoli pesci e sono stati in grado di portare a termine analisi sulla struttura e sulla dinamica del banco in funzione
della sua densità: distribuzione delle distanze di primo vicino e
grado di allineamento hanno mostrato indizi di una transizione di
fase disordine-ordine a una densità critica di circa 500 pesci/m2 .
Purtroppo fino a ora conclusioni sperimentali quantitative sono
praticamente assenti, a causa di grandi problemi metodologici
non ancora del tutto risolti: estrema ristrettezza della base statistica dovuta allo studio di non più di un centinaio di pesci, forti
bias introdotti dalle dimensioni e forme delle vasche, limitazioni dovute alle tecniche di tracciamento dei pesci e da una non
sempre corretta gestione degli effetti di taglia finita.
Da un punto di vista etologico e biologico molto lavoro è stato fatto per comprendere la funzione adattativa delle varie caratteristiche della fase ordinata, tra cui la forma del banco, i profili interni
accastampato num. 1, Giugno 2010
IL RESTO DEL NEUTRINO
Figura 6 A sinistra, mandria di bufali; a destra, formiche Matabele.
di densità, le posizioni dei pesci collegate alla loro grandezza o al
grado di familiarità, ecc. Le due funzioni primarie sono senz’altro la protezione dai predatori e la ricerca di cibo, mentre i meccanismi di base individuati vanno nel primo caso dalla diluizione
del rischio all’effetto di confusione, dalla capacità di individuare prima il predatore al coordinamento di manovre di evasione,
mentre nel secondo caso consistono in una maggiore velocità di
trasferimento dell’informazione sulla distribuzione delle risorse
di cibo (per un’ampia lista di referenze, cfr. (1)).
I banchi di pesci sono anche alla base di moltissimi modelli, poi
efficacemente adattati anche ad altre specie animali come gli uccelli: le interazioni dirette a corto raggio descritte prima sono facilmente implementabili in algoritmi bottom-up che hanno dimostrato di poter riprodurre non solo la transizione alla fase ordinata,
ma anche parte delle caratteristiche di quest’ultima riscontrate in
vari esperimenti.
-------------------------------------------
È possibile ricavare il comportamento
collettivo simulando semplici modelli al
computer
------------------------------------------Stormi di uccelli
Nel caso degli uccelli, l’approccio sperimentale è ancora più problematico rispetto al caso dei pesci, dato che non è possibile ricorrere a una situazione controllata in laboratorio ed è obbligatorio considerare tutte e tre le dimensioni spaziali (6). A parte
lavori pionieristici degli anni ’60, nel ’78 vi è la prima ricostruzione delle posizioni degli uccelli, limitata a 70 individui in volo dalle campagne ai dormitori, seguita da quella delle traiettorie
complete di poco più di 16 individui.
È evidente come qualsiasi analisi su una base di dati cosı̀ ristretta
non possa che portare a risultati solo qualitativi, con il rischio di
introdurre bias non controllabili (si pensi al problema del bordo:
in tre dimensioni trattare piccoli gruppi significa considerare per
lo più individui sul bordo e quindi ottenere risultati pesantemente
affetti da problemi di taglia finita). Il problema primario di questa
mancanza di dati sperimentali nello studio degli uccelli sta prevalentemente nelle tecniche di ricostruzione delle posizioni che non
possono essere chiaramente invasive e devono essere implementate sul campo. Per questi motivi sono tecniche per lo più di tipo
ottico (stereoscopia, metodo ortogonale) che prevedono l’utilizzo di immagini sincrone del gruppo e che richiedono di risolvere
esplicitamente il problema del matching, cioè il riconoscimento
dello stesso individuo in ogni immagine (6). Queste difficoltà
hanno reso per decenni impossibile una comparazione adeguata
tra modelli teorici, numerici e dati sperimentali, perché il comportamento collettivo emerge all’aumentare del numero di individui e limitarsi a piccoli gruppi spesso non permette di studiarne
efficacemente le caratteristiche globali.
Figura 7 Esempi degli stormi più suggestivi visibili a Roma nel periodo
invernale (foto dell’autore e della squadra STARFLAG).
Dinamiche di folla
A volte si dice che l’intelligenza di una folla di persone è inversamente proporzionale al numero di cervelli che la compongono.
Questa massima deriva dall’osservazione che spesso le dinamiche interne di una folla appaiono irrazionali se viste dall’esterno,
tanto da produrre veri e propri disastri nelle situazioni di pericolo,
vero o presunto, che scatenano il panico. Si pensi a incendi in edifici chiusi, ma anche a concerti di star famose o all’apertura della
stagione dei saldi in alcuni grandi magazzini. Questi fenomeni
sono in aumento con il crescere delle dimensioni di eventi che attirano grandi masse, ma è solo da poco più di un decennio che si
stanno studiando e sviluppando teorie quantitative e modelli delle
dinamiche di folla (7).
Simulazioni di questo tipo hanno permesso di migliorare la comprensione di questi fenomeni e individuare tutti quegli elementi,
architettonici e psicologici, che contribuiscono a rallentare o a
rendere più pericolosa la fuga in situazioni di panico: ad esempio uscite strette o allargamenti prima delle uscite ostacolano il
deflusso, che invece è facilitato dalla presenza di colonne poste
asimmetricamente di fronte alla uscite che spezzano gli ingorghi.
Inoltre sono risultati utili nello studio anche di altre formazioni,
come il traffico automobilistico o le ola negli stadi.
accastampato num. 1, Giugno 2010
19
IL RESTO DEL NEUTRINO
chiaramente dallo studio dei modelli, sia analitici che numerici, che mostrerò nel dettaglio in un prossimo articolo dedicato
al comportamento collettivo animale.
Bibliografia
(1) Cimarelli A., Funzioni di struttura e correlazioni di velocità in stormi di uccelli in volo: un’analisi empirica nell’ambito del progetto Starflag, Tesi magistrale
(Settembre 2009)
(2) Sumpter D.J.T., The principles of collective animal behaviour, in Phil. Trans.
R. Soc. B, vol. 361:5–22 (2006)
Figura 8 A sinistra, folla a Longchamp, Parigi; a destra, sciame di batteri
M. Xanthus.
(3) Detrain C. e Deneubourg J.L., Self-organized structures in a superorganism:
do ants behave like molecules?, in Physics of Life Rev., vol. 3:162–187 (2006)
(4) Hölldobler B. e Wilson E.O., The ants, Harvard University Press (1990)
(5) FAO Locust watch: www.fao.org/ag/locusts/en/info/info/
(6) Giardina I., Collective behavior in
Conclusioni
animal groups: theoretical models and
empirical studies, in HFSP J., vol.
Da questa breve panoramica delle specie animali che mostrano
peculiari comportamenti collettivi emerge una delle caratteristiche fondamentali e più interessanti di questi sistemi: dinamiche macroscopiche simili a fronte di elementi microscopici estremamente diversi tra loro. Si tratta di un qualche tipo di universalità del comportamento collettivo, che apparirà ancora più
2(4):205–219 (2008)
(7) Helbing D., Farkas I. e Vicsek T.,
Simulating dynamical features of escape panic, in Nature, vol. 407:487–490
(2000)
Il Teorema del Limite Centrale
di Ulisse Ferrari
Curiosando tra risultati statistici d’ogni sorta, come la distribuzione delle altezze in un paese o quella dei risultati degli
esami di maturità di un particolare anno, non si può non notare la presenza ricorrente di una particolare curva, detta Gaussiana, dalla forma a campana, con un picco al centro e code
laterali sottili.
Quella che può apparire come una semplice curiosità è invece la realizzazione di un importante teorema della teoria della
probabilità, il ramo della matematica che studia e descrive il
comportamento delle variabili casuali (dette aleatorie), ossia
delle quantità che possono assumere diversi valori, ciascuno con una certa probabilità. Il Teorema del Limite Centrale (nella versione generalizzata dal fisico-matematico russo
Funzione di densità della variabile casuale normale (o di Gauss).
Aleksandr Lyapunov), sotto alcune ipotesi, asserisce che: µ indica il valor medio (posizione del picco), σ2 la varianza
la somma di n variabili casuali indipendenti ha una distribu(legata alla larghezza della campana). Da wikipedia.org
zione di probabilità che tende a una curva Gaussiana al crescere di n all’infinito. In altre parole, un fenomeno aleatorio,
risultato della cooperazione di molti piccoli fattori casuali indipendenti, avrà una distribuzione di probabilità Gaussiana.
Il voto che uno studente prenderà alla maturità, per esempio, dipenderà da molti fattori, quali la sua preparazione, le
abilità acquisite, la capacità di concentrazione, ecc. . . Nonostante la distribuzione di probabilità di questi fattori non sia
necessariamente Gaussiana, il voto, che è la somma di questi fattori, si distribuirà secondo tale curva.
20
accastampato num. 1, Giugno 2010
La riforma dell’Università
italiana
Dove siamo e dove stiamo andando. . .
Lara Benfatto
(Dipartimento di Fisica della Sapienza di Roma)
a circa 6 mesi è stata presentata una bozza del Disegno di Legge Gelmini riguardante la riforma dell’Università (1). Ora tale DDL è in discussione al
Senato a meno di un anno dall’imponente mobilitazione di tutto il settore dell’Istruzione seguito al decreto legge
133 dell’agosto 2009, con il quale si pianificavano pesantissimi
tagli a scuola ed università, in termini sia di finanziamento che
di reclutamento, riguardanti il periodo 2009–2013. Il successivo
decreto legge 180 del dicembre 2009 ha parzialmente corretto il
tiro sul fronte del blocco delle assunzioni e dei tagli all’università, lasciando tuttavia in essere un taglio di 946 milioni di euro
in 5 anni, pari al 2, 7% del Fondo di Finanziamento Ordinario
(FFO) del comparto università (2). A prima vista tale riduzione
può sembrare non particolarmente significativa: tuttavia, occorre
ricordare che le università utilizzano già circa il 90% del FFO per
pagare gli stipendi. Ma per fare didattica e ricerca servono anche
(ingenti) fondi per la gestione di strutture didattiche e laboratori,
per le collaborazioni scientifiche, partecipazione a convegni, personale a tempo determinato, ecc. Quindi un taglio del 2, 7% del
FFO azzera in pratica ogni possibile margine operativo in ricerca e sviluppo del nostro sistema universitario, che non può essere
compensato da alcun progetto di riorganizzazione amministrativa
del medesimo.
D
Figura 1 Uno striscione degli studenti del Dipartimento di Fisica durante
una manifestazione contro il DDL Gelmini e il Decreto Legge 133 dello
scorso autunno.
22
Prima di entrare nel merito del DDL Gelmini vale la pena di fare uno sforzo analitico di lettura dei contenuti reali e di quelli
virtuali del DDL. È infatti interessante notare come gran parte
degli editoriali apparsi negli ultimi mesi su autorevoli quotidiani
nazionali si siano focalizzati sui punti più vaghi della prospettata
riforma, quelli cioè la cui definizione viene affidata a decreti leggi
successivi all’approvazione del DDL, e quindi dai contenuti assolutamente incerti e al momento imprevedibili. Tentiamo quindi di
riassumere a grandi linee i contenuti del DDL, distinguendo tra i
provvedimenti di immediata attuazione e quelli da definirsi.
-------------------------------------------
. . . un taglio del 2, 7% del Fondo di
Finanziamento Ordinario azzera in
pratica ogni possibile margine operativo
in ricerca e sviluppo del nostro sistema
universitario. . .
------------------------------------------Provvedimenti immediati
• Riorganizzazione della struttura amministrativa (Art.
2). Questa si articola in vari punti: in particolare, si prevede
che al senato accademico venga affiancato un consiglio di
amministrazione in cui il 40% dei membri sono esterni all’ateneo e con competenze gestionali-amministrative. Tale
CdA ha anche potere decisionale che spazia dalla definizione delle “funzioni di indirizzo strategico” alla soppressione/istituzione di corsi di studio e sedi. Si prevede inoltre
l’accorpamento dei dipartimenti (aventi un numero minimo
di docenti di 35 o 45) in massimo 12 facoltà o ’scuole’. Si
parla poi di un codice etico che le università sono tenute ad
adottare entro centottanta giorni dall’entrata in vigore della
legge, ma non si dà indicazione alcuna rispetto ai contenuti
in questione.
• Fondo per il merito degli studenti (Art. 4). Si tratta di
borse di studio e prestiti di onore, da attribuirsi con criteri
unicamente meritocratici (non di reddito) e previa selezione
nazionale. Si occupa della gestione del tutto una società, la
Consap S.p.A., che andrà pagata con i soldi stessi destinati
al fondo. Il fondo è istituito presso il Ministero dell’Economia, a cui il Ministero dell’Istruzione fa comunque riferimento per coordinarne la gestione. Il fondo viene finanziato
con “trasferimenti pubblici e con versamenti effettuati a ti-
accastampato num. 1, Giugno 2010
ONDA LUNGA
tolo spontaneo e solidale effettuati da privati, società, enti
e fondazioni, anche vincolati, nel rispetto delle finalità del
fondo, a specifici usi”.
• Riordino del reclutamento (Art. 7-10). I punti salienti
sono:
Art. 8 Si istituisce l’abilitazione nazionale per associato e
ordinario, basata sui soli titoli. La valutazione viene fatta da una commissione di durata biennale, con
4 membri sorteggiati da una lista di ordinari (a cui si
aggiungono anche gli associati solo se gli ordinari di
quel settore sono meno di 50) che fanno richiesta di
esserci e il cui curriculum è pubblico, più un membro
straniero. Le selezioni hanno cadenza annuale, ma nel
caso in cui il candidato non ne superi una deve aspettare 2 anni per riprovarci, e 3 per riprovare il livello
successivo. Da notare che una volta ottenuta l’abilitazione bisogna comunque sostenere il concorso presso
le singole sedi universitarie qualora queste bandiscano
dei posti. Le università possono anche indire procedure riservate per personale già in servizio nell’ateneo,
ma destinandovi non più del 30% dei posti disponibili
nei primi 5 anni successivi all’attuazione della riforma. Dopo questo periodo si richiede che siano obbligatoriamente esterni 1/5 dei posti da ordinari e 1/3 di
quelli da associati.
Art. 10 Gli assegni di ricerca hanno durata da 1 a 3 anni, rinnovabili, ma non devono superare complessivamente
i 10 anni. Oltre ai bandi locali di ateneo (che possono
basarsi su fondi di ateneo o fondi esterni su progetti
specifici) vengono istituiti anche dei bandi per selezioni nazionali, nelle quali il ricercatore presenta un
progetto che, in caso di vittoria, verrà svolto presso
una sede universitaria scelta dal candidato.
Art. 11 Per i contratti di insegnamento ci sono due casi: contratti a titolo gratuito o oneroso da dare a studiosi
esterni per potersi avvalere delle loro prestazioni. Poi
i veri contratti di docenza da attribuirsi previo espletamento di procedure disciplinate con propri regolamenti, che assicurino la valutazione comparativa dei
candidati e la pubblicità degli atti. Lo stipendio viene
deciso a livello ministeriale, ma non si sa in che modo.
Art. 12 Scompare la figura del ricercatore a tempo indeterminato, per divenire a tempo determinato. Lo stipendio incrementa del 20% rispetto ai livelli attuali (arrivando a circa 2200 euro mensili), ma diventano obbligatorie 350 ore di didattica annuali. Vengono assunti previa selezione nazionale simile a quella
prevista per gli assegni (cioè si presenta un progetto
e si richiede una sede in cui svolgerlo). Una quota
del FFO deve essere devoluta solo a queste posizioni,
che durano 3 anni e possono essere rinnovate per altri
3. Se nel secondo triennio il titolare prende l’abilitazione ad associato può essere chiamato direttamente
dall’ateneo.
-------------------------------------------
Quello che colpisce è tuttavia una sorta
di scollamento tra la realtà italiana quale
essa è e gli obiettivi della riforma. . .
------------------------------------------Provvedimenti differiti
• Miglioramento dell’efficienza del sistema universitario
(Art. 5). Il Governo si impegna a promulgare entro 12 mesi dall’entrata in vigore della presente legge dei decreti che
vertano sui seguenti punti:
– introdurre dei sistemi di valutazione periodica della ricerca svolta dai docenti, basati sui criteri
dell’ANVUR (6);
– introdurre degli strumenti di controllo della situazione
patrimoniale delle università;
– disciplinare l’attività dei docenti, per esempio stabilendo un impegno dovuto di 1500 ore annue di cui 350
di docenza. Vanno individuati i casi di incompatibilità
tra la posizione di professore e ricercatore universitario e l’esercizio di altre attività o incarichi. Gli scatti
diventano triennali (ma complessivamente della stessa entità) e previa valutazione dell’attività didattica e
di ricerca del docente. Una quota del FFO destinata a
una certa università verrà assegnata in base a criteri di
valutazione scientifica dei docenti stessi;
– riformare il diritto allo studio: si parla di una generica
definizione di requisiti minimi per garantire il diritto
allo studio, ma non vi è alcuna proposta concreta.
Nella sua impostazione generale il DDL prevede un mutamento
decisamente radicale dell’università italiana. Quello che colpisce è tuttavia una sorta di scollamento tra la realtà italiana quale
essa è e gli obiettivi della riforma. Ad esempio, la presenza in
un CdA dotato di forti poteri decisionali di personalità esterne al
mondo accademico è prassi comune nel sistema americano, nel
quale però la sinergia tra mondo accademico e privati è di gran
lunga più avanzato che da noi, giustificando la presenza di un forte interscambio tra le due realtà. Meno chiaro è come in Italia
tale sinergia possa essere imposta per legge: il rischio è che nel
tentativo di destrutturare l’attuale sistema di potere delle baronie
universitarie (che finora non è stato in grado di sanare da solo un
accastampato num. 1, Giugno 2010
23
ONDA LUNGA
Figura 2 Ministri dell’Università e della Pubblica Istruzione dell’ultimo
decennio. Dall’alto a sinistra: Luigi Berlinguer, Tullio De Mauro, Letizia
Moratti, Giuseppe Fioroni, Fabio Mussi, Mariastella Gelmini
sistema malato) ci si affidi a cure esterne sulle cui competenze ci
sono ancora più dubbi e incertezze.
Anche l’idea stessa di creare una vera competizione tra le varie
università, allo scopo di attrarre gli studenti migliori, fallisce miseramente a fronte di un’obiettiva immobilità sociale del sistema
italiano: se uno studente non può permettersi di andare all’università migliore perché è lontana da casa, la competizione non esiste.
In questa prospettiva gli stanziamenti (pubblici, perché quelli privati si concentrerebbero solo su alcuni settori) per il Fondo per il
merito dovrebbero essere veramente ingenti, ma non vi è traccia
nella legge di alcun impegno in tal senso.
Riguardo ai criteri di riordino del reclutamento si apprezzano segnali positivi: la regolarità delle procedure di valutazione, l’idea
di bandire assegni di ricerca nazionali in cui il ricercatore ha l’autonomia di proporre il suo progetto, l’obbligatorietà (almeno sul
medio periodo) di reclutare personale esterno all’ateneo, un tentativo di regolamentazione dei contratti di insegnamento, di cui
al momento si abusa largamente. Tuttavia mentre è chiaro che
a regime queste norme possono produrre effetti positivi, non si
prevede un periodo di transizione intermedio che tenga conto dell’attuale realtà italiana. Prendiamo il caso della norma che fa diventare quella del ricercatore una posizione a tempo determinato:
un analogo della tenure track che è largamente diffusa all’estero,
in cui il ruolo di docenza viene preceduto da un periodo di prova in cui il ricercatore mostra le sue capacità. In principio una
buona norma, che all’estero viene usata per avere modo di valutare un ricercatore prima dell’assunzione a tempo indeterminato.
Nel nostro caso, tuttavia, passati i 6 anni di tenure, l’assunzione del ricercatore non è vincolata solo alle sue capacità: anche
se il ricercatore acquisisce l’abilitazione nazionale a professore
24
associato la sua immissione in ruolo è automatica solo presso la
sede in cui lavora, quindi è vincolata sia alla situazione finanziaria della stessa sia al gradimento del ricercatore stesso da parte
delle baronie locali. Questo è un baco in generale del perverso
meccanismo di abilitazione nazionale e concorso locale: è inutile fare una programmazione sulle procedure valutative nazionali
(fatto comunque positivo) se poi i posti veri vengono comunque
banditi localmente, e come tali assoggettati ai noti meccanismi di
baronia locale e ai problemi di deficit finanziario delle varie sedi.
Un secondo aspetto che la riforma ignora è che a oggi si diventa
ricercatore universitario in media a 36 anni (3): non è quindi auspicabile che la nuova figura del ricercatore a tempo determinato
interessi questa categoria di scienziati, che hanno alle spalle già
10 anni di precariato nella ricerca. Queste figure andrebbero quindi gradualmente inserite in ruoli di docenza (ovviamente, previa
selezione dei soli meritevoli), il che è reso impossibile dai blocchi
attualmente in essere e da un sistema che vede accedere ai ruoli di
associato ricercatori in media di 44 anni, quindi con ulteriori 10
anni di esperienza. Questo significa anche che in un’abilitazione
nazionale gli standard fissati per accedere ai ruoli di associato riguarderanno scienziati con circa 20 anni di esperienza, rendendo
impossibile anche per i migliori giovani ricercatori del nostro paese aspirare direttamente alla docenza universitaria di ruolo. Non
si vede quindi, a dispetto delle numerose esternazioni in tal senso
da parte di molti commentatori ignari della reale situazione universitaria, come queste norme possano risolvere l’enorme problema del precariato universitario. A voler fare una stima al ribasso
dell’entità del problema, si consideri che lo stesso Ministero dell’Istruzione ci informa che al momento ci sono 18.000 persone
tra assegnisti e borsisti impegnati in attività di ricerca nell’università italiana (4): un numero enorme, se si pensa che nei prossimi
anni (2009-2012) vi sarà al massimo un turn-over di 10.000 unità
(5), che però stante le norme sul blocco del turn-over e sui tagli
al FFO, produrranno nella migliore delle ipotesi 5000 nuovi posti. A questi ricercatori, spesso impegnati in programmi di ricerca
di altissima qualità, si propone quindi di prolungare la precarietà
con altri 6 anni di posto da ricercatore a tempo determinato. Inoltre, si rende obbligatorio per il ricercatore a tempo determinato
un carico didattico pari a quello del docente di ruolo. Tale novità
ha connotati estremamente negativi: attualmente i ricercatori non
sono tenuti a fare attività didattica (anche se spesso si trovano a
farla su base più o meno volontaria).
-------------------------------------------
Questo sistema delega l’insegnamento a
figure precarie, a discapito della qualità
------------------------------------------L’idea è che un giovane debba fare principalmente ricerca, acquisire i titoli per diventare professore universitario, e dedicarsi
a quel punto alla didattica con tutto l’impegno che questa richiede. Questo sistema invece delega ufficialmente l’insegnamento a
accastampato num. 1, Giugno 2010
ONDA LUNGA
figure precarie, a discapito della qualità stessa dell’insegnamento.
Infine si arriva alla parte più interessante della riforma, ossia l’adozione di procedure di valutazione del personale docente, da parte di un agenzia, l’ANVUR (6), la cui utilità viene curiosamente
riconosciuta dopo un anno e mezzo di stasi completa delle procedure per la sua messa in funzione. Vorrei osservare che in questo stesso periodo la parte sana dell’università italiana ha sempre
chiesto a gran voce una riforma del sistema in senso meritocratico, perché è questa l’unica strada percorribile per migliorare veramente la qualità del mondo accademico. È inutile cambiare le
procedure dei concorsi, bloccare il turn-over, invocare codici etici, se la gestione rimane nelle mani dei soliti noti (o, ancor peggio,
nelle mani di un CdA del tutto disinteressato al mondo della ricerca). Solo un meccanismo che fa pagare a posteriori a ogni singolo
dipartimento i costi di scelte scientifiche sbagliate può sconfiggere il malcostume. Questo è il punto di partenza, non quello di
arrivo: ma richiede un coraggio - quello di scardinare veramente poteri consolidati - e una comprensione dei meccanismi reali
del mondo universitario che sono al momento assenti nel nostro
panorama politico.
Bibliografia
C.U.N. del 18 giugno 2008 (http://www.df.unipi.it/
˜rossi/documenti.html) mostra chiaramente che l’incremento nominale del 17% del FFO dal 1998 al 2008 è servito solo
a far fronte all’aumento degli stipendi stabiliti in base all’indice
di inflazione ISTAT. Questo significa che non vi è stato alcun aumento netto in termini di investimenti in ricerca e sviluppo.
(3) Dati forniti dal CNVSU (Comitato Nazionale di valutazione del Sistema Universitario): http://www.cnvsu.it/
publidoc/datistat/default.asp
(4) Dati rilevabili dal sito del Miur: http://statistica.
miur.it/Data/uic2007/Le_Risorse.pdf
(5) Una stima esatta del numero dei pensionamenti previsti per
i prossimi anni è difficile: tuttavia i dati del CNVSU (www.
cnvsu.it) li stimano tra i 5000 ed i 10.000.
(6) L’ANVUR (www.anvur.it) è l’Agenzia Nazionale per la
Valutazione del Sistema Universitario: la sua istituzione era stata
avviata dal precedente ministro Mussi, ma le procedure sono state
bloccate al momento dell’insediamento del presente governo.
Sull’autore
Lara Benfatto ([email protected]) è
ricercatrice presso il CNR/INFM di Roma.
(1) Il documento è disponibile su www.accatagliato.org
(2) Il rapporto presentato dal professor P. Rossi al Convegno
Analisi a crocette, primi effetti dei tagli?
di Carlo Mancini
Quest’anno gli studenti di Analisi del corso di laurea in Fisica hanno dovuto affrontare un test a crocette invece del solito esercizio da
svolgere. Ecco la voce del professor Lamberto Lamberti che quest’anno ha tenuto il corso: è un esperimento rivolto al futuro: da qui
ai prossimi cinque anni molti dei professori di Matematica andranno in pensione, e probabilmente non sarà più possibile dividere gli
studenti del primo anno del corso di laurea in Fisica in quattro canali diversi, com’è ora, e quindi bisogna provare nuovi tipi di verifica,
che consentano di correggere molti più compiti di quelli che ora deve
correggere un singolo professore. [. . . ] Fino a pochi anni fa era possibile creare molti canali diversi per i corsi di base; inoltre l’offerta
didattica era arricchita con corsi molto specializzati, per esempio il
Piazzale della Minerva, Università Sapienza di Roma
professor Doplicher - famoso in tutto il mondo - ha sempre tenuto un
corso di Meccanica Quantistica e di Algebre di Operatori, magari con pochi studenti iscritti, ma questo è normale per
un corso facoltativo degli ultimi anni, ma comunque una ricchezza per l’offerta didattica fornita agli studenti; ebbene,
dall’anno prossimo il professor Doplicher andrà in pensione e molto probabilmente i due corsi non esisteranno più. Il
caso dei corsi di Meccanica Quantistica e di Algebre di Operatori non è isolato: già oggi l’offerta didattica si è molto
impoverita rispetto al passato e fra cinque anni, non assumendo più nuovi ricercatori in sostituzione dei professori che
andranno in pensione, non sarà neanche possibile dividere in cosı̀ tanti canali gli studenti dei primi anni, a Matematica
come a Fisica. Confortante. . .
accastampato num. 1, Giugno 2010
25
La transizione
vetrosa
Il vetro è tra i materiali più familiari, ma non smette di affascinare gli scienziati
Tullio Scopigno
(Gruppo G LAS, Dip. di Fisica della Sapienza di Roma)
Quanto a me, perdonatemi per quello che sto per dire,
ma preferisco il vetro, che almeno non manda odore.
E se non fosse cosı̀ fragile,
lo preferirei all’oro.
(Petronio, Satyricon, I secolo d.C.)
egli ultimi venti anni enormi progressi sono stati
fatti verso la comprensione dei meccanismi di formazione del vetro, la cosiddetta transizione vetrosa,
ma nonostante ciò resta ancora valida l’affermazione di P.W. Anderson, premio Nobel per la fisica nel 1977, che individua in questo problema uno degli aspetti ancora irrisolti nella
fisica della materia.
Il vetro, nell’accezione comune del termine, è una sostanza che
trova largo impiego nell’uso quotidiano. Dal punto di vista fisico,
però, può essere inquadrata in un contesto ben più generale, in
quanto rappresenta una forma di aggregazione della materia che
può acquisire alcune caratteristiche (per esempio la rigidità meccanica) del solido e altre (come la struttura microscopica) del liquido. Allo stato solido, in effetti, i materiali possono presentarsi
in forma cristallina o amorfa: nel primo caso gli atomi (o le molecole) che lo compongono sono disposte in modo da formare un
reticolo ordinato (cristallo), mentre nel secondo caso, proprio come accade in un liquido, vi è totale assenza di periodicità spaziale,
e si parla appunto di sostanze vetrose. In base a questa definizione rientrano nella categoria dei vetri le ceramiche, le plastiche, le
resine epossidiche e i materiali polimerici, e dunque nelle comuni
applicazioni si ha a che fare con sostanze vetrose molto più spesso di quanto non suggerisca il senso comune. A dispetto di questa
larga diffusione, il meccanismo di formazione del vetro, la transizione vetrosa appunto, risulta essere il problema più interessante
e profondo non ancora risolto nella fisica della materia, per citare
le parole di P. W. Anderson, premio Nobel per la fisica nel 1977.
N
La temperatura della transizione
La fenomenologia della transizione vetrosa può essere analizzata
osservando il comportamento termodinamico di alcuni parametri
macroscopici. Supponiamo, ad esempio, di raffreddare un liquido sottraendogli calore (ponendolo in contatto con un ambiente
a temperatura più bassa). Se si misura il calore ceduto durante il raffreddamento al variare della temperatura (cfr. Figura 1)
possono essere identificate diverse regioni termodinamiche.
26
Figura 1 Calore scambiato da un fuso in fase di raffreddamento. Rosso: fase liquida. Nero: fase cristallina, che si genera alla temperatura di
fusione Tm . Arancio: il fluido, in particolari condizioni (per es. raffreddamento veloce) può mantenersi in una fase liquida metastabile, detta di
liquido sottoraffreddato. Blu: diverse fasi vetrose, che si generano alle
temperature di transizione vetrosa Tg , dipendenti dalla velocità di raffreddamento. Si osservi la diversa dipendenza del calore dalla temperatura
(capacita termica) nella fase liquida e nelle fasi solide.
Al di sopra della temperatura di fusione il liquido rilascia calore
con continuità. Alla temperatura di fusione il sistema solitamente
cristallizza, ma in particolari condizioni può seguire un diverso
comportamento, mantenendosi in uno stato metastabile, detto di
liquido sottoraffreddato. Nel primo caso il calore rilasciato subisce una brusca variazione (calore latente) per poi continuare a
diminuire, ma con minor rapidità rispetto alla fase liquida. Usando il linguaggio della termodinamica si dice che, alla temperatura
di fusione, il sistema compie una transizione di fase del primo
ordine (vedi Box a fine articolo). Nel secondo caso il rilascio di
accastampato num. 1, Giugno 2010
IL RICERCATORE ROMANO
calore continua come in fase liquida (si parla pertanto di liquido
sottoraffreddato) finché, alla temperatura di transizione vetrosa, il
calore continua a essere rilasciato in modo continuo ma con una
rapidità minore, simile a quella del cristallo. Mentre la cristallizzazione è un processo ben definito, nel senso che la temperatura
di fusione è un parametro che caratterizza univocamente ogni liquido, le modalità secondo le quali avviene la transizione vetrosa
dipendono da diversi fattori, come per esempio la storia termica
del materiale, ovvero la velocità di raffreddamento. La temperatura di transizione vetrosa, pertanto, viene solitamente definita
sulla base della velocità di raffreddamento che si riesce a ottenere
sperimentalmente, che è dell’ordine di qualche decina di gradi al
secondo.
Figura 2 Struttura e dinamica nelle varie fasi termodinamiche. A) Liquido e liquido sottoraffreddato. Gli atomi compiono un moto di tipo
diffusivo, la loro posizione media varia nel tempo. B) Fase vetrosa: gli
atomi sono congelati in posizioni di equilibrio disordinate, attorno alle
quali compiono un moto vibrazionale. C) Gli atomi sono congelati in
posizioni di equilibrio disposte su un reticolo ordinato, attorno alle quali
compiono un moto vibrazionale.
In corrispondenza dei diversi stati termodinamici sopra menzionati anche le proprietà dinamiche degli atomi e/o molecole subiscono importanti variazioni. Allo stato liquido gli atomi e/o le
molecole si muovono in maniera disordinata e la loro posizione media cambia continuamente. Quando un liquido viene raffreddato, normalmente la perdita di energia termica degli atomi
induce un progressivo ordinamento spaziale. Se la sostanza cristallizza, gli atomi continuano a muoversi, ma in modo diverso da
quanto accadeva nel liquido: il moto di diffusione si arresta e gli
atomi vibrano intorno a delle posizioni di equilibrio che rispettano ben definite periodicità spaziali (strutture cristalline), come farebbe, ad esempio, un sistema di palline (gli atomi) disposte su un
reticolo cubico collegate tra loro da molle (i legami chimici). Se
la sostanza non cristallizza, superato il punto di fusione, la dinamica rallenta ulteriormente finché, una volta raggiunta la temperatura di transizione vetrosa, Tg , il moto diffusivo è praticamente
congelato e sopravvivono solo le vibrazioni, che avvengono ora
intorno a posizioni di equilibrio che non hanno alcuna periodicità spaziale. In realtà, la transizione vetrosa marca un confine
più labile tra liquido-solido di quanto non avvenga nella cristal-
lizzazione. Come vedremo, infatti, la temperatura di transizione
vetrosa identifica uno stato in cui la capacita di fluire del liquido
scende al di sotto di un certo valore convenzionalmente scelto.
Dunque, anche nel vetro, si ha un moto di tipo diffusivo, seppure
estremamente lento, ovvero su scale temporali molto più lunghe
dei tipici tempi di osservazione. Se potessimo dunque fotografare
la struttura atomica di un vetro otterremmo un’immagine simile a
quelle riportata in Figura 2.
Le cattedrali gotiche e la viscosità
A questo proposito, è significativo ricordare il mito delle cattedrali gotiche, la cui origine viene fatta risalire a una lezione di chimica tenuta nel 1946 nella West Side High School in Newark, New
Jersey. Il vetro è in realtà un liquido - pare abbia detto il professor Clarence Hoke in questa occasione - Lo si può dire guardando
alle vetrate delle antiche cattedrali europee. Il vetro è più spesso
nella parte bassa che in quella alta. Il motivo di questa differenza
di spessore sarebbe dovuto al flusso del vetro sotto il proprio peso.
Pare che la convinzione del professor Hoke abbia fatto proseliti
negli anni successivi, raccogliendo un significativo numero di citazioni. Del resto bisogna ammettere che questo mito presenta un
certo appeal: vetro e liquido sono spesso presentati come stati di
aggregazione molto simili, caratterizzati dalla mancanza di ordine
nella disposizione atomica. Poiché questo è certamente vero dal
punto di vista qualitativo, si può comprendere una certa tentazione nello spingersi troppo oltre nell’analogia, ignorando gli aspetti
quantitativi della similitudine. In realtà molti scienziati, ma anche
semplici appassionati, si sono cimentati nella verifica quantitativa, e dunque sperimentale, dell’affermazione del professor Hoke,
con risultati incontrovertibili che indicano come il mito sia totalmente (o quasi) infondato. Pare che effettivamente si riscontrino
disomogeneità nello spessore di vetrate antecedenti il XIX secolo,
ma allo stesso tempo il lato con lo spessore maggiore è montato in
alto, in basso o lateralmente con frequenze statisticamente simili.
-------------------------------------------
...il problema più interessante e profondo
non ancora risolto nella fisica della
materia...
------------------------------------------Dunque questa leggenda popolare si spiegherebbe in modo molto
semplice: prima del XIX secolo le lastre di vetro venivano prodotte partendo da una sfera e riducendola a disco mediante percussione. In questo processo inevitabilmente si ottenevano disomogeneità negli spessori ed è possibile che gli artigiani del tempo
preferissero montare il lato più spesso in basso per sopportare
meglio il carico strutturale. Al giorno d’oggi le moderne finestre
vengono formate facendo adagiare per galleggiamento il fuso vetroso su un substrato di stagno fuso, processo che rende la lastra
accastampato num. 1, Giugno 2010
27
IL RICERCATORE ROMANO
altamente uniforme. D’altra parte, se è vero che anche al di sotto
della transizione vetrosa il materiale mantiene una certa capacità
di fluire, questa è talmente bassa che a temperatura ambiente occorrerebbe l’età dell’universo per creare un aumento di spessore
di soli 10 Angstrom (l’Angstrom è la dimensione caratteristica di
un atomo, pari a 10−10 metri) in una lastra verticale alta un metro.
Per contro, per osservare sensibili aumenti di spessore su tempi
ragionevolmente brevi (per esempio la vita di media di un essere
umano), occorrerebbe applicare alla lastra sforzi talmente grandi
che questa si romperebbe prima di poter fluire. Questo tipo di
calcolo ci porta al concetto di viscosità, ovvero la quantificazione
della capacità di fluire di un materiale, che si misura usualmente
in unità chiamate poise. Per farci un’idea, l’acqua ha una viscosità di 0,01 poise, la marmellata di 500 poise. Il formaggio Brie è
molto più viscoso, 500.000 poise, e alla fine di una cena potremmo forse osservare un certo rammollimento di una fetta sotto il
proprio peso. Ma un vetro a temperatura ambiente possiede una
viscosità di 100.000.000.000.000.000.000 poise (sı̀, proprio 1 seguito da 20 zeri!), ovvero mille milioni di volte più del piombo.
Ora il piombo viene proprio utilizzato per le rilegature artistiche
delle stesse vetrate incriminate e nessuno ha mai osservato tali
rilegature fluire neanche sotto i grandi carichi strutturali ai quali
queste sono soggette. E ancora, se a temperatura ambiente le vetrate gotiche potessero davvero essersi deformate sotto il proprio
peso, perché non dovrebbe aver fatto altrettanto anche il vasellame ritrovato qualche migliaio di anni prima nelle tombe egizie o
negli scavi greci e romani?
Figura 3 Andamento della viscosità al variare della temperatura. La fragilità di un liquido è data dalla pendenza in prossimità della temperatura
di transizione vetrosa (Tg /T = 1). Questo importante parametro è dunque legato alla variazione di temperatura nell’intervallo di viscosità in
cui il vetro può essere lavorato. Intervalli di temperatura più o meno ampi, a loro volta, determinano i tempi di lavorazione, più o meno lunghi,
per esempio durante la soffiatura. La silice è il prototipo di vetro duro (adatto per applicazioni con tempi di lavorazione lunghi), il glicerolo
è un liquido intermedio, mentre i materiali polimerici sono solitamente
molto fragili (necessitano di tempi di lavorazione relativamente brevi).
La viscosità e la fragilità
Al livello macroscopico dunque, il parametro fisico che controlla
la vetrificazione, ovvero il rallentamento delle variabili dinamiche
microscopiche, è la viscosità. In particolare, il comportamento
della viscosità al diminuire della temperatura in prossimità della
Tg permette di classificare i materiali vetrosi secondo uno schema
universale, reso celebre dallo scienziato americano C. A. Angell.
Secondo questo schema, i vetri (o meglio i liquidi in grado di
vetrificare) si dividono in duri e fragili (strong e fragile), a seconda della rapidità con la quale la viscosità cambia al variare della
temperatura in prossimità di Tg . In generale, nel processo di vetrificazione, la viscosità aumenta di molti ordini di grandezza, passando da circa 10−4 poise, valore caratteristico dello stato liquido
alle alte temperature, a circa 1013 poise nel vetro, valore convenzionalmente scelto come caratteristico dello stato vetroso (un
aumento di 1017 volte, dunque). Per rappresentare graficamente
questo enorme aumento si usa riportare il logaritmo della viscosità in funzione dell’inverso della temperatura, scalato per la Tg .
In questo modo, con riferimento alla Figura 3, seguendo il verso
dei valori crescenti lungo l’asse delle ascisse, si può quantificare l’aumento della viscosità al diminuire della temperatura, fino
all’approssimarsi del valore 1013 alla transizione vetrosa, ovvero
28
quando ogni sistema raggiunge la sua temperatura di transizione
vetrosa (T = Tg , valore unitario dell’ascissa).
Osservando gli andamenti schematicamente riportati in Figura 3,
è possibile evidenziare alcuni aspetti generali: 1) alcuni liquidi,
detti forti, mostrano un andamento lineare della viscosità, altri,
detti fragili, mostrano un andamento concavo: la rapidità con cui
aumenta la viscosità al diminuire della temperatura verso Tg aumenta con la diminuzione stessa della temperatura; 2) Le curve
caratteristiche di ciascun materiale non si incrociano mai. Dunque, intorno a Tg , nelle sostanze forti la viscosità cresce più lentamente, mentre in quelle fragili più rapidamente. Volendo andare
oltre questa distinzione qualitativa, è possibile quantificare il concetto di fragilità, m, misurando la pendenza delle curve in prossimità della transizione vetrosa (valore unitario dell’ascissa). In
questo modo si va dal valore di m = 20, che caratterizza il prototipo di vetro duro - la silice pura - verso valori via via crescenti che,
per le sostanze polimeriche possono arrivare a m > 200. Mentre
esiste un limite inferiore di fragilità (nessun materiale mostra un
andamento convesso, ovvero con pendenza minore di 17 in vicinanza di Tg ), non esiste a priori nessun limite superiore. Ecco
dunque perché, essendo la fragilità una caratteristica definita nel-
accastampato num. 1, Giugno 2010
IL RICERCATORE ROMANO
lo stato liquido (sottoraffreddato) e non vetroso, sarebbe più corretto parlare di fragilità dei liquidi piuttosto che dei vetri. Lungi
dall’essere un mero esercizio matematico, il concetto e la quantificazione della fragilità racchiude in sé alcuni aspetti essenziali
della transizione vetrosa, primo fra tutti quello dell’universalità:
sistemi diversi si comportano qualitativamente in maniera simile,
differendo solo nell’aspetto quantitativo. Il concetto di fragilità,
inoltre, ha implicazioni fondamentali anche negli aspetti pratici
legati alla lavorazione del vetro. Tali implicazioni erano probabilmente note, in forma qualitativa, dai tempi dei pionieri della
lavorazione del vetro (Fenici ed Egiziani), e certamente sono ben
note ai soffiatori che da lungo tempo identificano i vetri duri in
lunghi e quelli fragili in corti. La ragione di questa diversa nomenclatura è proprio legata alle implicazioni pratiche del concetto
di fragilità.
Solitamente, infatti, l’intervallo di lavorazione del vetro per la soffiatura è compreso tra 104 e 108 poise. In tale intervallo di viscosità un liquido molto fragile tenderà a raffreddarsi in un intervallo
di temperatura relativamente piccolo, al contrario di un vetro duro, che si raffredderà in un intervallo di temperatura relativamente
più ampio. In modo corrispondente, i liquidi fragili vetrificano
in tempi relativamente corti, mentre quelli duri in tempi più lunghi. I vetri corti si preferiscono solitamente nelle applicazioni di
tipo industriale, in cui il fattore decisivo è la velocità di produzione, mentre nelle applicazioni artistiche, quali la soffiatura, sono
i vetri lunghi (duri) a essere preferiti, poiché permettono, appunto, tempi di lavorazione più lunghi. La fragilità di un composto
può essere modulata a partire dalla silice pura mediante l’aggiunta di elementi alcalini o terre rare quali sodio, potassio di calcio o
lantanio.
Concludendo, sebbene negli ultimi venti anni enormi progressi
siano stati fatti verso la comprensione dei meccanismi che regolano la transizione vetrosa, l’affermazione di Anderson che individua in questo problema uno degli aspetti ancora irrisolti nella fisica della materia sembra essere
ancora decisamente attuale.
Sull’autore
Tullio Scopigno (tullio.scopigno@roma1.
infn.it) è ricercatore presso il Dipartimento di
Fisica della Sapienza di Roma. Ha recentemente
vinto il premio europeo Idea con il quale ha fondato
Femtoscopy, una nuova linea di ricerca di spettroscopia
Raman ultra-veloce.
Transizioni di fase del primo ordine
di Ulisse Ferrari
Le transizioni di fase di prima specie (o del primo ordine) sono il
più comune tra i cambiamenti di stato in cui incorrono i sistemi fisici. Esempi, infatti, ne sono il congelamento dell’acqua o la sua
evaporazione, quando la temperatura del liquido attraversa un valore specifico. Sebbene l’essere di prima specie sia formalmente
identificato dalla presenza di calore latente, ossia dalla necessità
di cedere o assorbire calore (senza variare la temperatura) perché
possa avvenire il passaggio di stato, l’effetto tipico che contraddistingue queste transizioni è la coesistenza delle due fasi all’interno
di un intervallo di temperature: riscaldando l’acqua in una pentola
con il coperchio, parte del liquido evaporerà creando un sistema in
cui l’acqua e il suo vapore convivono alla stessa temperatura. In altre parole c’è un intervallo di temperature in cui è possibile trovare
l’acqua sia nella fase liquida che in quella gassosa.
Un’ulteriore caratteristica delle transizioni di prima specie è la presenza di un salto, durante il passaggio di stato, di quantità misurabili come il volume: mentre una sostanza sta evaporando, per esempio, il suo volume aumenta sensibilmente anche per infinitesime
variazioni della temperatura.
Diagramma di fase dell’acqua. In ascissa la temperatura
T, in ordinata la pressione P. Ogni punto del piano rappresenta una fase della sostanza, eccetto che per quelli che si
trovano sulle linee che vengono dette linee di transizione.
Su di esse avviene il passaggio da una fase all’altra della
sostanza. Da it.wikipedia.org
accastampato num. 1, Giugno 2010
29
La pittura silenziosa
Piero della Francesca
(1416 – 1492)
Massimo Margotti
(Studente di Fisica, Università Sapienza di Roma)
Figura 1 Piero della Francesca: Madonna di Senigallia, 1474 circa, olio
su tavola, 67cm × 53, 5cm (Urbino, Galleria Nazionale delle Marche)
orrei trattare in questo primo scritto di un artista che
si situa nel primo Rinascimento. Non è un caso
che nel capolavoro dell’Alberti, il Tempio Malatestiano di Rimini, sia presente un affresco di Piero
della Francesca. Il ruolo artistico di Piero venne rivalutato solo
nel ’900, quando finalmente fu possibile riassumere le rivoluzioni
pittoriche come fossero un percorso lineare; linearità che fa parte
solo della visione dei posteri. Benché mantenga una totale autonomia stilistica, il lavoro di Piero della Francesca è emblematico
del passaggio che a quell’epoca stava avvenendo in Italia a livello
intellettuale e sociale e individua un momento in cui l’arte assorbiva gli estremi dell’intelletto umano. Tra questi l’incontro tra
arte e matematica, riconosciuta come unica risorsa per una descrizione della realtà. Cosı̀ come in una mitologia greca, da tale
incontro nasce la prospettiva capace, attraverso l’inganno della
mente, di donare una nuova visione del mondo. Dipingere secon-
V
30
do le regole prospettiche non era solo una moda, ma la necessità
di rappresentare ciò che il nuovo pretendeva come centrale. È il
momento in cui una classe commerciale annaspa di desiderio per
la regalità dei titoli nobiliari, ma in questo desiderare è evidente
la volontà di superamento. Ecco che nella Madonna di Senigallia
(Figura 1) l’abito borghese, privato e quotidiano, diviene degno
dei Santi che camminano su una terra arata e mansueta o in città
già razionali. Fu con Piero che l’arte italiana rispose alle titubanze
fiamminghe (risolte con allegorie ovine) sulla rappresentabilità di
Dio; sulle orme del primo libro del Pentateuco il problema della
rappresentazione di Dio poteva essere ricondotto alla mera rappresentazione dell’uomo e di ciò che lo circondava. Da questa
affermazione ne seguiva, come in una impostazione teorematica
non distante dalla forma mentis degli artisti dell’epoca, che la terra e le architetture fossero un attributo indispensabile di questa
rappresentazione. È a questo scopo che la pittura si trasforma in
uno specchio che riflette una Natura domata e disponibile a essere percorsa nella sua profondità, non come nei Coniugi Arnolfini
di Jan van Eyck dove la realtà è distorta, o successivamente ne
Las Meninas di Velasquez dove lo specchio mostra la realtà trascendente dei rapporti di forza mostrando possibili sentieri dell’inconscio. È in fondali di campi squadrati, coltivati e produttivi,
in città dalle architetture geometricamente definite, che Piero colloca i suoi personaggi scultorei che, immutabili come la scultura,
danno Ragione dell’affermarsi dell’Uomo. Nella pittura di Piero
è escluso qualsiasi principio dinamico, non ci sono movimenti, il
dipinto non è una fotografia poiché ogni forma umana presentata
diviene forma divina; prevale dunque una statica di sapore masaccesco quale metafora del motore immobile platonico. Figure
geometriche e solidi platonici sono il recupero della forma del
pensiero classico e s’innestano nei racconti pittorici come teoremi la cui verità dimostrabile ha la durezza e la trasparenza del
cristallo. È su questi solidi cristallini che s’infrange la luce di un
sole a mezzogiorno, le ombre soggiacciono completamente alle
strutture che le determinano (dato non secondario in un maestro
della prospettiva), quasi come se le figure divenissero meridiana di un tempo di passaggio, la fine dell’età di mezzo e la piena
coscienza di appartenere ai pittori della trasformazione.
-------------------------------------------
. . . l’incontro tra arte e matematica,
riconosciuta come unica risorsa per una
descrizione della realtà . . .
-------------------------------------------
accastampato num. 1, Giugno 2010
SCIENZARTE
Bibliografia
Figura 2 A sinistra, Piero della Francesca: La leggenda della Vera Croce.
A destra, Pablo Picasso: Il serbatoio Horta.
Siamo lontani dagli ori di Beato Angelico di sapore bizantino; in
Piero le immagini bruciano come riscoperte alla luce delle nuove architetture e i volti, concepiti nell’oscurità, prendono fuoco
al chiarore della nuova arte, diventando più veri e credibili come se in tale chiarezza ogni inganno pittorico fosse dissimulato e
annichilito, anziché magnificato. In Piero anche la polvere acquista spessore, dona densità all’aria suggerendo profondità e misura
(Madonna di Senigallia). Nulla è lasciato al caso e, se gioca col
colore per ingannare l’occhio sulle reali distanze delle architetture (come nella pala di Brera o nel ciclo della vera Croce), lo fa
alla ricerca di un osservatore attento che, scorgendo l’inganno, si
avvicini e si immerga in una pittura istruita a misura d’uomo e che
con l’uomo e la sua realtà vuole misurarsi. La costruzione pittorica richiede dunque un movimento all’osservatore, quello di vivere
lo spazio architettonico che comprende l’opera stessa, richiede di
muoversi nello spazio. La statica suggerisce la dinamica. Questa
esigenza fu forse maturata da due necessità umane: la prima quella di confrontarsi con i pittori di Firenze che dipingevano nell’architettura rinascimentale, la seconda di introdurre l’osservatore a
quelle perfette simmetrie matematiche che tanto bene conosceva
e che fanno dei suoi dipinti un’universalizzazione della tranquillità borghigiana dei biturgensi. L’opera matematica di Piero (Il
Piero matematico dei De Pictura Pingendi, De quinque corporibus regularibus e Trattato D’Abaco sarà riconosciuto dall’allievo
Luca Pacioli) non s’identifica nella pittura, ma si risolve in essa.
(1) Bernard Berenson, Piero della Francesca o dell’arte non eloquente, a cura di Luisa Vertova, Milano, Abscondita
(2) Roberto Longhi, Piero della Francesca, Firenze, Sansoni
(3) Carlo Ginzburg, Indagini su Piero, Einaudi
(4) John Pope-Hennessy, Sulle tracce di Piero della Francesca,
Umberto Allemandi & Co.
(5) E. H. Gombrich, La storia dell’arte raccontata da
E.H.Gombrich, Einaudi
(6) Henri Focillon, Piero della Francesca, Abscondita
(7) Ernst H. Gombrich, Riflessioni sulla storia dell’arte, Einaudi
(8) Ernst H. Gombrich, Sentieri verso l’arte, Leonardo Arte
(9) Carlo Bertelli, Giuliano Briganti, Antonio Giuliano, Storia
dell’arte italiana, Electa, Bruno Mondadori
(10) Carlo Bertelli, Piero della Francesca, Silvana Editoriale
(11) Alessandro Parronchi, Ricostruzioni: Piero della Francesca
– L’altare di Gand, Medusa
(12) Anna Maria Maetzke e Carlo Bertelli, Piero della Francesca: La Leggenda della Vera Croce in San Francesco ad Arezzo,
Skira
(13) Oreste Del Bono, Pierluigi De Vecchi, L’opera completa di
Piero della Francesca, Milano, Rizzoli
(14) Charles Bouleau, La geometria segreta dei pittori, Electa,
Bruno Mondadori
(15) H.Damisch et al., Piero Teorico dell’Arte, a cura di Omar
Calabresi, Gangemi Editore
(16) Una scuola per Piero, a cura di Luciano Bellosi, Marsilio
Sull’autore
Figura 3 A sinistra, Piero della Francesca: particolare del Battesimo. A
destra, Vincent van Gogh: particolare di Ladies of Arles.
Massimo Margotti (massimomargotti@gmail.
com), laureato in Biotecnologie Industriali, accanto all’attività di studio e di ricerca ha lavorato come operatore didattico presso il Museo del Patrimonio industriale di Bologna e partecipato a varie iniziative di Arte e
Scienza, tra le quali Fist fucking drain del dipartimento
di Ingegneria di Bologna e Radical Relations di Robert
Vincent.
accastampato num. 1, Giugno 2010
31
La prima lezione di
Ettore Majorana
13 gennaio 1938: una lezione speciale che mostra
le capacità didattiche dello scienziato
Alessio Cimarelli (su materiali di Bruno Prezioni, Erasmo Recami, Salvatore Esposito)
(Laboratorio Interdisciplinare per le Scienze Naturali e Umanistiche – Sissa)
Al mondo ci sono varie categorie di scienziati; gente di secondo
e terzo rango, che fanno del loro meglio ma non vanno lontano.
C’è anche gente di primo rango, che arriva a scoperte di grande
importanza, fondamentale per lo sviluppo della scienza. Ma poi
ci sono i geni come Galileo e Newton. Ebbene Ettore era uno di
quelli. Majorana aveva quel che nessun altro al mondo ha.
Sfortunatamente gli mancava quel che è invece comune trovare
negli altri uomini: il semplice buon senso.
(Enrico Fermi)
ttore Majorana nacque a Catania il 6 agosto 1906 e
scomparve misteriosamente nel marzo 1938 mentre
era di ritorno da Palermo. Il 13 gennaio 1938 aveva tenuto la lezione inaugurale del suo corso di Fisica
Teorica presso l’università Federico II di Napoli, ove era stato nominato professore ordinario per meriti eccezionali. Questi appunti che di seguito pubblichiamo mostrano l’interesse dello scienziato non solo per le questioni generali e di fondo che animano la
ricerca scientifica, ma anche per il migliore metodo didattico da
seguire per trasmettere il sapere agli allievi, per i quali ha sempre
nutrito un profondo interesse.
E
ne ha traccia indiretta nell’assenza di una tale notizia sui giornali cittadini (come, ad esempio, Il Mattino), contrariamente a
quanto avveniva per altri corsi, certamente più affollati. Secondo
la testimonianza di Gilda Senatore, alla lezione inaugurale non
parteciparono gli studenti del corso medesimo. Questo però non
deve stupire. L’ipotesi, infatti, secondo la quale la non partecipazione degli studenti fosse espressamente voluta (da Carrelli o
da altri) troverebbe una valida spiegazione in un’antica consuetudine dell’Università di Napoli, dove ogni nuovo docente doveva
dimostrare agli altri professori di essere meritevole del posto che
sarebbe andato a occupare.
Il concorso per la cattedra di Fisica Teorica di
Napoli
Nel 1937 l’Università di Palermo, per interessamento di Emilio
Segré, richiese un nuovo concorso per la cattedra di Fisica Teorica. I concorrenti, oltre Majorana (invitato insistentemente a partecipare al concorso da Fermi e dagli amici), erano Leo Pincherle,
Giulio Racah, Gleb Wataghin, Gian Carlo Wick e Giovanni Gentile (figlio dell’omonimo filosofo, già ministro). La commissione
giudicatrice, riunitasi a Roma, era presieduta da Fermi ed era costituita da Antonio Carrelli (segretario), Orazio Lazzarino, Enrico
Persico e Giovanni Polvani. I documenti ufficiali testimoniano
che la commissione prospettò al Ministro Bottai (il quale accoglierà la proposta) l’opportunità di nominare il Majorana professore di Fisica teorica per alta e meritata fama in una Università
del Regno, indipendentemente dal concorso. La cattedra fu attribuita fuori concorso a Majorana e la nomina a professore ordinario, partecipata dal Ministro Bottai il 2 novembre 1937, decorse
dal 16 novembre dello stesso anno.
Majorana annuncia l’inizio del suo corso per il giovedı̀ 13 gennaio 1938 alle 9:00, ma concorda con il preside della Facoltà di
evitare ogni carattere ufficiale all’apertura del corso. Di ciò se
32
Figura 1 Ettore Majorana
Lo stile del docente
Majorana, vestito di blu, aveva sempre un aspetto triste e perplesso e ciò, unito alla non facile comprensione degli argomenti avanzati che egli trattava a lezione, certamente infondeva una certa
soggezione nei giovani uditori del corso di Fisica Teorica. D’altro
canto, il soprannome di Grande Inquisitore gli era stato attribuito
già molti anni prima dagli amici di sempre del gruppo di Fermi a
Roma. E anche al di fuori del contesto ufficiale delle lezioni, Majorana confermava questo comportamento: salutava e rispondeva
gentilmente al saluto e, magari, timidamente sorrideva; si intuiva
che doveva essere profondamente buono e sensibilissimo, ma non
fu mai estroverso o invitante, anzi fu sempre estremamente schivo.
E ancora: in quel lungo corridoio buio al piano terra... camminava sempre rasente al muro, silenziosamente e solo, muovendosi
come un’ombra. Quando arrivò a Napoli, certamente il direttore
Carrelli dovette parlare degli studenti e delle loro ricerche a Majo-
accastampato num. 1, Giugno 2010
NANOS GIGANTUM
rana, il quale si dovette rendere subito conto del singolare compito che si era apprestato ad accettare con un cosı̀ esiguo numero di
studenti. Tuttavia egli era fermamente deciso a portare a termine
in maniera responsabile il compito assunto. A lezione era chiarissimo nella trattazione dell’argomento che proponeva di volta in
volta all’inizio della lezione e che svolgeva con dovizia di particolari, dando sempre la prevalenza alla parte fisica più che a quella
matematica; ma quando si volgeva alla lavagna e cominciava a
scrivere, faceva calcoli che sul momento non sempre si riusciva
a seguire. Il carattere di Majorana, poi, certamente non invitava
i timidi studenti a interromperlo per chiedergli spiegazioni. Talvolta a lezione, quando Majorana si accorgeva (interrompendosi
e voltandosi indietro) che gli studenti stentavano a capire ciò che
lui stava esponendo, si fermava e rispiegava lo stesso argomento.
Proprio durante qualcuna di quelle lezioni più aride e più pesanti
in quanto l’argomento trattato era afferente essenzialmente a metodi matematici da applicarsi allo studio di fenomeni fisici, Majorana dimenticava forse di essere quel grandissimo scienziato che
era, perché mentre era alla lavagna e scriveva, improvvisamente
si fermava, poi si volgeva, ci guardava un attimo, sorrideva e riproponeva la spiegazione facendo aderire il concetto già esposto
alle formule che riempivano la lavagna.
Figura 2 La famiglia di Ettore Majorana (a destra) a passeggio.
Appunti per la Lezione Inaugurale
Università di Napoli, 13 gennaio 1938
In questa prima lezione di carattere introduttivo illustreremo brevemente gli scopi della fisica moderna e il significato dei suoi
metodi, soprattutto in quanto essi hanno di più inaspettato e originale rispetto alla fisica classica. La fisica atomica, di cui dovremo
principalmente occuparci, nonostante le sue numerose e importanti applicazioni pratiche - e quelle di portata più vasta e forse
rivoluzionaria che l’avvenire potrà riservarci -, rimane anzitutto una scienza di enorme interesse speculativo, per la profondità
della sua indagine che va veramente fino all’ultima radice dei fatti naturali. Mi sia perciò consentito di accennare in primo luogo,
Figura 3 Logo dell’università Federico II di Napoli.
senza alcun riferimento a speciali categorie di fatti sperimentali
e senza l’aiuto del formalismo matematico, ai caratteri generali
della concezione della natura che è accettata nella nuova fisica.
La fisica classica di Galileo e Newton all’inizio del nostro secolo
è interamente legata, come si sa, a quella concezione meccanicistica della natura che dalla fisica è dilagata non solo nelle scienze
affini, ma anche nella biologia e perfino nelle scienze sociali, informando di sé quasi tutto il pensiero scientifico e buona parte
di quello filosofico in tempi a noi abbastanza vicini; benché, a
dire il vero, l’utilità del metodo matematico che ne costituiva la
sola valida giustificazione sia rimasta sempre circoscritta esclusivamente alla fisica. Questa concezione della natura poggiava sostanzialmente su due pilastri: l’esistenza oggettiva e indipendente
della materia, e il determinismo fisico. In entrambi i casi si tratta,
come vedremo, di nozioni derivate dall’esperienza comune e poi
generalizzate e rese universali e infallibili soprattutto per il fascino irresistibile che anche sugli spiriti più profondi hanno in ogni
tempo esercitato le leggi esatte della fisica, considerate veramente
come il segno di un assoluto e la rivelazione dell’essenza dell’universo: i cui segreti, come già affermava Galileo, sono scritti in
caratteri matematici. L’oggettività della materia è, come dicevo,
una nozione dell’esperienza comune, poiché questa insegna che
gli oggetti materiali hanno un’esistenza a sé, indipendente dal fatto che essi cadano o meno sotto la nostra osservazione. La fisica
matematica classica ha aggiunto a questa constatazione elementare la precisazione o la pretesa che di questo mondo oggettivo è
possibile una rappresentazione mentale completamente adeguata
alla sua realtà, e che questa rappresentazione mentale può consistere nella conoscenza di una serie di grandezze numeriche sufficienti a determinare in ogni punto dello spazio e in ogni istante lo
stato dell’universo fisico. Il determinismo è invece solo in parte
una nozione dell’esperienza comune. Questa dà infatti al riguardo
delle indicazioni contraddittorie. Accanto a fatti che si succedono
fatalmente, come la caduta di una pietra abbandonata nel vuoto,
ve ne sono altri - e non solo nel mondo biologico - in cui la successione fatale è per lo meno poco evidente. II determinismo in
accastampato num. 1, Giugno 2010
33
NANOS GIGANTUM
quanto principio universale della scienza ha potuto perciò essere
formulato solo come generalizzazione delle leggi che reggono la
meccanica celeste. È ben noto che un sistema di punti - quali, in
rapporto alle loro enormi distanze, si possono considerare i corpi
del nostro sistema planetario - si muove e si modifica obbedendo
alla legge di Newton. Questa afferma che l’accelerazione di uno
di questi punti si ottiene come somma di tanti vettori quanti sono
gli altri punti:
~P¨r ∝ ∑ ms ~ers ,
2
s Rrs
essendo ms la massa di un punto generico e ~ers il vettore unitario
diretto da ~Pr a ~Ps . Se in tutto sono presenti n punti, occorreranno 3n coordinate per fissarne la posizione e la legge di Newton
stabilisce fra queste grandezze altrettante equazioni differenziali
del secondo ordine il cui integrale generale contiene 6n costanti
arbitrarie. Queste si possono fissare assegnando la posizione e le
componenti della velocità di ciascuno dei punti all’istante iniziale. Ne segue che la configurazione futura del sistema può essere
prevista con il calcolo purché se ne conosca lo stato iniziale, cioè
l’insieme delle posizioni e velocità dei punti che lo compongono.
Tutti sanno con quale estremo rigore le osservazioni astronomiche
abbiano confermato l’esattezza della legge di Newton; e come gli
astronomi siano effettivamente in grado di prevedere con il suo
solo aiuto, e anche a grandi distanze di tempo, il minuto preciso
in cui avrà luogo un’eclisse, o una congiunzione di pianeti o altri
avvenimenti celesti.
Per esporre la meccanica quantistica nel suo stato attuale esistono due metodi pressoché opposti. L’uno è il cosiddetto metodo
storico: ed esso spiega in qual modo, per indicazioni precise e
quasi immediate dell’esperienza, sia sorta la prima idea del nuovo formalismo; e come questo si sia successivamente sviluppato
in una maniera obbligata assai più dalla necessità interna che non
dal tenere conto di nuovi decisivi fatti sperimentali. L’altro metodo è quello matematico, secondo il quale il formalismo quantistico viene presentato fin dall’inizio nella sua più generale e perciò
più chiara impostazione, e solo successivamente se ne illustrano
i criteri applicativi. Ciascuno di questi due metodi, se usato in
maniera esclusiva, presenta inconvenienti molto gravi. È un fatto che, quando sorse la meccanica quantistica, essa incontrò per
qualche tempo presso molti fisici sorpresa, scetticismo e perfino
incomprensione assoluta, e ciò soprattutto perché la sua consistenza logica, coerenza e sufficienza appariva, più che dubbia,
inafferrabile. Ciò venne anche, benché del tutto erroneamente,
attribuito a una particolare oscurità di esposizione dei primi creatori della nuova meccanica, ma la verità è che essi erano dei fisici,
e non dei matematici, e che per essi l’evidenza e giustificazione
della teoria consisteva soprattutto nell’immediata applicabilità ai
fatti sperimentali che l’avevano suggerita. La formulazione generale, chiara e rigorosa, è venuta dopo, e in parte per opera di
cervelli matematici. Se dunque noi rifacessimo semplicemente
34
l’esposizione della teoria secondo il modo della sua apparizione
storica, creeremmo dapprima inutilmente uno stato di disagio o di
diffidenza, che ha avuto la sua ragione d’essere ma che oggi non
è più giustificato e può essere risparmiato. Non solo, ma i fisici - che sono giunti, non senza qualche pena, alla chiarificazione
dei metodi quantistici attraverso le esperienze mentali imposte dal
loro sviluppo storico - hanno quasi sempre sentito a un certo momento il bisogno di una maggiore coordinazione logica, di una
più perfetta formulazione dei principi e non hanno disdegnato per
questo compito l’aiuto dei matematici. Il secondo metodo, quello
puramente matematico, presenta inconvenienti ancora maggiori.
Esso non lascia in alcun modo intendere la genesi del formalismo
e in conseguenza il posto che la meccanica quantistica ha nella storia della scienza. Ma soprattutto esso delude nella maniera
più completa il desiderio di intuirne in qualche modo il significato fisico, spesso cosı̀ facilmente soddisfatto dalle teorie classiche. Le applicazioni, poi, benché innumerevoli, appaiono rare,
staccate, perfino modeste di fronte alla sua soverchia e incomprensibile generalità. Il solo mezzo di rendere meno disagevole
il cammino a chi intraprende oggi lo studio della fisica atomica,
senza nulla sacrificare della genesi storica delle idee e dello stesso linguaggio che dominano attualmente, è quello di premettere
un’esposizione il più possibile ampia e chiara degli strumenti matematici essenziali della meccanica quantistica, in modo che essi
siano già pienamente familiari quando verrà il momento di usarli e non spaventino allora o sorprendano per la loro novità: e si
possa cosı̀ procedere speditamente nella derivazione della teoria
dai dati dell’esperienza. Questi strumenti matematici in gran parte preesistevano al sorgere della nuova meccanica (come opera
disinteressata di matematici che non prevedevano un cosı̀ eccezionale campo di applicazione), ma la meccanica quantistica li ha
sforzati e ampliati per soddisfare alle necessità pratiche; cosı̀ essi
non verranno da noi esposti con criteri da matematici, ma da fisici. Cioè senza preoccupazioni di un eccessivo rigore formale, che
non è sempre facile a raggiungersi e spesso del tutto impossibile.
La nostra sola ambizione sarà
di esporre con tutta la chiarezza
possibile l’uso effettivo che di tali strumenti fanno i fisici da oltre un decennio, nel quale uso che non ha mai condotto a difficoltà o ambiguità - sta la fonte
sostanziale della loro certezza.
Bibliografia
(1) B. Preziosi, E. Recami, La Lezione Inaugurale di Ettore Majorana al suo corso di Fisica Teorica, 6 settembre 2007
(2) S. Esposito, Il corso di fisica teorica di Ettore Majorana: il
ritrovamento del documento Moreno, 22 novembre 2004
accastampato num. 1, Giugno 2010
Copenhagen
Il dialogo perduto tra Bohr e Heisenberg
Lucia Orlando
(Gruppo di Storia della Fisica, Dip. di Fisica)
Margrethe - È veramente ridicolo. Voi due avete penetrato con
stupefacente raffinatezza e precisione il mondo infinitamente
piccolo dell’atomo. Adesso viene fuori che tutto dipende dai pesi
infinitamente grandi che ci portiamo sulle spalle. E quello che
succede lı̀ dentro è. . .
Heisenberg - Elsinore.
Margrethe - Elsinore, sı̀.
(Michael Frayn, Copenhagen, 1998)
Figura 1 Scena da Copenhagen di Michael Frayn. Foto di Marco Caselli
da www.loschiaffio.org
el 1941, mentre i nazisti occupano Copenhagen,
Werner Heisenberg va a trovare Niels Bohr nella
città danese. Per quale motivo due dei principali artefici della meccanica quantistica si incontrano nell’Europa messa a ferro e fuoco da Hitler? L’incontro è tuttora
immerso nelle nebbie del dubbio, di sicuro i due parlarono di fissione e della possibilità di costruire una bomba nucleare, ma non
c’è alcuna certezza su come andarono le cose. Senz’altro c’è la
fine di un’amicizia nata negli anni Venti, quando Bohr e Heisenberg gettavano le fondamenta della teoria quantistica. Su quell’incontro tra due giganti del pensiero, avvenuto in un momento
critico per stabilire se la fissione nucleare potesse essere davvero
N
36
utilizzata per costruire ordigni bellici (solo l’anno dopo Fermi a
Chicago mostrò la fondatezza dell’ipotesi), un grande commediografo come Michael Frayn costruisce una pièce replicata con successo dal 1998. Cosa si dicono in quell’incontro Bohr e Heisenberg? Quest’ultimo, in quel momento, lavora per il Reich, mentre
il primo sta per riparare in Gran Bretagna, per poi recarsi oltreoceano e partecipare al Progetto Manhattan. La Germania nazista
ha già avviato due programmi per studiare le effettive possibilità
di applicare la fissione a fini bellici. Uno dei programmi è proprio guidato da Heisenberg. E anche negli Stati Uniti si procede
con ricerche preliminari. Heisenberg vuole davvero convincere il
vecchio e autorevolissimo amico e maestro a sostenere un accordo internazionale fra scienziati per il controllo preventivo dello
sfruttamento della fissione nucleare? Oppure vuole sapere a che
punto è arrivata l’altra parte e, nella migliore delle ipotesi, vuole
convincere Bohr a collaborare coi nazisti? È proprio su questa
ambiguità irrisolta che Frayn costruisce uno dei più bei testi mai
scritti sul rapporto tra scienza ed etica. Per l’autore, Heisenberg
diventa incarnazione stessa del principio di complementarità: Sono il tuo nemico e il tuo amico. Un pericolo per l’umanità e un
tuo ospite. Sono una particella e un’onda. E chiama in causa il
principio di indeterminazione (vedi Box a pag. 37), per stabilire
l’impossibilità di determinare in modo certo se Heisenberg volesse davvero realizzare l’atomica tedesca o, come egli stesso si è
sempre difeso, abbia ostacolato il raggiungimento dell’obiettivo.
Gerard Holton’s What Michael Frayn’s
Copenhagen Tries to Tell Us
Nel dramma di Frayn ci sono solo tre attori in scena: Bohr, sua
moglie Margrethe e Heisenberg. I tre sono divenuti fantasmi che
raccontano le straordinarie scoperte in meccanica quantistica di
cui sono stati testimoni e protagonisti, spesso sono ignari della
presenza l’uno dell’altro aggiungendo un che di sinistro alle loro
interazioni. Lo spettacolo mischia tre differenti mondi: la scienza,
la storia e il teatro, ma non bisogna confondere i personaggi in
scena con i personaggi storici realmente esistiti. Lo spettacolo,
infatti, si fonda su ciò che su queste persone è stato detto e scritto.
Heisenberg
La versione di Heisenberg nell’interpretazione di Frayn è stata
formulata a partire fondamentalmente dagli scritti di due storici della fisica: Jungk e Powers. Jungk nel suo Brighter than a
accastampato num. 1, Giugno 2010
EVENTI
thousand sun (Gli apprendisti stregoni nell’introvabile versione
italiana) presenta un Heisenberg molto ingenuo, basandosi sulle
dichiarazioni del fisico stesso: sapevamo che fondamentalmente
era possibile produrre una bomba atomica, ma avevamo sovrastimato gli sforzi che effettivamente si sono rivelati necessari per
svilupparla. Heisenberg dichiarò di non aver mai inteso convincere Bohr di unirsi allo sviluppo del progetto atomico nazista, ma
che la sua fosse una domanda sull’opportunità degli scienziati di
dedicarsi a un simile progetto, domanda che Bohr avrebbe frainteso interpretandola come un’esortazione a unirsi a lui. Jungk
conclude quindi che Heisenberg avrebbe imposto un impedimento morale allo sviluppo della bomba, impedimento che si sarebbe
manifestato come una sorta di ostruzionismo passivo che il club
degli scienziati nucleari tedeschi avrebbe opposto agli ordini dei
militari, come una sorta di loggia massonica di scienziati pacifisti. È da segnalare che Heisenberg non dichiarò una simile cosa
nei suoi carteggi con Jungk, ma che questi ebbe quest’intuizione
intervistando molti degli interessati. Sembra, inoltre, che quest’idea trovi conferma nelle dichiarazioni di Von Weizsacker a
Heisenberg e agli altri scienziati tedeschi detenuti in Inghilterra
nella tenuta di Farm Hall quando questi vennero a sapere della
distruzione di Hiroshima. La storia registrerà che lo sviluppo pacifico dei motori a uranio è stata fatta dai tedeschi sotto il regime
di Hitler, mentre gli americani e gli inglesi sviluppavano questa
agghiacciante arma di guerra. Va però detto che in seguito nelle proprie memorie Von Weizsacker lasciò scritto che in effetti
anche gli scienziati tedeschi speravano di costruire la bomba. In
qualche modo, però, stando alle dichiarazioni di Von Laue, fisico
tedesco che non collaborò mai alle ricerche sullo sviluppo di armi
per il regime, gli scienziati tedeschi furono affetti da una strana
mancanza di zelo che li portò a mal interpretare i risultati di molte fondamentali misure. Il che, indirettamente, confermerebbe le
tesi di Jungk. Powers portò alle estreme conseguenze quest’idea,
arrivando a sostenere che quello di Heisenberg sarebbe stato un
atto di consapevole sabotaggio. Questa versione è quella che fondamentalmente lo spettatore vede in scena assistendo all’opera di
Frayn: lo svolgersi degli eventi abilmente prepara il pubblico al
climax prima della fine, in cui Heisenberg accusa Bohr di essere
andato a Los Alamos come lo stesso Bohr ammette: per giocare
la mia piccola ma utile parte nella morte di centinaia di migliaia di persone, mentre Heisenberg esulta: ci dovrebbe essere un
posto in paradiso per me.
Bohr
La versione dell’incontro del 1941 fornita da Heisenberg e Jungk
non presenta che una parte della storia. Frayn, infatti, si schiera evidentemente dalla parte di Heisenberg, come le battute finali
sottolineano. Il testo teatrale, però, scritto nel 1998, non potè basarsi su una lettera di risposta a Heisenberg che Bohr scrisse e mai
spedı̀, pubblicata nel 2002. In questa lettera Bohr, in contrapposizione ai toni fumosi di quella di Heisenberg a Jungk, afferma
di ricordare perfettamente ogni sillaba del dialogo tra loro due.
Mentre il fisico tedesco lo descriveva come un vecchio arrabbiato,
egli risponde che fu lo shock dovuto alla paura a fargli interrompere bruscamente il dialogo, decidendo poi di scappare. Heisenberg infatti gli avrebbe confidato di aver lavorato per i due anni
precedenti al progetto della bomba e di avere buone probabilità di
ultimarla con il suo aiuto.
L’interpretazione di Copenhagen della meccanica quantistica
di Leonardo Barcaroli
Quando i fisici, verso l’inizio del secolo scorso, si trovarono a dover riscrivere una parte delle leggi fisiche
fondamentali per spiegare molti fenomeni che avvenivano alle scale di grandezza atomiche e subatomiche
non capirono subito quale interpretazione dare alla nuova fisica. Ad esempio corpi che erano ritenuti fino ad
allora particelle, ovvero individuate nello spazio da una posizione ben precisa, in meccanica quantistica si
comportavano come onde, ovvero esistevano in ogni tempo e in ogni luogo, come se fossero spalmate sullo
spazio-tempo. Inizialmente c’era molta confusione, ma negli anni ’30 Bohr e Heisenberg, che lavoravano
insieme a Copenhagen, formalizzarono un’idea originaria di Born: l’onda che descrive una particella in ogni
punto dello spazio a ogni tempo è associata alla probabilità di trovarla in quel punto a quell’istante, una volta
Werner Karl Heiche si effettua una misura su di essa. Tale interpretazione, di carattere probabilistico, è quella comunemente
senberg. Dal The
accettata attualmente, benché non sia l’unica. Il principio di indeterminazione, invece, fu frutto del lavoro del
MacTutor History
of
Mathematics
solo W. Heisenberg, mente geniale e misteriosa esattamente come il suo cosiddetto principio, erroneamente
archive
chiamato cosı̀ dato che in realtà è un teorema dimostrabile. Esso stabilisce che non è possibile misurare con
precisione arbitraria la posizione e la velocità di una particella nello stesso istante. Questo non significa che semplicemente la
misura di una di queste due grandezze disturba l’altra, ma che proprio è impossibile definirne contemporaneamente posizione e
velocità. Il concetto sembra vago, ma in realtà descrive una caratteristica profonda della fisica su scale microscopiche: c’è un velo
di impossibilità nel cogliere quello che è il moto di un corpo su scale molto piccole. Questo principio vale anche per altre coppie di
grandezze come, ad esempio, il tempo e l’energia. È su questa indeterminatezza sfuggente della realtà che giocano i protagonisti
dello spettacolo di Frayn, personaggi e particelle elementari allo stesso tempo.
accastampato num. 1, Giugno 2010
37
Bohr sottolinea, inoltre, che Heisenberg e Von Weizsacker si intrattennero molto sia con lui che con altri scienziati della sua
équipe, sostenendo che sarebbe stato deleterio per la Danimarca
e per gli scienziati danesi non collaborare con il Reich. Nella sua
lettera, mai spedita probabilmente per via dei suoi toni forti, Bohr
risponde punto per punto a tutte le affermazioni di Heisenberg,
dipingendo un quadro molto più fosco dello scienziato a capo del
progetto nazista. Il pubblico, quindi, dovrebbe tenere ben a mente che Frayn si è basato su documenti parziali, quelli di Jungk e
di Powers, e non sugli altri che avrebbero potuto fornire ben altri scenari, come le intercettazioni di Farm Hall o l’appena citata
lettera di Bohr. Nel momento in cui lo spettatore, quindi, si troverà ad ascoltare frasi dell’Heisenberg attore quali: Avevo capito
molto chiaramente, semplicemente non l’ho detto agli altri o Non
stavo tentando di costruire una bomba, dovrà tenere ben a mente che quella che sta ammirando è l’interpretazione di un autore
di teatro e non la pedissequa riproduzione di una cronaca storica,
prendendo con il beneficio del dubbio qualunque giudizio morale
venga propugnato dagli attori in scena.
(da (6), traduzione di Niccolò Loret)
Bibliografia
(1) Michael Frayn, Copenhagen, Sironi Editore (2003)
(2) Cassidy David, Un’estrema solitudine. La vita e l’opera di
Werner Heisenberg, Bollati Boringhieri (1996)
(3) Jeremy Bernstein, Il club dell’uranio di Hitler. I fisici tedeschi
nelle registrazioni segrete di Farm Hall, Sironi Editore (2005)
(4) Pais Abraham, Il danese tranquillo. Niels Bohr: un fisico e il
suo tempo (1885-1962), Bollati Boringhieri (1993)
(5) Samuel Abraham Goudsmit, Alsos, American Institute of Physics (1996)
(6) Gerard J. Holton, What Michael Frayn’s Copenhagen Tries
to Tell Us, in Victory and vexation in science: Einstein, Bohr,
Heisenberg, and others, Harvard University Press (2005)
Sull’autore
Storica della Fisica, Lucia Orlando (Lucia.
[email protected]) collabora con il
gruppo di Storia della fisica presso il Dipartimento
di Fisica dell’Università di Roma La Sapienza, per
il quale ha riordinato l’Archivio Amaldi. I suoi più
recenti ambiti di interesse riguardano la storia della
Fisica italiana negli anni Trenta e dei programmi
spaziali italiani. Si occupa anche di comunicazione
scientifica collaborando con la RAI e vari periodici
nazionali.
38
L’immagine di copertina è di Silvian25g (la si può trovare all’indirizzo http://silvian25g.deviantart.com/
art/fractal-231-82135968) e rappresenta un frattale. Un frattale è una forma geometrica che può essere divisa
in più parti, ognuna delle quali è una copia ridotta della forma
di partenza. Queste sorprendenti immagini si rifanno a equazioni matematiche, più o meno complicate, che determinano
il grado di complessità del frattale stesso. Tra i più famosi
ricordiamo la curva di Von Koch e il frattale di Mandelbrot.
Date un’occhiata: il mondo dei frattali è pieno di sorprese, ne
scoprirete tanti anche intorno a voi!