true Accastampato non è un periodico, pertanto non è registrato e non ha un direttore responsabile, è solo un esperimento – per ora occasionale – realizzato dagli studenti di Fisica dell’Università degli Studi di Roma “Sapienza” Gli articoli contenuti in questo numero sono protetti con marca digitale grazie a patamu.com I QR Code in calce ad alcuni articoli codificano il loro URL di pubblicazione on-line e sono generati mediante invx.com La rivista è prodotta dal motore di composizione tipografica LATEX. I sorgenti sono disponibili richiedendoli alla Redazione. Quest’opera è rilasciata sotto la licenza Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo 3.0 Unported. Se non specificato altrimenti, tutti gli articoli in essa contenuti sono rilasciati dai rispettivi autori sotto la medesima licenza. Per leggere una copia della licenza visita il sito web http://creativecommons. org/licenses/by-nc-sa/3.0/ o spedisci una lettera a Creative Commons, 171 Second Street, Suite 300, San Francisco, California, 94105, USA. accastampato Rivista degli Studenti di Fisica dell’Università Sapienza di Roma www.accatagliato.org EDITORIALE R EDAZIONE [email protected] La divulgazione della Scienza a partire da chi la fa La ricerca scientifica a Roma: informare, orientare, incuriosire n pochi sanno che a Roma e dintorni si fa ricerca di livello internazionale. Una delle motivazioni di questa diffusa ignoranza è sicuramente il fatto che le riviste e i programmi di divulgazione di qualità sono quasi sempre tradotti dall’inglese e si contrappongono a prodotti di scarso livello che, nel tentativo di essere commercialmente accattivanti, danno un’idea della scienza completamente sbagliata, tale da renderli addirittura dannosi e fuorvianti. Al contrario, una delle differenze fra la scienza e, per esempio, l’alchimia è stata storicamente proprio la divulgazione. Solo avendo delle conoscenze di base si può capire un dibattito serio sui temi di attualità che pressano, o almeno dovrebbero, l’agenda politica nazionale e internazionale: esempi eclatanti sono la produzione di energia, gli organismi geneticamente modificati, gli effetti dei campi elettromagnetici sulla salute. Troppe volte si sentono dire cose che non sono neanche lontanamente verosimili e questo significa che manca nel nostro paese una cultura minima in questo settore, non solo sugli argomenti di ricerca, ma anche su cosa sia Scienza, su cosa la distingua dalla religione o, appunto, dall’alchimia. Per questi motivi abbiamo deciso di intraprendere un progetto ambizioso e difficile: realizzare una rivista di divulgazione scientifica e diffonderla gratuitamente nelle scuole superiori con tutti i mezzi cui abbiamo accesso, una rivista redatta dagli studenti di Scienze della Sapienza dedicata principalmente agli studenti dei licei di Roma. Non pensiamo di poter risolvere i problemi descritti prima, ovviamente. Speriamo solo di poter generare curiosità in qualcuno dei nostri lettori. I Non è semplice scrivere e parlare della ricerca di frontiera a non specialisti: non bisogna dare nulla per scontato e, nel mettersi nei panni del proprio interlocutore, è necessario usare un linguaggio comprensibile senza rinunciare a spiegare quali siano le cose fondamentali. Per questo ci poniamo due obiettivi: incuriosire coloro che non studiano fisica e confrontarci con l’arte difficile del raccontare cosa studiamo con parole accessibili. Nel mondo accademico italiano si è data sempre troppo poca importanza alla divulgazione e questo progetto vuole configurarsi come un vero e proprio laboratorio di comunicazione scientifica: per questo motivo invitiamo tutti i nostri lettori a inviarci commenti, critiche e giudizi di qualunque genere, in modo da poter correggere e migliorare sia la nostra competenza specifica, sia la rivista stessa. Questo progetto è stato pensato e realizzato da studenti, ma si avvale dell’importante collaborazione di ricercatori e docenti del Dipartimento di Fisica della Sapienza. Sono loro che formano la nostra autorevole commissione scientifica che garantisce al lettore la qualità di ciò che sta leggendo. Ricerca, quindi, ma non solo: crediamo che una delle cose più interessanti sia sottolineare le ricadute della ricerca di base nella vita di tutti i giorni, sia nel medio che lungo periodo. Siamo convinti che il senso della ricerca non sia solo nelle applicazioni tecnologiche che ne possono derivare e in questo concordiamo con l’affermazione di Feynman: “Non si lavora per le applicazioni pratiche, ma per l’emozione della scoperta. . . l’emozione, che è la vera molla dell’impresa scientifica. Se non capite questo, non avete capito niente”. Pensiamo però che spiegare come funzionino cose con cui si ha a che fare nella vita quotidiana sia un modo efficace di spiegare la Scienza. È poi della politica il compito di tradurre in atti concreti la possibilità di uscire dalla crisi grazie a investimenti in ricerca e conoscenza e alle loro ricadute innovative. Purtroppo le politiche adottate dai governi che si sono succeduti in questi ultimi anni sono state miopi da questo punto di vista: l’istruzione e la ricerca sono state oggetto di tagli indiscriminati, fatti in nome della razionalizzazione e dell’efficientismo, ma spesso al di fuori di un quadro strategico di largo respiro. Per questo una rubrica sarà dedicata all’analisi degli effetti, anche nel breve periodo, di tali politiche. Alla luce di tutto ciò riteniamo che una buona divulgazione scientifica non possa esimersi dal cercare di far prendere coscienza di cosa sia la Scienza e del perché noi scienziati e comunicatori riteniamo sia cosı̀ importante per la vita della nostra società. Alessio Cimarelli [email protected] Carlo Mancini [email protected] Silvia Mariani [email protected] Leonardo Barcaroli [email protected] Erica Chiaverini [email protected] Niccolò Loret [email protected] Isabella Malacari [email protected] Massimo Margotti [email protected] Kristian Gervasi Vidal [email protected] C OMMISSIONE SCIENTIFICA Giorgio Parisi [email protected] Giovanni Battimelli [email protected] Fabio Bellini [email protected] Lara Benfatto [email protected] Riccardo Faccini [email protected] Francesco Piacentini [email protected] Antonio Polimeni [email protected] Antonello Polosa [email protected] H ANNO CONTRIBUITO L. Benfatto, A. Bonforti, A. Cimarelli, C. Cosmelli, U. Ferrari, M. Margotti, M. Mitrano, L. Orlando, la Redazione, T. Scopigno. S I RINGRAZIANO ANCHE Donald E. Knuth, Leslie Lamport, la Comunità del TEX Users Group (TUG: www.tug.org) e Gianluca Pignalberi Con il patrocinio del accastampato num. 1, Giugno 2010 Indice num. 1, Giugno 2010 La ricerca scientifica a Roma: informare, orientare, incuriosire EDITORIALE La divulgazione della Scienza a partire da chi la fa 3 Un progetto ambizioso e difficile, una rivista realizzata interamente da studenti accastampato, Creative Commons e Patamu 9 di A. Bonforti Tutti i contenuti di accastampato sono rilasciati sotto licenza Creative Commons BY–NC–SA e la loro paternità protetta da marca digitale grazie a patamu.com: vediamo cosa significa. . . IL RESTO DEL NEUTRINO I segreti del cinema 3D RECENSIONI Storia del laser 6 di M. Mitrano Breve storia di un’invenzione che ha cambiato il mondo ESPERIMENTI Un palloncino sul phon 7 di C. Cosmelli Come il getto d’aria del phon tiene il palloncino sospeso sopra di sé ONDA LUNGA h̄σω τσ. . . di A. Cimarelli Gli enormi passi avanti fatti dalle tecnologie stereoscopiche aprono finalmente le porte a una forte espansione dell’intrattenimento cinematografico tridimensionale Il comportamento collettivo animale 16 di A. Cimarelli Cosa hanno in comune gli stormi di uccelli con i banchi di pesci o gli alveari di api? Un comportamento collettivo emergente sorprendentemente simile nonostante le differenze tra le specie 8 di la Redazione Breve descrizione di come è strutturata accastampato 4 11 accastampato num. 1, Giugno 2010 ONDA LUNGA La riforma dell’Università italiana 22 di L. Benfatto L’idea stessa di creare una vera competizione tra le varie università, allo scopo di attrarre gli studenti migliori, fallisce miseramente a fronte di un’obiettiva immobilità sociale del sistema italiano IL RICERCATORE ROMANO La transizione vetrosa 26 di T. Scopigno Nonostante un utilizzo molto diffuso dei materiali vetrosi, alcuni aspetti della transizione a questa particolarissima fase della materia non sono ancora pienamente compresi SCIENZARTE La pittura silenziosa 30 di M. Margotti Il lavoro di Piero della Francesca è emblematico del passaggio che nella sua epoca stava avvenendo in Italia a livello intellettuale e sociale: l’incontro tra arte e matematica, riconosciuta come unica risorsa per una descrizione della realtà NANOS GIGANTUM La prima lezione di Ettore Majorana 32 di A. Cimarelli La Prolusione di Ettore Majorana del 13 gennaio 1938 per il suo corso di Fisica Teorica all’Università Federico II di Napoli permette di comprendere le grandi capacità didattiche dello scienziato, scomparso misteriosamente nel marzo dello stesso anno EVENTI Copenhagen 36 di L. Orlando “Copenhagen” di Michael Frayn, da dieci anni nei teatri di tutto il mondo RECENSIONI Storia del laser C OPERTINA Breve storia di un’invenzione che ha cambiato il mondo di Matteo Mitrano (studente di Fisica) Per completezza e per la sua chiarezza mi permetto di citare la quarta di copertina, pubblicata anche sul sito della casa editrice. Il termine laser è ormai conosciuto al grande pubblico e molte delle applicazioni della luce che esso emette sono sotto gli occhi di tutti. Si parla di operazioni chirurgiche e di cure mediche eseguite mediante raggi laser; si sa che le discoteche usano questi raggi per creare particolari effetti di luce e che, per esempio, brevi impulsi di luce, sempre emessi da laser, viaggiando entro fibre di vetro e sostituendosi agli impulsi elettrici, permettono di realizzare collegamenti telefonici. Il laser è l’elemento essenziale delle stampanti dei quotidiani, di quelle dei computer e di alcuni radar e, inoltre, con i suoi raggi si può tagliare e forare ogni sorta di materiale, leggere CD, registrare, e riprodurre fotografie tridimensionali (ologrammi) e fare innumerevoli altre cose. Ma che cosa in effetti sia un laser e come esso funzioni sono in pochi a saperlo, oltre agli addetti ai lavori. Questo libro cerca di spiegarlo in modo comprensibile, pur senza prescindere da un certo numero di considerazioni strettamente tecniche, raccontando come si sia arrivati a costruirlo, insieme al maser, che è il suo gemello nel dominio delle microonde. La caratteristica dei laser di emettere fasci collimati e colorati deriva dal diverso modo in cui in essi è emessa la luce rispetto alle altre sorgenti. Nel libro si approfondisce cos’è la luce e come viene emessa, e a tale scopo si esamina come si comportano gli atomi, utilizzando alcuni concetti della meccanica quantistica adatti a descriverli... Nel cercare di capire i vari fenomeni seguendo un filo storico l’autore ricostruisce, in un certo senso, parte della storia della luce e i primi passi della meccanica quantistica, sia pure a un livello elementare. Detto questo il libro che sto descrivendo è un bel libro divulgativo che si muove in un segmento editoriale sempre più trascurato ovvero quello del lettore con preparazione scientifica di base medioalta che desidera approfondire un singolo tema o settore a lui poco noto. Ovviamente è un libro di lettura con un formalismo matematico veramente ridotto all’osso e presente solo quà e là nel testo ove necessario. A mio avviso, specialmente all’inizio, l’autore la prende troppo alla larga partendo da Galileo e il metodo scientifico e talvolta si perde in parentesi troppo dettagliate (ad es. il cap. 6 su Einstein). Naturalmente questo è il parere di uno studente del I anno di specialistica e necessariamente sarà diverso da quello del lettore non addetto ai lavori. Tuttavia gli ultimi capitoli riscattano tutto il testo fornendo molti retroscena storici e veramente molte informazioni sulla grande varietà di lasers oggi esistenti. Complessivamente i soldi investiti sono pienamente ripagati da questo saggio veramente completo e molto scorrevole nella lettura. Matteo Mitrano I NDICE 1. Introduzione 2. Le teorie ondulatoria e corpuscolare della luce 3. La spettroscopia 4. La teoria del corpo nero 5. L’atomo di Rutherford e di Bohr 6. Einstein 7. Einstein e la luce, l’effetto fotoelettrico e l’emissione stimolata 8. Microonde 9. Spettroscopia: atto secondo 10. La risonanza magnetica 11. Il maser 12. La proposta per un maser ottico 13. Le disavventure di Gordon Gould 14. E finalmente fu il laser! 15. A che cosa serve il laser? I N BREVE Titolo Autore Editore Anno Pagine Prezzo 6 accastampato num. 1, Giugno 2010 Storia del Laser Mario Bertolotti Bollati Boringhieri 1999 390 35.00 e ESPERIMENTI Un palloncino sul phon S CHEMA Come il getto d’aria del phon tiene il palloncino sospeso sopra di sé di Carlo Cosmelli (Professore di Fisica alla Sapienza) A ccendere il phon a mezza forza e tenerlo fermo con il getto d’aria rivolto verso l’alto. Prendere il palloncino e poggiarlo delicatamente nel mezzo del flusso di aria sopra il phon. Si vedrà che il palloncino si metterà in una posizione di equilibrio, più in alto o più in basso del punto in cui l’avevate lasciato, e ci rimarrà stabilmente. Suggerimenti e astuzie Se il palloncino fosse troppo leggero, cioè se vola via, vuol dire che il getto d’aria è troppo forte. In tal caso ridurre il getto d’aria. Se non fosse possibile, provare ad aumentare la massa del palloncino inserendo un po’ d’acqua (circa mezzo cucchiaino) dentro di esso prima di gonfiarlo. Approfondimento Il palloncino rimane in equilibrio per due ragioni: la prima è semplicemente la forza generata dal flusso d’aria diretto verso l’alto. Il flusso d’aria è più forte all’uscita del phon e diminuisce di intensità man mano che ci si allontana dalla bocca del phon. Ci sarà un punto in cui la forza esercitata dal flusso d’aria è uguale alla forza di gravità che si esercita sul palloncino. In questa posizione il palloncino potrà stare in equilibrio. Tuttavia questo potrebbe essere un punto di equilibrio instabile, per spostamenti laterali. Invece si può vedere che se diamo delle piccole botte al palloncino, questo si sposta dalla posizione di equilibrio, ma tende poi a ritornare verso il centro del getto d’aria, rimanendo sempre in equilibrio. Questo vuol dire che c’è un secondo effetto che mantiene il palloncino in posizione: si tratta dell’effetto combinato del principio di Bernouilli e dell’effetto Coandă. Quello che succede è che l’aria che esce dal phon crea una specie di guscio intorno al palloncino, dandogli un ulteriore supporto. Possiamo accorgerci di questo effetto anche spostando il getto di aria del phon dalla posizione verticale, inclinandolo lateralmente. Si può vedere come, per angoli non troppo grandi, il palloncino continua a restare sospeso nel mezzo del getto di aria, anche se ora si trova fuori dalla verticale innalzata dalla bocca del phon. Il palloncino può essere anche sostituito da una pallina da ping-pong, dipende dalla potenza del phon. Principio di Bernoulli ed effetto Coandă Esempio dell’effetto Coandă, da it. wikipedia.org M ATERIALE • 1 palloncino gonfiato poco (10 ÷ 15cm) • 1 phon elettrico A RGOMENTO • Equilibrio di un corpo in un fluido • Fluidi reali di Isabella Malacari Un problema con cui ci siamo confrontati tutti? Riuscire a bere da una fontanella senza bagnarsi completamente volto e maglietta! Perché l’acqua che ci bagna il viso, anziché gocciolare giù dal mento, scorre lungo il collo? L’adesione di un fluido (un liquido o un gas) lungo superfici ricurve prende il nome di effetto Coandă: lo strato del fluido prossimo alla superficie su cui scorre, rallentando per attrito, vincola il movimento degli strati esterni a causa della reciproca attrazione; l’effetto mette in rotazione gli strati esterni verso l’interno, facendo aderire il fluido alla superficie stessa. Ma questo non è certo l’unico fenomeno visibile nella dinamica dei fluidi. Prendiamo ad esempio tra le dita gli angoli del lato corto di un foglietto di carta (uno scontrino per esempio) e avviciniamoli alla bocca. Soffiando delicatamente appena sopra il foglio, questo si alzerà, restando sospeso a mezz’aria; aumentando la forza del soffio, il foglio inizierà a sbattere freneticamente. Il fluire dell’aria sul lato superiore del foglio causa, infatti, una diminuzione della pressione rispetto al lato inferiore che, pertanto, è spinto verso l’alto. In questo caso è il principio di Bernoulli che garantisce infatti che ad ogni aumento della velocità di un fluido corrisponde una diminuzione della sua pressione e viceversa. Effetto Coandă e principio di Bernoulli non sono indipendenti, ma possono essere descritti come casi particolari di una teoria generale dei fluidi, fondata sui lavori degli scienziati Claude-Louis Navier e George Stokes. accastampato num. 1, Giugno 2010 h̄σω τσ. . . Breve guida per evitare di perdersi fra queste pagine la Redazione ara lettrice e caro lettore, queste poche righe sono per spiegarti come è nata questa rivista e come provare a interpretarla. Accastampato è nata dall’impegno di un gruppo di studenti di Fisica della Sapienza, certamente non specialisti nella difficile arte della divulgazione scientifica, ma senza dubbio appassionati di ciò che hanno scelto di studiare. L’intento esplicito è quello di raccontare non solo la fisica già data per assodata, ma soprattutto gli esperimenti e la ricerca di frontiera, cercando di evidenziare quali siano i problemi ancora aperti delle teorie oggi comunemente accettate o ancora dibattute nella comunità scientifica. Non pensiamo di poter riuscire a pieno in questo progetto ambizioso, ma speriamo di poterti almeno incuriosire. Ti invitiamo a non scoraggiarti nel caso in cui alcune cose ti siano poco chiare e ti esortiamo ad approfondire i concetti più difficili. Per aiutarti ogni articolo è accompagnato da una bibliografia dettagliata e da un indice di difficoltà (da 1 a 3 atomini) con cui stimiamo l’impegno richiesto per una buona comprensione. Non esitare a mandarci commenti, critiche o richieste di qualunque tipo a [email protected]. C Ecco qui si seguito una breve panoramica della rivista, divisa in diverse sezioni e varie rubriche. La sezione Il Ricercatore Romano racconterà il lavoro dei ricercatori del Dipartimento di Fisica della Sapienza. Abbiamo scelto di non limitare troppo la lunghezza dei singoli articoli, pur sapendo di violare una delle prime regole dell’editoria contemporanea: preferiamo rischiare e dilungarci un po’ più del dovuto che rinunciare a spiegare almeno nei punti essenziali quale sia il senso di una ricerca che spesso richiede anni per essere portata a termine. Per facilitare la lettura abbiamo cercato di illustrare gli aspetti fondamentali nelle prime pagine, lasciando alla seconda parte un approfondimento successivo. Una sezione speciale, Il Resto del Neutrino, sarà dedicata alla spiegazione scientifica di tecnologie e fenomeni comuni, troppo spesso sconosciuti e a volte percepiti come apparentemente misteriosi. Con questi articoli vogliamo sottolineare come la Scienza e il metodo scientifico permeino ormai profondamente quasi ogni aspetto della vita, con l’esplicito scopo di combattere il sempre più diffuso utilizzo inconsapevole della tecnologia moderna. La sezione Nanos Gigantum ripercorrerà alcune delle tappe fondamentali del pensiero scientifico, affinché le meraviglie naturali a cui rivolge la sua attenzione possano essere comprese non solo sul corretto piano logico o applicativo, ma anche nel loro inquadramento storico. Sarà quindi un’opportunità preziosa per recuperare il gusto del cammino verso la conoscenza, a fianco allo stupore mai sopito per i contenuti della conoscenza stessa. Completano la rivista le rubriche dedicate agli Eventi rilevanti nel panorama scientifico italiano e internazionale, alle Recensioni di libri e non solo, che possano fungere da spunto per un approfondimento o da guida per esplorare nuovi orizzonti, agli Esperimenti da fare anche in casa per toccare con mano alcuni principi delle leggi naturali, alle problematiche sociali, politiche ed economiche connesse alla pratica scientifica di Onda Lunga e infine ai rapporti più o meno ovvi tra Arte e Scienza in ScienzArte. In conclusione ti ricordiamo che Accastampato è protetta con licenza Creative Commons, il che significa che sei libero di scaricarla, copiarla, stamparla e diffonderla. Le uniche limitazioni sono l’obbligo di citare la fonte, di coprire con la stessa licenza le eventuali opere derivate e il divieto di usarle in opere commerciali. Buona lettura! Cos’è Accatagliato Accatagliato è un’associazione di studenti di Fisica della Sapienza, esiste di fatto dalla fine del 2005, ma da Dicembre 2009 è riconosciuta dalla Regione Lazio. Il sito è raggiungibile all’indirizzo www.accatagliato.org e le varie attività possono essere seguite online mediante la pagina Facebook (www.facebook.com/accatagliato), il canale Twitter (twitter.com/accatagliato) e il canale di Youtube (www.youtube.com/user/ accafilmato). Il nome un po’ bizzarro e difficilmente comprensibile per chiunque non abbia studiato la Meccanica Quantistica deriva da una costante ben nota a tutti coloro che studiano FisiSimbolo di h̄, costante di Planck. ca: si tratta della costante di Dirac, proporzionale alla più nota costante di Planck h, che definisce la scala a cui è necessario usare la Meccanica Quantistica al posto della Fisica Classica. 8 accastampato num. 1, Giugno 2010 accastampato, Creative Commons e Patamu Una questione di licenze. . . Adriano Bonforti (Studente di Fisica, Terza Università degli Studi di Roma) a rivista accastampato ha scelto di liberare sin dal suo primo numero il proprio contenuto con licenze Creative Commons (CC), attraverso la consulenza e la collaborazione del sito patamu.com, che ha contestualmente fornito un servizio di tutela dal plagio. Per una rivista di carattere scientifico divulgativo la scelta non poteva essere migliore, poiché la Scienza e il Sapere in generale sono o dovrebbero essere per definizione libere da vincoli di diffusione ed elaborazione. D’altra parte la storia della scienza è un’ottima e convincente dimostrazione di quanto virtuose possano essere la condivisione e la libera fruizione del sapere per il progresso scientifico. In questo articolo proponiamo una breve panoramica sulle licenze CC e sul servizio offerto da Patamu. L ------------------------------------------- accastampato ha scelto di liberare sin da questo primo numero il proprio contenuto con licenza Creative Commons ------------------------------------------Per questo ci si riferisce spesso alle licenze di Creative Commons come licenze copyleft. Per favorire il più possibile la libera circolazione di questa rivista e dei suoi contenuti, abbiamo scelto di liberarla attraverso la licenza CC di tipo BY- NC - SA (attribution, non commercial, share alike): significa che tutti i suoi contenuti possono essere riprodotti e diffusi, a condizione che ciò non avvenga per scopi commerciali e che venga sempre indicato l’autore. Le opere possono inoltre essere modificate a condizione che sussista l’assenza di lucro e che l’autore e l’opera originaria vengano sempre indicati e informati ove possibile; infine, l’opera derivata deve essere a sua volta liberata con le stesse condizioni. Figura 1 Logo di patamu.com Creative Commons Public Licenses Le Creative Commons Public Licenses (CCPL) sono delle particolari licenze che permettono di distribuire un’opera d’arte o di ingegno svincolandola parzialmente dalle rigide imposizioni del diritto d’autore tradizionale (copyright). La loro nascita si ispira al principio di natura legislativa in base al quale chi crea un’opera di ingegno, una volta dimostratane la paternità, può disporre di essa come meglio crede, riservandosene i diritti in toto o solo in parte. Le licenze CCPL si basano quindi sul principio “alcuni diritti riservati” anziché “tutti i diritti riservati”: attraverso di esse l’autore svincola la propria opera secondo determinate modalità, concedendone ad esempio la diffusione gratuita e libera in assenza di scopo di lucro. In altre parole, per mezzo delle CCPL l’autore dà esplicitamente il consenso affinché la sua opera possa circolare ed essere diffusa più o meno liberamente, disponendo come vuole dei propri diritti. Ciò in contrapposizione al caso del copyright tradizionale, nel quale ciò non è possibile. Figura 2 Locandina Creative Commons (da OilProject) accastampato num. 1, Giugno 2010 9 ONDA LUNGA Patamu Spendiamo infine qualche parola per presentare il sito Patamu, attualmente in versione beta, che oltre ad offrire consulenza per quanto riguarda le tematiche CC e la cultura libera in generale, permette di integrare le licenze CC apponendo ad ogni opera inviata una sorta di timbro temporale informatico con validità legale riconosciuta dallo Stato Italiano. Il servizio al livello base è gratuito e permette di tutelare dal plagio e di rilasciare contestualmente in Creative Commons qualsiasi opera artistica o di ingegno: opere musicali, foto, ma anche libri, articoli di giornale o di blog, articoli scientifici e quant’altro. Per case editrici, etichette, associazioni, società, o per chiunque volesse accedere a servizi più specifici e mirati, sarà possibile abbonarsi con una piccola somma a vari servizi avanzati. Pur essendo possibile su Patamu la semplice tutela dell’opera, abbiamo scelto di offrire il servizio gratuitamente per chiunque sia disposto a liberare contestualmente l’opera in CC. Questa scelta è stata certamente fatta per incoraggiare e favorire la diffusione della cultura cosiddetta open source, ma c’è anche un altro motivo: capita spesso infatti che le persone rimangano diffidenti di fronte alla dicitura “alcuni diritti riservati” e ritengano che il modo più pratico e sicuro di tutelare la propria opera sia quello di rimanere detentore di tutti i diritti. Paradossalmente, però, in questo modo sono essi stessi a frenare la diffusione della propria opera, in quanto il copyright tradizionale ne rende più difficoltosa la diffusione – ad esempio via internet, o via radio – anche in assenza di lucro. Il copyleft è quindi, a nostro avviso, anche il modo più pratico e moderno per permettere di promuovere e far conoscere ad un numero più ampio possibile di persone il proprio prodotto artistico. In questo contesto la tutela dal plagio fornita dal sito non diventa più un’azione di tutela dell’autore fine a se stessa, ma si trasforma in un mezzo per diffondere le proprie opere senza il timore di essere plagiati, favorendo la libera circolazione della creatività e della cultura sotto qualsiasi forma e contribuendo a innescare un circolo virtuoso da cui possono trarre vantaggio autori e utenti dell’opera allo stesso tempo. Per richiedere qualsiasi informazione sulle tematiche CC o sui servizi del sito, o per partecipare alla fase di test della versione beta, siete i benvenuti su patamu.com. Bibliografia (1) Creative Commons: www.creativecommons.it (2) Copyleft: www.copyleft-italia.it (3) Patamu.com: www.patamu.com Sull’autore Adriano Bonforti ([email protected]) è esperto in licenze di copyleft ed è amministratore del sito www. patamu.com I segreti del cinema 3D Teoria e tecniche alla base della nuova era dell’intrattenimento digitale Alessio Cimarelli (Laboratorio Interdisciplinare per le Scienze Naturali e Umanistiche – Sissa) a visione tridimensionale o, in altre parole, la percezione della distanza a partire da una proiezione bidimensionale della luce in ingresso è basata sulle leggi della stereometria. Il supporto può essere la retina, una pellicola fotografica o una CCD, non c’è differenza: la stessa scena fotografata contemporaneamente da due posizioni leggermente diverse, ad esempio meno di una decina di centimetri nel caso degli occhi, produce due immagini in cui gli oggetti più vicini presentano una traslazione laterale relativa all’interno del campo visivo maggiore rispetto agli oggetti piu lontani (vedi Figura 1). L Figura 2 Alcuni esempi di videocamere dedicate al cinema 3D (quelle con doppio obiettivo) o adattate per lo scopo in alcuni recenti film 3D. In fase di riproduzione si vuole far giungere all’occhio destro dello spettatore il film girato dalla macchina destra e viceversa, in modo che il cervello possa combinare naturalmente le due immagini e ricostruire la scena tridimensionale. Ci sono molti modi per ottenere questo effetto: mediante filtri colorati (anaglifia), filtri polarizzati circolarmente o linearmente oppure filtri shutter LCD, la cui trasparenza varia alternativamente in sincronia con le immagini. Anaglifia Figura 1 Sovrapposizione di due fotogrammi scattati da due posizioni differenti, in cui il borotalco è centrato e a fuoco. Attraverso questo shift relativo è possibile ricavare con una certa precisione la distanza dell’oggetto in questione: nel caso di macchine fotografiche, conoscendo solo la distanza tra gli obiettivi, le loro inclinazioni relative e applicando semplici equazioni. Il cervello umano riesce a risolvere naturalmente queste equazioni a partire dal secondo, terzo anno di età. Nel cinema 3D vero, cioè né d’animazione, né adattato in post-produzione, il film viene girato contemporaneamente da due videocamere ad alta risoluzione e velocità, montate l’una accanto all’altra con una certa distanza tra gli obiettivi. Macchine di questo tipo molto diffuse sono per esempio la Red One e la Silicon Imaging SI-2K Digital Cinema Camera (vedi Figura 2). Si tratta del 3D tradizionale e più conosciuto, che ha però il grosso limite di non poter rendere scene colorate, in quanto i filtri utilizzati lavorano proprio in frequenza su due soli colori (vedi Figura 3). La luce infatti non è altro che un’oscillazione del campo elettromagnetico e per questo è detta onda elettromagnetica: i campi elettrico e magnetico oscillano in direzioni perpendicolari, tra loro e rispetto alla direzione di propagazione dell’onda. La frequenza di quest’ultima è semplicemente il numero di oscillazioni che compie nell’unità di tempo. L’unità di misura delle oscillazioni è l’Hz, un’oscillazione al secondo. In questo ambito si usa molto il terahertz (THz), che corrisponde a 109 Hz e ad una lunghezza d’onda di 3 × 105 nm (nanometri, 10−9 m). Le due grandezze sono legate tra loro dalla semplice relazione λ = νc , con λ lunghezza d’onda, c velocità della luce e ν frequenza. L’insieme dei valori della frequenza della luce viene detto spettro e la finestra del visibile (ovvero le frequenze della luce a cui i nostri occhi sono in media sensibili) va dai 400 ai 790 THz o, se si preferisce, dai 750 ai 380 nm. Il cervello percepisce le diverse frequenze sotto forma di colori, dal rosso (basse frequenze, grandi lunghezze d’onda) al violetto (alte frequenze, piccole lunghezze d’onda), come evidenziato nella Figura 4. accastampato num. 1, Giugno 2010 11 IL RESTO DEL NEUTRINO Figura 4 Spettro della luce, in cui è evidenziato l’intervallo a cui l’occhio umano è in media sensibile. Qui sono riportati i valori della lunghezza d’onda in nm (nanometri, 10−9 m) invece delle frequenze. Figura 3 Esempio di anaglifo stampato su carta. zione di raggi luminosi i cui campi sono diretti casualmente l’uno rispetto all’altro. Una luce si dice invece polarizzata se la direzione di oscillazione del campo elettrico è costante nel tempo (tra le due situazioni ce ne sono infinite intermedie, dette di luce parzialmente polarizzata). Dato che campo magnetico ed elettrico sono perpendicolari, qualsiasi direzione sul piano che individuano può essere scomposta in due contributi lungo due assi perpendicolari a scelta. Mediante speciali filtri è possibile selezionare una particolare direzione di polarizzazione e scartare l’altra: è il caso delle ben note lenti Polaroid (vedi Figura 6). ------------------------------------------- La stereoscopia permette di ricavare la distanza di un oggetto da una coppia di immagini prese da due posizioni diverse ------------------------------------------Le due immagini stereoscopiche prendono il nome di stereogrammi e vengono stampate sulla stessa foto, ma mediante due colori complementari, tipicamente rosso e verde. I filtri sono costituiti da una coppia di lenti colorate montate su di un paio di occhiali (vedi Figura 5). Questi filtri sono costituti da sostanze che assorbono o riflettono tutto lo spettro tranne la piccola porzione relativa al proprio colore, che viene trasmessa e/o in parte riflessa. Essendo verde e rosso complementari, quindi lontani in frequenza, un filtro rosso assorbe tutta la luce verde e viceversa. Cosı̀ ad ogni occhio giunge solo la sequenza di immagini che gli spetta e il cervello interpreta la differenza tra i due flussi come distanza degli oggetti. Il sistema è estremamente economico, ma ormai superato. Luce polarizzata e la soluzione RealD La resa dei colori è invece ottima mediante filtri che lavorano in polarizzazione, nome con cui si indica la direzione di oscillazione del campo elettrico. Normalmente la luce a cui siamo abituati non è polarizzata, nel senso che è composta da una sovrapposi12 Figura 5 Schema di funzionamento del tradizionale cinema 3D. Nel caso del cinema 3D, quindi, i due filmati, uno per l’occhio destro e l’altro per quello sinistro, vengono proiettati contemporaneamente sullo schermo da due proiettori sincronizzati: di fronte a ognuno di essi è posto un polarizzatore, lineare o circolare. Nel primo caso i campi elettrico e magnetico oscillano in fase, cioè raggiungono il loro valore massimo insieme, mentre nel secondo in controfase: quando uno è massimo, l’altro è minimo e viceversa. In questo modo agli occhi dello spettatore la luce dei due filmati giunge con due polarizzazioni indipendenti e le lenti montate op- accastampato num. 1, Giugno 2010 IL RESTO DEL NEUTRINO (vedi Figura 8). Sono quindi necessari schermi speciali, detti silverscreen perché trattati con particelle d’argento che, essendo un metallo, riflette quasi tutta la luce, lasciandone cosı̀ intatta la polarizzazione. Schermi costosi e che soprattutto non sono adatti alle classiche proiezioni 2D, perché troppo luminosi: necessitano quindi di sale dedicate alle sole proiezioni 3D. Figura 6 Schema intuitivo del funzionamento di un filtro Polaroid. portunamente sugli occhiali selezionano quella corretta per ogni occhio. In altre parole, di fronte ad ogni proiettore c’è lo stesso filtro Polaroid montato davanti all’occhio a esso associato. La scelta dei due tipi di polarizzazione, lineare o circolare, non è equivalente: nel primo caso i filtri del proiettore e dell’occhio associato sono uguali, cioè lasciano passare esattamente le stesse immagini, solo se la testa dello spettatore è perfettamente verticale e quindi allineata con il filtro del proiettore. In questo caso piegare la testa di lato significa per ogni occhio vedere parte del filmato destinato all’altro perché i due filtri inclinati tra loro mescolano le due polarizzazioni, fino a che l’effetto 3D non svanisce completamente. Nel caso della polarizzazione circolare questo problema non esiste, ma in compenso i filtri relativi sono più costosi e un po’ meno efficienti: è il caso comunque della tecnologia più diffusa al momento, RealD (vedi Figura 7), che tra l’altro utilizza un solo proiettore a doppia velocità (48 fps, frames al secondo, con fotogrammi destro e sinistro alternati) e un filtro Polaroid oscillante, che polarizza in maniera opposta i fotogrammi alternati. Ciò diminuisce sicuramente i costi, ma riduce anche sensibilmente la luminosità delle immagini, anche del 50%, a causa del lavoro dei filtri. ------------------------------------------- Figura 7 Occhiali polarizzatori del sistema RealD. Luce colorata e la soluzione Dolby3D La tecnologia concorrente alla RealD più accreditata al momento è quella della Dolby, Dolby3D (vedi Figura 9), basata invece su un avanzato sistema di filtri in frequenza e il cui proiettore produce ben 144 fps, 72 per ogni occhio: ogni frame viene ripetuto tre volte consecutivamente. I filtri Polaroid permettono a ogni occhio di vedere solo il filmato a esso dedicato ------------------------------------------Un elemento importante per i sistemi basati sulla polarizzazione della luce è lo schermo, in quanto la luce proiettata, prima di giungere agli occhi degli spettatori, deve essere da esso riflessa. Una superficie qualsiasi, però, come quella degli schermi classici, fa perdere irrimediabilmente polarizzazione alla luce incidente: la rugosità della superficie in un certo senso mescola le carte, in quanto ogni microsuperficie piana riflette la luce polarizzandola in parte lungo la direzione parallela a sé, che è diversa dalla direzione di polarizzazione incidente e soprattutto casualmente diretta Figura 8 Una luce incidente all’angolo di Brewster (specifico per ogni materiale e dipendente anche dalla frequenza) viene riflessa e assorbita in proporzioni diverse a seconda della polarizzazione. accastampato num. 1, Giugno 2010 13 IL RESTO DEL NEUTRINO Figura 9 Occhiali con filtri dicroici del sistema Dolby3D. Come nel caso RealD, il proiettore non è dedicato, purché assicuri velocità e risoluzioni richieste. Tra la lampada e l’ottica viene posto un filtro cromatico rotante (un disco diviso in sei settori colorati) che per ogni frame filtra un colore diverso. Tre settori sono rosso, verde e blu, gli altri hanno gli stessi colori, ma di una tonalità leggermente più chiara. Su uno schermo bianco normale arrivano in un 24-esimo di secondo le sei immagini, riflesse verso gli spettatori. Le lenti degli occhiali sono filtri dicroici composti da qualche decina o centinaia di strati atomici depositati sotto vuoto su un substrato di vetro. Hanno una finestra di trasmissione in frequenza molto stretta proprio attorno ai colori del filtro rotante, controllata con molta precisione variando lo spessore degli strati depositati. Il resto della luce viene riflesso e ciò, come nel caso di RealD, causa una diminuzione notevole della luminosità. In questo modo, comunque, a ogni occhio giungono solo i rispettivi tre fotogrammi colorati, che il cervello combina in un’immagine tridimensionale a colori reali (vedi Figura 10). I vantaggi di questa soluzione rispetto alle concorrenti sono molti: occhiali passivi, quindi economici quasi quanto quelli della RealD, costi contenuti, ma soprattutto la possibilità di adattare in poco tempo qualsiasi sala cinematografica 2D, purché dotata di un proiettore digitale moderno, in maniera non permanente grazie all’uso dello schermo standard e alla rimovibilità del filtro rotante colorato. Un punto a favore molto importante per la rapida estensione di questa tecnologia. Schermi LCD Un’ulteriore tecnologia 3D, messa in campo per prima dalla nVidia per il settore videoludico, si basa su particolari occhiali attivi le cui lenti, dette shutters, possono oscurarsi alternativamente, passando da uno stato di trasmissione totale della luce a uno di riflessione in pochi centesimi di secondo. Le lenti sono costituite da uno strato di cristalli liquidi che si orientano opportunamente quando sono sottoposti a una differenza di potenziale, esattamente come i ben conosciuti schermi LCD (Liquid Crystal Display). Nel caso in esame rendono semplicemente la lente trasparente o opaca. Un proiettore a doppia velocità (48 fps) alterna i fotogram14 Figura 10 Schema di funzionamento del sistema Dolby3D. 1) Colori primari nei proiettori del cinema 2D standard. 2) Nel Dolby3D ogni colore primario è separato in due tonalità, una per l’occhio sinistro e l’altra per il destro. 3) Dato che per ogni occhio sono usati tutti e tre i colori primari, la resa cromatica finale è realistica. mi destinati ai due occhi e gli occhiali sono a esso sincronizzati mediante un sistema wireless, in modo da selezionare il giusto fotogramma per ogni occhio (vedi Figura 11). Le lenti sono basate sulle peculiari proprietà ottiche dei cristalli liquidi, che rispondono a campi elettrici esterni orientandosi parallelamente a essi. Tale liquido è intrappolato fra due superfici vetrose provviste di contatti elettrici, ognuno dei quali comanda una piccola porzione del pannello identificabile come un pixel. Sulle facce esterne dei pannelli vetrosi sono poi posti due filtri polarizzatori disposti su assi perpendicolari tra loro. I cristalli liquidi, quando sono orientati casualmente, sono in grado di ruotare di 90◦ la polarizzazione della luce che arriva da uno dei polarizzatori, permettendole di passare attraverso l’altro. Quando il campo elettrico viene attivato, invece, le molecole del liquido si allineano parallelamente a esso, limitando la rotazione della luce in ingresso. A un allineamento completo dei cristalli, corrisponde una luce polarizzata perpendicolarmente al secondo polarizzatore, che quindi la blocca del tutto (pixel opaco). Controllando la torsione dei cristalli liquidi in ogni pixel, proporzionale al campo elettrico applicato, si può dunque regolare quanta luce far passare. Questa tecnologia, che non fa uso di filtri né in frequenza né in accastampato num. 1, Giugno 2010 IL RESTO DEL NEUTRINO Figura 11 Alcuni esempi di occhiali LCD Shutters. polarizzazione, risolve alla radice alcuni problemi, come la non perfetta resa cromatica del primo caso, ma riduce sensibilmente la luminosità e ha il costo più alto in assoluto (ogni occhiale può raggiungere i 100$). È però la più accreditata, come dimostra l’offerta dedicata all’Home Enterteinment di nVidia, per il prossimo futuro dell’Home Cinema 3D, soprattutto alla luce dei moderni schermi LCD o al plasma con frequenze di aggiornamento di 200 Hz o più. A margine segnalo che la Creative offre una soluzione ulteriore e radicale con il suo nuovo sistema MyVu, in cui all’interno degli occhiali sono montati veri e propri schermi LCD opportunamente messi a fuoco da lenti ottiche: semplicemente infilandosi gli occhiali, si può vedere il filmato scelto come in un sistema head-up (schermo virtuale sovrapposto alla realtà esterna) con una risoluzione di 640x480 a 24 bit di profondità di colore e una frequenza di aggiornamento di 60Hz, vale a dire una qualità equivalente al dvd, ma non ancora all’alta definizione del blu-ray. Per ora non si parla di funzionalità 3D, ma è evidente che un semplice sistema di input a doppio canale video, uno per ogni schermo, lo permetterebbe. Soluzione sicuramente interessante per l’intrattenimento privato, a differenza evidentemente di quello cinematografico. Commenti A mio avviso nelle tecnologie appena elencate c’è un problema di fondo che non è legato alla particolare implementazione usata, ma proprio alle caratteristiche intrinseche della fotografia e della stereoscopia. Il sistema visivo umano è tale che la messa a fuoco è automatica e segue il processo attentivo: il punto della scena su cui poniamo attenzione è sempre messo a fuoco (nei soggetti sani o portatori di occhiali correttivi, naturalmente), a meno che non cerchiamo consapevolmente di vedere zone sfocate dell’immagine (il classico caso delle gocce su una finestra). Nella fotografia (sia da stampa che cinematografica), invece, l’estensione della zona di messa a fuoco (profondità di campo) è limitata, soprattutto per scene miste con oggetti sia in primo piano che sullo sfondo. Guardando una foto o un film bidimensionale noi vediamo le zone sfocate e non possiamo ovviamente metterle a fuoco ulteriormente. Usiamo però quest’informazione per ricostruire idealmente le distanze relative tra i vari oggetti, partendo dal presupposto che gli oggetti più lontani siano più sfocati rispetto al- l’oggetto in primo piano, a fuoco. Nel caso del cinema 3D, però, noi già vediamo una scena tridimensionale e l’informazione data dalle zone fuori fuoco non serve. Porre quindi l’attenzione su queste zone dà fastidio, soprattutto se ci sono oggetti in movimento, che evidenziano l’omonimo effetto (motion blur, in inglese). Curiosamente questo permette al regista, che decide dove mettere a fuoco la scena, di catturare molto di più l’attenzione dello spettatore sui particolari che gli interessa sottolineare, quasi costringendolo a guardare ciò che vuole. Bibliografia (1) Anaglifia: http://en.wikipedia.org/wiki/ Anaglyph_image (2) Semplice tutorial per realizzare stereogrammi: http://dicillo.blogspot.com/2007/07/ tutorial-stereografia-come-realizzare.html (3) Silicon Imaging SI-2K Digital Camera: www.siliconimaging.com/DigitalCinema/SI_2K_ key_features.html (4) 3DStereo.it: www.3Dstereo.it (5) Bob’s trip into Dolby3D Technology: www.moviestripe.com/dolby3D/ (6) The Dolby solution to Digital 3D: http://www.edcf.net/edcf_docs/dolby-3D.pdf (7) Dolby3D: http://www.dolby.com/consumer/ technology/dolby-3D.html (8) Filtri dicroici: http://en.wikipedia.org/wiki/ Dichroic_filter (9) LCD: http://it.wikipedia.org/wiki/LCD (10) Creative MyVu: www.tecnologiecreative.it/ schede/MyVu_Edge_301/index.html Sull’autore Alessio Cimarelli ([email protected]) si è laureato in Fisica nel settembre 2009 alla Sapienza di Roma, con una tesi sul comportamento collettivo degli stormi di uccelli in volo (progetto Starflag). È tra gli ispiratori e gli amministratori del portale accatagliato.org. Al momento frequenta il Master in Comunicazione Scientifica alla Sissa di Trieste, collaborando attivamente con il portale accatagliato.org e la rivista accastampato. accastampato num. 1, Giugno 2010 15 Il comportamento collettivo animale Una grande varietà di specie animali mostrano spesso comportamenti di gruppo simili Alessio Cimarelli (Gruppo S TARFLAG, CNR/INFM) on il termine comportamento collettivo si intende l’emergenza di proprietà di un gruppo irriducibili a quelle dei singoli individui che lo compongono, caratteristiche per lo più dipendenti dalle mutue interazioni tra di essi. Condizione fondamentale per un comportamento emergente è che ogni individuo interagisca con gli altri alla pari, con le stesse modalità, che non ci siano cioè elementi primari (ad es. leader) che dettino il comportamento ad altri elementi secondari, né elementi esterni che influiscano globalmente sul sistema, individuo per individuo indipendentemente. Le interazioni hanno normalmente natura locale, vale a dire che ogni individuo interagisce con un numero limitato di altri suoi simili, rimanendo sostanzialmente all’oscuro del comportamento globale del gruppo a cui appartiene, molto più vasto della sua sfera di interazione. Spesso l’interazione con un ambiente esterno dinamico è centrale, specialmente nei sistemi biologici. Il principale indizio della presenza di un comportamento collettivo è l’apparire di patterns macroscopici ordinati, di configurazioni particolari e persistenti del sistema su scala maggiore dell’estensione dei singoli individui. Questa è una condizione necessaria, ma non sufficiente, in quanto ci sono casi in cui è sufficiente il teorema del Limite Centrale (box a pag. 20) dei processi aleatori per spiegare fenomeni ordinati e apparentemente coordinati (2). C I principi base dell’auto-organizzazione, condizione primaria del comportamento collettivo emergente, possono essere individuati in feedback positivi e negativi, in meccanismi di amplificazione di fluttuazioni casuali, di inibizione, catalizzazione, risposta a soglia, ridondanza e sincronizzazione (2). Tutta la ricerca che in questi decenni è andata sotto il nome di complessità ha insegnato che meccanismi di questo genere possono prodursi a partire da elementi legati tra loro da semplici regole, per lo più di natura non lineare. Ha insegnato come normalmente ci sia un parametro critico, interno o esterno al sistema, il cui valore permette la presenza o meno di uno stato ordinato, l’emersione quindi di un comportamento collettivo: la teoria delle transizioni di fase e dei fenomeni critici è una delle maggiori conquiste della Fisica moderna e sta dimostrando di essere applicabile con successo a tutti i fenomeni che mostrino auto-organizzazione. Nel caso di sistemi biologici, però, non si può prescindere dall’evoluzione e dalla selezione naturale dovute all’interazione continua e profonda con l’ambiente, per cui devono essere considerati anche meccanismi di massimizzazione della sopravvivenza e minimizzazione dei rischi, sia per gli individui, sia per l’intero gruppo. In un’ottica evolutiva l’aggregazione nel mondo biolo16 gico porta all’emersione di nuove funzioni che il gruppo riesce a espletare molto meglio del singolo individuo o che sono addirittura fuori dalla portata di quest’ultimo. Esempi sono l’abilità di costruire un formicaio, di regolare termicamente un alveare, di procacciarsi il cibo, di difendersi dai predatori, di aumentare l’efficacia delle scelte in un processo decisionale complesso (2). Figura 1 A sinistra, Lunepithema humile; a destra, code di turisti. Tutto ciò può far pensare che la selezione naturale abbia individuato nel comportamento collettivo un efficace mezzo per sopravvivere meglio all’ambiente, ma spesso questa connessione non è affatto immediata. Ad esempio l’aggregarsi in certi casi aiuta a difendersi dai predatori, ma in altri li attira: si pensi ai banchi di pesci, un incubo per gli squali, ma una benedizione per i pescatori. Inoltre i singoli animali sono molto più complessi di qualsiasi molecola e nel comportamento collettivo le dinamiche sociali devono sempre confrontarsi con quelle individuali: ad esempio la ricerca di cibo all’interno di una mandria è più efficiente, ma in caso di risorse scarse richiede la suddivisione tra tutti i suoi membri. Questo che potremmo definire dilemma dell’individualità si può tradurre nella domanda: su che scala agisce la selezione? Quali variabili determinano il punto oltre il quale il comportamento collettivo si esplica in configurazioni realmente adattative e con quali modalità? Queste domande appaiono ancora più importanti alla luce degli studi che hanno mostrato come l’auto-organizzazione sia un ingrediente centrale anche a livello genetico e di sviluppo dell’embrione. Nel seguito, senza alcuna pretesa di essere esaustivo o esauriente, presenterò e descriverò una parte degli studi sulla grande varietà di fenomeni biologici che a buon titolo rientrano nella categoria comportamento collettivo, sia dal punto di vista biologico e spe- accastampato num. 1, Giugno 2010 IL RESTO DEL NEUTRINO Figura 2 A sinistra, alveare di api; a destra, traffico a Los Angeles. rimentale, che da quello matematico e computazionale. Il tutto corredato da suggestive immagini che appartengono alla nostra esperienza quotidiana, ma che celano fenomeni naturali ancora non del tutto compresi. Colonie di formiche Una delle prime evidenze della presenza di meccanismi di autoorganizzazione nel mondo biologico si è avuta studiando le formiche (famiglia delle Formicidae, a cui appartengono più di 12000 specie, componenti il 10% dell’intera biomassa animale e il 50% di quella degli insetti) e il loro sistema di comunicazione e coordinamento basato su tracce chimiche di feromone. In molte specie le formiche operaie (foragers) rilasciano durante il loro cammino una sostanza volatile rilevabile dalle altre, con cui riescono a tracciare una pista invisibile dal formicaio alle risorse di cibo. Essendo volatile, la persistenza della pista dipende dalla frequenza del suo utilizzo da parte delle formiche, che la rafforzano seguendola. Questo è un tipico esempio di feedback positivo, unitamente a un meccanismo di inibizione (la volatilità del feromone). La possibilità che si instauri un procacciamento stabile di cibo basato sulle tracce di feromone dipende fortemente dal numero di operaie impegnate in questo compito, o in altre parole dalla dimensione del formicaio: vari esperimenti hanno dimostrato che il passaggio da una ricerca individuale e casuale a una basata sulle tracce chimiche ha le stesse caratteristiche delle transizioni di fase del primo ordine, confermate anche da simulazioni apposite (vedi box a pagina 29). Storicamente lo studio delle società di insetti è considerato alla base del paradigma dell’auto-organizzazione, perché inizialmente le incredibili capacità del formicaio o dell’alveare nel risolvere problemi molto al di là delle capacità della singola formica o ape apparivano incomprensibili senza appellarsi a improbabili capacità percettive e comunicative della regina. Poi, attraverso osservazioni, modelli e soprattutto un cambio di paradigma interpretativo, è stata individuata tutta una serie di abilità e comportamenti con alla base meccanismi auto-organizzativi. Ad esempio la presenza di fenomeni di biforcazione e di rottura spontanea di una simmetria: in un classico esperimento si costruiscono due vie identiche ma alternative tra il formicaio e una risorsa di cibo e si scopre che, superato un certo numero di operaie, l’utilizzo prima simmetrico di esse viene a mancare in favore di un solo cammino (cfr. Figura 3). In questo caso le leggere differenze iniziali nel numero di formiche che si dirigono da una parte o dall’altra divengono determinanti per la scelta finale del percorso. Da notare che se le due vie sono diverse, per esempio una più lunga dell’altra, la deposizione del feromone fa sı̀ che sia più concentrato lungo la via più breve e che quindi a regime sia sempre questa la più usata dalle operaie. È interessante anche un altro esperimento che dimostra come sia importante nei sistemi biologici un buon bilanciamento tra comportamento sociale e individuale, quest’ultimo modellizzabile in qualche caso come rumore statistico. Tale concetto è chiarito da un semplice esempio. Introducendo una risorsa di cibo nei pressi di un formicaio, dopo qualche tempo una formica scout la individuerà e, nel caso ci siano abbastanza operaie, si formerà una traccia persistente e un flusso stabile di cibo. Introducendo ora una nuova risorsa più energetica, la possibilità che il formicaio la scopra e la sfrutti dipende dall’accuratezza delle formiche nel seguire la vecchia traccia. Se fossero tutte infallibili, infatti, non abbandonerebbero mai un percorso già fissato. Solo se le caratteristiche comportamentali individuali sono abbastanza forti le operaie sono invece in grado di stabilire una nuova traccia verso la nuova risorsa, abbandonando la vecchia (3). Da quando il meccanismo delle tracce chimiche è stato scoperto, si è dimostrato che è alla base di numerose abilità delle formiche: raccolta di cibo, ottimizzazione dei percorsi anche sulla scala dei chilometri (4), strategie di combattimento, costruzione di formi- Figura 3 Esempi di configurazioni auto-organizzate nelle colonie di formiche (3). A sinistra, selezione spontanea di un percorso verso il cibo attraverso un ponte a diamante da parte di Lasius niger; a destra, gocce di Lunepithema humile cadono non appena raggiungono una taglia critica. accastampato num. 1, Giugno 2010 17 IL RESTO DEL NEUTRINO Figura 4 A sinistra, stormo di pipistrelli; a destra, sciame di locuste. cai sotterranei. Appare ora chiaro del perché quello degli insetti sia un esempio paradigmatico: a fronte di interazioni non lineari locali dirette (contatto e sfregamento) e indirette (deposito di feromone), grazie a meccanismi di feedback positivo (rafforzamento della traccia) e negativo (volatilità del feromone), si produce un qualche tipo di transizione di fase dipendente dalle dimensioni del formicaio, da cui emergono abilità collettive che amplificano enormemente le capacità dei singoli insetti. scale differenti. La fase ordinata è individuata dal grado di allineamento dei pesci e anche in questo caso sono stati forniti indizi della presenza di una transizione dal disordine all’ordine al variare della densità. I primi tentativi di analisi quantitativa risalgono a metà degli anni ’70, con un lavoro di Graves in cui si presenta un setting sperimentale originale per fotografare banchi di pesci nel loro ambiente naturale e stimarne densità e distanza media di primo vicino. Dal 1983 si inizia a utilizzare la tecnica stereoscopica per ricostruire le posizioni individuali dei pesci all’interno del banco, ottenendone una stima della densità, delle distanze reciproche, della distanza media di primo vicino, della forma e delle proporzioni. Vengono utilizzate tecniche di videofotografia stereo e un algoritmo di tracking per ricostruire le velocità dei pesci e individuare cosı̀ l’emergenza di una fase con forte allineamento a partire dalle interazioni di primo vicino in tre dimensioni, ma limitandosi a soli 8 pesci. Sciami di locuste Le locuste sono insetti molto particolari il cui comportamento collettivo è purtroppo tristemente famoso: per lunghi periodi della propria vita sono insetti solitari, che tendono a mantenere territori separati l’uno dall’altro, ma in vari momenti attraversano fasi di aggregazione, formando sciami di miliardi di individui capaci di devastare completamente qualsiasi terreno attraversino, inclusi naturalmente quelli coltivati dall’uomo (5). Per avere un’idea dell’imponenza di questi sciami, le loro dimensioni possono raggiungere i 1000km2 con una densità media di ben 50 milioni di locuste per km2 , viaggianti a 10–15 km/h per migliaia di km: tenendo conto che ogni insetto mangia l’equivalente del proprio peso al giorno, si sta parlando di un consumo dello sciame pari a 200 milioni di kg al giorno! Le dinamiche interne di questi sciami sembrano simili a quelle dei fluidi e sono trattabili matematicamente in modo analogo, cioè mediante modelli continui, grazie alle loro dimensioni e densità. Il principale problema è capire come possa mantenersi la coesione dello sciame su dimensioni cosı̀ grandi rispetto a quelle del singolo insetto e i meccanismi che sono alla base della transizione alla fase di aggregazione. Banchi di pesci Tra le innumerevoli specie di pesci molte presentano comportamenti di aggregazione, che originano da interazioni diverse da quelle viste per le formiche. Non si tratta ora di utilizzare l’ambiente come deposito del proprio segnale perché l’interazione è diretta, riassumibile nella terna di regole repulsione-allineamento-attrazione, ognuna agente a 18 Figura 5 Qualche esempio suggestivo di banchi di pesci nella loro fase di aggregazione. Sono poi videoregistrati gruppi di Nile Pilatias (Oreochromis niloticus L.) di un centinaio di elementi, costretti però a muoversi in due dimensioni all’interno di una vasca opportunamente progettata. Su tempi di decine di secondi Becco et al. hanno tracciato le traiettorie dei singoli pesci e sono stati in grado di portare a termine analisi sulla struttura e sulla dinamica del banco in funzione della sua densità: distribuzione delle distanze di primo vicino e grado di allineamento hanno mostrato indizi di una transizione di fase disordine-ordine a una densità critica di circa 500 pesci/m2 . Purtroppo fino a ora conclusioni sperimentali quantitative sono praticamente assenti, a causa di grandi problemi metodologici non ancora del tutto risolti: estrema ristrettezza della base statistica dovuta allo studio di non più di un centinaio di pesci, forti bias introdotti dalle dimensioni e forme delle vasche, limitazioni dovute alle tecniche di tracciamento dei pesci e da una non sempre corretta gestione degli effetti di taglia finita. Da un punto di vista etologico e biologico molto lavoro è stato fatto per comprendere la funzione adattativa delle varie caratteristiche della fase ordinata, tra cui la forma del banco, i profili interni accastampato num. 1, Giugno 2010 IL RESTO DEL NEUTRINO Figura 6 A sinistra, mandria di bufali; a destra, formiche Matabele. di densità, le posizioni dei pesci collegate alla loro grandezza o al grado di familiarità, ecc. Le due funzioni primarie sono senz’altro la protezione dai predatori e la ricerca di cibo, mentre i meccanismi di base individuati vanno nel primo caso dalla diluizione del rischio all’effetto di confusione, dalla capacità di individuare prima il predatore al coordinamento di manovre di evasione, mentre nel secondo caso consistono in una maggiore velocità di trasferimento dell’informazione sulla distribuzione delle risorse di cibo (per un’ampia lista di referenze, cfr. (1)). I banchi di pesci sono anche alla base di moltissimi modelli, poi efficacemente adattati anche ad altre specie animali come gli uccelli: le interazioni dirette a corto raggio descritte prima sono facilmente implementabili in algoritmi bottom-up che hanno dimostrato di poter riprodurre non solo la transizione alla fase ordinata, ma anche parte delle caratteristiche di quest’ultima riscontrate in vari esperimenti. ------------------------------------------- È possibile ricavare il comportamento collettivo simulando semplici modelli al computer ------------------------------------------Stormi di uccelli Nel caso degli uccelli, l’approccio sperimentale è ancora più problematico rispetto al caso dei pesci, dato che non è possibile ricorrere a una situazione controllata in laboratorio ed è obbligatorio considerare tutte e tre le dimensioni spaziali (6). A parte lavori pionieristici degli anni ’60, nel ’78 vi è la prima ricostruzione delle posizioni degli uccelli, limitata a 70 individui in volo dalle campagne ai dormitori, seguita da quella delle traiettorie complete di poco più di 16 individui. È evidente come qualsiasi analisi su una base di dati cosı̀ ristretta non possa che portare a risultati solo qualitativi, con il rischio di introdurre bias non controllabili (si pensi al problema del bordo: in tre dimensioni trattare piccoli gruppi significa considerare per lo più individui sul bordo e quindi ottenere risultati pesantemente affetti da problemi di taglia finita). Il problema primario di questa mancanza di dati sperimentali nello studio degli uccelli sta prevalentemente nelle tecniche di ricostruzione delle posizioni che non possono essere chiaramente invasive e devono essere implementate sul campo. Per questi motivi sono tecniche per lo più di tipo ottico (stereoscopia, metodo ortogonale) che prevedono l’utilizzo di immagini sincrone del gruppo e che richiedono di risolvere esplicitamente il problema del matching, cioè il riconoscimento dello stesso individuo in ogni immagine (6). Queste difficoltà hanno reso per decenni impossibile una comparazione adeguata tra modelli teorici, numerici e dati sperimentali, perché il comportamento collettivo emerge all’aumentare del numero di individui e limitarsi a piccoli gruppi spesso non permette di studiarne efficacemente le caratteristiche globali. Figura 7 Esempi degli stormi più suggestivi visibili a Roma nel periodo invernale (foto dell’autore e della squadra STARFLAG). Dinamiche di folla A volte si dice che l’intelligenza di una folla di persone è inversamente proporzionale al numero di cervelli che la compongono. Questa massima deriva dall’osservazione che spesso le dinamiche interne di una folla appaiono irrazionali se viste dall’esterno, tanto da produrre veri e propri disastri nelle situazioni di pericolo, vero o presunto, che scatenano il panico. Si pensi a incendi in edifici chiusi, ma anche a concerti di star famose o all’apertura della stagione dei saldi in alcuni grandi magazzini. Questi fenomeni sono in aumento con il crescere delle dimensioni di eventi che attirano grandi masse, ma è solo da poco più di un decennio che si stanno studiando e sviluppando teorie quantitative e modelli delle dinamiche di folla (7). Simulazioni di questo tipo hanno permesso di migliorare la comprensione di questi fenomeni e individuare tutti quegli elementi, architettonici e psicologici, che contribuiscono a rallentare o a rendere più pericolosa la fuga in situazioni di panico: ad esempio uscite strette o allargamenti prima delle uscite ostacolano il deflusso, che invece è facilitato dalla presenza di colonne poste asimmetricamente di fronte alla uscite che spezzano gli ingorghi. Inoltre sono risultati utili nello studio anche di altre formazioni, come il traffico automobilistico o le ola negli stadi. accastampato num. 1, Giugno 2010 19 IL RESTO DEL NEUTRINO chiaramente dallo studio dei modelli, sia analitici che numerici, che mostrerò nel dettaglio in un prossimo articolo dedicato al comportamento collettivo animale. Bibliografia (1) Cimarelli A., Funzioni di struttura e correlazioni di velocità in stormi di uccelli in volo: un’analisi empirica nell’ambito del progetto Starflag, Tesi magistrale (Settembre 2009) (2) Sumpter D.J.T., The principles of collective animal behaviour, in Phil. Trans. R. Soc. B, vol. 361:5–22 (2006) Figura 8 A sinistra, folla a Longchamp, Parigi; a destra, sciame di batteri M. Xanthus. (3) Detrain C. e Deneubourg J.L., Self-organized structures in a superorganism: do ants behave like molecules?, in Physics of Life Rev., vol. 3:162–187 (2006) (4) Hölldobler B. e Wilson E.O., The ants, Harvard University Press (1990) (5) FAO Locust watch: www.fao.org/ag/locusts/en/info/info/ (6) Giardina I., Collective behavior in Conclusioni animal groups: theoretical models and empirical studies, in HFSP J., vol. Da questa breve panoramica delle specie animali che mostrano peculiari comportamenti collettivi emerge una delle caratteristiche fondamentali e più interessanti di questi sistemi: dinamiche macroscopiche simili a fronte di elementi microscopici estremamente diversi tra loro. Si tratta di un qualche tipo di universalità del comportamento collettivo, che apparirà ancora più 2(4):205–219 (2008) (7) Helbing D., Farkas I. e Vicsek T., Simulating dynamical features of escape panic, in Nature, vol. 407:487–490 (2000) Il Teorema del Limite Centrale di Ulisse Ferrari Curiosando tra risultati statistici d’ogni sorta, come la distribuzione delle altezze in un paese o quella dei risultati degli esami di maturità di un particolare anno, non si può non notare la presenza ricorrente di una particolare curva, detta Gaussiana, dalla forma a campana, con un picco al centro e code laterali sottili. Quella che può apparire come una semplice curiosità è invece la realizzazione di un importante teorema della teoria della probabilità, il ramo della matematica che studia e descrive il comportamento delle variabili casuali (dette aleatorie), ossia delle quantità che possono assumere diversi valori, ciascuno con una certa probabilità. Il Teorema del Limite Centrale (nella versione generalizzata dal fisico-matematico russo Funzione di densità della variabile casuale normale (o di Gauss). Aleksandr Lyapunov), sotto alcune ipotesi, asserisce che: µ indica il valor medio (posizione del picco), σ2 la varianza la somma di n variabili casuali indipendenti ha una distribu(legata alla larghezza della campana). Da wikipedia.org zione di probabilità che tende a una curva Gaussiana al crescere di n all’infinito. In altre parole, un fenomeno aleatorio, risultato della cooperazione di molti piccoli fattori casuali indipendenti, avrà una distribuzione di probabilità Gaussiana. Il voto che uno studente prenderà alla maturità, per esempio, dipenderà da molti fattori, quali la sua preparazione, le abilità acquisite, la capacità di concentrazione, ecc. . . Nonostante la distribuzione di probabilità di questi fattori non sia necessariamente Gaussiana, il voto, che è la somma di questi fattori, si distribuirà secondo tale curva. 20 accastampato num. 1, Giugno 2010 La riforma dell’Università italiana Dove siamo e dove stiamo andando. . . Lara Benfatto (Dipartimento di Fisica della Sapienza di Roma) a circa 6 mesi è stata presentata una bozza del Disegno di Legge Gelmini riguardante la riforma dell’Università (1). Ora tale DDL è in discussione al Senato a meno di un anno dall’imponente mobilitazione di tutto il settore dell’Istruzione seguito al decreto legge 133 dell’agosto 2009, con il quale si pianificavano pesantissimi tagli a scuola ed università, in termini sia di finanziamento che di reclutamento, riguardanti il periodo 2009–2013. Il successivo decreto legge 180 del dicembre 2009 ha parzialmente corretto il tiro sul fronte del blocco delle assunzioni e dei tagli all’università, lasciando tuttavia in essere un taglio di 946 milioni di euro in 5 anni, pari al 2, 7% del Fondo di Finanziamento Ordinario (FFO) del comparto università (2). A prima vista tale riduzione può sembrare non particolarmente significativa: tuttavia, occorre ricordare che le università utilizzano già circa il 90% del FFO per pagare gli stipendi. Ma per fare didattica e ricerca servono anche (ingenti) fondi per la gestione di strutture didattiche e laboratori, per le collaborazioni scientifiche, partecipazione a convegni, personale a tempo determinato, ecc. Quindi un taglio del 2, 7% del FFO azzera in pratica ogni possibile margine operativo in ricerca e sviluppo del nostro sistema universitario, che non può essere compensato da alcun progetto di riorganizzazione amministrativa del medesimo. D Figura 1 Uno striscione degli studenti del Dipartimento di Fisica durante una manifestazione contro il DDL Gelmini e il Decreto Legge 133 dello scorso autunno. 22 Prima di entrare nel merito del DDL Gelmini vale la pena di fare uno sforzo analitico di lettura dei contenuti reali e di quelli virtuali del DDL. È infatti interessante notare come gran parte degli editoriali apparsi negli ultimi mesi su autorevoli quotidiani nazionali si siano focalizzati sui punti più vaghi della prospettata riforma, quelli cioè la cui definizione viene affidata a decreti leggi successivi all’approvazione del DDL, e quindi dai contenuti assolutamente incerti e al momento imprevedibili. Tentiamo quindi di riassumere a grandi linee i contenuti del DDL, distinguendo tra i provvedimenti di immediata attuazione e quelli da definirsi. ------------------------------------------- . . . un taglio del 2, 7% del Fondo di Finanziamento Ordinario azzera in pratica ogni possibile margine operativo in ricerca e sviluppo del nostro sistema universitario. . . ------------------------------------------Provvedimenti immediati • Riorganizzazione della struttura amministrativa (Art. 2). Questa si articola in vari punti: in particolare, si prevede che al senato accademico venga affiancato un consiglio di amministrazione in cui il 40% dei membri sono esterni all’ateneo e con competenze gestionali-amministrative. Tale CdA ha anche potere decisionale che spazia dalla definizione delle “funzioni di indirizzo strategico” alla soppressione/istituzione di corsi di studio e sedi. Si prevede inoltre l’accorpamento dei dipartimenti (aventi un numero minimo di docenti di 35 o 45) in massimo 12 facoltà o ’scuole’. Si parla poi di un codice etico che le università sono tenute ad adottare entro centottanta giorni dall’entrata in vigore della legge, ma non si dà indicazione alcuna rispetto ai contenuti in questione. • Fondo per il merito degli studenti (Art. 4). Si tratta di borse di studio e prestiti di onore, da attribuirsi con criteri unicamente meritocratici (non di reddito) e previa selezione nazionale. Si occupa della gestione del tutto una società, la Consap S.p.A., che andrà pagata con i soldi stessi destinati al fondo. Il fondo è istituito presso il Ministero dell’Economia, a cui il Ministero dell’Istruzione fa comunque riferimento per coordinarne la gestione. Il fondo viene finanziato con “trasferimenti pubblici e con versamenti effettuati a ti- accastampato num. 1, Giugno 2010 ONDA LUNGA tolo spontaneo e solidale effettuati da privati, società, enti e fondazioni, anche vincolati, nel rispetto delle finalità del fondo, a specifici usi”. • Riordino del reclutamento (Art. 7-10). I punti salienti sono: Art. 8 Si istituisce l’abilitazione nazionale per associato e ordinario, basata sui soli titoli. La valutazione viene fatta da una commissione di durata biennale, con 4 membri sorteggiati da una lista di ordinari (a cui si aggiungono anche gli associati solo se gli ordinari di quel settore sono meno di 50) che fanno richiesta di esserci e il cui curriculum è pubblico, più un membro straniero. Le selezioni hanno cadenza annuale, ma nel caso in cui il candidato non ne superi una deve aspettare 2 anni per riprovarci, e 3 per riprovare il livello successivo. Da notare che una volta ottenuta l’abilitazione bisogna comunque sostenere il concorso presso le singole sedi universitarie qualora queste bandiscano dei posti. Le università possono anche indire procedure riservate per personale già in servizio nell’ateneo, ma destinandovi non più del 30% dei posti disponibili nei primi 5 anni successivi all’attuazione della riforma. Dopo questo periodo si richiede che siano obbligatoriamente esterni 1/5 dei posti da ordinari e 1/3 di quelli da associati. Art. 10 Gli assegni di ricerca hanno durata da 1 a 3 anni, rinnovabili, ma non devono superare complessivamente i 10 anni. Oltre ai bandi locali di ateneo (che possono basarsi su fondi di ateneo o fondi esterni su progetti specifici) vengono istituiti anche dei bandi per selezioni nazionali, nelle quali il ricercatore presenta un progetto che, in caso di vittoria, verrà svolto presso una sede universitaria scelta dal candidato. Art. 11 Per i contratti di insegnamento ci sono due casi: contratti a titolo gratuito o oneroso da dare a studiosi esterni per potersi avvalere delle loro prestazioni. Poi i veri contratti di docenza da attribuirsi previo espletamento di procedure disciplinate con propri regolamenti, che assicurino la valutazione comparativa dei candidati e la pubblicità degli atti. Lo stipendio viene deciso a livello ministeriale, ma non si sa in che modo. Art. 12 Scompare la figura del ricercatore a tempo indeterminato, per divenire a tempo determinato. Lo stipendio incrementa del 20% rispetto ai livelli attuali (arrivando a circa 2200 euro mensili), ma diventano obbligatorie 350 ore di didattica annuali. Vengono assunti previa selezione nazionale simile a quella prevista per gli assegni (cioè si presenta un progetto e si richiede una sede in cui svolgerlo). Una quota del FFO deve essere devoluta solo a queste posizioni, che durano 3 anni e possono essere rinnovate per altri 3. Se nel secondo triennio il titolare prende l’abilitazione ad associato può essere chiamato direttamente dall’ateneo. ------------------------------------------- Quello che colpisce è tuttavia una sorta di scollamento tra la realtà italiana quale essa è e gli obiettivi della riforma. . . ------------------------------------------Provvedimenti differiti • Miglioramento dell’efficienza del sistema universitario (Art. 5). Il Governo si impegna a promulgare entro 12 mesi dall’entrata in vigore della presente legge dei decreti che vertano sui seguenti punti: – introdurre dei sistemi di valutazione periodica della ricerca svolta dai docenti, basati sui criteri dell’ANVUR (6); – introdurre degli strumenti di controllo della situazione patrimoniale delle università; – disciplinare l’attività dei docenti, per esempio stabilendo un impegno dovuto di 1500 ore annue di cui 350 di docenza. Vanno individuati i casi di incompatibilità tra la posizione di professore e ricercatore universitario e l’esercizio di altre attività o incarichi. Gli scatti diventano triennali (ma complessivamente della stessa entità) e previa valutazione dell’attività didattica e di ricerca del docente. Una quota del FFO destinata a una certa università verrà assegnata in base a criteri di valutazione scientifica dei docenti stessi; – riformare il diritto allo studio: si parla di una generica definizione di requisiti minimi per garantire il diritto allo studio, ma non vi è alcuna proposta concreta. Nella sua impostazione generale il DDL prevede un mutamento decisamente radicale dell’università italiana. Quello che colpisce è tuttavia una sorta di scollamento tra la realtà italiana quale essa è e gli obiettivi della riforma. Ad esempio, la presenza in un CdA dotato di forti poteri decisionali di personalità esterne al mondo accademico è prassi comune nel sistema americano, nel quale però la sinergia tra mondo accademico e privati è di gran lunga più avanzato che da noi, giustificando la presenza di un forte interscambio tra le due realtà. Meno chiaro è come in Italia tale sinergia possa essere imposta per legge: il rischio è che nel tentativo di destrutturare l’attuale sistema di potere delle baronie universitarie (che finora non è stato in grado di sanare da solo un accastampato num. 1, Giugno 2010 23 ONDA LUNGA Figura 2 Ministri dell’Università e della Pubblica Istruzione dell’ultimo decennio. Dall’alto a sinistra: Luigi Berlinguer, Tullio De Mauro, Letizia Moratti, Giuseppe Fioroni, Fabio Mussi, Mariastella Gelmini sistema malato) ci si affidi a cure esterne sulle cui competenze ci sono ancora più dubbi e incertezze. Anche l’idea stessa di creare una vera competizione tra le varie università, allo scopo di attrarre gli studenti migliori, fallisce miseramente a fronte di un’obiettiva immobilità sociale del sistema italiano: se uno studente non può permettersi di andare all’università migliore perché è lontana da casa, la competizione non esiste. In questa prospettiva gli stanziamenti (pubblici, perché quelli privati si concentrerebbero solo su alcuni settori) per il Fondo per il merito dovrebbero essere veramente ingenti, ma non vi è traccia nella legge di alcun impegno in tal senso. Riguardo ai criteri di riordino del reclutamento si apprezzano segnali positivi: la regolarità delle procedure di valutazione, l’idea di bandire assegni di ricerca nazionali in cui il ricercatore ha l’autonomia di proporre il suo progetto, l’obbligatorietà (almeno sul medio periodo) di reclutare personale esterno all’ateneo, un tentativo di regolamentazione dei contratti di insegnamento, di cui al momento si abusa largamente. Tuttavia mentre è chiaro che a regime queste norme possono produrre effetti positivi, non si prevede un periodo di transizione intermedio che tenga conto dell’attuale realtà italiana. Prendiamo il caso della norma che fa diventare quella del ricercatore una posizione a tempo determinato: un analogo della tenure track che è largamente diffusa all’estero, in cui il ruolo di docenza viene preceduto da un periodo di prova in cui il ricercatore mostra le sue capacità. In principio una buona norma, che all’estero viene usata per avere modo di valutare un ricercatore prima dell’assunzione a tempo indeterminato. Nel nostro caso, tuttavia, passati i 6 anni di tenure, l’assunzione del ricercatore non è vincolata solo alle sue capacità: anche se il ricercatore acquisisce l’abilitazione nazionale a professore 24 associato la sua immissione in ruolo è automatica solo presso la sede in cui lavora, quindi è vincolata sia alla situazione finanziaria della stessa sia al gradimento del ricercatore stesso da parte delle baronie locali. Questo è un baco in generale del perverso meccanismo di abilitazione nazionale e concorso locale: è inutile fare una programmazione sulle procedure valutative nazionali (fatto comunque positivo) se poi i posti veri vengono comunque banditi localmente, e come tali assoggettati ai noti meccanismi di baronia locale e ai problemi di deficit finanziario delle varie sedi. Un secondo aspetto che la riforma ignora è che a oggi si diventa ricercatore universitario in media a 36 anni (3): non è quindi auspicabile che la nuova figura del ricercatore a tempo determinato interessi questa categoria di scienziati, che hanno alle spalle già 10 anni di precariato nella ricerca. Queste figure andrebbero quindi gradualmente inserite in ruoli di docenza (ovviamente, previa selezione dei soli meritevoli), il che è reso impossibile dai blocchi attualmente in essere e da un sistema che vede accedere ai ruoli di associato ricercatori in media di 44 anni, quindi con ulteriori 10 anni di esperienza. Questo significa anche che in un’abilitazione nazionale gli standard fissati per accedere ai ruoli di associato riguarderanno scienziati con circa 20 anni di esperienza, rendendo impossibile anche per i migliori giovani ricercatori del nostro paese aspirare direttamente alla docenza universitaria di ruolo. Non si vede quindi, a dispetto delle numerose esternazioni in tal senso da parte di molti commentatori ignari della reale situazione universitaria, come queste norme possano risolvere l’enorme problema del precariato universitario. A voler fare una stima al ribasso dell’entità del problema, si consideri che lo stesso Ministero dell’Istruzione ci informa che al momento ci sono 18.000 persone tra assegnisti e borsisti impegnati in attività di ricerca nell’università italiana (4): un numero enorme, se si pensa che nei prossimi anni (2009-2012) vi sarà al massimo un turn-over di 10.000 unità (5), che però stante le norme sul blocco del turn-over e sui tagli al FFO, produrranno nella migliore delle ipotesi 5000 nuovi posti. A questi ricercatori, spesso impegnati in programmi di ricerca di altissima qualità, si propone quindi di prolungare la precarietà con altri 6 anni di posto da ricercatore a tempo determinato. Inoltre, si rende obbligatorio per il ricercatore a tempo determinato un carico didattico pari a quello del docente di ruolo. Tale novità ha connotati estremamente negativi: attualmente i ricercatori non sono tenuti a fare attività didattica (anche se spesso si trovano a farla su base più o meno volontaria). ------------------------------------------- Questo sistema delega l’insegnamento a figure precarie, a discapito della qualità ------------------------------------------L’idea è che un giovane debba fare principalmente ricerca, acquisire i titoli per diventare professore universitario, e dedicarsi a quel punto alla didattica con tutto l’impegno che questa richiede. Questo sistema invece delega ufficialmente l’insegnamento a accastampato num. 1, Giugno 2010 ONDA LUNGA figure precarie, a discapito della qualità stessa dell’insegnamento. Infine si arriva alla parte più interessante della riforma, ossia l’adozione di procedure di valutazione del personale docente, da parte di un agenzia, l’ANVUR (6), la cui utilità viene curiosamente riconosciuta dopo un anno e mezzo di stasi completa delle procedure per la sua messa in funzione. Vorrei osservare che in questo stesso periodo la parte sana dell’università italiana ha sempre chiesto a gran voce una riforma del sistema in senso meritocratico, perché è questa l’unica strada percorribile per migliorare veramente la qualità del mondo accademico. È inutile cambiare le procedure dei concorsi, bloccare il turn-over, invocare codici etici, se la gestione rimane nelle mani dei soliti noti (o, ancor peggio, nelle mani di un CdA del tutto disinteressato al mondo della ricerca). Solo un meccanismo che fa pagare a posteriori a ogni singolo dipartimento i costi di scelte scientifiche sbagliate può sconfiggere il malcostume. Questo è il punto di partenza, non quello di arrivo: ma richiede un coraggio - quello di scardinare veramente poteri consolidati - e una comprensione dei meccanismi reali del mondo universitario che sono al momento assenti nel nostro panorama politico. Bibliografia C.U.N. del 18 giugno 2008 (http://www.df.unipi.it/ ˜rossi/documenti.html) mostra chiaramente che l’incremento nominale del 17% del FFO dal 1998 al 2008 è servito solo a far fronte all’aumento degli stipendi stabiliti in base all’indice di inflazione ISTAT. Questo significa che non vi è stato alcun aumento netto in termini di investimenti in ricerca e sviluppo. (3) Dati forniti dal CNVSU (Comitato Nazionale di valutazione del Sistema Universitario): http://www.cnvsu.it/ publidoc/datistat/default.asp (4) Dati rilevabili dal sito del Miur: http://statistica. miur.it/Data/uic2007/Le_Risorse.pdf (5) Una stima esatta del numero dei pensionamenti previsti per i prossimi anni è difficile: tuttavia i dati del CNVSU (www. cnvsu.it) li stimano tra i 5000 ed i 10.000. (6) L’ANVUR (www.anvur.it) è l’Agenzia Nazionale per la Valutazione del Sistema Universitario: la sua istituzione era stata avviata dal precedente ministro Mussi, ma le procedure sono state bloccate al momento dell’insediamento del presente governo. Sull’autore Lara Benfatto ([email protected]) è ricercatrice presso il CNR/INFM di Roma. (1) Il documento è disponibile su www.accatagliato.org (2) Il rapporto presentato dal professor P. Rossi al Convegno Analisi a crocette, primi effetti dei tagli? di Carlo Mancini Quest’anno gli studenti di Analisi del corso di laurea in Fisica hanno dovuto affrontare un test a crocette invece del solito esercizio da svolgere. Ecco la voce del professor Lamberto Lamberti che quest’anno ha tenuto il corso: è un esperimento rivolto al futuro: da qui ai prossimi cinque anni molti dei professori di Matematica andranno in pensione, e probabilmente non sarà più possibile dividere gli studenti del primo anno del corso di laurea in Fisica in quattro canali diversi, com’è ora, e quindi bisogna provare nuovi tipi di verifica, che consentano di correggere molti più compiti di quelli che ora deve correggere un singolo professore. [. . . ] Fino a pochi anni fa era possibile creare molti canali diversi per i corsi di base; inoltre l’offerta didattica era arricchita con corsi molto specializzati, per esempio il Piazzale della Minerva, Università Sapienza di Roma professor Doplicher - famoso in tutto il mondo - ha sempre tenuto un corso di Meccanica Quantistica e di Algebre di Operatori, magari con pochi studenti iscritti, ma questo è normale per un corso facoltativo degli ultimi anni, ma comunque una ricchezza per l’offerta didattica fornita agli studenti; ebbene, dall’anno prossimo il professor Doplicher andrà in pensione e molto probabilmente i due corsi non esisteranno più. Il caso dei corsi di Meccanica Quantistica e di Algebre di Operatori non è isolato: già oggi l’offerta didattica si è molto impoverita rispetto al passato e fra cinque anni, non assumendo più nuovi ricercatori in sostituzione dei professori che andranno in pensione, non sarà neanche possibile dividere in cosı̀ tanti canali gli studenti dei primi anni, a Matematica come a Fisica. Confortante. . . accastampato num. 1, Giugno 2010 25 La transizione vetrosa Il vetro è tra i materiali più familiari, ma non smette di affascinare gli scienziati Tullio Scopigno (Gruppo G LAS, Dip. di Fisica della Sapienza di Roma) Quanto a me, perdonatemi per quello che sto per dire, ma preferisco il vetro, che almeno non manda odore. E se non fosse cosı̀ fragile, lo preferirei all’oro. (Petronio, Satyricon, I secolo d.C.) egli ultimi venti anni enormi progressi sono stati fatti verso la comprensione dei meccanismi di formazione del vetro, la cosiddetta transizione vetrosa, ma nonostante ciò resta ancora valida l’affermazione di P.W. Anderson, premio Nobel per la fisica nel 1977, che individua in questo problema uno degli aspetti ancora irrisolti nella fisica della materia. Il vetro, nell’accezione comune del termine, è una sostanza che trova largo impiego nell’uso quotidiano. Dal punto di vista fisico, però, può essere inquadrata in un contesto ben più generale, in quanto rappresenta una forma di aggregazione della materia che può acquisire alcune caratteristiche (per esempio la rigidità meccanica) del solido e altre (come la struttura microscopica) del liquido. Allo stato solido, in effetti, i materiali possono presentarsi in forma cristallina o amorfa: nel primo caso gli atomi (o le molecole) che lo compongono sono disposte in modo da formare un reticolo ordinato (cristallo), mentre nel secondo caso, proprio come accade in un liquido, vi è totale assenza di periodicità spaziale, e si parla appunto di sostanze vetrose. In base a questa definizione rientrano nella categoria dei vetri le ceramiche, le plastiche, le resine epossidiche e i materiali polimerici, e dunque nelle comuni applicazioni si ha a che fare con sostanze vetrose molto più spesso di quanto non suggerisca il senso comune. A dispetto di questa larga diffusione, il meccanismo di formazione del vetro, la transizione vetrosa appunto, risulta essere il problema più interessante e profondo non ancora risolto nella fisica della materia, per citare le parole di P. W. Anderson, premio Nobel per la fisica nel 1977. N La temperatura della transizione La fenomenologia della transizione vetrosa può essere analizzata osservando il comportamento termodinamico di alcuni parametri macroscopici. Supponiamo, ad esempio, di raffreddare un liquido sottraendogli calore (ponendolo in contatto con un ambiente a temperatura più bassa). Se si misura il calore ceduto durante il raffreddamento al variare della temperatura (cfr. Figura 1) possono essere identificate diverse regioni termodinamiche. 26 Figura 1 Calore scambiato da un fuso in fase di raffreddamento. Rosso: fase liquida. Nero: fase cristallina, che si genera alla temperatura di fusione Tm . Arancio: il fluido, in particolari condizioni (per es. raffreddamento veloce) può mantenersi in una fase liquida metastabile, detta di liquido sottoraffreddato. Blu: diverse fasi vetrose, che si generano alle temperature di transizione vetrosa Tg , dipendenti dalla velocità di raffreddamento. Si osservi la diversa dipendenza del calore dalla temperatura (capacita termica) nella fase liquida e nelle fasi solide. Al di sopra della temperatura di fusione il liquido rilascia calore con continuità. Alla temperatura di fusione il sistema solitamente cristallizza, ma in particolari condizioni può seguire un diverso comportamento, mantenendosi in uno stato metastabile, detto di liquido sottoraffreddato. Nel primo caso il calore rilasciato subisce una brusca variazione (calore latente) per poi continuare a diminuire, ma con minor rapidità rispetto alla fase liquida. Usando il linguaggio della termodinamica si dice che, alla temperatura di fusione, il sistema compie una transizione di fase del primo ordine (vedi Box a fine articolo). Nel secondo caso il rilascio di accastampato num. 1, Giugno 2010 IL RICERCATORE ROMANO calore continua come in fase liquida (si parla pertanto di liquido sottoraffreddato) finché, alla temperatura di transizione vetrosa, il calore continua a essere rilasciato in modo continuo ma con una rapidità minore, simile a quella del cristallo. Mentre la cristallizzazione è un processo ben definito, nel senso che la temperatura di fusione è un parametro che caratterizza univocamente ogni liquido, le modalità secondo le quali avviene la transizione vetrosa dipendono da diversi fattori, come per esempio la storia termica del materiale, ovvero la velocità di raffreddamento. La temperatura di transizione vetrosa, pertanto, viene solitamente definita sulla base della velocità di raffreddamento che si riesce a ottenere sperimentalmente, che è dell’ordine di qualche decina di gradi al secondo. Figura 2 Struttura e dinamica nelle varie fasi termodinamiche. A) Liquido e liquido sottoraffreddato. Gli atomi compiono un moto di tipo diffusivo, la loro posizione media varia nel tempo. B) Fase vetrosa: gli atomi sono congelati in posizioni di equilibrio disordinate, attorno alle quali compiono un moto vibrazionale. C) Gli atomi sono congelati in posizioni di equilibrio disposte su un reticolo ordinato, attorno alle quali compiono un moto vibrazionale. In corrispondenza dei diversi stati termodinamici sopra menzionati anche le proprietà dinamiche degli atomi e/o molecole subiscono importanti variazioni. Allo stato liquido gli atomi e/o le molecole si muovono in maniera disordinata e la loro posizione media cambia continuamente. Quando un liquido viene raffreddato, normalmente la perdita di energia termica degli atomi induce un progressivo ordinamento spaziale. Se la sostanza cristallizza, gli atomi continuano a muoversi, ma in modo diverso da quanto accadeva nel liquido: il moto di diffusione si arresta e gli atomi vibrano intorno a delle posizioni di equilibrio che rispettano ben definite periodicità spaziali (strutture cristalline), come farebbe, ad esempio, un sistema di palline (gli atomi) disposte su un reticolo cubico collegate tra loro da molle (i legami chimici). Se la sostanza non cristallizza, superato il punto di fusione, la dinamica rallenta ulteriormente finché, una volta raggiunta la temperatura di transizione vetrosa, Tg , il moto diffusivo è praticamente congelato e sopravvivono solo le vibrazioni, che avvengono ora intorno a posizioni di equilibrio che non hanno alcuna periodicità spaziale. In realtà, la transizione vetrosa marca un confine più labile tra liquido-solido di quanto non avvenga nella cristal- lizzazione. Come vedremo, infatti, la temperatura di transizione vetrosa identifica uno stato in cui la capacita di fluire del liquido scende al di sotto di un certo valore convenzionalmente scelto. Dunque, anche nel vetro, si ha un moto di tipo diffusivo, seppure estremamente lento, ovvero su scale temporali molto più lunghe dei tipici tempi di osservazione. Se potessimo dunque fotografare la struttura atomica di un vetro otterremmo un’immagine simile a quelle riportata in Figura 2. Le cattedrali gotiche e la viscosità A questo proposito, è significativo ricordare il mito delle cattedrali gotiche, la cui origine viene fatta risalire a una lezione di chimica tenuta nel 1946 nella West Side High School in Newark, New Jersey. Il vetro è in realtà un liquido - pare abbia detto il professor Clarence Hoke in questa occasione - Lo si può dire guardando alle vetrate delle antiche cattedrali europee. Il vetro è più spesso nella parte bassa che in quella alta. Il motivo di questa differenza di spessore sarebbe dovuto al flusso del vetro sotto il proprio peso. Pare che la convinzione del professor Hoke abbia fatto proseliti negli anni successivi, raccogliendo un significativo numero di citazioni. Del resto bisogna ammettere che questo mito presenta un certo appeal: vetro e liquido sono spesso presentati come stati di aggregazione molto simili, caratterizzati dalla mancanza di ordine nella disposizione atomica. Poiché questo è certamente vero dal punto di vista qualitativo, si può comprendere una certa tentazione nello spingersi troppo oltre nell’analogia, ignorando gli aspetti quantitativi della similitudine. In realtà molti scienziati, ma anche semplici appassionati, si sono cimentati nella verifica quantitativa, e dunque sperimentale, dell’affermazione del professor Hoke, con risultati incontrovertibili che indicano come il mito sia totalmente (o quasi) infondato. Pare che effettivamente si riscontrino disomogeneità nello spessore di vetrate antecedenti il XIX secolo, ma allo stesso tempo il lato con lo spessore maggiore è montato in alto, in basso o lateralmente con frequenze statisticamente simili. ------------------------------------------- ...il problema più interessante e profondo non ancora risolto nella fisica della materia... ------------------------------------------Dunque questa leggenda popolare si spiegherebbe in modo molto semplice: prima del XIX secolo le lastre di vetro venivano prodotte partendo da una sfera e riducendola a disco mediante percussione. In questo processo inevitabilmente si ottenevano disomogeneità negli spessori ed è possibile che gli artigiani del tempo preferissero montare il lato più spesso in basso per sopportare meglio il carico strutturale. Al giorno d’oggi le moderne finestre vengono formate facendo adagiare per galleggiamento il fuso vetroso su un substrato di stagno fuso, processo che rende la lastra accastampato num. 1, Giugno 2010 27 IL RICERCATORE ROMANO altamente uniforme. D’altra parte, se è vero che anche al di sotto della transizione vetrosa il materiale mantiene una certa capacità di fluire, questa è talmente bassa che a temperatura ambiente occorrerebbe l’età dell’universo per creare un aumento di spessore di soli 10 Angstrom (l’Angstrom è la dimensione caratteristica di un atomo, pari a 10−10 metri) in una lastra verticale alta un metro. Per contro, per osservare sensibili aumenti di spessore su tempi ragionevolmente brevi (per esempio la vita di media di un essere umano), occorrerebbe applicare alla lastra sforzi talmente grandi che questa si romperebbe prima di poter fluire. Questo tipo di calcolo ci porta al concetto di viscosità, ovvero la quantificazione della capacità di fluire di un materiale, che si misura usualmente in unità chiamate poise. Per farci un’idea, l’acqua ha una viscosità di 0,01 poise, la marmellata di 500 poise. Il formaggio Brie è molto più viscoso, 500.000 poise, e alla fine di una cena potremmo forse osservare un certo rammollimento di una fetta sotto il proprio peso. Ma un vetro a temperatura ambiente possiede una viscosità di 100.000.000.000.000.000.000 poise (sı̀, proprio 1 seguito da 20 zeri!), ovvero mille milioni di volte più del piombo. Ora il piombo viene proprio utilizzato per le rilegature artistiche delle stesse vetrate incriminate e nessuno ha mai osservato tali rilegature fluire neanche sotto i grandi carichi strutturali ai quali queste sono soggette. E ancora, se a temperatura ambiente le vetrate gotiche potessero davvero essersi deformate sotto il proprio peso, perché non dovrebbe aver fatto altrettanto anche il vasellame ritrovato qualche migliaio di anni prima nelle tombe egizie o negli scavi greci e romani? Figura 3 Andamento della viscosità al variare della temperatura. La fragilità di un liquido è data dalla pendenza in prossimità della temperatura di transizione vetrosa (Tg /T = 1). Questo importante parametro è dunque legato alla variazione di temperatura nell’intervallo di viscosità in cui il vetro può essere lavorato. Intervalli di temperatura più o meno ampi, a loro volta, determinano i tempi di lavorazione, più o meno lunghi, per esempio durante la soffiatura. La silice è il prototipo di vetro duro (adatto per applicazioni con tempi di lavorazione lunghi), il glicerolo è un liquido intermedio, mentre i materiali polimerici sono solitamente molto fragili (necessitano di tempi di lavorazione relativamente brevi). La viscosità e la fragilità Al livello macroscopico dunque, il parametro fisico che controlla la vetrificazione, ovvero il rallentamento delle variabili dinamiche microscopiche, è la viscosità. In particolare, il comportamento della viscosità al diminuire della temperatura in prossimità della Tg permette di classificare i materiali vetrosi secondo uno schema universale, reso celebre dallo scienziato americano C. A. Angell. Secondo questo schema, i vetri (o meglio i liquidi in grado di vetrificare) si dividono in duri e fragili (strong e fragile), a seconda della rapidità con la quale la viscosità cambia al variare della temperatura in prossimità di Tg . In generale, nel processo di vetrificazione, la viscosità aumenta di molti ordini di grandezza, passando da circa 10−4 poise, valore caratteristico dello stato liquido alle alte temperature, a circa 1013 poise nel vetro, valore convenzionalmente scelto come caratteristico dello stato vetroso (un aumento di 1017 volte, dunque). Per rappresentare graficamente questo enorme aumento si usa riportare il logaritmo della viscosità in funzione dell’inverso della temperatura, scalato per la Tg . In questo modo, con riferimento alla Figura 3, seguendo il verso dei valori crescenti lungo l’asse delle ascisse, si può quantificare l’aumento della viscosità al diminuire della temperatura, fino all’approssimarsi del valore 1013 alla transizione vetrosa, ovvero 28 quando ogni sistema raggiunge la sua temperatura di transizione vetrosa (T = Tg , valore unitario dell’ascissa). Osservando gli andamenti schematicamente riportati in Figura 3, è possibile evidenziare alcuni aspetti generali: 1) alcuni liquidi, detti forti, mostrano un andamento lineare della viscosità, altri, detti fragili, mostrano un andamento concavo: la rapidità con cui aumenta la viscosità al diminuire della temperatura verso Tg aumenta con la diminuzione stessa della temperatura; 2) Le curve caratteristiche di ciascun materiale non si incrociano mai. Dunque, intorno a Tg , nelle sostanze forti la viscosità cresce più lentamente, mentre in quelle fragili più rapidamente. Volendo andare oltre questa distinzione qualitativa, è possibile quantificare il concetto di fragilità, m, misurando la pendenza delle curve in prossimità della transizione vetrosa (valore unitario dell’ascissa). In questo modo si va dal valore di m = 20, che caratterizza il prototipo di vetro duro - la silice pura - verso valori via via crescenti che, per le sostanze polimeriche possono arrivare a m > 200. Mentre esiste un limite inferiore di fragilità (nessun materiale mostra un andamento convesso, ovvero con pendenza minore di 17 in vicinanza di Tg ), non esiste a priori nessun limite superiore. Ecco dunque perché, essendo la fragilità una caratteristica definita nel- accastampato num. 1, Giugno 2010 IL RICERCATORE ROMANO lo stato liquido (sottoraffreddato) e non vetroso, sarebbe più corretto parlare di fragilità dei liquidi piuttosto che dei vetri. Lungi dall’essere un mero esercizio matematico, il concetto e la quantificazione della fragilità racchiude in sé alcuni aspetti essenziali della transizione vetrosa, primo fra tutti quello dell’universalità: sistemi diversi si comportano qualitativamente in maniera simile, differendo solo nell’aspetto quantitativo. Il concetto di fragilità, inoltre, ha implicazioni fondamentali anche negli aspetti pratici legati alla lavorazione del vetro. Tali implicazioni erano probabilmente note, in forma qualitativa, dai tempi dei pionieri della lavorazione del vetro (Fenici ed Egiziani), e certamente sono ben note ai soffiatori che da lungo tempo identificano i vetri duri in lunghi e quelli fragili in corti. La ragione di questa diversa nomenclatura è proprio legata alle implicazioni pratiche del concetto di fragilità. Solitamente, infatti, l’intervallo di lavorazione del vetro per la soffiatura è compreso tra 104 e 108 poise. In tale intervallo di viscosità un liquido molto fragile tenderà a raffreddarsi in un intervallo di temperatura relativamente piccolo, al contrario di un vetro duro, che si raffredderà in un intervallo di temperatura relativamente più ampio. In modo corrispondente, i liquidi fragili vetrificano in tempi relativamente corti, mentre quelli duri in tempi più lunghi. I vetri corti si preferiscono solitamente nelle applicazioni di tipo industriale, in cui il fattore decisivo è la velocità di produzione, mentre nelle applicazioni artistiche, quali la soffiatura, sono i vetri lunghi (duri) a essere preferiti, poiché permettono, appunto, tempi di lavorazione più lunghi. La fragilità di un composto può essere modulata a partire dalla silice pura mediante l’aggiunta di elementi alcalini o terre rare quali sodio, potassio di calcio o lantanio. Concludendo, sebbene negli ultimi venti anni enormi progressi siano stati fatti verso la comprensione dei meccanismi che regolano la transizione vetrosa, l’affermazione di Anderson che individua in questo problema uno degli aspetti ancora irrisolti nella fisica della materia sembra essere ancora decisamente attuale. Sull’autore Tullio Scopigno (tullio.scopigno@roma1. infn.it) è ricercatore presso il Dipartimento di Fisica della Sapienza di Roma. Ha recentemente vinto il premio europeo Idea con il quale ha fondato Femtoscopy, una nuova linea di ricerca di spettroscopia Raman ultra-veloce. Transizioni di fase del primo ordine di Ulisse Ferrari Le transizioni di fase di prima specie (o del primo ordine) sono il più comune tra i cambiamenti di stato in cui incorrono i sistemi fisici. Esempi, infatti, ne sono il congelamento dell’acqua o la sua evaporazione, quando la temperatura del liquido attraversa un valore specifico. Sebbene l’essere di prima specie sia formalmente identificato dalla presenza di calore latente, ossia dalla necessità di cedere o assorbire calore (senza variare la temperatura) perché possa avvenire il passaggio di stato, l’effetto tipico che contraddistingue queste transizioni è la coesistenza delle due fasi all’interno di un intervallo di temperature: riscaldando l’acqua in una pentola con il coperchio, parte del liquido evaporerà creando un sistema in cui l’acqua e il suo vapore convivono alla stessa temperatura. In altre parole c’è un intervallo di temperature in cui è possibile trovare l’acqua sia nella fase liquida che in quella gassosa. Un’ulteriore caratteristica delle transizioni di prima specie è la presenza di un salto, durante il passaggio di stato, di quantità misurabili come il volume: mentre una sostanza sta evaporando, per esempio, il suo volume aumenta sensibilmente anche per infinitesime variazioni della temperatura. Diagramma di fase dell’acqua. In ascissa la temperatura T, in ordinata la pressione P. Ogni punto del piano rappresenta una fase della sostanza, eccetto che per quelli che si trovano sulle linee che vengono dette linee di transizione. Su di esse avviene il passaggio da una fase all’altra della sostanza. Da it.wikipedia.org accastampato num. 1, Giugno 2010 29 La pittura silenziosa Piero della Francesca (1416 – 1492) Massimo Margotti (Studente di Fisica, Università Sapienza di Roma) Figura 1 Piero della Francesca: Madonna di Senigallia, 1474 circa, olio su tavola, 67cm × 53, 5cm (Urbino, Galleria Nazionale delle Marche) orrei trattare in questo primo scritto di un artista che si situa nel primo Rinascimento. Non è un caso che nel capolavoro dell’Alberti, il Tempio Malatestiano di Rimini, sia presente un affresco di Piero della Francesca. Il ruolo artistico di Piero venne rivalutato solo nel ’900, quando finalmente fu possibile riassumere le rivoluzioni pittoriche come fossero un percorso lineare; linearità che fa parte solo della visione dei posteri. Benché mantenga una totale autonomia stilistica, il lavoro di Piero della Francesca è emblematico del passaggio che a quell’epoca stava avvenendo in Italia a livello intellettuale e sociale e individua un momento in cui l’arte assorbiva gli estremi dell’intelletto umano. Tra questi l’incontro tra arte e matematica, riconosciuta come unica risorsa per una descrizione della realtà. Cosı̀ come in una mitologia greca, da tale incontro nasce la prospettiva capace, attraverso l’inganno della mente, di donare una nuova visione del mondo. Dipingere secon- V 30 do le regole prospettiche non era solo una moda, ma la necessità di rappresentare ciò che il nuovo pretendeva come centrale. È il momento in cui una classe commerciale annaspa di desiderio per la regalità dei titoli nobiliari, ma in questo desiderare è evidente la volontà di superamento. Ecco che nella Madonna di Senigallia (Figura 1) l’abito borghese, privato e quotidiano, diviene degno dei Santi che camminano su una terra arata e mansueta o in città già razionali. Fu con Piero che l’arte italiana rispose alle titubanze fiamminghe (risolte con allegorie ovine) sulla rappresentabilità di Dio; sulle orme del primo libro del Pentateuco il problema della rappresentazione di Dio poteva essere ricondotto alla mera rappresentazione dell’uomo e di ciò che lo circondava. Da questa affermazione ne seguiva, come in una impostazione teorematica non distante dalla forma mentis degli artisti dell’epoca, che la terra e le architetture fossero un attributo indispensabile di questa rappresentazione. È a questo scopo che la pittura si trasforma in uno specchio che riflette una Natura domata e disponibile a essere percorsa nella sua profondità, non come nei Coniugi Arnolfini di Jan van Eyck dove la realtà è distorta, o successivamente ne Las Meninas di Velasquez dove lo specchio mostra la realtà trascendente dei rapporti di forza mostrando possibili sentieri dell’inconscio. È in fondali di campi squadrati, coltivati e produttivi, in città dalle architetture geometricamente definite, che Piero colloca i suoi personaggi scultorei che, immutabili come la scultura, danno Ragione dell’affermarsi dell’Uomo. Nella pittura di Piero è escluso qualsiasi principio dinamico, non ci sono movimenti, il dipinto non è una fotografia poiché ogni forma umana presentata diviene forma divina; prevale dunque una statica di sapore masaccesco quale metafora del motore immobile platonico. Figure geometriche e solidi platonici sono il recupero della forma del pensiero classico e s’innestano nei racconti pittorici come teoremi la cui verità dimostrabile ha la durezza e la trasparenza del cristallo. È su questi solidi cristallini che s’infrange la luce di un sole a mezzogiorno, le ombre soggiacciono completamente alle strutture che le determinano (dato non secondario in un maestro della prospettiva), quasi come se le figure divenissero meridiana di un tempo di passaggio, la fine dell’età di mezzo e la piena coscienza di appartenere ai pittori della trasformazione. ------------------------------------------- . . . l’incontro tra arte e matematica, riconosciuta come unica risorsa per una descrizione della realtà . . . ------------------------------------------- accastampato num. 1, Giugno 2010 SCIENZARTE Bibliografia Figura 2 A sinistra, Piero della Francesca: La leggenda della Vera Croce. A destra, Pablo Picasso: Il serbatoio Horta. Siamo lontani dagli ori di Beato Angelico di sapore bizantino; in Piero le immagini bruciano come riscoperte alla luce delle nuove architetture e i volti, concepiti nell’oscurità, prendono fuoco al chiarore della nuova arte, diventando più veri e credibili come se in tale chiarezza ogni inganno pittorico fosse dissimulato e annichilito, anziché magnificato. In Piero anche la polvere acquista spessore, dona densità all’aria suggerendo profondità e misura (Madonna di Senigallia). Nulla è lasciato al caso e, se gioca col colore per ingannare l’occhio sulle reali distanze delle architetture (come nella pala di Brera o nel ciclo della vera Croce), lo fa alla ricerca di un osservatore attento che, scorgendo l’inganno, si avvicini e si immerga in una pittura istruita a misura d’uomo e che con l’uomo e la sua realtà vuole misurarsi. La costruzione pittorica richiede dunque un movimento all’osservatore, quello di vivere lo spazio architettonico che comprende l’opera stessa, richiede di muoversi nello spazio. La statica suggerisce la dinamica. Questa esigenza fu forse maturata da due necessità umane: la prima quella di confrontarsi con i pittori di Firenze che dipingevano nell’architettura rinascimentale, la seconda di introdurre l’osservatore a quelle perfette simmetrie matematiche che tanto bene conosceva e che fanno dei suoi dipinti un’universalizzazione della tranquillità borghigiana dei biturgensi. L’opera matematica di Piero (Il Piero matematico dei De Pictura Pingendi, De quinque corporibus regularibus e Trattato D’Abaco sarà riconosciuto dall’allievo Luca Pacioli) non s’identifica nella pittura, ma si risolve in essa. (1) Bernard Berenson, Piero della Francesca o dell’arte non eloquente, a cura di Luisa Vertova, Milano, Abscondita (2) Roberto Longhi, Piero della Francesca, Firenze, Sansoni (3) Carlo Ginzburg, Indagini su Piero, Einaudi (4) John Pope-Hennessy, Sulle tracce di Piero della Francesca, Umberto Allemandi & Co. (5) E. H. Gombrich, La storia dell’arte raccontata da E.H.Gombrich, Einaudi (6) Henri Focillon, Piero della Francesca, Abscondita (7) Ernst H. Gombrich, Riflessioni sulla storia dell’arte, Einaudi (8) Ernst H. Gombrich, Sentieri verso l’arte, Leonardo Arte (9) Carlo Bertelli, Giuliano Briganti, Antonio Giuliano, Storia dell’arte italiana, Electa, Bruno Mondadori (10) Carlo Bertelli, Piero della Francesca, Silvana Editoriale (11) Alessandro Parronchi, Ricostruzioni: Piero della Francesca – L’altare di Gand, Medusa (12) Anna Maria Maetzke e Carlo Bertelli, Piero della Francesca: La Leggenda della Vera Croce in San Francesco ad Arezzo, Skira (13) Oreste Del Bono, Pierluigi De Vecchi, L’opera completa di Piero della Francesca, Milano, Rizzoli (14) Charles Bouleau, La geometria segreta dei pittori, Electa, Bruno Mondadori (15) H.Damisch et al., Piero Teorico dell’Arte, a cura di Omar Calabresi, Gangemi Editore (16) Una scuola per Piero, a cura di Luciano Bellosi, Marsilio Sull’autore Figura 3 A sinistra, Piero della Francesca: particolare del Battesimo. A destra, Vincent van Gogh: particolare di Ladies of Arles. Massimo Margotti (massimomargotti@gmail. com), laureato in Biotecnologie Industriali, accanto all’attività di studio e di ricerca ha lavorato come operatore didattico presso il Museo del Patrimonio industriale di Bologna e partecipato a varie iniziative di Arte e Scienza, tra le quali Fist fucking drain del dipartimento di Ingegneria di Bologna e Radical Relations di Robert Vincent. accastampato num. 1, Giugno 2010 31 La prima lezione di Ettore Majorana 13 gennaio 1938: una lezione speciale che mostra le capacità didattiche dello scienziato Alessio Cimarelli (su materiali di Bruno Prezioni, Erasmo Recami, Salvatore Esposito) (Laboratorio Interdisciplinare per le Scienze Naturali e Umanistiche – Sissa) Al mondo ci sono varie categorie di scienziati; gente di secondo e terzo rango, che fanno del loro meglio ma non vanno lontano. C’è anche gente di primo rango, che arriva a scoperte di grande importanza, fondamentale per lo sviluppo della scienza. Ma poi ci sono i geni come Galileo e Newton. Ebbene Ettore era uno di quelli. Majorana aveva quel che nessun altro al mondo ha. Sfortunatamente gli mancava quel che è invece comune trovare negli altri uomini: il semplice buon senso. (Enrico Fermi) ttore Majorana nacque a Catania il 6 agosto 1906 e scomparve misteriosamente nel marzo 1938 mentre era di ritorno da Palermo. Il 13 gennaio 1938 aveva tenuto la lezione inaugurale del suo corso di Fisica Teorica presso l’università Federico II di Napoli, ove era stato nominato professore ordinario per meriti eccezionali. Questi appunti che di seguito pubblichiamo mostrano l’interesse dello scienziato non solo per le questioni generali e di fondo che animano la ricerca scientifica, ma anche per il migliore metodo didattico da seguire per trasmettere il sapere agli allievi, per i quali ha sempre nutrito un profondo interesse. E ne ha traccia indiretta nell’assenza di una tale notizia sui giornali cittadini (come, ad esempio, Il Mattino), contrariamente a quanto avveniva per altri corsi, certamente più affollati. Secondo la testimonianza di Gilda Senatore, alla lezione inaugurale non parteciparono gli studenti del corso medesimo. Questo però non deve stupire. L’ipotesi, infatti, secondo la quale la non partecipazione degli studenti fosse espressamente voluta (da Carrelli o da altri) troverebbe una valida spiegazione in un’antica consuetudine dell’Università di Napoli, dove ogni nuovo docente doveva dimostrare agli altri professori di essere meritevole del posto che sarebbe andato a occupare. Il concorso per la cattedra di Fisica Teorica di Napoli Nel 1937 l’Università di Palermo, per interessamento di Emilio Segré, richiese un nuovo concorso per la cattedra di Fisica Teorica. I concorrenti, oltre Majorana (invitato insistentemente a partecipare al concorso da Fermi e dagli amici), erano Leo Pincherle, Giulio Racah, Gleb Wataghin, Gian Carlo Wick e Giovanni Gentile (figlio dell’omonimo filosofo, già ministro). La commissione giudicatrice, riunitasi a Roma, era presieduta da Fermi ed era costituita da Antonio Carrelli (segretario), Orazio Lazzarino, Enrico Persico e Giovanni Polvani. I documenti ufficiali testimoniano che la commissione prospettò al Ministro Bottai (il quale accoglierà la proposta) l’opportunità di nominare il Majorana professore di Fisica teorica per alta e meritata fama in una Università del Regno, indipendentemente dal concorso. La cattedra fu attribuita fuori concorso a Majorana e la nomina a professore ordinario, partecipata dal Ministro Bottai il 2 novembre 1937, decorse dal 16 novembre dello stesso anno. Majorana annuncia l’inizio del suo corso per il giovedı̀ 13 gennaio 1938 alle 9:00, ma concorda con il preside della Facoltà di evitare ogni carattere ufficiale all’apertura del corso. Di ciò se 32 Figura 1 Ettore Majorana Lo stile del docente Majorana, vestito di blu, aveva sempre un aspetto triste e perplesso e ciò, unito alla non facile comprensione degli argomenti avanzati che egli trattava a lezione, certamente infondeva una certa soggezione nei giovani uditori del corso di Fisica Teorica. D’altro canto, il soprannome di Grande Inquisitore gli era stato attribuito già molti anni prima dagli amici di sempre del gruppo di Fermi a Roma. E anche al di fuori del contesto ufficiale delle lezioni, Majorana confermava questo comportamento: salutava e rispondeva gentilmente al saluto e, magari, timidamente sorrideva; si intuiva che doveva essere profondamente buono e sensibilissimo, ma non fu mai estroverso o invitante, anzi fu sempre estremamente schivo. E ancora: in quel lungo corridoio buio al piano terra... camminava sempre rasente al muro, silenziosamente e solo, muovendosi come un’ombra. Quando arrivò a Napoli, certamente il direttore Carrelli dovette parlare degli studenti e delle loro ricerche a Majo- accastampato num. 1, Giugno 2010 NANOS GIGANTUM rana, il quale si dovette rendere subito conto del singolare compito che si era apprestato ad accettare con un cosı̀ esiguo numero di studenti. Tuttavia egli era fermamente deciso a portare a termine in maniera responsabile il compito assunto. A lezione era chiarissimo nella trattazione dell’argomento che proponeva di volta in volta all’inizio della lezione e che svolgeva con dovizia di particolari, dando sempre la prevalenza alla parte fisica più che a quella matematica; ma quando si volgeva alla lavagna e cominciava a scrivere, faceva calcoli che sul momento non sempre si riusciva a seguire. Il carattere di Majorana, poi, certamente non invitava i timidi studenti a interromperlo per chiedergli spiegazioni. Talvolta a lezione, quando Majorana si accorgeva (interrompendosi e voltandosi indietro) che gli studenti stentavano a capire ciò che lui stava esponendo, si fermava e rispiegava lo stesso argomento. Proprio durante qualcuna di quelle lezioni più aride e più pesanti in quanto l’argomento trattato era afferente essenzialmente a metodi matematici da applicarsi allo studio di fenomeni fisici, Majorana dimenticava forse di essere quel grandissimo scienziato che era, perché mentre era alla lavagna e scriveva, improvvisamente si fermava, poi si volgeva, ci guardava un attimo, sorrideva e riproponeva la spiegazione facendo aderire il concetto già esposto alle formule che riempivano la lavagna. Figura 2 La famiglia di Ettore Majorana (a destra) a passeggio. Appunti per la Lezione Inaugurale Università di Napoli, 13 gennaio 1938 In questa prima lezione di carattere introduttivo illustreremo brevemente gli scopi della fisica moderna e il significato dei suoi metodi, soprattutto in quanto essi hanno di più inaspettato e originale rispetto alla fisica classica. La fisica atomica, di cui dovremo principalmente occuparci, nonostante le sue numerose e importanti applicazioni pratiche - e quelle di portata più vasta e forse rivoluzionaria che l’avvenire potrà riservarci -, rimane anzitutto una scienza di enorme interesse speculativo, per la profondità della sua indagine che va veramente fino all’ultima radice dei fatti naturali. Mi sia perciò consentito di accennare in primo luogo, Figura 3 Logo dell’università Federico II di Napoli. senza alcun riferimento a speciali categorie di fatti sperimentali e senza l’aiuto del formalismo matematico, ai caratteri generali della concezione della natura che è accettata nella nuova fisica. La fisica classica di Galileo e Newton all’inizio del nostro secolo è interamente legata, come si sa, a quella concezione meccanicistica della natura che dalla fisica è dilagata non solo nelle scienze affini, ma anche nella biologia e perfino nelle scienze sociali, informando di sé quasi tutto il pensiero scientifico e buona parte di quello filosofico in tempi a noi abbastanza vicini; benché, a dire il vero, l’utilità del metodo matematico che ne costituiva la sola valida giustificazione sia rimasta sempre circoscritta esclusivamente alla fisica. Questa concezione della natura poggiava sostanzialmente su due pilastri: l’esistenza oggettiva e indipendente della materia, e il determinismo fisico. In entrambi i casi si tratta, come vedremo, di nozioni derivate dall’esperienza comune e poi generalizzate e rese universali e infallibili soprattutto per il fascino irresistibile che anche sugli spiriti più profondi hanno in ogni tempo esercitato le leggi esatte della fisica, considerate veramente come il segno di un assoluto e la rivelazione dell’essenza dell’universo: i cui segreti, come già affermava Galileo, sono scritti in caratteri matematici. L’oggettività della materia è, come dicevo, una nozione dell’esperienza comune, poiché questa insegna che gli oggetti materiali hanno un’esistenza a sé, indipendente dal fatto che essi cadano o meno sotto la nostra osservazione. La fisica matematica classica ha aggiunto a questa constatazione elementare la precisazione o la pretesa che di questo mondo oggettivo è possibile una rappresentazione mentale completamente adeguata alla sua realtà, e che questa rappresentazione mentale può consistere nella conoscenza di una serie di grandezze numeriche sufficienti a determinare in ogni punto dello spazio e in ogni istante lo stato dell’universo fisico. Il determinismo è invece solo in parte una nozione dell’esperienza comune. Questa dà infatti al riguardo delle indicazioni contraddittorie. Accanto a fatti che si succedono fatalmente, come la caduta di una pietra abbandonata nel vuoto, ve ne sono altri - e non solo nel mondo biologico - in cui la successione fatale è per lo meno poco evidente. II determinismo in accastampato num. 1, Giugno 2010 33 NANOS GIGANTUM quanto principio universale della scienza ha potuto perciò essere formulato solo come generalizzazione delle leggi che reggono la meccanica celeste. È ben noto che un sistema di punti - quali, in rapporto alle loro enormi distanze, si possono considerare i corpi del nostro sistema planetario - si muove e si modifica obbedendo alla legge di Newton. Questa afferma che l’accelerazione di uno di questi punti si ottiene come somma di tanti vettori quanti sono gli altri punti: ~P¨r ∝ ∑ ms ~ers , 2 s Rrs essendo ms la massa di un punto generico e ~ers il vettore unitario diretto da ~Pr a ~Ps . Se in tutto sono presenti n punti, occorreranno 3n coordinate per fissarne la posizione e la legge di Newton stabilisce fra queste grandezze altrettante equazioni differenziali del secondo ordine il cui integrale generale contiene 6n costanti arbitrarie. Queste si possono fissare assegnando la posizione e le componenti della velocità di ciascuno dei punti all’istante iniziale. Ne segue che la configurazione futura del sistema può essere prevista con il calcolo purché se ne conosca lo stato iniziale, cioè l’insieme delle posizioni e velocità dei punti che lo compongono. Tutti sanno con quale estremo rigore le osservazioni astronomiche abbiano confermato l’esattezza della legge di Newton; e come gli astronomi siano effettivamente in grado di prevedere con il suo solo aiuto, e anche a grandi distanze di tempo, il minuto preciso in cui avrà luogo un’eclisse, o una congiunzione di pianeti o altri avvenimenti celesti. Per esporre la meccanica quantistica nel suo stato attuale esistono due metodi pressoché opposti. L’uno è il cosiddetto metodo storico: ed esso spiega in qual modo, per indicazioni precise e quasi immediate dell’esperienza, sia sorta la prima idea del nuovo formalismo; e come questo si sia successivamente sviluppato in una maniera obbligata assai più dalla necessità interna che non dal tenere conto di nuovi decisivi fatti sperimentali. L’altro metodo è quello matematico, secondo il quale il formalismo quantistico viene presentato fin dall’inizio nella sua più generale e perciò più chiara impostazione, e solo successivamente se ne illustrano i criteri applicativi. Ciascuno di questi due metodi, se usato in maniera esclusiva, presenta inconvenienti molto gravi. È un fatto che, quando sorse la meccanica quantistica, essa incontrò per qualche tempo presso molti fisici sorpresa, scetticismo e perfino incomprensione assoluta, e ciò soprattutto perché la sua consistenza logica, coerenza e sufficienza appariva, più che dubbia, inafferrabile. Ciò venne anche, benché del tutto erroneamente, attribuito a una particolare oscurità di esposizione dei primi creatori della nuova meccanica, ma la verità è che essi erano dei fisici, e non dei matematici, e che per essi l’evidenza e giustificazione della teoria consisteva soprattutto nell’immediata applicabilità ai fatti sperimentali che l’avevano suggerita. La formulazione generale, chiara e rigorosa, è venuta dopo, e in parte per opera di cervelli matematici. Se dunque noi rifacessimo semplicemente 34 l’esposizione della teoria secondo il modo della sua apparizione storica, creeremmo dapprima inutilmente uno stato di disagio o di diffidenza, che ha avuto la sua ragione d’essere ma che oggi non è più giustificato e può essere risparmiato. Non solo, ma i fisici - che sono giunti, non senza qualche pena, alla chiarificazione dei metodi quantistici attraverso le esperienze mentali imposte dal loro sviluppo storico - hanno quasi sempre sentito a un certo momento il bisogno di una maggiore coordinazione logica, di una più perfetta formulazione dei principi e non hanno disdegnato per questo compito l’aiuto dei matematici. Il secondo metodo, quello puramente matematico, presenta inconvenienti ancora maggiori. Esso non lascia in alcun modo intendere la genesi del formalismo e in conseguenza il posto che la meccanica quantistica ha nella storia della scienza. Ma soprattutto esso delude nella maniera più completa il desiderio di intuirne in qualche modo il significato fisico, spesso cosı̀ facilmente soddisfatto dalle teorie classiche. Le applicazioni, poi, benché innumerevoli, appaiono rare, staccate, perfino modeste di fronte alla sua soverchia e incomprensibile generalità. Il solo mezzo di rendere meno disagevole il cammino a chi intraprende oggi lo studio della fisica atomica, senza nulla sacrificare della genesi storica delle idee e dello stesso linguaggio che dominano attualmente, è quello di premettere un’esposizione il più possibile ampia e chiara degli strumenti matematici essenziali della meccanica quantistica, in modo che essi siano già pienamente familiari quando verrà il momento di usarli e non spaventino allora o sorprendano per la loro novità: e si possa cosı̀ procedere speditamente nella derivazione della teoria dai dati dell’esperienza. Questi strumenti matematici in gran parte preesistevano al sorgere della nuova meccanica (come opera disinteressata di matematici che non prevedevano un cosı̀ eccezionale campo di applicazione), ma la meccanica quantistica li ha sforzati e ampliati per soddisfare alle necessità pratiche; cosı̀ essi non verranno da noi esposti con criteri da matematici, ma da fisici. Cioè senza preoccupazioni di un eccessivo rigore formale, che non è sempre facile a raggiungersi e spesso del tutto impossibile. La nostra sola ambizione sarà di esporre con tutta la chiarezza possibile l’uso effettivo che di tali strumenti fanno i fisici da oltre un decennio, nel quale uso che non ha mai condotto a difficoltà o ambiguità - sta la fonte sostanziale della loro certezza. Bibliografia (1) B. Preziosi, E. Recami, La Lezione Inaugurale di Ettore Majorana al suo corso di Fisica Teorica, 6 settembre 2007 (2) S. Esposito, Il corso di fisica teorica di Ettore Majorana: il ritrovamento del documento Moreno, 22 novembre 2004 accastampato num. 1, Giugno 2010 Copenhagen Il dialogo perduto tra Bohr e Heisenberg Lucia Orlando (Gruppo di Storia della Fisica, Dip. di Fisica) Margrethe - È veramente ridicolo. Voi due avete penetrato con stupefacente raffinatezza e precisione il mondo infinitamente piccolo dell’atomo. Adesso viene fuori che tutto dipende dai pesi infinitamente grandi che ci portiamo sulle spalle. E quello che succede lı̀ dentro è. . . Heisenberg - Elsinore. Margrethe - Elsinore, sı̀. (Michael Frayn, Copenhagen, 1998) Figura 1 Scena da Copenhagen di Michael Frayn. Foto di Marco Caselli da www.loschiaffio.org el 1941, mentre i nazisti occupano Copenhagen, Werner Heisenberg va a trovare Niels Bohr nella città danese. Per quale motivo due dei principali artefici della meccanica quantistica si incontrano nell’Europa messa a ferro e fuoco da Hitler? L’incontro è tuttora immerso nelle nebbie del dubbio, di sicuro i due parlarono di fissione e della possibilità di costruire una bomba nucleare, ma non c’è alcuna certezza su come andarono le cose. Senz’altro c’è la fine di un’amicizia nata negli anni Venti, quando Bohr e Heisenberg gettavano le fondamenta della teoria quantistica. Su quell’incontro tra due giganti del pensiero, avvenuto in un momento critico per stabilire se la fissione nucleare potesse essere davvero N 36 utilizzata per costruire ordigni bellici (solo l’anno dopo Fermi a Chicago mostrò la fondatezza dell’ipotesi), un grande commediografo come Michael Frayn costruisce una pièce replicata con successo dal 1998. Cosa si dicono in quell’incontro Bohr e Heisenberg? Quest’ultimo, in quel momento, lavora per il Reich, mentre il primo sta per riparare in Gran Bretagna, per poi recarsi oltreoceano e partecipare al Progetto Manhattan. La Germania nazista ha già avviato due programmi per studiare le effettive possibilità di applicare la fissione a fini bellici. Uno dei programmi è proprio guidato da Heisenberg. E anche negli Stati Uniti si procede con ricerche preliminari. Heisenberg vuole davvero convincere il vecchio e autorevolissimo amico e maestro a sostenere un accordo internazionale fra scienziati per il controllo preventivo dello sfruttamento della fissione nucleare? Oppure vuole sapere a che punto è arrivata l’altra parte e, nella migliore delle ipotesi, vuole convincere Bohr a collaborare coi nazisti? È proprio su questa ambiguità irrisolta che Frayn costruisce uno dei più bei testi mai scritti sul rapporto tra scienza ed etica. Per l’autore, Heisenberg diventa incarnazione stessa del principio di complementarità: Sono il tuo nemico e il tuo amico. Un pericolo per l’umanità e un tuo ospite. Sono una particella e un’onda. E chiama in causa il principio di indeterminazione (vedi Box a pag. 37), per stabilire l’impossibilità di determinare in modo certo se Heisenberg volesse davvero realizzare l’atomica tedesca o, come egli stesso si è sempre difeso, abbia ostacolato il raggiungimento dell’obiettivo. Gerard Holton’s What Michael Frayn’s Copenhagen Tries to Tell Us Nel dramma di Frayn ci sono solo tre attori in scena: Bohr, sua moglie Margrethe e Heisenberg. I tre sono divenuti fantasmi che raccontano le straordinarie scoperte in meccanica quantistica di cui sono stati testimoni e protagonisti, spesso sono ignari della presenza l’uno dell’altro aggiungendo un che di sinistro alle loro interazioni. Lo spettacolo mischia tre differenti mondi: la scienza, la storia e il teatro, ma non bisogna confondere i personaggi in scena con i personaggi storici realmente esistiti. Lo spettacolo, infatti, si fonda su ciò che su queste persone è stato detto e scritto. Heisenberg La versione di Heisenberg nell’interpretazione di Frayn è stata formulata a partire fondamentalmente dagli scritti di due storici della fisica: Jungk e Powers. Jungk nel suo Brighter than a accastampato num. 1, Giugno 2010 EVENTI thousand sun (Gli apprendisti stregoni nell’introvabile versione italiana) presenta un Heisenberg molto ingenuo, basandosi sulle dichiarazioni del fisico stesso: sapevamo che fondamentalmente era possibile produrre una bomba atomica, ma avevamo sovrastimato gli sforzi che effettivamente si sono rivelati necessari per svilupparla. Heisenberg dichiarò di non aver mai inteso convincere Bohr di unirsi allo sviluppo del progetto atomico nazista, ma che la sua fosse una domanda sull’opportunità degli scienziati di dedicarsi a un simile progetto, domanda che Bohr avrebbe frainteso interpretandola come un’esortazione a unirsi a lui. Jungk conclude quindi che Heisenberg avrebbe imposto un impedimento morale allo sviluppo della bomba, impedimento che si sarebbe manifestato come una sorta di ostruzionismo passivo che il club degli scienziati nucleari tedeschi avrebbe opposto agli ordini dei militari, come una sorta di loggia massonica di scienziati pacifisti. È da segnalare che Heisenberg non dichiarò una simile cosa nei suoi carteggi con Jungk, ma che questi ebbe quest’intuizione intervistando molti degli interessati. Sembra, inoltre, che quest’idea trovi conferma nelle dichiarazioni di Von Weizsacker a Heisenberg e agli altri scienziati tedeschi detenuti in Inghilterra nella tenuta di Farm Hall quando questi vennero a sapere della distruzione di Hiroshima. La storia registrerà che lo sviluppo pacifico dei motori a uranio è stata fatta dai tedeschi sotto il regime di Hitler, mentre gli americani e gli inglesi sviluppavano questa agghiacciante arma di guerra. Va però detto che in seguito nelle proprie memorie Von Weizsacker lasciò scritto che in effetti anche gli scienziati tedeschi speravano di costruire la bomba. In qualche modo, però, stando alle dichiarazioni di Von Laue, fisico tedesco che non collaborò mai alle ricerche sullo sviluppo di armi per il regime, gli scienziati tedeschi furono affetti da una strana mancanza di zelo che li portò a mal interpretare i risultati di molte fondamentali misure. Il che, indirettamente, confermerebbe le tesi di Jungk. Powers portò alle estreme conseguenze quest’idea, arrivando a sostenere che quello di Heisenberg sarebbe stato un atto di consapevole sabotaggio. Questa versione è quella che fondamentalmente lo spettatore vede in scena assistendo all’opera di Frayn: lo svolgersi degli eventi abilmente prepara il pubblico al climax prima della fine, in cui Heisenberg accusa Bohr di essere andato a Los Alamos come lo stesso Bohr ammette: per giocare la mia piccola ma utile parte nella morte di centinaia di migliaia di persone, mentre Heisenberg esulta: ci dovrebbe essere un posto in paradiso per me. Bohr La versione dell’incontro del 1941 fornita da Heisenberg e Jungk non presenta che una parte della storia. Frayn, infatti, si schiera evidentemente dalla parte di Heisenberg, come le battute finali sottolineano. Il testo teatrale, però, scritto nel 1998, non potè basarsi su una lettera di risposta a Heisenberg che Bohr scrisse e mai spedı̀, pubblicata nel 2002. In questa lettera Bohr, in contrapposizione ai toni fumosi di quella di Heisenberg a Jungk, afferma di ricordare perfettamente ogni sillaba del dialogo tra loro due. Mentre il fisico tedesco lo descriveva come un vecchio arrabbiato, egli risponde che fu lo shock dovuto alla paura a fargli interrompere bruscamente il dialogo, decidendo poi di scappare. Heisenberg infatti gli avrebbe confidato di aver lavorato per i due anni precedenti al progetto della bomba e di avere buone probabilità di ultimarla con il suo aiuto. L’interpretazione di Copenhagen della meccanica quantistica di Leonardo Barcaroli Quando i fisici, verso l’inizio del secolo scorso, si trovarono a dover riscrivere una parte delle leggi fisiche fondamentali per spiegare molti fenomeni che avvenivano alle scale di grandezza atomiche e subatomiche non capirono subito quale interpretazione dare alla nuova fisica. Ad esempio corpi che erano ritenuti fino ad allora particelle, ovvero individuate nello spazio da una posizione ben precisa, in meccanica quantistica si comportavano come onde, ovvero esistevano in ogni tempo e in ogni luogo, come se fossero spalmate sullo spazio-tempo. Inizialmente c’era molta confusione, ma negli anni ’30 Bohr e Heisenberg, che lavoravano insieme a Copenhagen, formalizzarono un’idea originaria di Born: l’onda che descrive una particella in ogni punto dello spazio a ogni tempo è associata alla probabilità di trovarla in quel punto a quell’istante, una volta Werner Karl Heiche si effettua una misura su di essa. Tale interpretazione, di carattere probabilistico, è quella comunemente senberg. Dal The accettata attualmente, benché non sia l’unica. Il principio di indeterminazione, invece, fu frutto del lavoro del MacTutor History of Mathematics solo W. Heisenberg, mente geniale e misteriosa esattamente come il suo cosiddetto principio, erroneamente archive chiamato cosı̀ dato che in realtà è un teorema dimostrabile. Esso stabilisce che non è possibile misurare con precisione arbitraria la posizione e la velocità di una particella nello stesso istante. Questo non significa che semplicemente la misura di una di queste due grandezze disturba l’altra, ma che proprio è impossibile definirne contemporaneamente posizione e velocità. Il concetto sembra vago, ma in realtà descrive una caratteristica profonda della fisica su scale microscopiche: c’è un velo di impossibilità nel cogliere quello che è il moto di un corpo su scale molto piccole. Questo principio vale anche per altre coppie di grandezze come, ad esempio, il tempo e l’energia. È su questa indeterminatezza sfuggente della realtà che giocano i protagonisti dello spettacolo di Frayn, personaggi e particelle elementari allo stesso tempo. accastampato num. 1, Giugno 2010 37 Bohr sottolinea, inoltre, che Heisenberg e Von Weizsacker si intrattennero molto sia con lui che con altri scienziati della sua équipe, sostenendo che sarebbe stato deleterio per la Danimarca e per gli scienziati danesi non collaborare con il Reich. Nella sua lettera, mai spedita probabilmente per via dei suoi toni forti, Bohr risponde punto per punto a tutte le affermazioni di Heisenberg, dipingendo un quadro molto più fosco dello scienziato a capo del progetto nazista. Il pubblico, quindi, dovrebbe tenere ben a mente che Frayn si è basato su documenti parziali, quelli di Jungk e di Powers, e non sugli altri che avrebbero potuto fornire ben altri scenari, come le intercettazioni di Farm Hall o l’appena citata lettera di Bohr. Nel momento in cui lo spettatore, quindi, si troverà ad ascoltare frasi dell’Heisenberg attore quali: Avevo capito molto chiaramente, semplicemente non l’ho detto agli altri o Non stavo tentando di costruire una bomba, dovrà tenere ben a mente che quella che sta ammirando è l’interpretazione di un autore di teatro e non la pedissequa riproduzione di una cronaca storica, prendendo con il beneficio del dubbio qualunque giudizio morale venga propugnato dagli attori in scena. (da (6), traduzione di Niccolò Loret) Bibliografia (1) Michael Frayn, Copenhagen, Sironi Editore (2003) (2) Cassidy David, Un’estrema solitudine. La vita e l’opera di Werner Heisenberg, Bollati Boringhieri (1996) (3) Jeremy Bernstein, Il club dell’uranio di Hitler. I fisici tedeschi nelle registrazioni segrete di Farm Hall, Sironi Editore (2005) (4) Pais Abraham, Il danese tranquillo. Niels Bohr: un fisico e il suo tempo (1885-1962), Bollati Boringhieri (1993) (5) Samuel Abraham Goudsmit, Alsos, American Institute of Physics (1996) (6) Gerard J. Holton, What Michael Frayn’s Copenhagen Tries to Tell Us, in Victory and vexation in science: Einstein, Bohr, Heisenberg, and others, Harvard University Press (2005) Sull’autore Storica della Fisica, Lucia Orlando (Lucia. [email protected]) collabora con il gruppo di Storia della fisica presso il Dipartimento di Fisica dell’Università di Roma La Sapienza, per il quale ha riordinato l’Archivio Amaldi. I suoi più recenti ambiti di interesse riguardano la storia della Fisica italiana negli anni Trenta e dei programmi spaziali italiani. Si occupa anche di comunicazione scientifica collaborando con la RAI e vari periodici nazionali. 38 L’immagine di copertina è di Silvian25g (la si può trovare all’indirizzo http://silvian25g.deviantart.com/ art/fractal-231-82135968) e rappresenta un frattale. Un frattale è una forma geometrica che può essere divisa in più parti, ognuna delle quali è una copia ridotta della forma di partenza. Queste sorprendenti immagini si rifanno a equazioni matematiche, più o meno complicate, che determinano il grado di complessità del frattale stesso. Tra i più famosi ricordiamo la curva di Von Koch e il frattale di Mandelbrot. Date un’occhiata: il mondo dei frattali è pieno di sorprese, ne scoprirete tanti anche intorno a voi!