Hanno collaborato a questo numero: G. Barbiellini, G. Benedek, L. Belloni, R. Bernabei, A. Bettini, F. Bònoli, d. capece, S. Centro, E. Coccia, C. De Michele, L. Fallani, e. fratini, M. a. giorgi, G. Giuliani, M. Inguscio, G. Jona-Lasinio, D. Leporini, A. A. Lucas, A. v. olinto, A. Ottochian, G. Ottonello, L. Palumbo, R. Piazza, A. Proykova, F. Puosi, m. rama, D. Rifuggiato, F. Rustichelli, P. Salvadori, S. Sgrignoli, M. Stefanon, A. Terrasi, G. M. Tino, G. Vignale IL NUOVO SAGGIATORE BOLLETTINO DELLA SOCIETÀ ITALIANA DI FISICA Nuova Serie Anno 28 • N. 5 settembre-ottobre 2012 • N. 6 novembre-dicembre 2012 Direttore Responsabile Vicedirettore Comitato scientifico Luisa Cifarelli Giuseppe Grosso G. Benedek, A. Bettini, P. Cenci, S. Centro, E. De Sanctis, A. Di Virgilio, S. Falciano, F. Ferroni, S. Focardi, E. Iarocci, I. Ortalli, F. Palmonari, P. Picchi, B. Preziosi sommario FISICA E... 23 Dalle basse dosi al "Silenzio cosmico" e. fratini, d. capece News 57 The Italian Physical Society “Enrico Fermi” Prize and Medal 2012 A. Bettini 59 SIF-IOP “Giuseppe (Beppo) Occhialini” Prize and Medal 2012 A. Bettini 60 Il Premio Nobel per la Fisica 2012 L. Fallani, M. Inguscio, G. M. Tino 64 Il "compleanno" dell'A.I.F. e il XIII Convegno Orlandini S. Sgrignoli 66 European Gender Summit 2012 A. Proykova percorsi 31 Cosmic rays: a century of mysteries A. v. olinto 68 Intervista a Benedetto Vigna S. Centro IL NOSTRO MONDO 39 Cerimonia Inaugurale XCVIII Congresso Nazionale della Società Italiana di Fisica 46 The European Project “Immersion in the science worlds through the arts” F. Rustichelli, M. Stefanon 50 Gran Sasso Science Institute E. Coccia 52 La fisica degli acceleratori in Italia L. Palumbo 56 Il Nuovo Cimento 150, 100, 50 anni fa A. Bettini 70 OPINIONI 3 EDITORIALE L. Cifarelli / EDITORIAL SCIENZA IN PRIMO PIANO 5 Disordered systems A. Ottochian, C. De Michele, F. Puosi, D. Leporini 10 The super flavor factory SuperB M. a. giorgi, m. rama 72 RECENSIONI(*) 73 in ricordo di(*) Gloria Campos Venuti (P. Salvadori) Giordano Diambrini Palazzi (G. Barbiellini) Marcello Cini (G. Jona-Lasinio) Gabriele Francesco Giuliani (G. Vignale) 74 in evidenza 75 ANNUNCI 78 indice volume 28 (*) Il testo completo delle recensioni e dei necrologi è pubblicato solo nella versione online (http://www.sif.it/attivita/ saggiatore/econtents) Il Nuovo Saggiatore - Bollettino della Società Italiana di Fisica viene inviato gratuitamente ai Soci Modalità di Iscrizione alla sif Per iscriversi occorre presentare domanda di associazione con un breve curriculum scientifico e l’indicazione di due Soci presentatori. La domanda di associazione può essere fatta online (oppure scaricando l’apposito modulo di associazione, pubblicato anche in questo fascicolo) all’indirizzo: http://www.sif.it/associazione. La domanda verrà poi esaminata ed eventualmente approvata dal Consiglio di Presidenza. Il pagamento della quota sociale, nei modi sotto indicati, dovrà avvenire dopo aver ricevuto comunicazione della accettazione a Socio. Rinnovo Quote Sociali Il rinnovo della quota sociale può essere effettuato: • Online nell’Area Soci del sito web della SIF; in questo caso si utilizza la carta di credito, con collegamento diretto e sicuro al sito della Banca Nazionale del Lavoro (BNL). Ricordiamo che l’Area Soci è un’area protetta per accedere alla quale occorre utilizzare username e password che vengono inviati a tutti i Soci. (Per accedere agli altri servizi disponibli nell’Area Soci occorre essere Soci in regola). • Seguendo le modalità pubblicate in rete all’indirizzo: http://www.sif.it/associazione. In caso si desideri procedere anche in questo caso con la carta di credito, ricordarsi di usare l’apposito modulo debitamente compilato in tutte le sue parti. • È anche possibile rinnovare l’associazione alla European Physical Society (EPS) attraverso le rispettive società nazionali. I Soci che desiderano pagare la propria quota di associazione all’EPS tramite la SIF possono farlo con le modalità di cui sopra. Le quote di associazione all’EPS sono pubblicate in ultima pagina e in rete allo stesso indirizzo sopraindicato. How to become a SIF member To apply for membership an application form must be filled in, including a brief scientific curriculum and the signatures of two introducing Members. The application can be filled in online or downloading the application form at the following address: http://en.sif.it/association. The application form will be examined and eventually approved by the Council. Applicants will have to pay the membership dues, as indicated in the form, only after having been informed by the Society about the acceptance of their application. Membership Renewal Those who wish to renew membership, may pay dues by one of the following terms of payment: • Online by credit card through direct connection with the bank (BNL). This service can be accessed through the Members Area of the SIF website. We remind you that the Members Area is secured and can be accessed only through the username and password supplied to Members. • By cheque or credit card filling the payment form published on the web at the address: http://en.sif.it/association . In case you wish to use the credit card also in this case, make sure to fill in the form in all its parts. • It is also possible to renew the association to the European Physical Society (EPS) through the respective national societies. Members who wish to pay the EPS association fee through SIF can do so according to the instructions above. The EPS association fees are available on the SIF website at the above-indicated address. 2 < il nuovo saggiatore editoriale / editorial Carissimi Soci, il 2012 si conclude positivamente per la SIF. La situazione economica della Società è rimasta sotto controllo, malgrado la crisi del nostro Paese, e le attività scientifiche e culturali sono andate avanti per il meglio. A Varenna, oltre a tre eccellenti corsi dell’International School of Physics Enrico Fermi, che hanno avuto luogo nel periodo 19 giugno-27 luglio 2012, ha esordito con grande successo dal 30 luglio al 4 agosto il primo corso della Joint EPS-SIF International School on Energy, organizzata in collaborazione con l’European Physical Society (EPS). Le Lecture Notes di questa nuova scuola, che saranno pubblicate a cura delle due Società in una speciale collana, potranno costituire un testo di riferimento negli anni a venire in materia di energia. I corsi della International School on Energy avranno cadenza biennale e si alterneranno con l’European Energy Conference (E2C), organizzata dall’EPS in collaborazione con altre società o istituzioni, come l’European Association for Chemical and Molecular Sciences (EuCheMS), l’European Materials Research Society (E-MRS) o l’European Science Foundation (ESF). La Società Italiana di Fisica ha compiuto 115 anni nel 2012. In quanto alla Scuola Enrico Fermi, è ormai giunta alla soglia dei 60 anni: nel 2013 ne festeggeremo il sessantenario con uno specialissimo simposio internazionale. Tale anniversario coincide con quello del Consiglio Nazionale delle Ricerche (CNR), che compirà 90 anni, e con quello del Politecnico di Milano, che ne compirà 150. Entrambe queste prestigiose istituzioni hanno profondi legami con Varenna e il suo territorio. L’ iniziativa dell’EPS di cui abbiamo già parlato in questo giornale, per la proclamazione di un International Year of Light (IYOL) nel 2015 da parte delle Nazioni Unite, ha ottenuto nel mese di ottobre 2012, a Parigi, l’approvazione dell’Executive Board dell’United Nations Educational, Scientific and Cultural Organization (UNESCO). Ben 33 Nazioni, tra cui l’Italia, hanno votato in favore dell’iniziativa, formalmente presentata dal Ghana e dal Messico. Ciò spiana la strada per la definitiva approvazione all’Assemblea Generale delle Nazioni Unite nel 2013. Il Congresso SIF di Napoli (17-21 settembre 2012) ha radunato un gran numero di partecipanti. L’Oceanografia Fisica è stata inclusa per la prima volta in una delle sezioni parallele del Congresso. Le relazioni e comunicazioni, le tavole rotonde – di cui una in particolare, aperta al pubblico, su “I vulcani italiani e i loro segreti” – sono state di notevole interesse e di alto livello. Le notizie incoraggianti di un anno fa dal Large Hadron Collider (LHC) del CERN circa il bosone di Brout-Englert-HiggsGuralnik-Hagen-Kibble, comunemente detto bosone di Higgs, hanno trovato formidabile conferma nei risultati sperimentali annunciati nel mese di luglio 2012 dagli esperimenti ATLAS e CMS, con un effetto di 5 deviazioni standard per uno stato bosonico “Higgs-like” osservao in diversi possibili canali di decadimento, con una massa di circa 126 GeV/c2. Se ne è ovviamente molto parlato al Congresso di Napoli. LHC, dopo tre memorabili anni di attività, chiuderà i battenti all’inizio del 2013 per circa due anni prima di riprendere a operare con collisioni protoneprotone a energie e luminosità ancora maggiori. Molti altri risultati di rilievo arriveranno da ATLAS e CMS ma anche dagli esperimenti LHCb e ALICE, in particolare per collisioni Pb-Pb e p-Pb. Torniamo alla SIF. Nel corso del 2012 è entrata in azione la neonata Commissione Didattica Permanente (CDP) su questioni didattiche (Piano Lauree Scientifiche, classi di abilitazione, formazione degli insegnanti, ecc.) e universitarie (reclutamento, valutazione, ecc.), in collaborazione con altre associazioni e altri organismi: AIF, UMI, SAIt, SCI, Con.Scienze, CUN, MIUR. Aggiornamenti sull’operato della CDP e su vari altri interventi e azioni della SIF, come sempre in favore dei fisici e della Fisica, sono reperibili sul sito web della Società, peraltro rinnovato quest’anno nel suo aspetto e nei suoi contenuti. Sul fronte editoriale, sia per le riviste proprie della SIF sia per quelle a partenariato europeo, la situazione è soddisfacente. EPJ Plus, nel suo secondo anno di esistenza, ha pubblicato tanti interessanti articoli e le aspettative in termini di impact factor sembrano essere buone. All’orizzonte si delinea la questione dell’open access che presenta aspetti editoriali innovativi, anche dal punto di vista economico. Segnaliamo inoltre la pubblicazione, in collaborazione con la Società Italiana di Storia della Scienza (SISS), di un bel volume illustrato di carattere storico sulla figura emblematica, meglio nota all’estero che in Italia, di Laura Bassi (si veda il breve articolo a p. 67 di questo fascicolo). Per il 2013 sono previste altre iniziative editoriali, in particolare con la stampa di speciali volumi celebrativi in ricordo di grandi personaggi della Fisica italiana. Per finire, un piccolo richiamo o appello per i nostri attuali o futuri Soci: l’anno 2013 sarà un anno elettorale, le votazioni avranno luogo durante il 99° Congresso Nazionale che si svolgerà nella splendida città di Trieste, dunque ricordatevi per tempo di associarvi alla SIF! A voi tutti infine i miei grati e sinceri auguri per un felice 2013. Dear Members, the year 2012 will end positively for SIF. The economical situation of the Society stayed under control, notwithstanding the crisis that is interesting our Country, and the cultural and scientific activities went on all the better. This year in Varenna, in addition to the three excellent regular courses of the International School of Physics “Enrico Fermi”, that took place from June 19 to July 27, the first course of the Joint EPS-SIF International School on Energy, organized in collaboration with the European Physical Society (EPS), made very successfully its debut from July 30 to August 4. The Lecture Notes of this new school that will be published by the two Societies as a dedicated series, will serve as a reference textbook for energy matters in the years to come. The courses of the International School on Energy will take place biennially and will alternate with the European Energy Conference (E2C) that is organized by EPS in collaboration with other societies and institutions, like the European Association for Chemical and Molecular Sciences (EuCheMS), the European Materials Research Society (E-MRS) or the European Science Foundation (ESF). The Italian Physical Society had its 115th anniversary in 2012. And the Enrico Fermi School is nearing 60: in 2013 we shall celebrate this event with a very unique international symposium. This anniversary coincides with that of the Italian National Research Council (CNR), that will be 90, and that of the Polytechnic University of Milan, that will be 150. Both these prestigious institutions have deep links with Varenna and its district. We already mentioned in this journal the EPS intiative for the declaration of an International Year of Light (IYOL) by the United Nations in 2015. In the month of October this year in Paris, it has obtained the approval of the Executive Board of the United Nations Educational, Scientific and Cultural Organization (UNESCO). As many as 33 Nations among which Italy voted in favour of the initiative, which was formally submitted by Ghana and Mexico. This smooths the way for the final approval by the General United Nations Assembly in 2013. The SIF Congress in Naples (17-21 September 2012) has gathered a great number of participants. Physical Oceanography has been covered for the first time in one of the parallel sections of the Congress. The presentations and communications, the round tables – especially one, open to the public, on “Italian vulcanos and their secrets” – have been particularly interesting and of high level. The encouraging news of one year ago from the Large Hadron Collider (LHC) of CERN, concerning the Brout-Englert-Higgs-Guralnik-Hagen-Kibble boson, commonly known as the Higgs boson, have been wonderfully confirmed by the experimental results announced in the month of July 2012 by the ATLAS and CMS experiments, with an effect of 5 standard deviations for a “Higgs-like” bosonic state, observed in several possible decay channels, with a mass around 126 GeV/c2. Obviously this has been extensively dealt with at the Congress in Naples. LHC, after three memorable years of operation, will shut down at the beginning of 2013, before restarting operation with proton-proton collisions at even higher energy and luminosity. Many other relevant results are expected from ATLAS and CMS but also from LHCb and ALICE experiments, especially with Pb-Pb and p-Pb collisions. Coming back to SIF, in the course of 2012 the newborn Commissione Didattica Permanente (CDP - Permanent Education Commission) started its activity concerning matters related to teaching (Scientific Graduation Plan - PLS, teachers diplomas, teachers training, etc.) and university (careers, assessment, etc.) in collaboration with other Italian societies and bodies: AIF, UMI, SAIt, SCI, Con.Scienze, CUN, MIUR. Updatings on CDP activities and various other SIF actions and interventions, as always in favour of physicists and Physics, are retrievable from the Society website that has been renewed this year both in presentation and contents. On the publication side, both the journals owned by SIF and those run in cooperation with European partners performed in a satisfactory way. EPJ Plus reached its second year of existence and has published a good number of interesting papers that could positively affect its impact factor. The debate on open access looms up on the horizon, presenting novel publishing aspects also from an economical point of view. Worthy of mention is the publication, in collaboration with the Società Italiana di Storia della Scienza (SISS - Italian Society for the History of Science), of a nice illustrated volume of historical nature about the emblematic figure of Laura Bassi, better known abroad than in Italy (see the brief report on p. 67 of this issue). In 2013 other publishing initiatives are foreseen, in particular special volumes to celebrate great personalities of Italian Physics. Let me end with a little reminder or call for present or future SIF Members: 2013 will be an election year, voting will take place during the 99th National Congress to be held in the beautiful town of Trieste, so do not forget to subscribe to SIF in time! Lastly, to you all my grateful and sincere wishes for a happy 2013. vol28 / no5-6 / anno2012 > 3 C a l e n d a r i o E v e n t i SIF VARENNA - VILLA MONASTERO - LAKE COMO INTERNATIONAL SCHOOL OF PHYSICS “ENRICO FERMI” CLXXXVI Course 1 - 6 July 2013 “New Horizons for Observational Cosmology” Directors: A. Cooray (University of California, Irvine) A. Melchiorri (Università di Roma “La Sapienza”) E. Komatsu (University of Texas, Austin and Max Planck Institut, Garching) CLXXXVII Course 8 - 13 July 2013 “Water: Fundamentals as the Basis for Understanding the Environment and Promoting Technology” Directors: P. G. Debenedetti (Princeton University) M. A. Ricci (Università degli Studi Roma Tre) CLXXXVIII Course 15 - 20 July 2013 “Atom Interferometry” Directors: G. M. Tino (Università e LENS, Firenze, and INFN, Sezione di Firenze) M. A. Kasevich (Stanford University) CLXXXIX Course 22 - 30 July 2013 “Ion Traps for Tomorrow’s Applications” Directors: M. Knoop (Université de Provence, Marseille) I. Marzoli (Università di Camerino) G. Morigi (Universität des Saarlandes) XCIX CONGRESSO NAZIONALE DELLA SOCIETÀ ITALIANA DI FISICA Trieste, 23 – 27 settembre 2013 ELEZIONI DELLE CARICHE SOCIALI SIF PER IL TRIENNIO 2014-2016 A norma del Regolamento Elettorale per le cariche sociali della Società Italiana di Fisica, l'Assemblea Elettorale è convocata, in occasione del 99° Congresso Nazionale della SIF presso la sede della SISSA a Trieste, mercoledì 25 settembre 2013 alle ore 9.00. Il Seggio Elettorale verrà aperto alle ore 10.00 di mercoledì 25 settembre e verrà chiuso alle ore 10.00 di venerdì 27 settembre. Si rammenta che, sempre a norma del Regolamento, hanno diritto di voto i Soci in regola con la quota sociale 2013 almeno sei mesi prima dell'Assemblea Elettorale, e cioè entro il 25 marzo 2013. L'elenco di tali Soci verrà pubblicato online nell'Area Soci entro il mese di aprile 2013. Secondo il Regolamento possono essere candidati e quindi eletti i Soci che, in regola entro il 25 marzo 2013, lo erano anche nel 2012. Per informazioni aggiornate sugli eventi consultare il sito: www.sif.it scienza in primo piano disordered systems PREDICTING THE ULTRA-SLOW processes by picosecond dynamics Alistar Ottochian1*, Cristiano De Michele2, Francesco Puosi1**, Dino Leporini1,3 1 Dipartimento di Fisica “Enrico Fermi”, Università di Pisa, Pisa, Italy Dipartimento di Fisica, “Sapienza” Università di Roma, Roma, Italy 3 CNR, Istituto per i Processi Chimico-Fisici, Pisa, Italy 2 One distinctive feature of the disordered systems is the breadth of their dynamics. It includes picosecond vibrations up to processes, involving the rearrangement of the nanostructure or the diffusive transport, which become observable only over extremely long times, i.e. even weeks or years. Numerical simulations and experiments evidence unexpected strong correlations between the picosecond and the ultra-slow dynamics for a wide class of disordered systems. Here we show that the fast wiggling of the atomic or molecular constituents provides a predictive tool of creeping phenomena. The fast predictability of the sluggish dynamics suggests novel routes to tackle complex cutting-edge applicative problems, like the longevity of the data stored in optical media and the long-term stability of biomaterials like food, drugs and vaccines. 1 Introduction Ultra-slow processes, developing over hours, weeks or much longer times, are common in disordered systems and have important applicative implications. They include the mobility of water or reactants that sets the long-term stability of food [1], biological samples and pharmaceutical products [2], the gas uptake and the chemical aging of semisolid organic aerosol particles affecting the air quality and climate [3], the ionic diffusion in intercalated solids which are used as batteries with high-energy density [4] and the molecular rearrangements occurring in the optical media limiting the longevity of the discs for data storage [5]. Owing to their creeping emergence, the ultra-slow processes are difficult to be characterized. From a more fundamental perspective, the sluggish evolution is often traced back to the phenomenon of the “glass transition”, i.e. the progressive solidification of a liquid to an amorphous state [6]. In this article we will show that both simulation and experiments unveil the unexpected correlation between the picosecond dynamics and the time scale of the slow molecular rearrangements occurring close to the glass transition (minutes, hours or longer) [7]. To prepare the discussion, a brief outline of the glass transition is given in the next section. * Present address: Lab. SPMS, école Centrale Paris, Chatenay-Malabry, France. ** Present address: LIPHY, Univ. Grenoble 1, Saint Martin d’Hères, France. vol28 / no5-6 / anno2012 > 5 2 The glass transition: an outline Daily experience shows that most pure liquids crystallize when sufficiently cooled. However, crystallization may be avoided by diverse routes, e.g. by cooling fast enough or by confinement in small volumes, which lead the system to the metastable supercooled liquid state [6]. It is observed that liquids composed of asymmetric molecules are supercooled more easily than those consisting of symmetric molecules. In particular, many macromolecules are virtually incapable of crystallizing due to their global and local irregular structures. A simple empirical indicator of the resistance to freezing is the ratio between the boiling temperature Tb , indexing the cohesive energy, and the melting temperature Tm . It is found that the ratio Tb / Tm > 2 for many organic liquids that are easily supercooled. This interrelation is consistent with the effect of molecular asymmetry, decreasing Tm while leaving Tb nearly unaffected as seen, e.g., in isomeric series. 2.1 The cage effect A phenomenon at the heart of supercooled liquids is the so-called “cage effect”, namely the transient trapping of atoms or molecules by their neighbours1. Figure 1 provides an illustration. The trapped particle is not immobilized by the surrounding cage; it undergoes fast irregular vibrations with mean period in the picosecond range and mean square amplitude 〈u 2 〉 which is determined by the size of the cage. The centre of the vibrational motion is determined by the forces exerted by the neighbouring particles and moves along with the displacement of these particles. In this case, therefore, in contrast to a crystal, one has only temporary and unstable equilibrium positions. After an average time ta the cage constraints weaken, due to the rearrangement of the surroundings, and the trapped particle is released. This process is usually referred to as “structural relaxation” and ta is named the “structural relaxation time”, a measure of the cage lifetime. The exact definition of ta is more involved and is skipped here [7]. After the release, the particle wanders off and then is trapped again. Figure 2 displays some typical tracks of a mobile particle in a liquid environment at different temperatures. At high temperature, say above the melting temperature Tm , the particle undergoes the usual Brownian random walk (fig. 2, top). Trapping is very short (ta ≈ 10 ps) and the particle usually does not bounce back when it hits its neighbours. This results in a high self-diffusion coefficient D and a low viscosity h (remind that, according to the Stokes-Einstein law, D ∝ T/h). By lowering the temperature and entering scienza in primo piano the supercooled regime, the particle motion becomes more impeded by the cage effect; the random walk is a continuous series of trapping/release events that slows down the particle and increases the viscosity (fig. 2, middle). Looking at the path followed by the particle, it is apparent that marks of a solid (trapping around a position) and a liquid (Brownian random walk) coexist in the typical motion of the particle below Tm . They give rise to a mixed behaviour named “viscoelasticity” which will be discussed in more details in the next section. By lowering the temperature further, the trapping time increases by orders of magnitude and reaches times of the order of minutes, the diffusivity becomes vanishingly small and the viscous flow is strongly hampered (fig. 2, bottom). Conventionally, one defines a “glass transition temperature”, Tg , when ta = 100 s. At Tg , by virtue of the Maxwell relation h = G ta , the viscosity is around 1012 Pa s (the elastic modulus G is about 10 GPa). Below Tg , the system undergoes a “structural arrest”; it resembles a virtually immobilized disordered structure, a glass, over times of the order of hours or longer2. The solidification mechanism that we described is not limited to supercooled liquids. It is observed in many other systems, including polymers, bio-materials, colloids and metallic glasses. It must be also pointed out that, in addition to the standard cooling route, the glassy state may be also reached by alternative methods involving, e.g., compression, chemical reactions and solvent evaporation. 2.2 Viscoelasticity Liquids are fluids; when at rest, they do not sustain a tangential, or shearing, force due to the continuous and irrecoverable change of the particles position. Instead, a deformed solid maintains the shearing forces and the atoms, or molecules, move back to their original positions once the forces are removed leading to a finite elastic modulus G. As discussed in the previous section, viscous liquids are viscoelastic: they exhibit both elastic and viscous characteristics. The rigidity is transient and limited by the structural relaxation. In a low-viscosity liquid (ta ≈ 10 ps), the high fluidity conceals the elastic behaviour, whereas the reverse happens in an ultra-viscous liquid close to the glass transition (ta ≈ 100 s) . To better understand the viscoelastic behaviour, let us consider the response of a liquid to an external force applied to the constitutive particles. If a constant external force is applied to the particles of a liquid, a particles flow along the direction of the force is observed. If the magnitude of the applied force is sufficiently small, the current of liquid that 1 For simplicity reasons the discussion is limited to spherical particles. In the case of non-spherical molecules the reorientation of the particles should be also taken into consideration. 6 < il nuovo saggiatore 2 This picture neglects the small-amplitude rattling motion of the particles around their equilibrium position. D. Leporini et al.: PREDICTING THE ULTRA-SLOW DYNAMICS etc. arises is seen to be proportional to the applied force; this form of internal friction determines the viscosity of the liquid. An entirely different result is obtained in the case of a variable external force that changes so rapidly that its characteristic time is appreciably less than the trapping time ta . In the simplest case of a sudden force applied for a short time, the flow mechanism described above does not have time to emerge; the effect of the applied force on the liquid is an elastic deformation just like in a crystal. In this case, in addition to longitudinal elastic deformations of the compression-expansion type one also observes transverse (shear) elastic deformations due to the occurrence of tangential stresses. In most experiments it is more convenient to apply continuously acting oscillatory forces instead of transient forces to observe the viscoelasticity. In the high-frequency limit (f >> 2p / ta ), solid-like elastic responseis observed. In the opposite low-frequency limit (f << 2p / ta ), the fluidity of liquids completely masks their elasticity. In the intermediate range (f ~ 2p / ta ), the liquid response to the applied force exhibits both viscous and elastic characteristics. Fig. 1 The cage effect in viscous liquids. Particles, here sketched as spheres with s diameter, are temporarily trapped by their neighbours. During the trapping period the centre of the particles undergoes irregular fast vibrations with mean square amplitude 〈u 2 〉. After an average time ta the restraint weakens, the trapped particle “1” escapes from the cage and is replaced by a new one , “2”. T > TM 3 Structural stability criteria The transition to a glass is usually described as an approach to states with vanishing fluidity. An interesting alternative is offered by recognizing that, on approaching the glass transition, the transient elasticity of viscous liquids is not only more persistent in time but it is also increasing in magnitude. Thus, the increase of the rigidity is a measure of the stability of the disordered microscopic structure. The notion of elastic stability was introduced by Born who investigated the melting of crystals [8]. The crystal would lose its rigidity or “stability” and melt when at least one of the shear moduli vanishes. Another well-known stability criterion for crystals is the Lindemann criterion which states that melting occurs when the meansquare amplitude of thermal vibrations −−− of atoms, √〈u2 〉 reaches a critical fraction of the nearest-neighbour separation −−− d (√ 〈u2 〉 ≈ d/10) [9]. An oversimplified picture Tg < T < TM T ~ Tg Fig. 2 The paths of the random walk of a particle in a liquid at high temperature (top), in the supercooled regime (middle) and close to the glass transition (bottom). At lower temperatures the particle movement is temporarily restricted by the neighbours. The trapping time ta becomes as long as minutes close to the glass transition. vol28 / no5-6 / anno2012 > 7 scienza in primo piano position distribution of the position distribution due to the thermal vibrations around the equilibrium positions of ordered and disordered structures is presented in fig. 3. One sees that, on increasing the amplitude of the thermal vibrations, the equilibrium structure is progressively blurred. For crystals this effect results in structural instability and melting. 4 Structure lifetime and cage rattling in disordered systems position Fig. 3 Distribution of the particles around the equilibrium positions of an ordered (top) and a disordered (bottom) 1D structure subjected to different thermal vibrations due to low (blue), intermediate (red) and high (black) temperature. The blur effect increases with the temperature and masks the equilibrium structure. According to the Lindemann melting criterion, the red and black curves for the ordered structure correspond to unstable states. Numerical simulations suggest extensions of the Lindemann criterion to disordered structures. r(t0) r(t0+t) 2 〈∆r (t)〉 ∆r(t) ~ σ2/4 2 〈u 〉 1-10 ps time ~ τα Fig. 4 Time evolution of the mean square displacement of the monomer belonging to a polymer chain. After a short initial displacement, the neighbours cage themonomer which wiggles with mean square amplitude 〈u2 〉 . The average trapping time is ta. Within this lapse of time the displacement is comparable to the monomer radius s/2. 8 < il nuovo saggiatore Numerical simulations and experiments suggest the possibility to extend the Lindemann criterion to viscous liquids [7]. One finds that the mean square amplitude 〈u2 〉 of the irregular vibrations in the cage of the neighbours (fig. 1) is a good indicator of the lifetime of the disordered nanostructure ta. Let us focus on the simulations, which considered a liquid of a polymeric linear chains melt. The model is very rough; each chain comprises a series of spherical beads linked by stiff springs. The coarse-grained nature is motivated by the attempt of finding a universal behaviour which is independent of the detailed structure of the molecule. Figure 4 shows the typical time evolution of the mean square displacement (MSD) of one monomer of a tagged polymeric chain. The MSD shows three different regimes: • At very short times the monomer undergoes a ballistic motion, i.e. it moves almost freely like in a gas phase, 〈Dr 2 (t) 〉 = 〈v 2 〉 t 2 = 3 kBT/m t2, where v, m, T and kB are the velocity, the mass of the monomer, the temperature and the Boltzmann constant, respectively. • At intermediate times, the monomer is trapped within the cage formed by its first neighbours and the mean square displacement is almost constant at a value 〈u2 〉 . The cage lifetime is finite and the monomer escapes after an average time ta which is orders of magnitude longer than the picosecond average period of the wiggling motion in the cage. The MSD at ta is about the square of the particle radius. • For much longer times than the escape time ta ,the monomer undergoes diffusive t log −a = b 〈u2 〉 –1 + g 〈u2 〉 –2 , t0 where b and g are constants. A simple model of the structural relaxation in a viscous liquid provides insight into eq. (1) [10, 11]. It assumes that the particle must overcome an energy barrier DE in order to escape from the cage. It is found that the barrier is inversely proportional to the wiggling amplitude, DE ∝ kBT a 2 /〈u2 〉, where a is the displacement needed to reach the top of the barrier (fig. 6). Within this simplified model eq. (1) is recovered with b ∝ a2 and g = 0. In a disordered system the particles do not displace by the same amount to escape from their cages. If a proper distribution is introduced, one derives eq. (1) — — with b ∝ a2 and g ∝ s2a2 , where a2 and s2a2 are the average and the variance of the square displacements to overcome the barrier [7]. 5 Universal scaling Are the correlations observed by the simulations supported by the experiments? The answer is positive as is shown in fig. 7 3 After the escape from the cage, the monomer initially displaces very slowly, since it is constrained by the other monomers of the chain. The usual Brownian diffusion manifests at later times when the whole chain starts moving. In a simple liquid the intermediate regime is missing. 4 The diffusion coefficient of a short polymer chain is inversely proportional to the chain length M. To remove this dependence, the product D M is considered. (DM) 6 10 5 10 4 10 10 3 2 10 20 /< 1 2 u 30 2 > M 2 3 5 10 0 10 20 30 / <u > 1 2 Fig. 5 The high correlation between the average lifetime of the cage (in reduced units) and the inverse of the mean square wiggling amplitude of the monomer in the cage. They are evidenced by the simulation of a polymeric liquid.The dashed line is the master curve given by eq. (1). The average wiggling period is about one time unit tMD , corresponding to about 1–10 ps, whereas ta may be orders of magnitude longer. The inset shows that the correlation holds for the self-diffusion coefficient too. Fig. 6 Simple activated model relating the energy barrier DE that the particle must overcome to escape from the cage and the wiggling amplitude. a is the displacement to reach the top of the barrier. 20 1 Year PolyVinylChloride(191) PolyMethylMethAcrylate(145) a-PolyPropylene(137) 15 (1) 3 10 1 1,4-PolyButaDiene(99) CKN (93) 2 10 s Selenium(87) OTP(81) Ferrocene+Dibutylphthalate(69) 10 Figure 5 summarizes the results of the simulations performed at several densities and temperatures as well as at different number of monomers M per chain and diverse interacting potentials. These results suggest that the cage lifetime ta and the mean square wiggling amplitude in the cage 〈u2 〉 are strongly correlated. The inset of fig. 5 shows that the correlation holds also in the diffusive regime that develops at much longer times than ta4. The correlation plot of log ta vs. 〈u2 〉 –1 is described by a “master curve” which turns out to be a parabola in 〈u2 〉 –1: log(τα τ ) , log(η η ) ο ο motion 〈Dr 2 (t) 〉 = 6 Dt, where D is the selfdiffusion coefficient3. log(τα /τMD) 4 -1 D. Leporini et al.: PREDICTING THE ULTRA-SLOW DYNAMICS etc. TNB(66) 1,4-PolyIsoprene(62) Glycerol(53) Zr46.8Ti8.2Cu7.5Ni10Be27.5(44) 5 B2O3(32) GeO2 (20) SiO2(20) 0 1 picosecond -0,6 -0,4 (< log -0,2 /> < 2 ug 0 0,2 >) 2 u Fig. 7 Experimental evidence of the correlation between the structural relaxation time (or the viscosity h) and the wiggling amplitude for several systems approaching the glass transition. 〈u2g 〉 is the amplitude at the glass transition. The black line is calculated using eq. (1) as drawn by the simulations and recast in terms of the reduced amplitude 〈u2 〉 / 〈u2g 〉 . Note that the vertical axis spans about eighteen orders of magnitude. vol28 / no5-6 / anno2012 > 9 where the structural relaxation time and the viscosity over a range of about eighteen orders of magnitude for a wide set of different systems approaching their glass transition, including polymers, metallic glasses, ionic liquids, tetrahedral liquids5, hydrogen-bonded and van der Waals molecular liquids are plotted [7]. Both quantities are clearly correlated to the reduced mean square wiggling amplitude 〈u2 〉 / 〈u2 〉 2 g , where 〈u g〉 is the amplitude at the glass transition. The scaling is quite effective and the master curve (black line) is calculated using eq. (1) with the same coefficients b and g obtained by the simulations, and rewritten in terms of the reduced amplitude. Much of our current efforts are devoted to understand the origin, as well as the limits,of the scaling. In this respect, both the elasticity in polymers and liquids [12] and the connectivity between particles in a model colloidal gel [13] have been addressed. Acknowledgements Computational resources by “Laboratorio per il Calcolo Scientifico” (Physics Department, University of Pisa) and financial support from MIUR within the PRIN project “Aging, fluctuation and response in out-of-equilibrium glassy systems” are acknowledged. CDM acknowledges support from ERC-226207-PATCHYCOLLOIDS. References [1] D. Champion, M. Le Meste, and D. Simatos, Trends Food Sci. Technol., 11 (2000) 41. [2] B. C. Hancock and G. Zografi, J. Pharm. Sci., 86 (1997) 1. [3] M. Shiraiwa, M. Ammann, T. Koop, and U. Pöschl, Proc. Natl. Acad. Sci. U.S.A., 108 (2011) 11003. [4] M. Wilkening, W. Küchler, and P. Heitjans, Phys. Rev. Lett., 97 (2006) 065901. [5] Final Report on Optical Disc Longevity Study by the National Institute of Standards and Technology/The Library of Congress (2007). [6] P. G. Debenedetti, Metastable Liquids (Princeton University Press, Princeton) 1996. [7] L. Larini, A. Ottochian, C. De Michele, D. Leporini, Nat. Phys., 4 (2008) 42. [8] M. Born, J. Chem. Phys., 7 (1939) 591. [9] F. A. Lindemann, Z. Phys., 11 (1910) 609. [10] R. W. Hall and P. G. Wolynes, J. Chem. Phys., 86 (1987) 2943. [11] J. C. Dyre, Rev. Mod. Phys., 78 (2006) 953. [12] F. Puosi and D. Leporini, J. Chem. Phys., 136 (2012) 041104. [13] C. De Michele, E. Del Gado and D. Leporini, Soft Matter, 7 (2011) 4025. Dino Leporini Dino Leporini is associate professor at the Department of Physics “Enrico Fermi” of the University of Pisa. He is interested in the physics of disordered systems, in particular polymers, liquids and liquid crystals, which are studied by Electron Spin Resonance spectroscopy and simulations. 5 tetrahedral liquids exhibit a preference for the formation of tetrahedrally coordinated configurations. 10 < il nuovo saggiatore Durante la preparazione di questo numero de Il Nuovo Saggiatore, l'INFN (Istituto Nazionale di Fisica Nucleare) ha diramato il comunicato stampa che qui di seguito riportiamo: L'INFN RIVEDE IL SUO PROGETTO BANDIERA Pubblicato Mercoledì, 28 Novembre 2012 I risultati della commissione internazionale nominata dal MIUR per il costing review del progetto bandiera SuperB sono stati esaminati ieri dal Ministro della Ricerca che ha voluto discuterne con i vertici dell’INFN e successivamente con quelli del Cabibbolab. Il Ministro ha fatto presente che non erano in discussione l’importanza e la qualità del programma, ma che le condizioni economiche del paese e i limiti previsti dal Piano Nazionale per la Ricerca, erano incompatibili con i costi del progetto valutati. Il Ministro, mostrando grande disponibilità, ha dato la possibilità all’INFN di proporre progetti, sempre nella tipologia dei “progetti bandiera”, compatibili con lo stanziamento previsto inizialmente.Le proposte dovranno essere valutate entro pochi mesi. L’INFN sta quindi vagliando le idee in merito. Tra le possibilità, comunque, verrà esplorata con convinzione l’ipotesi di presentare il progetto per la realizzazione di un laboratorio internazionale finalizzato alla costruzione di una macchina acceleratrice nell’area di Frascati. (http://www.infn.it/index.php?option=com_co ntent&view=article&id=359:bandiera&catid=21:news& Itemid=532&lang=it). A tale comunicato ha fatto immediatamente seguito, il 29 Novembre, quello del Cabibbolab (http://www.cabibbolab.it). Dato l'interesse scientifico dell'articolo di M. Giorgi e M. Rama su "The Super Flavor Factory SuperB", previsto per questo numero, abbiamo ritenuto di pubblicarlo comunque nella sua stesura originale. While the present issue of Il Nuovo Saggiatore was in preparation, INFN (the Italian National Institute of Nuclear Physics) circulated the following press release: INFN REVISES ITS FLAGSHIP PROJECT published on wednesday November 28th, 2012 The results of the international commission appointed by MIUR (Ministry of Education, University and Research) for the costing review of the flagship project SuperB have been examined yesterday by the Minister of Research who then wanted to discuss them first with INFN and subsequently with Cabibbolab management. The Minister underlined that neither the relevance nor the quality of the program were brought into question, but that the economical situation of our Country and the limits set forth by the "Piano Nazionale per la Ricerca" (National Research Plan) were incompatible with the evaluated costs of the project. The Minister demonstratrated his willingness giving INFN the opportunity to submit other proposals of the same typology as "flagship projects" that should fit the initially foreseen allocation. The proposals shall be evaluated in a few months. Therefore INFN is weighing up ideas in this respect. Among the possibilities, anyway, the hypothesis of the project for the realization of an international laboratory, having as purpose the construction of an accelerator in the Frascati area, will be firmly considered. (http://www.infn.it/index.php?option=com_content& view=article&id=359:bandiera&catid=21:news&Itemi d=532&lang=it). To this press release immediately followed, on November 29th, that of the Cabibbolab (http://www.cabibbolab.it). Given the scientific interest of the paper by M. Giorgi and M. Rama on "The Super Flavor Factory SuperB", scheduled for this issue, it was considered appropriate to publish it anyhow in its original form. scienza in primo piano The super flavor factory SuperB Marcello A. Giorgi1,2, Matteo Rama3 1 Università di Pisa e INFN sezione di Pisa, Italy Cabibbo Lab, Rome, Italy 3 INFN-Laboratori Nazionali di Frascati, Italy 2 SuperB is a proposed next-generation asymmetric e+e– flavor factory designed to operate at a baseline luminosity of 1036 cm–2 s–1, almost two orders of magnitude higher than the peak luminosity reached at previous e+e– B-factories. The main purpose of the experiment is searching for physics beyond the Standard Model and possibly investigating its nature through the measurement of rare processes involving b and charm quarks as well as tau leptons. We present the physics program and an overview of the accelerator and detector design. 1 Introduction In the present approach to particle physics the phenomena related to three of the four currently known fundamental interactions in nature, electromagnetism, the weak force and the strong force, are described by the standard model (SM). The SM was formulated in its final form at the beginning of the 70’s and since then it has been tested and verified with great precision, collecting an impressive number of successes. For example, it predicted the existence of the W and Z bosons, which were later discovered by the UA1 and UA2 experiments at CERN in 1983, and anticipated their properties, then measured precisely at the Large ElectronPositron collider (LEP) at CERN between 1989 and 2000. It also predicted the existence of the charm, bottom and top quarks, the first discovered with the observation of the J/y meson at the Stanford Linear Accelerator Center (SLAC) and at the Brookhaven National Laboratory in 1974, the second announced by the E288 experiment at Fermilab in 1977, the third observed by the CDF and D0 collaborations again at Fermilab in 1995. And it has predicted the existence of the Higgs boson. The observation of a strong candidate has been announced recently by the ATLAS and CMS experiments running at the Large Hadron Collider (LHC) at CERN. Its measured mass around 125 GeV/c 2 is consistent with the indirect constraints from other measured SM parameters, but more data are needed to establish if its properties are those predicted by the SM. Further confirmations of the SM have come recently from the B-factory experiments BaBar at SLAC and Belle at KEK (Tsukuba, Japan), whose main goal was the investigation of CP violation in B meson decays. CP is the combination of charge conjugation (C ), which transforms a particle into its antiparticle, and parity (P ), which flips the sign of spatial coordinates. C and P are known to be symmetries of the electromagnetic and strong interactions but they are maximally violated in weak interactions. However, their combination CP was thought to be a fundamental symmetry of nature till the experiment by J. Cronin and V. Fitch in 1964, when the CP-violating weak decay KL → p+p– was observed for the first time. New evidence of CP violation in neutral kaon decays was reported in 1999 by the experiments KTeV at Fermilab and NA48 at CERN, followed by the first observation of CP violation in B meson decays by BaBar and Belle two years later. Since then, CP violation has been observed in several B decay channels at the B-factories and, recently, at the LHCb experiment at CERN. Within the SM, CP symmetry in weak interactions is broken by a single phase in the 3 × 3 unitary matrix that describes the W boson couplings with the up quarks (u, c, t) and down quarks (d, s, b). The underlying idea of quark mixing was proposed by Nicola Cabibbo for processes involving the first two quark generations and later extended with a third generation – not yet discovered at that time – by M. Kobayashi and T. Maskawa to introduce the CP-violating phase. The subsequent discovery of the third generation of quarks, together with the precise measurements of CP asymmetries at the B-factories in agreement with the Cabibbo-Kobayashi-Maskawa (CKM) vol28 / no5-6 / anno2012 > 11 model, constitute another impressive success of the SM. The Nobel prize in physics in 2008 was awarded to Kobayashi and Maskawa following the experimental confirmation of the CKM mechanism at the B-factories. Although the SM of particle physics can perhaps be considered as the most successful theory of nature in history, there are many reasons to believe that it must be extended. For example, it does not provide an explanation for the dark matter and dark energy, which account for about 23% and 72% of the energy density of the universe, respectively. And it cannot explain the observed matter-antimatter asymmetry of the universe. The violation of the CP symmetry is considered a necessary condition for baryogenesis after the Big Bang, as first noted by A. Sakharov in 1967, but the amount of CP violation in weak interactions that originate from the CKM mechanism is many orders of magnitude too small. In principle the SM Lagrangian would allow for a CP-violating term in strong interactions, but experimentally such an asymmetry is not observed (which is a puzzle itself, usually referred to as the “strong CP problem”). Hence, it seems plausible that there must be other sources of CP violation still undiscovered and not explained by the SM. 2 The SuperB project For the aforementioned reasons, and others, a large experimental effort is ongoing to shed light on the nature of new physics (NP) beyond the SM. Current and future experiments at particle accelerators are designed to face the challenge using two complementary approaches. One is the “energy frontier” path, whose main representatives today are the ATLAS and CMS experiments. At the LHC proton-proton collisions with a center-of-mass (CM) energy up to 14 TeV will allow to produce new particles (if they exist), with masses up to about 1 TeV/c 2. The second is the “intensity frontier” path where indirect observation of new particles or processes can be obtained through the precise measurement of flavor physics1 phenomena at lower energy, searching for deviations from the SM prediction in rare or forbidden particle decays. The sensitivity to the mass scale of NP with this approach depends on the model we consider and it might be as high as O (100 TeV/c 2 ) if the flavor-violating couplings of NP are enhanced compared to the SM. If NP particles are observed at the LHC, then flavor physics studies will help reconstruct the NP lagrangian by measuring its flavor- and CP-violating couplings. If instead no new particles are observed at the energy frontier, indirect searches of flavor-changing processes would be the main tool to probe 1 Flavor physics denotes physics of transitions between the three generations of SM quarks or leptons. 12 < il nuovo saggiatore scienza in primo piano NP scales in the 10–100 TeV region. The SuperB experiment [1–4] is conceived to search for NP and study its underlying mechanisms following the path of the intensity frontier. It is based on a next-generation, highluminosity asymmetric electron-positron collider operating at a nominal CM energy of 10.58 GeV – the Y(4S ) resonance threshold – with the possibility to explore additional energy regions from 3.77 GeV (the open charm threshold) up to 11 GeV above the Y(5S ) resonance. The machine is designed to deliver a luminosity (a measure of the collision rate) of 1 × 1036 cm–2 s–1, nearly two orders of magnitude larger than the peak luminosity achieved at the B-factories. In five years at the nominal luminosity SuperB will collect a data set of 75 ab–1 (1b = 10–24 cm2), corresponding to a sample – of about 80 × 109 BB pairs, 100 × 109 e+e– → cc– events and 9 + – 70 × 10 t t pairs: SuperB is in fact a “super flavor factory”. There are two other experiments that will focus on B physics in this decade: LHCb, currently operating at CERN, and Belle II, under construction at KEK. A proposed LHCb upgrade, that might start taking data at the end of this decade, is under discussion. ATLAS and CMS are also contributing to flavor physics, though their main focus is the direct search of the Higgs boson and NP at the energy frontier. Additionally, there are other flavor physics experiments, running or in the design stage, that are relevant for the physics program of SuperB in terms of providing complementary constraints on NP. These include BES-III, NA62, KOTO, KLOE 2, MEG, Mu2e, and COMET. The main physics goal of LHCb [5] and its proposed upgrade is the study of B hadron decays produced from proton-proton collisions at the LHC. Though both SuperB and LHCb are (super) B-factories, the physics programs are largely complementary. The main strength of SuperB is the clean e+e– collider environment that allows also the reconstruction of final states with neutrinos or several photons: measuring such decays is problematic or impossible in the high multiplicity hadronic environment of LHC. On the other hand, LHCb can perform important complementary measurements, – exploiting the large bb production cross section and the large boost of B hadrons in pp collisions. The physics program includes for example the measurement of the very rare decay Bs → m+m– and of the time-dependent CP-violating asymmetries in Bs → J/yf and Bs → fg decays, which are sensitive probes of NP where the e+e– B-factories are not competitive. Belle II [6] is an e+e– experiment running at the Y(4S) that has many similarities with SuperB and a very large overlap in the physics program, but also a few significant differences. Belle II aims at reaching a target luminosity of 8 × 1035 cm–2 s–1, collecting a data set of 50 ab–1 in about seven years, while the SuperB design luminosity is 1 × 1036 cm–2 s–1 with a dataset of 75 ab–1 collected on a similar time scale. The SuperB physics program is further M. a. giorgi, m. rama: The super flavor factory SuperB Fig. 1 Diagram illustrating the SuperB physics program. extended through the longitudinal polarization of the electron beam and the possibility of operating the machine at energies as low as the y (3770) threshold. The benefits of these additional features are briefly discussed later in the article. In 2009 the INFN has approved the special project SuperBTDR aimed at the preparation of the Technical Design Report of SuperB. In 2010 SuperB was included in the Italian National Research Plan by the Ministry of Education, University and Research as one of the flagship projects [7] and a preliminary funding was approved by the Italian government at the end of the same year. In October 2011 the consortium Laboratorio Nicola Cabibbo [8] was setup with the joint membership of INFN and University of Rome Tor Vergata. At the moment an accurate cost review is underway. Details of the approval and funding can be found in the “Piano Triennale” of INFN [9]. 3 Physics program at SuperB In the current situation where the nature of NP is largely unknown, it is convenient to look for its signs in as many different observables as possible. SuperB is an ideal laboratory because it allows the investigation of NP in a wide variety of processes: the decays of b quarks, c quarks and tau leptons. For this reason e+e– B-factories are also called “flavorfactories” (fig. 1). In the following section we will briefly discuss a few examples. The SuperB program is much wider and the interested reader is invited to refer to [2, 10, 11, 12] for more extensive and detailed discussions. 3.1 B physics The B physics program covers observables measured using the decays of charged and neutral B mesons (whose quark – – content is bu and bd, respectively) produced through the + – process e e → Y(4S) and the subsequent decay of Y(4S) to − B+B– and B0B0 pairs, each with a fraction of about 50%. At the nominal luminosity of 1036 cm–2 s–1 SuperB will collect about − 16 ×109 B B pairs per year. In addition, the machine may also − a run at the Y(5S) resonance, which is beyond the Bs(*) Bs(*) threshold. Although the experiments running at hadronic machines are expected to produce the largest amount of Bs decays, measurements involving neutral particles are best or only feasible at the e+e– colliders. In the following we briefly discuss the basic principle by which flavor physics observables can be sensitive to NP and present a few examples. Quantum amplitudes contributing to a process can be represented with the Feynman diagrams, where particles are depicted as lines. Those entering or leaving a Feynman diagram correspond to real particles (representing the initial and final states) satisfying the energymomentum relation E 2 = p2c 2 + m2c 4, while intermediate lines represent “virtual” particles. Virtual particles can have masses even much larger than the typical energies at play in the process: for this reason, observables can be potentially sensitive to the existence of NP particles whose mass is too large to be created at the accelerator. Examples of Feynman diagrams are shown in fig. 2. The ideal observables to search for NP effects in the flavor sector are those where the experimental error and the SM theoretical uncertainty are small compared to the potential contribution from a given NP scenario, so that their measurement can impose stringent constraints on the NP model parameters. To illustrate this concept we briefly discuss the − − measurement of B → D(*) t– nt decays recently reported by the BaBar collaboration [13], based on a data sample − of 471 × 106 B B pairs. Semileptonic decays of B mesons are well understood processes mediated by the W boson. vol28 / no5-6 / anno2012 > 13 scienza in primo piano Fig. 2 Leading Feynman diagrams − for the B → D(*) t– −nt , B– → t– −nt , b →sℓ+ℓ– and b → ss–s processes in the SM and in some NP scenarios. Top row: − leading SM contributions to B → D(*) t– −nt and B– → t– −nt (W–) and contributions from a non-SM charged Higgs (H–). Middle row: leading SM contributions to b →sℓ+ℓ–. Bottom row: SM gluon penguin diagram and gluino-down squark contribution to b → ss–s. Decays involving the higher-mass tau lepton are sensitive to additional amplitudes, for instance those involving an intermediate charged Higgs boson as in the type-II twoHiggs-doublet model (2HDM) [14]. The leading Feynman diagram is reported in fig. 2a. BaBar has measured the − − − ratios R (D) = BF (B → D t– nt) / BF (B → Dℓ– −nℓ ) and R (D*) = − − BF (B → D* t– −nt) / BF (B → D*ℓ– −nℓ) (ℓ = e, m) and found values exceeding the SM expectations by 2.0 and 2.7 standard deviations, respectively. When the results are combined, the disagreement grows up to the remarkable level of 3.4 s. Figure 3 shows the prediction of the type II 2HDM as a function of the ratio of the vacuum expectation values of the Higgs doublets, tan b ≡ n2 / n1 , and the mass of the charged Higgs, mH + . The measured R (D) and R (D*), whose central values depend on the value assumed for tan b/mH + , are superimposed. The SM expectations coincide with the type-II 2HDM prediction in the limit tan b/mH + = 0 . From the measured R (D) and R (D*) the model yields tan b /mH + = 0.44 ± 0.02 and tan b/mH + = 0.75 ± 0.04, respectively. As a result, the combination of R (D) and R (D*) not only is inconsistent with the SM but also excludes the type-II 2HDM with a 99.8% confidence level for any value of tan b /mH + . Although more data are needed to confirm the results, this case illustrates well the way measurements in the flavor sector can test the SM, probe its extensions, and constrain the value of NP parameters. This kind of measurement cannot be performed at the LHC because of the presence of at least two neutrinos in the final state that makes the combinatorial background too large. Instead, at e+e– colliders one can use a recoil − analysis where one B from Y(4S) → B B is reconstructed into a hadronic or semileptonic decay (Btag), and the signal decay is searched in the remaining part of the event. The price to 14 < il nuovo saggiatore pay with this technique is a Btag efficiency of about 0.1–0.2 per cent, that is usually widely compensated by the strong suppression of combinatorial backgrounds that otherwise would make the measurement impossible. SuperB is − expected to reduce the errors of the B → D(*) t– −nt branching fractions by a factor between 5 and 10 compared to those achieved at present B-factories. − As for B → D(*) t– −nt , in the SM the purely leptonic decay − B– → t– nt is mediated at leading order by a virtual W boson and might receive sizeable contributions from new particles, such as a charged Higgs as predicted in the typeII 2HDM mentioned before or in minimal supersymmetric extensions (fig. 2b). For instance, the effect of a 2HDM charged Higgs scales the SM branching fraction by a factor (1 – tan b2 m2B /mH2 )2. Therefore, a precise measurement of the branching fraction can test the NP model and constrain its parameters. Similar relations apply to the B+ → m+nm and B+ → e+ne decays, but the decay rates scale with the lepton mass squared due to helicity suppression. SM estimates for the branching fractions are ~10–4, ~ 5 × 10–7 and 10–11 for t, m and e, respectively. Assuming the SM values and a dataset of 75 ab–1, the branching fractions of the t and m channels can be measured at SuperB with an error of about 5%, making these channels very sensitive probes of models with a charged Higgs. Many of the most interesting observables are related to processes that in the SM can only proceed through loops, where any allowed virtual particles may contribute, including possible new particles that are not part of the SM framework. Amplitudes mediated by loops are generally suppressed in the SM, so that contributions from NP might be relatively large. As already stressed, it is important that the theoretical M. a. giorgi, m. rama: The super flavor factory SuperB Fig. 3 Comparison of− the results of the BaBar B → D(*) t– −nt measurement (blue) with predictions that include a charged Higgs boson of type II 2HDM (red). The points at tanb/mH + = 0 correspond to the SM prediction. The combination of R (D) and R (D*) disagrees with the SM at the 3.4 s level and allows to exclude the type II 2HDM with a confidence level of 99.8% in the full tan b – mH+ parameter space [13]. uncertainty of the SM prediction be small, to increase the probability that a possible NP effect be recognized as such. An important family of 1-loop amplitudes is the one described by the so-called penguin diagrams, where for example a quark of type b converts into a strange quark and a photon, or a gluon, or a Z0 (see for example fig. 2 c and e). Such processes are examples of flavor-changing neutral currents (FCNC). The radiative FCNC decays b → sg and b → dg are very sensitive probes of NP for the reasons mentioned above. To fully take advantage of these decays several observables, such as the rate, CP asymmetries and the polarization of the photon, must be measured. This can be done either through the reconstruction of exclusive decays, or inclusively by selecting all products of the s quark fragmentation. Inclusive measurements are theoretically cleaner and therefore in general more powerful in the detection and interpretation of NP effects. Some specific decay channels, such as B0 → K*0 [→ K+p–] g, can be measured precisely also at hadron colliders, as recently demonstrated by the LHCb collaboration. However, a number of exclusive modes containing additional photons or KS , and the inclusive decay B →Xsg , can only be measured at e+e– colliders where the environment is sufficiently clean. Within the SM photons in radiative b → qg decays (q = d, s) are predominantly left-handed (i.e., the spin and momentum of the photon have opposite direction), while in the charge conjugate process they are right-handed. As a consequence, mixing-induced CP asymmetries in b → qg are suppressed by mq /mb , and therefore are very small. On the other hand, in some extensions of the SM [15] the amplitude of righthanded photons grows proportional to the virtual NP heavy-fermion mass, which can lead to larger asymmetries. The polarization can be measured for instance through the time-dependent CP asymmetry of B0 → Ksp0g decays, where SuperB is expected to improve the current world average precision by an order of magnitude (see table I). The decay b → sℓ+ℓ– (and b → dℓ+ℓ– ) is also highly sensitive to NP. The phenomenology is different, however, since different operators contribute to the decay amplitude. The lowest-order SM Feynman diagrams are reported in fig. 2 (c, d). In addition to the rates and direct CP asymmetries, a number of observables are sensitive to the presence of new particles in the loops: the isospin asymmetry, the ratio of the rate of the muon channel to the rate of the electron channel, the forward-backward asymmetry and other angular observables [16]. Both exclusive (e.g., B → K*ℓ+ℓ–) and inclusive modes (B → Xs ℓ+ℓ–) are of interest in searching NP, with the inclusive measurements generally affected by smaller theoretical uncertainties. The LHCb collaboration has already proved its ability of measuring the exclusive modes B0 → K*0 m+m– and B+ → K+ m+m– very precisely [17, 18]. The e+e– SuperB factories extend further the number of precisely measured final states including all the B → K(*) m+m–and B → K(*) e+e– decays and the inclusive modes B → Xs ℓ+ℓ–, thus exploring the b → s ℓ+ℓ– sector with unprecedented precision. Estimates of the expected yields are reported in table I. As an example we briefly discuss how the measurements of b → sg and b → s ℓ+ℓ– can be used to constrain some parameters of the minimal supersymmetric SM (MSSM) with generic soft supersymmetry-breaking terms. The MSSM is the minimal extension of the SM that realizes supersymmetry (SUSY), the symmetry that relates every SM vol28 / no5-6 / anno2012 > 15 scienza in primo piano Table I Experimental sensitivities for a selection of SuperB measurements. Where appropriate, the sensitivity for LHCb and its proposed upgrade is also indicated. The state of the art (as of September 2011) is also shown. The Belle II sensitivities on 50 ab–1 can be approximately estimated from SuperB scaling by the difference in integrated luminosity, except for those measurements where the e− beam polarization plays a key role such as BF (t → mg) and sin2 qW . More details can be found in [11]. Fig. 4 Example of SuperB constraints on the parameters of the minimal supersymmetric SM with generic squark matrices parametrized using the mass insertion approximation. Left: density plot of the selected region in the Re (dd23)LR – lm (dd23)LR plane for mg~ = mq~ =1 TeV and (dd23)LR = 0.028 eip/4, using different SuperB measurements: BF (B → Xsg) (green), BF (B → Xs ℓ+ℓ–) (cyan), ACP (B → Xsg) (magenta), all together (blue). Right: sensitivity region (red) of SuperB in the mg~ - (dd23)LR plane. The region is obtained by requiring that the reconstructed mass insertion is 3s away from zero. 16 < il nuovo saggiatore M. a. giorgi, m. rama: The super flavor factory SuperB elementary particle with a hypothetical superpartner particle differing by half a unit of spin. The superpartners of quarks are called squarks. In our example we discuss the impact of b → sg and b → s ℓ+ℓ– on the parameters of the MSSM with generic squark mass matrices parametrized using the mass insertion (MI) approximation [19], that can be used to simplify expressions involving supersymmetric contributions to flavor-changing neutral current processes from loop diagrams. The simplification is achieved by the replacement of a sum over all possible internal propagators and the appropriate mixing at the vertices, with a single off-diagonal mass insertion in a basis where all gauge couplings involving SUSY partners of quarks have the same flavor structure of the corresponding quark couplings. For simplicity only the dominant contribution mediated by the gluino (the superpartner of the gluon) is considered. The relevant parameters are the gluino mass mg~ , the average squark mass mq~ and the MIs (dd23)AB , where 23 and d indicate the transition between the third and second family of downtype quarks (b → s) and A, B = L, R refer to the helicity of the SUSY partner quarks. Figure 4 (left) shows the kind of constraints that can be achieved on the real and imaginary parts of the mass insertion parameter (dd23)LR , assuming mg~ = mq~ = 1 TeV. Figure 4 (right) shows the region of mass insertion (dd23)LR vs. SUSY mass mg~ for which a deviation from the SM larger than 3s can be observed at SuperB. For example, for mass insertions of about 0.1 the energy scale probed by SuperB is about 10 TeV. Combinations of flavor observables, such as those just described, can provide a window to probe energies beyond the direct reach of the LHC. Another approach to search for NP effects is given by the measurement of mixing-induced, time-dependent CP violation in decays mediated by b → sq−q (q = u, d, s) penguin transitions, such as B0 → fK s . In the SM these decays measure sin2b up to small corrections (sin2beff ), while NP particles in the loops can cause observable deviations. Thus the difference between the measured and expected sin 2beff is potentially sensitive to NP. Figure 2 (e, f ) shows the leading penguin diagram in the SM and an example of a possible NP contribution. The decays B0 → fK0, B0 → h′K0 , and B0 → − K0 K0 K0 are among the ones with the smallest theoretical uncertainty. The expected sensitivities for B0 → fK0 and B0 → h′K0 are reported in table I. In addition, SuperB can perform a number of precision measurements that can determine the CKM matrix parameters at the percent level and test the consistency of the SM. These include the measurement of the angles alpha, beta and gamma of the “unitarity triangle”2, |Vcb| and |Vub|. Even in case the CKM picture is found to be self2 The triangle in the complex plane drawn by the condition Vud V* ub + Vcd V *cb + Vtd V*tb = 0, which follows from the unitarity of the CKM matrix V. consistent, the precise determination of the CKM parameters is important to improve the SM prediction, and hence the NP sensitivity, of many flavor observables. The expected reach of SuperB on 75 ab–1 is reported in table I. The level of precision needs the reduction of the theoretical uncertainties expected in the next few years thanks to the intense activity in the lattice QCD calculations with supercomputers. 3.2 Charm physics − at the nominal The cross section of the process e+e– → cc CM energy is similar to that of the Y(4S) production, resulting − pairs produced in 5 years at the in about 9.8 × 1010 cc nominal luminosity. Such a large sample provides unique opportunities to search for signs of physics beyond the SM in the charm sector, especially through the measurement of CP asymmetries and the search for rare decays. − D0D0 mixing was first reported by Babar in 2007 and, thanks also to the experimental results from Belle and CDF, is now firmly established at a level consistent with the SM expectations, though at its upper end. Its observation has opened a window into the search for CP violation in mixing through the time-dependent measurement of the D0 decay. Since in the SM CP violation in charm mixing is negligibly small, its observation would be an unambiguous indication of NP. The current experimental uncertainty on the magnitude and phase (rad) of the CP-sensitive parameter3 q/p is O (0.1) and can be reduced by an order of magnitude with the nominal SuperB dataset. CP violation not related to the mixing amplitude is called direct. Direct CP asymmetries in singly Cabibbo-suppressed modes like D0 → K+K– and D0 → p+p– are generally predicted to be as large as O (10–3) because of the interference between the leading tree amplitude and the QCD “penguin” (1-loop) amplitude. However, these predictions are affected by large uncertainties associated to non-perturbative effects. LHCb has recently reported the evidence of CP violation in the time-integrated measurement of D0 → h+h– (h = p, K), quoting ACP (K+K–) – ACP (p+p–) = (–0.82 ± 0.21 ± 0.11)% [20]. Establishing conclusively whether this result is consistent with the SM will require further theoretical understanding and the analysis of more experimental data, including the measurement of CP asymmetries in related channels such as D → pp, D → rr and D(s) → multibody decays [21]. SuperB is expected to reach a precision of a few parts in 10–4 in the measurement of ACP (K+K–) and ACP (p+p–) separately, and is an ideal place to perform precision measurements of the related modes, including those with neutral pions in the final state whose reconstruction is very challenging or impossible at the LHC. 3 q and p define the eigenstates |D±〉 of the Hamiltonian in the 2 × 2 − − Hilbert subspace spanned by |D0〉 and | D0 〉, |D±〉 = q |D0 〉 ± p | D0 〉; q/p = 1 if CP is conserved. vol28 / no5-6 / anno2012 > 17 scienza in primo piano Fig. 5 Comparison of the experimental sensitivity on the branching fractions of LFV tau decays as obtained by BaBar and Belle and as estimated at SuperB and the LHCb upgrade. The search for rare or forbidden charm decays provides an additional opportunity to look for NP effects. For example, the rate of the decay D0 → m+m– in the SM is estimated to be of the order of 10–13, i.e. out of the present and future experimental reach, but might be enhanced significantly in several NP scenarios. The current experimental upper limit of O (10–7) can be lowered by at least an order of magnitude at SuperB. Similar considerations and similar experimental limits apply to the decay D0 → e+e– and to the lepton-flavor– violating (LFV) process D0 → e+m–. Currently under discussion is the possibility to operate − the machine at the DD threshold, producing about − 3 × 109 ψ (3770) → D0 D0 decays (~1 ab–1) with a 1-year run at a luminosity of 1035 cm–2 s–1. The quantum correlation of D meson pairs allows the measurement of the strong phase − difference between the D0 → f and D0 → f amplitudes, that is needed to improve both the uncertainty of the mixing and CPV parameters in time-dependent D0 decays, and the precision of the unitarity triangle angle gamma extracted from B → DK decays. In addition it is possible to use a recoil analysis technique as done at the Y(4S) for rare B decays. Selecting the events where one D is reconstructed, the other D can be studied to search for rare decays in a very clean environment, so that systematic uncertainties from background contributions are kept to a minimum. The CLEO-c experience has shown that at charm threshold studies involving leptonic or semileptonic decays can provide measurements that are competitive with those based on 2-3 18 < il nuovo saggiatore orders of magnitude more data at the Y(4S) [22]. 3.3 Tau physics In the original formulation of the SM neutrinos have null masses and lepton flavor is strictly conserved. During the past decades evidence for neutrino oscillation has been collected from many different experiments, up to the recent measurement of the mixing parameter q13 by the Daya Bay collaboration [23]. The phenomenon is now firmly established, thus implying that neutrinos have (very small) mass and their flavor is not conserved. In a modest extension to the SM incorporating non-zero neutrino masses, the branching fractions of LFV processes are many orders of magnitude below the present and future experimental accessibility (O (10–54)) while the same rates can be of the order of 10–6 in some supersymmetric models. Hence LFV decays, if observed, would be among the most theoretically clean signatures of NP. The expected experimental sensitivity for a selection of tau LFV decays at SuperB is reported in table I. With a dataset of 75 ab–1 SuperB can access LFV tau decay rates over 100 times smaller than BaBar in the cleanest channels such as t+ → ℓ+ℓ+ℓ–, and over 10 times smaller in modes that suffer irreducible backgrounds, such as t → ℓg (ℓ = e, m). Many of these decays are difficult or impossible to reconstruct at hadronic machines such as the LHC. The polarized electron beam provides additional advantages because it allows to further suppress backgrounds, to determine the properties of M. a. giorgi, m. rama: The super flavor factory SuperB Fig. 6 Present layout of the SuperB site in the Tor Vergata campus of Rome University. the LFV interaction from the polarization-dependent angular distribution of the tau decay products, and to optimize the selection sensitivity for specific NP models. This feature gives SuperB a specific advantage over its direct competitor Belle II. Figure 5 shows the experimental sensitivity of LFV tau decays measured by BaBar and Belle compared with the expected sensitivity at SuperB and at the upgraded LHCb. For SuperB only a few modes are shown, but in fact all modes accessible at the B-factories can be measured. The search for CP violation in tau decays and the measurement of the tau electric dipole moment and the tau anomalous magnetic moment are additional areas where SuperB can significantly improve the current experimental limits of observables that are sensitive to specific NP models. Also in this case the electron beam polarization can be exploited to significantly enhance the sensitivity [2]. 3.4 Other topics The SuperB physics program includes other topics that are not discussed in this article. An important example is spectroscopy, that allows the study of the theory of strong interactions at energy scales not sufficiently high to apply perturbation theory, through the measurement of the mass and quantum numbers of hadrons. BaBar, Belle and other experiments have already proved the ability to discover unexpected states such as the D*s0 (2317)+, Y(4260) and X (3872) [2, 10], which do not easily fit into “conventional” spectroscopy. LHCb is expected to give important contributions, especially in decays with only charged particles in the final state. The SuperB factories will allow to enlarge the data sample further, including final states containing neutral particles. Instead of giving an overview of the other physics areas where SuperB can contribute, in the remaining part of this section we will briefly discuss a specific example where the beam polarization plays a key role. The combination of high luminosity and polarized electrons at SuperB provides a unique opportunity to measure sin2 qW from the precise measurement of the left-right asymmetries in e+e– → m+m–, t+t–, cc– which results from the interference of amplitudes mediated by the photon and the Z 0 (the neutral spin-1 gauge boson that mediates the weak interaction together with W±). The Weinberg angle qW is a fundamental parameter of the SM, whose value is not predicted by the theory and must be determined experimentally. The value of qW varies as a function of the momentum transfer (q) at which the process is measured. The most precise measurement has been done at q 2 ~ (91 GeV)2 corresponding to the mass squared of the Z 0 boson, while SuperB could measure it at q2 = (10.58 GeV)2 with a comparable precision. This is of interest for two main reasons: i) a measurement at the Y(4S) is theoretically cleaner than one at the Z 0 and ii) there is no measurement at this particular energy which is in a region where sin2 qW is changing rapidly. These precision measurements are sensitive to NP scenarios where one or more neutral gauge bosons can contribute to the process. vol28 / no5-6 / anno2012 > 19 scienza in primo piano Fig. 7 The crab-waist collision scheme. (a) Crab sextuples off. (b) Crab sextuples on. 4 Accelerator The SuperB e+e– collider is to be constructed on an area of 30 hectares of the Tor Vergata campus of Rome University, 5 km away from the Laboratori Nazionali di Frascati (LNF) of the Istituto Nazionale di Fisica Nucleare (INFN). The project is managed by Cabibbo Lab [8], a newly formed consortium between the University of Tor Vergata (owner of the land) and INFN. According to the current estimates beams might circulate in the accelerator on a time scale of about six years if all intermediate milestones are met [24]. A layout of the site is in fig. 6. The collider design comprises two rings with a 1.25 km circumference, one for electrons at a nominal energy of 4.2 GeV and one for positrons of 6.7 GeV. There is one interaction point where the colliding beams are squeezed down to a vertical rms size of 36 nm. Electrons are longitudinally polarized with a polarization fraction of 65–85%. The machine design is the result of a balance between three main requirements: high luminosity, relatively low backgrounds and electric power consumption comparable with previous generation B-factories. Most of the new accelerator techniques used at SuperB have been achieved at other recently completed accelerators including the new PETRA III light source at DESY (Germany) and the upgraded DAFNE collider at LNF, or during the design studies of the proposed CLIC or ILC linear colliders. The luminosity of an e+e– collider can be written as (1) where N + (N – ) is the number of positrons (electrons) per 20 < il nuovo saggiatore bunch, fc is the bunch collision frequency, sx /sy /sz are the horizontal/vertical/longitudinal rms size of the bunch and q is the bunch crossing angle. sx and sy can be written in terms of the beam emittance (ε) and the beta function (β) at the —— interaction point (IP) in each direction, si = √ b*i ei (i = x, y). In high luminosity colliders with conventional collision schemes the key requirements to increase the luminosity are very small vertical beta function b*y at IP, high beam intensity and large beam size sx . However, in these schemes the luminosity is limited because b*y cannot be much smaller than sz without incurring the “hourglass” effect (the dependence of the vertical beam size on the longitudinal position along the crossing region), and sz cannot be made too small without introducing other problems which, in turn, would limit the luminosity and increase dramatically the power consumption. The solution chosen by SuperB is based on the crab waist (CW) scheme [25–27] and aims at increasing the luminosity without longitudinal bunch length reduction and with moderate power consumption. Let us consider two bunches colliding at an angle theta on the x-z plane (fig. 7a). The CW principle can be explained in three basic steps. The first one is the requirement of a large Piwinski angle F = (sz / sx ) tan q/2 >>1 to reduce the overlap area of the colliding bunches. In the CW scheme this condition is fulfilled by decreasing the horizontal beam size x and increasing the bunch crossing angle. Then, in the second step the vertical beta function b*y at the IP is made comparable to the overlap area size, i.e. much smaller than the bunch length: b*y ~ 2sx /q ~ sz /F << sz . Reducing b*y brings several advantages, including the increase of the luminosity keeping the same bunch current, and the suppression of the synchrobetatron resonances. Furthermore, there is no need to decrease the bunch length to increase the luminosity, and M. a. giorgi, m. rama: The super flavor factory SuperB this helps solving problems such as the electromagnetic “high-order mode heating”, coherent synchrotron radiation of short bunches and excessive power consumption. However, the large Piwinski angle itself introduces new beam-beam resonances which may significantly limit the maximum achievable luminosity. At this point (third step) the CW transformation enters the game. The vertical beta function waist of one beam, which is perpendicular to the longitudinal direction of the bunch in the usual collision schemes, is rotated so that it is oriented along the central trajectory of the other one (fig. 7b). The CW vertical beta function rotation is provided by sextuple magnets placed on both sides of the IP. The CW transformation yields a small geometric luminosity gain due to the vertical beta function redistribution along the overlap area, of the order of several percent. But the dominating effect comes from the suppression of betatron and synchro-betatron resonances otherwise arising from the vertical motion modulation by the horizontal betatron oscillations. The collision scheme based on large Piwinski angle and crab waist has been successfully tested at DAFNE in 2009, observing a factor 3 luminosity increase when the crab waist sextupoles were switched on, in good agreement with the simulations [28]. The test was done in the absence of the solenoidal magnetic field of a detector. Further tests are currently in progress at DAFNE, where the detector KLOE-2 immersed in a 0.52 T magnetic field is now installed and operational. Considering for the SuperB baseline the parameters N + = 5.1 × 1010, N – = 6.6 × 1010, fc = 233 MHz, sy = 36 nm, sz = 5 mm and q = 66 × 10–3 << 1 (F >>1), the luminosity in eq. (2) can be approximated to (2) The present design comprises beam currents of about 2 A and a power consumption of the radio frequency units of about 16 MW. The Technical Design Report of the accelerator is in preparation. It has been recently proposed to enhance the SuperB linear accelerator with a Free Electron Laser (FEL) able to produce monochromatic radiation in the region of hard X-rays. A FEL is a device which converts a fraction of the electron kinetic energy into coherent light by letting the electron beam pass through an array of magnets with alternating poles called undulator. A FEL with the proposed characteristics allows to take “radiography” of matter with a resolution higher than 10–10 m and to investigate the dynamics of ultra-high speed phenomena, with applications in material physics, biology and medicine. 5 Detector The SuperB detector concept is based on the BaBar detector [29], with modifications required to operate at a luminosity of 1036 cm–2 s–1 and with a reduced CM boost. The detector includes (moving away from the interaction point) a tracking system composed of a silicon vertex tracker (SVT) and a drift chamber (DCH), a Cherenkov detector with fused silica bar radiators (FDIRC) for charged kaon/pion particle identification, an electromagnetic calorimeter (EMC) for energy and direction measurement of photons and electrons, a superconducting solenoid coil providing a 1.5 T magnetic field for the tracking system, and an instrumented flux-return (IFR) for the detection of muons and KL . A number of components are reused from BaBar: the flux-return steel, the superconducting coil, the barrel part of the EMC and the fused silica bars of the DIRC. A brief overview of the main differences with respect to the BaBar detector is reported below. The reader is referred to [4] for more detailed discussions. To maintain sufficient proper-time resolution for timedependent CP violation measurements with the planned SuperB boost of bg = 0.24 (it was bg = 0.56 at BaBar), the vertex resolution is improved by reducing the beam pipe radius and placing the innermost layer of the SVT at about 1.5 cm from the IP. The baseline technology for this layer is silicon striplets, though other solutions based on pixelated sensors are considered for possible detector upgrades. The drift chamber is similar in design and performance to the BaBar chamber. Compared to BaBar the inner radius is constrained to be a few cm larger due to the presence of the tungsten shield surrounding the final focus cooling system. R&D is ongoing to evaluate the use of the cluster-counting technique together with the dE/dx measurement to improve the particle identification capability. The FDIRC is conceptually similar to the BaBar DIRC and uses the same quartz bars as Cherenkov light radiator, but the photon camera is replaced by a much smaller one combined with faster photon detectors. This solution allows to be about 100 times less sensitive to backgrounds keeping similar performance in terms of particle identification. The barrel part of the EMC reuses the BaBar barrel CsI(Tl) crystals read by PIN diodes, with new readout electronics. There are currently two main options for the forward EMC technology. One is made of pure CsI crystals; the other is a hybrid solution where the crystals closer to the barrel are taken from the CsI(Tl) BaBar forward calorimeter and the remaining part, where background rates are higher, is made of LYSO crystals. The IFR uses the steel flux return of the magnet as a muon filter and hadron absorber. Compared to BaBar, the absorber is increased and redistributed to optimize the muon and KL identification and the gaseous detectors (RPC and LST) are replaced by much vol28 / no5-6 / anno2012 > 21 faster extruded plastic scintillator. Two detector options are still under discussion: a “vetoquality” EMC made of lead and scintillator installed in the backward region to increase the angular coverage, and a time-of-flight detector placed between the DCH forward endcap and the EMC to enhance the particle identification capability in the forward region. The Technical Design Report of the detector is in preparation. Bibliography [1] http://superb.infn.it/home [2] M. Bona et al., “The SuperB Conceptual Design Report”, arXiv:0709.0451. [3] M. E. Biagini et al., “SuperB progress reports, The Collider”, arXiv:1009.6178. [4] E. Grauges et al., “SuperB progress reports, The Detector”, arXiv:1007.4241. [5] A. A. Alves Jr et al., “The LHCb detector at the LHC”, JINST, 3 (2008) S08005. [6] T. Abe et al., “Belle II Technical Design Report”, arXiv:1011.0352. [7] MIUR, Programma Nazionale della Ricerca 2011-2013 at http://www.istruzione.it/web/ricerca/pnr [8] http://www.cabibbolab.it [9] Piano Triennale INFN 2012-2014 and 2011-2013 at http://www. infn.it/ ; Giornata di Studio sul Piano Triennale 2013-2015 at http://www.presid.infn.it [10] B. O’Leary et al., “SuperB progress report - Physics”, arXiv:1008.1541. [11] B. Meadows et al., “The impact of SuperB on flavour physics”, arXiv:1109.5028. [12] T. E. Browder, T. Gershon, D. Pirjol, A. Soni and J. Zupan, “New Physics at a Super Flavor Factory”, arXiv:0802.3201, Rev. Mod. Phys., 81 (2009) 1887. – [13] J. P. Lees et al., “Evidence for an excess of B → D(*)t–n–t decays”, arXiv:1205.5442, Phys. Rev. Lett., 109 (2012) 101802. [14] M. Tanaka and R. Watanabe, Phys. Rev. D, 82 (2010) 034027; V. D. Barger, J. Hewett, R. Phillips, Phys. Rev. D, 41 (1990) 3421. [15] see for example D. Atwood, M. Gronau, A. Soni, Phys. Rev. Lett., 79 (1997) 185. [16] W. Altmannshofer et al., “Symmetries and Asymmetries of B → K*m+m– decays in the Standard Model and beyond”, arXiv:0811.1214, JHEP, 01 (2009) 019. Marcello Giorgi Marcello Giorgi is Professor of Particle Physics at the Physics Department of the University of Pisa. His research activity focused initially on experiments of electro-hadron and photon-hadron scattering at Frascati, Daresbury and CERN. Later he worked in the ALEPH experiment at CERN and in the BaBar experiment at SLAC. He pioneered the development and use of silicon detectors in High Energy physics. He was president of the “Commissione V” of INFN, director of the Pisa INFN section and spokeperson of BaBar. He coordinated the international collaboration that is proposing to build the super flavor factory SuperB in Italy, and he is member of the Cabibbo Lab directorate with the responsibility for the research and computing areas. He was awarded the EPS Fellow and the University of Pisa “Cherubino d’Oro”. 22 < il nuovo saggiatore 6 Conclusions Flavor physics offers a unique opportunity for disclosing physics beyond the standard model and understanding its origin. SuperB is a proposed super flavor factory designed to reach unprecedented sensitivity not only in the B sector but also in charm as well as in tau lepton decays. Its physics program complements the direct searches and flavor physics studies underway at the LHC. [17] The LHCb collaboration, “Differential branching fractions and angular analysis of the B0 → K*0m+m– decay”, LHCb-CONF-2012-008. [18] R. Aaij et al., “Measurement of the isospin asymmetry in B → K(*)m+m– decays”, arXiv:1205.3422, JHEP, 07 (2012) 133. [19] L. J. Hall, V. A. Kostelecky and S. Raby, “New Flavor Violation in Supergravity Models”, Nucl. Phys. B, 267 (1986) 415. [20] R. Aaij et al., “Evidence for CP violation in time-integrated D0 → h+h– decay rates”, arXiv:1112:0938, Phys. Rev. Lett., 108 (2012) 111602. [21] See for example Y. Grossman et al., arXiv:1204.3557. [22] See for example the measurement of the Ds decay constant summarized by HFAG at http://www.slac.stanford.edu/ xorg/hfag/charm/index.html [23] F. P. An et al. “Observation of electron-antineutrino disappearance at Daya Bay”, arXiv:1203.1669, Phys. Rev. Lett., 108 (2012) 171803. [24] A. Variola, talk given at the 4th SuperB Collaboration Meeting, La Biodola, Isola d’Elba, Italy, 1-4 June 2012, http://agenda.infn.it/conferenceOtherViews. py?view=standard&confId=4880 [25] P. Raimondi, 2nd SuperB workshop, Frascati 2006, http://www. lnf.infn.it/conference/superb06/prog.html [26] P. Raimondi, D. Shatilov, M. Zobov, “Beam-Beam Issues for Colliding Schemes with Large Piwinski Angle and Crabbed Waist”, arXiv:physics/0702033. [27] K. Ohmi, P. Raimondi, D. Shatilov, M. Zobov, “Crab Waist Collision Studies for e+e– Factories”, arxiv:0802.2667. [28] M. Zobov et al., “Test of “Crab-Waist” Collisions at the DAΦ NE Φ Factory”, Phys. Rev. Lett., 104 (2010) 174801. [29] B. Aubert et al., “The BaBar Detector”, hep-ex/0105044, Nucl. Instrum. Methods. A, 479 (2002) 1. Matteo Rama Matteo Rama got the PhD in Physics at the University of Pisa in 2001 and since 2005 he is researcher at the Laboratori Nazionali di Frascati of INFN. He started his research activity in the BaBar experiment at SLAC, where he contributed to the construction and commissioning of the silicon vertex tracker and to the study of CP violation in B decays. In 2004-2008 he was coordinator of the BaBar physics working group on B decays to charmed final states. Since 2008 he is also involved in the SuperB project, contributing to the R&D of the drift chamber and coordinating the development of the physics tools and the study of the physics reach as a function of the detector geometry. fisica e... dalle basse dosi al “silenzio cosmico” Nuove evidenze degli effetti delle radiazioni ionizzanti Per la salute Emiliano Fratini1,2, Daria Capece1,3 1 Centro Studi e Ricerche e Museo Storico della Fisica “Enrico Fermi”, Roma, Italia Istituto Superiore di Sanità, Roma, Italia 3 Università dell’Aquila, L'Aquila, Italia 2 I dati raccolti fin dagli anni ’50 sull’esposizione ad alte dosi di radiazioni hanno posto il DNA come bersaglio primario della radiazione (target theory) e hanno gettato le basi di un modello radioprotezionistico lineare senza soglia (LNT Model): gli effetti alle basse dosi sono estrapolati in modo diretto e lineare dagli effetti ad alte dosi. Negli ultimi decenni questo modello è stato messo in discussione dalle osservazioni di effetti non bersaglio-specifici (Non-Target Effects) osservati a basse/bassissime dosi. Questi effetti non sono dovuti esclusivamente alla risposta della singola cellula ma all’integrazione di risposte cellulari, tissutali e dell’organismo intero. 1 Introduzione Gli effetti delle radiazioni ionizzanti (RI) possono essere suddivisi in deterministici e stocastici se è possibile correlarli direttamente o meno alla dose assorbita. I primi sono attribuibili direttamente all’irraggiamento e generalmente si manifestano a breve tempo dall’esposizione, hanno una gravità proporzionale alla dose assorbita e si manifestano solamente al superamento di una dose soglia, specifica per l’effetto osservato. Al contrario, gli effetti stocastici non si manifestano immediatamente e non sono facilmente correlabili con la dose assorbita. Il modello lineare senza soglia (LNT model), usato in radioprotezione per predire gli effetti di basse dosi di RI [1], ipotizza che la probabilità che gli effetti prodotti dalla radiazione siano direttamente proporzionali alla dose, cioè il rischio per la salute cresca linearmente con la dose. Questo modello, costruito sulle basi di studi epidemiologici, che riguardano prevalentemente effetti di alte dosi ed alti ratei di dose di RI, è usato per stimare i rischi da basse dosi e bassi ratei di dose, estrapolando i dati ottenuti ad alte dosi. Negli ultimi decenni il modello LNT è stato messo in discussione in quanto si sono raccolte un gran numero di evidenze sperimentali che suggeriscono che i rischi collegati alle basse dosi di radiazioni non possono essere predetti da una estrapolazione lineare dei rischi valutati ad alte dosi. L’universalità della “target theory”, che asserisce che bersagli sensibili (target) all’interno della cellula debbano essere colpiti direttamente dalla radiazione, o indirettamente attraverso l’azione dei radicali liberi, per dar luogo a un determinato effetto biologico, è messa alla prova dalle osservazioni di effetti non bersaglio-specifici (Non-Target Effect, NTE), cioè che non richiedono l’esposizione diretta alle radiazioni. Gli effetti NTE sono particolarmente evidenti alle basse dosi ed includono il ruolo della comunicazione cellulare e le risposte a livello tissutale e sistemico. Tra i NTE possiamo considerare l’instabilità genomica, il bystander effect (BE), e la risposta adattativa (AR). Questi due effetti verranno descritti in seguito. Una migliore conoscenza degli effetti non target può avere conseguenze importanti per la valutazione del rischio alle basse dosi e, conseguentemente, sulla protezione dalle radiazioni. Alcuni effetti, quali l’instabilità genomica vol28 / no5-6 / anno2012 > 23 fisica e... Fig. 1 Modelli di rischio per la salute dovuti all’esposizione a basse dosi di radiazioni ionizzanti [9]. e i fenomeni bystander, potrebbero aumentare il rischio di cancro al di sopra delle stime fatte per estrapolazione del modello LNT, mentre al contrario altri effetti potrebbero mostrare una protezione (risposta adattativa) [2]. Questi studi possono contribuire alla valutazione della stima del rischio di cancro per l’esposizione occupazionale, medica e ambientale alle radiazioni ionizzanti, in quanto la soglia di dose per gli studi epidemiologici è di circa 100 mSv. L’estrapolazione del rischio dai dati epidemiologici dovrebbe essere fatta con la certezza che i meccanismi di carcinogenesi siano gli stessi per le alte e basse dosi; se non fosse così, l’estrapolazione e il modello LNT non sarebbero validi [3]. Negli ultimi decenni, ed in seguito a questi studi, Il modello LNT è stato fortemente contestato [4]: la varietà dei fenomeni biologici indotti dalle basse dosi, potrebbe avere un impatto sulla modulazione della forma della curva dose-effetto e causare una deviazione dal modello LNT (fig. 1). 2 Effetti “targeted”: il danno al DNA e le vie di segnalazione e riparazione Come detto sopra gli effetti “targeted” della radiazione, sono quelli che 24 < il nuovo saggiatore necessitano l’esposizione diretta del nucleo e l’interazione diretta o indiretta della radiazione ionizzante con il materiale genetico. Pertanto la radiazione può provocare un danno diretto sull’acido nucleico, come rotture a singolo o doppio filamento (SSB, Single-Strand Break; DSB Double-strand break) o un danno indiretto provocato dall’interazione del DNA con prodotti della radiolisi dell’acqua (es. il radicale . OH, che è una componente dei ROS, Reactive Oxigen Species). Il danno derivato da ROS prodotte durante l’irraggiamento, spesso a carico di singole basi o di un solo filamento dell’acido nucleico, è un danno che si sovrappone a quello fisiologico dovuto al metabolismo ossidativo della cellula. Va sottolineato che dosi acute di 100 mGy di raggi γ non aggiungono al livello spontaneo di danno ossidativo endogeno più del 10% [5]. I sistemi di riparazione del danno ossidativo sono: la reversione diretta, per opera di enzimi specifici (MGMT, O6-Methyl-Guanine DNA Metil-Trasferase); l’asportazione della sola base danneggiata (BER, Base Excision Repair); l’asportazione dell’intero nucleotide danneggiato (NER, Nucleotide Excision Repair); la riparazione di basi che non si appaiano correttamente (MMR, MisMatch Repair). Questi sistemi, essendo coinvolti anche nella riparazione di danno fisiologico al DNA, sono caratterizzati da una grande accuratezza [6]. Al contrario le rotture a doppio filamento, DSBs, sono più complesse da riparare, e richiedono altri meccanismi di riparazione. Il meccanismo più efficiente, la ricombinazione omologa (HR, Homologous Recombination), è comunque soggetto a errori; le altre vie di riparazione, l’unione delle estremità non omologa (NHEJ, Non-Homologous End Joining) e l’allineamento dei filamenti singoli, sono intrinsecamente molto più inclini all’errore. Mentre i danni non riparati portano generalmente alla morte cellulare, i danni riparati male inducono mutazioni e quindi la possibilità di cancerogenesi. Inoltre, in presenza di alte dosi di RI o di radiazione densamente ionizzante (es. particelle α), si possono avere modificazioni del DNA più complesse come i danni ravvicinati, anche detti clusterizzati o LMDS (Locally Multiply Damaged Sites), come lesioni singole (a singolo o doppio filamento) raggruppate nel breve spazio di uno o due giri d’elica di DNA. Queste lesioni difficilmente inducono il cancro perché attivano una segnalazione intracellulare che induce il blocco della replicazione e la morte cellulare [7]. Un ruolo importante nei meccanismi cellulari di prevenzione della e. fratini, d. capece: dalle basse dosi al “silenzio cosmico” Fig. 2 Descrizione sintetica e schematizzata della cascata di segnalazione intracellulare a seguito di danno al DNA, con enfasi sul ruolo centrale della proteina ATM. cancerogenesi è giocato dalle vie di rilevazione e segnalazione del danno (fig. 2). Anche queste vie, come quelle coinvolte in modo più diretto nella riparazione, possono influenzare gli effetti delle radiazioni. Una proteina chiave nelle vie di rilevazione e segnalazione del danno è la chinasi ATM (Ataxia Telangectasia Mutated) e, come dice il nome, mutazioni in ATM causano gli effetti che portano alla radiosensibilità tipica della Ataxia Telangectasia. L’analisi della fosforilazione di ATM e di altri sensori del danno al DNA come l’istone γH2AX sono ampiamente usati come indice di danno e di attivazione delle vie di segnalazione e riparazione, e sono generalmente proporzionali alla dose nell’intervallo tra i 10 mGy e 1 Gy. Le vie di segnalazione del danno, in gran parte indotte proprio da ATM fosforilato, attivano processi di risposta che includono l’arresto del ciclo cellulare, il rimodellamento della cromatina e l’induzione della riparazione [8]. Una ridotta attivazione dei sensori del danno e delle vie di segnalazione a seguito di esposizione a RI può avere gravi conseguenze per la salute. Questo è dimostrato da rare malattie genetiche recessive che sono associate con la suscettibilità al cancro e con la radiosensibilità. Nella popolazione esposta a radioterapia, c’è un’enorme variabilità nella risposta clinica, e questo e dovuto in parte a variazioni nei geni chiave delle vie di segnalazione e riparazione del danno al DNA [9]. Negli ultimi decenni sono stati identificati geni responsabili della sensibilità alle radiazioni i cui prodotti (RNA o proteine) sono coinvolti nel rimodellamento della cromatina, nella degradazione delle proteine e nel processamento degli RNA [10] Da tempo è noto che il danno da radiazioni ionizzanti non è esclusivamente a carico del nucleo e del genoma, e che le radiazioni ionizzanti inducono lesioni a tutti i costituenti cellulari (acidi nucleici, proteine e lipidi). La radiazione è in grado di modificare la struttura secondaria e terziaria delle proteine compromettendo la loro funzione. Nelle membrane della cellula e degli organelli, i ROS prodotti dalla radiazione degradano i lipidi polinsaturi formando malondialdeide; quest’aldeide, molto reattiva, può causare stress tossico nelle cellule, formare addotti covalenti con proteine e reagire con adenina e guanina nel DNA, formando addotti mutagenici. Per di più, i ROS possono danneggiare i canali ionici compromettendo l’omeostasi e la permeabilità della membrana cellulare, come anche causare la depolarizzazione della membrana mitocondriale e il rilascio del citocromo C nel citoplasma, fattore che può indurre l’apoptosi o l’ulteriore incremento di produzione di ROS [11]. Anche le vie di rilevamento, segnalazione e riparazione del danno non sono limitate al nucleo, essendo le cellule in grado di attivare sistemi di detossificazione che consentono di ridurre i livelli di ROS. 3 Effetti “non-targeted” Come detto prima, gli effetti non-target sono caratterizzati dal fatto di non richiedere l’irradiazione diretta del nucleo cellulare e di essere particolarmente significativi alle basse dosi. Tra questi effetti ci sono l’effetto bystander quando cellule danneggiate sono in grado di segnalare il danno a cellule vicine, o anche a grandi distanze, e la risposta adattativa, quando l’induzione di sistemi di segnalazione e di riparo consente di prevenire il danno dovuto a successive dosi di RI. Una caratteristica comune di questi fenomeni è la mancanza di una linearità con la dose [12]. 3.1 Effetti “bystander” La traduzione alla lettera dall’inglese di bystander (spettatore, astante) indica in modo chiaro che gli effetti dovuti vol28 / no5-6 / anno2012 > 25 fisica e... Fig. 3 Meccanismo d’azione dell’effetto bystander: la cellula irradiata produce fattori solubili che attraverso giunzioni intercellulari o il mezzo di coltura raggiungono cellule vicine inducendo un danno e/o una risposta (SCE = Scambi di cromatidi fratelli). a questo fenomeno sono indotti in cellule che non sono state direttamente colpite dalla radiazione ma che si trovano nelle vicinanze di cellule irradiate o che ne condividono il terreno di coltura. Gli effetti biologici più comunemente osservati sono: danno al DNA, le alterazioni cromosomiche come incremento della frequenza di micronuclei, aumento di scambi tra cromatidi fratelli (SCE, Sister chromatid Exchange), ma anche riduzione della sopravvivenza clonogenica e induzione di apoptosi [13]. L’induzione di questi effetti è stata descritta in relazione a radiazioni di diversa qualità, sia di basso che di alto LET, Linear Energy Transfer [14,15]. Esperimenti pionieri sul bystander effect, utilizzando particelle-α, hanno messo in evidenza che a dosi molto basse, un gran numero di cellule pur non essendo colpite direttamente dalla radiazione venivano danneggiate [16]. Gli stessi esperimenti hanno mostrato anche un andamento della relazione dose-risposta non lineare, con una forte crescita iniziale seguita da un plateau. Una ulteriore caratterizzazione di questo effetto ha messo in evidenza una dipendenza dalla dose e dalla qualità della radiazione, ma soprattutto dal tipo di cellula trattata e dalle condizioni in cui le cellule si trovano al momento del trattamento (ad esempio la fase del ciclo cellulare, la densità 26 < il nuovo saggiatore cellulare ed il grado di contatto tra cellule). Mothersill e Seymour hanno dimostrato che cellule coltivate in terreno precedentemente irraggiato non presentavano l’incremento di danno tipico del BE, mettendo così in evidenza non solo l’importanza della dose e del tipo di radiazione ma anche del sistema cellulare. Un meccanismo d’azione (fig. 3) proposto prevede che le cellule irradiate producano dei fattori solubili che diffondendo nel terreno di coltura si legano a recettori di membrana o citoplasmatici delle cellule non colpite dalla radiazione inducendo l’effetto bystander. Questi effetti diminuiscono se le cellule che ricevono la radiazione sono prive di mitocondri e se si è in presenza di molecole (scavenger) capaci di catturare i ROS. Perciò agenti candidati a essere induttori di danno e delle relative risposte nelle cellule non-target sono i ROS e i RNS (Reactive Nitrogen Species), poiché è stato dimostrato che producono danno al DNA e che sono prodotti da basse dosi di radiazione. Ad oggi, un ottimo candidato a mediatore è l’ossido nitrico (NO). Altri studi hanno mostrato che anche le citochine, in particolare interleuchine (ad esempio IL-8) e il Fattore di Necrosi Tumorale (TNF-a), sono prodotte nelle cellule irradiate e possono sostituire o coadiuvare i ROS e i RNS nell’indurre l’effetto nelle cellule vicine. L’effetto bystender è amplificato nel caso in cui le cellule sono ad alta densità e quindi a stretto contatto; in questo caso la diffusione dei fattori induttori di danno può essere facilitata da canali intercellulari (Giunzioni GAP) che ne veicolano il trasporto da una cellula all’altra [17]. L’evento che induce la sintesi e la liberazione di questi fattori solubili da parte delle cellule colpite da radiazione non è ancora noto. Alcuni marcatori di danno al DNA mostrano una stretta correlazione tra l’induzione del BE e la presenza di rotture a doppio filamento del DNA (DSB). Ma la possibilità di irraggiare singoli compartimenti cellulari tramite “microbeam” ha mostrato che l’irraggiamento del citoplasma di per se è sufficiente a produrre un effetto bystander e quindi l’intera cellula, e non solamente il nucleo, ha sensori del danno da irradiamento [18]. Un importante candidato è il mitocondrio, in quanto la depolarizzazione della membrana mitocondriale porta alla produzione di ROS. Il sistema d’irradiamento con “microbeam” è estremamente utile per gli studi sul BE poiché permette di colpire con un numero esatto di particelle ionizzanti una specifica cellula oppure, come detto in precedenza, un compartimento cellulare specifico. In questo modo è stato dimostrato che il e. fratini, d. capece: dalle basse dosi al “silenzio cosmico” numero di cellule che subiscono l’effetto bystander è indipendente dal numero di particelle che attraversano una cellula irradiata; pertanto si è fatta chiarezza sul motivo della mancanza di linearità con la dose [19]. Inoltre potendo indirizzare la radiazione su di una sola cellula è stato possibile valutare a che distanza potessero arrivare i fattori induttori del BE: in vitro i fattori rilasciati riescono ad attivare la risposta in un gruppo di trenta cellule adiacenti a quella bersaglio, ma in colture tridimensionali il segnale può arrivare fino a 1 mm di distanza. Sembra quindi che la struttura tissutale consenta di stabilizzare o rafforzare il segnale per propagarlo a maggiori distanze. La conseguenza principale del BE è una riduzione dell’efficienza clonale nelle cellule non colpite da radiazione. Questa ridotta capacità delle cellule di formare colonie è dovuta ad una instabilità genomica (aumento di frequenza di SCE e micronuclei) che, nelle cellule bystander, può essere correlata a una disregolazione dell’espressione di alcuni micro RNA e in un’ipometilazione globale del loro genoma [20]. Sebbene le cellule bystander possono andare incontro a trasformazione maligna in vitro, con un evidente collegamento all’oncogenesi, spesso mostrano l’attivazione di diversi meccanismi protettivi come la morte cellulare programmata (apoptosi) e il differenziamento cellulare terminale [21]. In questi casi il BE si evidenzia non come una induzione di danno, ma come una sorta di effetto protettivo eliminando le cellule predisposte a sviluppare la trasformazione neoplastica. Le osservazioni fatte in vitro sono state confermate anche in esperimenti in vivo. In particolare, sono stati valutati danno al DNA, apoptosi, e alterazioni della proliferazione cellulare. Cambiamenti nella metilazione del DNA e nell’espressione dei microRNA potrebbero essere di vitale importanza per il mantenimento dell’instabilità genomica nei tessuti bystander. 3.2 Risposta adattativa e ormesi Attualmente si discute anche sulla possibilità che bassi livelli di radiazione possano avere effetti benefici sulla salute, e perciò sulla possibile evenienza che il modello LNT possa essere iperprotettivo [2]. Un fenomeno cellulare correlato agli effetti benefici è la risposta adattativa. La risposta di adattamento alle radiazioni è definita come l’induzione di radio-resistenza ad alte dosi di radiazione a seguito di una preesposizione a basse dosi. A livello sperimentale è stato osservato in cellule e tessuti, che una piccola dose di radiazione (detta priming dose) riduce gli effetti biologici di dosi successive di radiazioni (challenging doses) generalmente più alte (fig. 4). Gli effetti modulati dalla risposta adattativa, maggiormente indagati finora, sono quelli visti anche negli altri fenomeni (es. bystander effect) e sono collegati con il danno al DNA: induzione e riparazione di DSBs, aberrazioni cromosomiche, formazione di micronuclei, mutazione genica, trasformazione cellulare, letalità cellulare. Un elemento molto importante e peculiare della risposta adattativa è l’aumento di attività delle proteine coinvolte nella detossificazione da ROS. Proprio per questo nei modelli predittivi della AR occorre considerare oltre al danno al DNA e alla letalità cellulare, anche l’efficienza di riparazione al DNA e l’induzione di enzimi antiossidanti [22]. Per avere una risposta adattativa è richiesto un intervallo di tempo (generalmente 4-6 ore), tra la dose “priming” e quella “challenging”. Si ritiene che in questo intervallo la cellula debba produrre gli enzimi necessari ad aumentare la propria capacità di riparazione del danno e di detossificazione. Questo fenomeno è, in effetti, presente anche dopo trattamento con agenti chimici, ed è Fig. 4 Risposta adattativa: Cellule pre-trattate con una bassa dose di radiazione o agente mutageno (a) sono più protette dal danno biologico di una dose successiva più alta, rispetto alle stesse cellule non pre-trattate (b). vol28 / no5-6 / anno2012 > 27 fisica e... stato riportato anche un fenomeno di adattamento trasversale tra i diversi agenti. Ad esempio, Löbrich e colleghi hanno dimostrato che cellule trattate con piccole dosi di perossido d’idrogeno riparano più efficientemente DSBs indotte da 10 mGy di raggi X. Il perossido d’idrogeno a basse concentrazioni produce esclusivamente SSBs e danni alle basi del DNA attraverso la generazione di radicali liberi dell’ossigeno, ma non produce DSBs. Perciò bassi livelli di ROS, attivando un gruppo di geni specifici per la riparazione, inducono una risposta che è richiesta per la riparazione delle DSBs indotte da radiazione [23]. Il meccanismo della risposta adattativa è strettamente connesso all’ormesi. L’ormesi, che deriva dal verbo greco ormao che significa stimolare, avviene con un meccanismo di sovra-compensazione dovuta a una perturbazione dell’omeostasi. Punti caratteristici di questo fenomeno sono: lo scompenso dell’omeostasi, una modesta sovra-compensazione fino al ripristino dell’omeostasi e la natura adattativa del processo. L’ormesi, al contrario della risposta adattativa che è un fenomeno cellulare e tissutale, si riferisce al livello sistemico, perciò è caratterizzato dalla comunicazione cellulare a breve e lunga distanza e può includere anche fenomeni bystander positivi. I fenomeni ormetici sono generalmente indagati in vivo, e si manifestano come effetti benefici delle radiazioni su altre patologie e più in generale sull’aspettativa di vita. Alcuni studi hanno mostrato come il basso rateo di dose di radiazioni stimoli il sistema immune e, ad esempio, 28 < il nuovo saggiatore prolunghi l’aspettativa di vita di topi con il diabete [24]. Questa stimolazione avviene probabilmente tramite l’azione di ormoni (es. leptina) che agendo in modo paracrino o endocrino agiscono a breve o lunga distanza [25]. Un aspetto cruciale è il ruolo di alcuni elementi delle vie di segnalazione dello stress nelle alterazioni dell’aspettativa di vita dimostrato a seguito d’irraggiamento a basse dosi. Analisi specifiche hanno mostrato un incremento dell’espressione di geni legati all’autofagia, suggerendo che le basse dosi possono estendere l’aspettativa di vita anche stimolando il ricambio delle proteine intracellulari [26]. Sebbene i meccanismi molecolari alla base dell’ormesi siano ancora molto vaghi e difficili da identificare, gli studi degli ultimi anni hanno messo in evidenza alcune condizioni per cui basse dosi di radiazione mostrano protezione. Non solo le dosi devono essere al di sotto dei 50 mSv, ma anche il rateo della dose è di fondamentale importanza. Inoltre, anche se gran parte delle evidenze sperimentali sono state ottenute con radiazioni a basso LET (raggi x, raggi γ, paricelle β), ci sono dati che mostrano ormesi dovuta a radiazioni ad alto LET (es. neutroni [27]). Da anni Sykes e colleghi stanno studiando gli effetti della risposta adattativa alle basse dosi di radiazione, focalizzando l’attenzione su dosi estremamente basse (1 µGy, 10 mGy, 250 mGy). Il loro approccio si basa su esperimenti in vivo utilizzando un topo transgenico, pKZ1, come modello sperimentale irradiato con dosi rilevanti sia per la sicurezza e salute occupazionale (OH&S) sia per l’esposizione della popolazione. Le finalità di questi lavori sono l’analisi in situ del danno a livello del DNA e del destino cellulare tramite studi temporali e di risposta adattativa. Il modello murino da loro utilizzato, permette di rilevare il danno prodotto anche da piccolissime dosi di radiazioni in quanto in presenza di danno al DNA avviene una inversione cromosomica del gene pKZ1 che permette alla cellula di produrre di una proteina facilmente identificabile. Un incremento delle inversioni di pKZ1 è stato trovato con alte dosi di raggi X, e di agenti alchilanti e mutageni, ma anche con l’invecchiamento; mentre una diminuzione del numero d’inversioni è stata trovata con basse dosi di raggi X (1–10 mGy), ed agenti mutageni. Ma la cose più sorprendente, rilevata in situ tramite saggio pKZ1 su milza e prostata a seguito di esposizione a basse dosi di raggi X, è un andamento non lineare del danno al DNA. Questi studi hanno mostrato una tendenza alla protezione per le dosi comprese tra i 0.1 e 100 mGy. Pertanto queste dosi potrebbero essere le più efficienti nello stimolare una risposta adattativa. In effetti, esperimenti di risposta adattativa, in cui queste dosi (0.1–100 mGy) sono seguite da una dose alta (1Gy), mostrano la capacità di indurre protezione e riparazione anche verso dosi più elevate [28]. Per studiare se questa complessa relazione dose-risposta possa essere un effetto permanente, sono stati eseguiti saggi d’inversione di pKZ1 protratti nel tempo e si è visto che la risposta temporale delle inversioni nella milza è dipendente dalla dose impartita: in particolare alla dose di 0.01 mGy si ha un incremento delle inversioni nei primi e. fratini, d. capece: dalle basse dosi al “silenzio cosmico” tre giorni, seguito da un ritorno ai valori del controllo al settimo giorno. Questo effetto di diminuzione della frequenza di inversioni di pKZ1 alle basse dosi, rispetto al controllo non irradiato, può essere interpretato come diminuzione del numero di cellule che presentano inversioni, grazie all’eliminazione tramite apoptosi delle cellule pretumorali, fenomeno che in vitro è stato verificato da Portess [29]. è ragionevole ritenere che anche dosi molto basse come quelle dovute al fondo naturale di radiazioni possano avere effetti su cellule, tessuti e organismi viventi. L’evoluzione degli organismi viventi per miliardi di anni in presenza di radiazione di fondo ha portato molto probabilmente all’integrazione di questo stimolo giornaliero nei normali processi biochimici e fisiologici cellulari e sistemici. In questo contesto si inseriscono gli studi effettuati in condizioni di ridotto fondo di radiazione ambientale da Satta e colleghi. I Laboratori Nazionali del Gran Sasso (LNGS) dell’Istituto Nazionale di Fisica Nucleare (INFN), costituiscono un sito unico al mondo per studiare gli effetti del basso fondo di radiazione ambientale. Questi laboratori si trovano sotto a uno spesso strato di rocce calcaree, circa 1400 metri, che permette di ridurre il flusso di raggi cosmici e perciò la radiazione ambientale rispetto alla superficie. Gli esperimenti fatti su cellule di lievito (Saccaromyces cerevisiae), fibroblasti di criceto (V79) e una linea linfoblastoide umana (TK6), suggeriscono che il fondo di radiazione naturale possa avere un ruolo importante nel determinare una serie di processi adattativi cellulari, e in particolare che cellule cresciute a un livello di radiazione al di sotto del fondo ambientale naturale • sono meno protette da danni al DNA, indotto da agenti chimici e fisici; • presentano una maggiore sensibilità all’apoptosi; ed infine, • presentano una ridotta capacità di “scavenging” di agenti ossidanti [30]. 4 Conclusioni Nonostante le correnti stime di rischio assumano che qualsiasi esposizione a radiazione ha un rischio proporzionalmente lineare alla dose, negli ultimi anni è cresciuta la consapevolezza della presenza di incertezze circa le conseguenze per la salute di esposizioni a basse dosi e bassi ratei di dose di radiazioni sia naturali che artificiali. Gli studi epidemiologici tradizionali e gli esperimenti di tumorigenesi su animali non hanno il potere statistico richiesto per stabilire il rischio di cancro alle basse dosi. Sebbene attualmente si pensa che la radiazione causi un danno al DNA lineare alla dose, le nuove evidenze descritte in questo articolo mostrano che sia il danno sia la risposta a questo non sono necessariamente lineari con la dose. Inoltre, negli ultimi due decenni, abbiamo assistito ad un importante cambio di prospettiva: da una visione estremamente DNA-centrica, si è passati ad una visione più complessa in cui hanno un ruolo importante anche target “complementari”, che determinano risposte cellulari molto eterogenee e dipendenti dal sistema biologico. Il ruolo del DNA rimane fondamentale ma non esclusivo, in quanto deve essere integrato in un sistema “sensore” delle modifiche cellulari prodotte dalla radiazione. Tramite esperimenti in vitro e in vivo con basse dosi e bassi ratei di dose sono stati individuati nuovi fenomeni (es. bystander effect, risposta adattativa), che portano a una deviazione della curva doserisposta rispetto ai valori estrapolati dal modello LNT. La segnalazione cellulare si va affermando come un aspetto fondamentale nelle risposte radiobiologiche dove le cellule non rispondono come elementi isolati, ma come sistemi integrati in reciproca comunicazione mediante la trasmissione di segnali biochimici. Questa segnalazione può portare a effetti “bystander” che risultano spesso in un incremento del danno coinvolgendo anche cellule non direttamente colpite dalla radiazione, ma possono presentare anche componenti positive che, coadiuvate da una risposta adattativa a livello cellulare ed ormetica a livello sistemico, possono produrre un effetto protettivo e spesso benefico negli organismi colpiti da basse dosi di radiazione. Inoltre sono state identificate alcune soglie di risposta alla dose, ma rimane una lacuna nella conoscenza di come i livelli di risposta alla radiazione, sia cellulari sia tissutali e sistemici, interferiscano con il rischio di cancro alle basse dosi. Per colmare questo vuoto di conoscenza sarà necessario studiare i meccanismi molecolari che sono alla base dei fenomeni coinvolti nella risposta alle basse dosi di radiazione. Mentre gli studi sull’effetto bystander stanno facendo luce sui meccanismi e sul ruolo, sia positivo sia negativo, della comunicazione cellulare nella risposta tissutale e sistemica, i meccanismi vol28 / no5-6 / anno2012 > 29 molecolari che intervengono nella risposta adattativa si perdono spesso nelle normali risposte fisiologiche che mantengono l’omeostasi della cellula. Pertanto sono richieste tecnologie e modelli cellulari e animali sempre più sensibili che permettano di rilevare modulazioni significative anche a bassissime dosi, come nel caso del modello transgenico murino pKZ1. Un altro approccio interessante è quello di valutare gli effetti della riduzione del fondo naturale di radiazione. Come visto, il fondo naturale di radiazione garantisce uno stimolo quotidiano che permette alle cellule di rispondere prontamente a un eventuale danno. Esperimenti, in vitro e ancor di più in vivo, in assenza della stimolazione del fondo naturale di radiazione, potranno far luce sui meccanismi molecolari, cellulari, tissutali e sistemici, evoluti dagli organismi per rispondere anche alle più basse dosi di radiazione. Gli argomenti trattati nel presente articolo sono di interesse del progetto Silenzio Cosmico, finanziato dal Centro di Studi e Ricerche “Enrico Fermi”, che si occupa di valutare se il fondo naturale di radiazioni esercita un’azione adattativa sui sistemi viventi rispetto ad esposizioni acute ad agenti genotossici. Bibliografia [1] “The 2007 Recommendations of the International Commission on Radiological Protection”, Ann. ICRP, 37 (2007). [2] M. Tubiana, A. Aurengo, D. Averbeck, R. Masse, Radiat. Environ. Biophys., 44 (2000) 245. [3] L. Mullenders, M. Atkinson, H. Paretzke, L. Sabatier, S. Bouffler, Nature, 9 (2009) 596. [4] “Low-dose Extrapolation of Radiation Related Cancer Risk”, Ann. ICRP, 35 (2005). [5] J. P. Pouget et al., Radiat. Res., 157 (2002) 589. [6] J.P.-M. Melis, M. Luijten, L. H. F. Mullenders and H. van Steeg, in DNA Repair and Human Health, a cura di S. Vengrova (In Tech) 2011. [7] D. Averbeck, Mutat. Res., 687 (2010) 7. [8] S. C. Short, S. Bourne, C. Martindale, M. Woodcock, S. P. Jackson, Radiat. Res., 164 (2005) 292. [9] C. R. Correa, V. G. Cheung, Am. J. Hum. Genet., 75 (2004) 885. [10] A. C. Mueller, D. Sun and A. Dutta, Oncogene, 23; doi: 10.1038/ onc.2012.131 (2012). [11] T. M. Johnson,Z. X. Yu, V. J. Ferrans, R. A. Lowenstein, T. Finkel, Proc. Natl. Acad. Sci. USA, 93 (1996) 11848. [12] C. Mothersill, G. Bristow, S. M. Harding, R. W. Smith, A. Mersov, C. B. Seymour, Int. J. Radiat. Biol., 87 (2011) 1120. [13] K. M. Prise, M. Folkard & B. D. Michael, Radiat. Prot. Dosimetry, 104 (2003) 347. [14] S. A. Ghandhi, B. Yaghoubian, S. A. Amundson, BMC Med. Genomics, 1 (2008) 63. [15] H. Yang, N. Asaad, K. D. Held, Oncogene, 24 (2005) 2096. [16] H. Nagasawa, J. B. Little, N. M. Tsang, E. Saunders, J. Tesmer, G. F. Strniste, Radiat. Res., 132 (1992) 375. Emiliano Fratini Campi di attività di Emiliano Fratini sono gli effetti biologici delle radiazioni ionizzanti ed il metabolismo cellulare, in particolare nei mammiferi. Dal 2011 è titolare di un grant del Centro “E. Fermi” per studiare gli effetti biologici dovuti ad una riduzione del fondo naturale di radiazione ambientale (MUrine coSmiC siLEnce project). Laureato in Biologia nel 2007 con una tesi sul metabolismo delle poliammine in condizioni fisiologiche e patologiche (cancro), ha conseguito il Ph.D. nel 2010 con uno studio sulle principali alterazioni genetiche e metaboliche, a livello molecolare e cellulare, di organismi esposti alla radiazione dell’ambiente spaziale (progetto ASI). 30 < il nuovo saggiatore [17] E. I. Azzam, S. M. de Toledo, T. Gooding, J. B. Little J.B., Radiat. Res., 150 (1998) 497. [18] C. Shao, M. Folkard, B. D. Michael, K. M. Prise Targeted, Proc. Natl. Acad. Sci. U.S.A., 101 (2004) 13495. [19] O. V. Belyakov, A. M. Malcolmson, M. Folkard, K. M. Prise, B. D. Michael, Br. J. Cancer, 84 (2001) 674. [20] M. A. Kadhim, R. Lee, S. R. Moore, D. A. Macdonald, K. L. Chapman, G. Patel, K. M. Prise, Mutat. Res., 688 (2010) 91. [21] O. V. Belyakov, M. Folkard, C. Mothersill, K. M. Prise, B. D. Michael, Radiat. Prot. Dosimetry, 99 (2002) 249. [22] G. Esposito, A. Campa, M. Pinto, G. Simone, M. A. Tabocchini, M. Belli, Radiat. Prot. Dosimetry, 143 (2011) 320. [23] S. Grudzenski, A. Raths, S. Conrad, C. E. Rübe, M. Löbrich, Proc. Natl. Acad. Sci. U.S.A., 107 (2010) 14205. [24] T. Nomura,X. H. Li, H. Ogata, K. Sakai, T. Kondo, Y. Takano, J. Magae, Radiat. Res., 176 (2011) 356. [25] G. M. Cestelli, C. Mirri, E. Fratini, V. Licursi, R. Negri, A. Marcelli, R. Amendola, Anal. Bioanal. Chem., DOI 10.1007/s00216-012-60183 (2012). [26] A. A. Moskalev, E. N. Plyusnina, M. V. Shaposhnikov, Biogerontology, 12 (2011) 253. [27] E. Fratini, V. Licursi, M. Artibani, K. Kobos, P. Colautti, R. Negri, R. Amendola, PLOS ONE, 6 (2011) e19242 -1. [28] T.K. Day, A. M. Hooker, G. Zeng, P. J. Sykes, Int. J. Radiat. Biol., 83 (2007) 523. [29] D. I. Portess, G. Bauer, M. A. Hill and P. O`Neill, Cancer Res., 67 (2007) 1246. [30] L. Satta et al., Radiat. Environ. Biophys., 41 (2002) 217. Daria Capece Campi di attività di Daria Capece sono gli effetti biologici delle radiazioni ionizzanti sugli organismi viventi e lo studio delle basi molecolari dello sviluppo dei tumori. Dal 2011 è titolare di un grant del Centro “E. Fermi” per studiare gli effetti biologici dovuti a dosi estremamente basse di radiazioni ionizzanti ambientali, incluse le radiazioni cosmiche (MUrine coSmiC siLEnce project). Laureata in Biotecnologie nel 2006 con una tesi sul ruolo della metilazione come possibile meccanismo di silenziamento dell’espressione del gene REN/KCTD11 nei tumori umani, ha conseguito il Ph.D nel 2010 con uno studio sulla caratterizzazione di una nuova isoforma di splicing del gene Ikaros over-espressa nei disordini linfoproliferativi. percorsi Cosmic Rays: A Century of Mysteries Angela V. Olinto* Department of Astronomy & Astrophysics Kavli Institute for Cosmological Physics Enrico Fermi Institute, The University of Chicago, Chicago, IL, U.S.A. If you open your hand parallel to the ground, as if you were catching some raindrops, your hand will be traversed by a number of elementary particles moving close to the speed of light. Some of these particles were produced in very energetic events far away from our Solar System. The most common of these particles have been travelling throughout our Galaxy, the Milky Way, for tens of millions of years. A rarer more energetic type of these showering particles travelled from far away galaxies all the way to Earth taking as little as tens of millions of years to large fractions of the age of the Universe of 13.7 billion years. These messengers that reach us constantly bringing mysterious puzzles to Earth are what we call cosmic rays. Today we know that cosmic rays are particles like the nucleus of common atoms such as protons (the nucleus of the hydrogen atom), helium nuclei, carbon nuclei, oxygen nuclei, etc… all the way to iron nuclei and beyond. These nuclei have been accelerated to relativistic energies, i.e., energies much larger than the particle mass by some yet to be unveiled cosmic accelerators. The nature and mechanism operating in these cosmic accelerators is a century old mystery. Recent advances in observations, experiments, and theoretical models have been pointing the way to an eminent resolution. 1 Early history The year 2012 marks the centenary of the famous balloon flights by Victor Hess in 1912 (see fig. 1) when he showed that the flux of cosmic rays at high altitude was greater than the flux at lower altitudes. This kind of measurement established the fact that what was then called “ionizing radiation” had a cosmic origin, outside of the Earth. * E-mail: [email protected] The idea that some form of ionizing radiation was present throughout space dates back to questions raised by Coulomb in 1785 [1]. He found that electroscopes would spontaneously discharge even if very well insulated. The discovery of radioactivity at the end of the 19th century gave a partial answer to this discharge phenomena: there are energetic rays crisscrossing space produced by radioactive materials that can cause the discharge of electroscopes. The fact that some ionizing radiation does originate in radioactive materials in the ground and some come from outer space awaited another decade of experiments. vol28 / no5-6 / anno2012 > 31 percorsi Fig. 1 Victor Hess back from his balloon flight in August 1912. Fig. 2 Increase of ionization with altitude as measured by Hess in 1912 (left) and by Kolhörster (right). (Source: Alessandro De Angelis.) 32 < il nuovo saggiatore By 1909 scientists had taken electroscopes into tunnels and surrounded them with metal shields to try to understand the origin of the penetrating radiation. Was it coming from the crust of the Earth, the atmosphere itself, or did it originate outside of the Earth? The idea to measure the rate of the ionizing radiation with height begins with Theodor Wulf, a German Jesuit priest and scientist who developed a transportable electroscope and took it up the Eiffel Tower (300 m high) in Paris in 1909. He did not observe a significant change at that altitude. A number of scientists followed the quest for reaching higher altitudes by taking electroscopes in balloon flights with mixed results before 1912. A different strategy was developed by the Italian physicist, Domenico Pacini, who made measurements of the ionizing radiation underwater in 1911 [1]. He found that the variation of the flux of ionizing radiation underwater (3 meters deep and 300 meters from land) could be explained exclusively by water absorption. His results questioned the idea that the crust of the Earth was responsible for the radiation. The possibility of the atmosphere itself or a cosmic origin would still be plausible. In 1910 and 1911, several scientists attempted to measure the change of flux of the ionizing radiation with height using balloons including K. Bergwitz, who reached 1.3 km, J.C. McLennan, E.N. Macallum, and A. Gockel who reached 3 km. The results were inconclusive until Hess made a series of balloon flights 1912. The Austrian physicist, Victor F. Hess, carried electroscopes up in balloon flights seven times from April to August 1912. In August 7, 1912, he reached 5200 meters. He found that as one ascends in a balloon, the flux of ionizing radiation decreases immediately above ground and begins to increase again around 1 km in height, reaching twice the rate of the penetrating radiation on the ground between 4 and 5.2 km. He called this radiation höhenstrahlung (radiation from above). He also showed that höhenstrahlung was not A. v. olinto: cosmic rays: a century of mysteries Source: Cushing Memorial Library and Archives, Texas A&M University. Fig. 3 Robert A. Millikan, Arthur H. Compton, and the New York Times 1932. AIP Emilio Segre Visual Archive. coming from the Sun as there was no day-night variation. In 1936, Victor F. Hess received the Nobel Prize for the discovery of the extra-terrestrial origin of the ionizing radiation, now called cosmic rays. The result of Hess were carefully verified by Werner Kolhörster who reached 9.2 km by 1914 (see fig. 2). These very courageous scientists had to use oxygen to reach these altitudes. World War I interrupted the studies of cosmic rays from 1914 to 1918. After the war, Kolhörster continued his studies and in 1934, tragedy struck one of his expeditions where two of his collaborators, Dr. Schrenk and Masuch, died after reaching 12 km altitude. After WWI, the focus of research in the field moved to the United States. Robert A. Millikan, who received a Nobel prize in 1923 for his measurement of the charge of an electron and the photoelectric effect, was convinced by 1926 that the ionizing radiation were gamma-rays (i.e., very energetic light particles or photons). He proposed that these rays were produced by hydrogen fusion in intergalactic space and coined the name, cosmic rays. If cosmic rays were gammarays they would have zero electric charge. In 1927 the Dutch scientists, Jacob Clay, observed that the cosmic ray flux varied with latitude as he travelled from Java, Indonesia, to Genova, Italy. A clear confirmation of the effect came from a large scale expedition mounted by Arthur H. Compton who enlisted about 100 scientists throughout the world to measure the cosmic ray flux in different latitudes and altitudes. (He published a single authored paper on this effort in 1933.) The latitude effect can be explained if cosmic rays are charged particles deflected by the magnetic field of the Earth. The charged nature of cosmic rays was further clarified by Compton and Luis W. Alvarez who discovered the excess of cosmic rays coming from the West relative to the East using an experiment designed by the Italian Bruno Rossi. This East-West effect also showed that cosmic rays were mostly positively charged (fig. 3). From 1933 to 1953, a large number of new particles were discovered through the studies of cosmic rays. In 1933, the positron, the first antimatter particle to be identified (the antielectron, e+), was discovered by Carl. D. Anderson using tracks left by cosmic ray particles in his cloud chamber. For this discovery, he received the Nobel Prize in 1936. In 1937, the muon (µ) was discovered followed by the pion (p), the kaon (K), and the lambda (L0 ) in 1947. These were the first hints that the building blocks of nature are complex. 2 From Particle Physics to Astrophysics By the early 1950s, the study of the fundamental nature of matter and its interactions moved from the use of cosmic rays to man-made particle accelerators. In 1955 the antiproton (the antimatter version of the proton) was discovered at the Bevatron of the Lawrence Berkeley Laboratory. By the mid 1970s, Sheldon Glashow, Steven Weinberg, and Abdus Salam formulated the Standard Model of particle physics based on gauge bosons as force carriers and three generations of quark and leptons. The subsequent discoveries of the charm quark (1974 at Brookhaven National Laboratory and Stanford Linear Accelerator Center), the bottom quark (1977 at Fermi National Laboratory or Fermilab), the W and Z bosons (1983 at the European Organization for Nuclear Research or CERN), the top quark (1995 at Fermilab), and the tau neutrino (2000 at Fermilab) established the Standard Model. Most recent the announcement, on July 4, 2012, of a Higgs-type particle observed at the Large Hadron Collider (LHC) at CERN has completed the predictions of the model up to the LHC energy scale which is about 8,000 times mpc 2, where mp is the mass of a proton. (mp is 1.673 10−4 grams which corresponds to and energy unit of mp c 2 = 0.938 GeV, where gigaelectronvolt or GeV = 109 eV, and 1 eV, or electronvolt, is the kinetic energy an electron gains when it crosses a 1volt potential). The opportunity to test particle interactions with cosmic rays is still possible as cosmic rays can reach much higher energies than current particle accelerators. The work of vol28 / no5-6 / anno2012 > 33 percorsi Fig. 4 Extensive Atmospheric Showers. the Italian Bruno Rossi, led to the discovery of airshowers by Rossi, K. Schmeiser, W. Bothe, Kolhörster and Pierre Auger. They established that a single particle in the upper atmosphere can produce a very large cascade of particles, now called an extensive airshower (see fig. 4), by placing particle detectors at different distances and observing the coincidence in arrival time of particle signals on the ground. By 1939, Auger estimated that the energy of the primary cosmic ray (the original particle that generated the particle cascade) reached 1 million times mp c 2. Now we know that there are cosmic rays with energies above 100 billion mp c 2, 7 million times the LHC energy. (For these extremely energetic particles, the typical interaction energy with atmospheric atoms is about 100 times that of the LHC.) The study of cosmic rays became of great interest to astrophysicists, curious to understand how an astrophysical source can impart such extreme energies to subatomic particles. In 1934 the German astronomer Walter Baade and 34 < il nuovo saggiatore the Swiss astronomer Fritz Zwicky suggested that supernova, the explosive death of stars, are responsible for accelerating cosmic rays based on how much energy would be necessary to explain the observations. In 1949 the Italian physicist Enrico Fermi proposed that cosmic rays are accelerated via a stochastic process in the interstellar space by collisions against moving magnetized clouds. His theory explained the puzzling power law behavior of the spectrum of cosmic rays and is still the basis for most current explanations for the acceleration of cosmic rays. Modern theories of the origin of cosmic rays divide cosmic rays into a galactic origin from energies of about mp c 2 to about a billion times mp c 2, and an extragalactic origin for energies above that. The primary model for the origin of galactic cosmic rays involves the combination of Baade and Zwicky’s suggestion with Fermi’s mechanism, i.e., stochastic acceleration in the remnants of the supernova explosion. This type of model can explain the observed spectrum up to 10 million mp c 2, and may be able to reach higher energies. Given that cosmic rays are charged, their distribution of arrival directions is isotropized by magnetic fields in their path to Earth. Observations using photons (from radio to gamma-rays) are the best route to try to identify the acceleration sites in the Galaxy. Recent gammaray observations by the NASA Fermi satellite and the groundbased HESS, MAGIC, and VERITAS observatories are beginning to resolve possible cosmic ray acceleration sites. One prime candidate is the Tycho supernova remnant shown in fig. 5. In the next decade these efforts may lead to the resolution of the mystery of the origin of Galactic cosmic rays. After acceleration in sites such as supernovae remnants, cosmic rays diffusive around our Galaxy for long periods of time depending on their energy (the lower the energy the more they diffuse). It would take a neutral relativistic particle about sixty thousand years to cross our Galaxy (travelling in a straight light), while cosmic rays take tens of millions of years to reach Earth. This long delay is due to magnetic fields in the Galaxy that significantly bend their paths to Earth. This magnetic diffusion process is studied by measuring the relative abundances of different elements as a function of energy. From the 1960s, this study used short- and long-duration balloon experiments and space missions. These experiments observed that spallation products of common nuclei are much more abundant in cosmic rays than in solar system material; for example, lithium, beryllium, and boron nuclei which are produced mainly by the spallation of carbon A. v. olinto: cosmic rays: a century of mysteries and oxygen are 100,000 times more abundant in cosmic rays than their solar values. The overabundance shows that cosmic rays have traversed about 10 g/cm2 as they propagate in the Galaxy, corresponding to trajectories of millions of light years in length, which is much larger than the thickness of the galactic disk of only thousands of light years. Recent direct studies of cosmic ray abundances include the balloon payload projects named CREAM (Cosmic Ray Energetics And Mass), TIGER (Trans-Iron Galactic Element Recorder), and TRACER (Transition Radiation Array for Cosmic Energetic Radiation). Chief among these efforts is the PAMELA (Payload for Antimatter Matter Exploration and Lightnuclei Astrophysics) space mission which discovered a very interesting excess of positrons (antielectrons) and an unexpected change in the behavior of cosmic ray protons and helium. The positron excess generated a lot of excitement over the possibility that the source of these positrons are due to the mysterious dark matter which comprises 85% of the matter in the Universe. There are more mundane explanations for these positrons based on nearby astrophysical accelerators such as pulsars and supernovae. The proton and helium flux behavior is also quite new and may be due to details of the most energetic accelerators in the Galaxy. The latest observatory to be deployed in space, the Alpha Magnetic Spectrometer (AMS), is now running at the International Space Station. AMS (fig. 6) will follow up on the findings of PAMELA and make precise measurements of the composition and spectrum of different types of cosmic rays over a wide energy scales and is sensitive enough to find rare unknown components in these mysterious rays. This major international effort has the sensitivity to clarify the nature of galactic cosmic rays and to discover some previously unknown components of the cosmic radiation. Fig. 5 Tycho Supernova Remnant. (Credit: X-ray: NASA/ CXC/SAO; Infrared: NASA/JPLCaltech; Optical: MPIA, Calar Alto, O. Krause et al.) Fig. 6 AMS installed at the International Space Station (NASA Image S134E007532). vol28 / no5-6 / anno2012 > 35 percorsi 3 From galactic to extragalactic cosmic rays Different observational techniques allow the observation of cosmic rays over 12 orders of magnitude in energy (from 108 to 1020 eV) as shown in fig. 7. Up to 1014 eV, direct detection is feasible with balloon and space experiments. Above this energy, the flux is too low for space-based detectors and cosmic rays are studied by observing their air-shower development based on the discovery of Pierre Auger in 1939. He showed that very-high-energy cosmic rays trigger extensive air showers in the Earth’s atmosphere, distributing the original cosmic ray energy among billions of lowerenergy particles (called secondaries) that arrive together on the ground. These secondary particles can be detected with arrays of particle detectors and trough ultravioletsensitive telescopes that observe the fluorescence of nitrogen molecules in the air. Direct detection shows that at low energies the cosmic ray flux is modulated by the solar cycle through the magnetic field of the Sun, which shields the solar system from charged particles below about 108 eV. From 108 eV to about 1015 eV, the cosmic ray spectrum is well described by a power law, i.e., the number of cosmic rays arriving on Earth per unit time, area, solid angle, and kinetic energy, E, is proportional to a power of the energy as E –2.7. At higher energies, air shower observatories have shown that the spectrum steepens to E –3 and the transition region is called the “knee.” At about 1018 eV the spectrum hardens again, giving rise to a feature named the “ankle.” Below the knee cosmic rays are dominated by light nuclei (protons and helium) while at higher energies the composition becomes heavier. This transition to heavier elements is expected because galactic cosmic rays propagate diffusively in the magnetic field of the galaxy with a probability of escape that depends on the ratio of energy to the charge (called rigidity). Within this picture, the knee would represent the transition from confined trajectories to trajectories that escape the Galaxy and thus produce the change in the spectrum. This model fits well with observations by the Karlsruhe Shower Core Array Detector (KASCADE) experiment and the KASCADE-Grande extension. These data provide evidence for a transition from light nuclei to heavier ones, with the indication of nuclei from carbon to iron becoming dominant just below the ankle. A transition back to lighter nuclei at the ankle is also observed, which is a signal that the extragalactic component has become dominant at these energies. Cosmic rays with energies well above the ankle are certainly extragalactic. At these high energies a galactic component would give a clear signal in the sky distribution, instead of the observed isotropic distribution, the image of the galactic plane should emerge. Cosmic accelerators far away from the our Galaxy produce these ultrahigh-energy particles. 36 < il nuovo saggiatore The precise energy above which the galactic component is overtaken by the extragalactic component is still an open question. More mysteries remain such as what could be the source of these ultrahigh energy extragalactic particles. Are they produced in the super-massive black holes in the center of distant galaxies? Or perhaps in shocks produced by the largest structures in the Universe? Or were they accelerated in more energetic explosive deaths of star that create black holes or neutron stars? Finally, how high an energy do cosmic rays reach? In 1962, the Volcano Ranch array led by John Linsley observed a cosmic ray event with an energy of tens of joules or around 1020 eV (about 100 billion mp c 2). This kind of energy is common among a good serve of a tennis ball, but it is extreme for a subatomic particle to carry. Four years later, Kenneth Greisen in the United States and Georgiy T. Zatsepin and Vadim A. Kuzmin in the USSR predicted the abrupt steepening of the cosmic ray spectrum around 1020 eV as a result of cosmic ray interactions with the newly discovered cosmic microwave background (CMB), the relic radiation from the Big Bang. In his landmark article of 1966, Greisen announced that the measurement of such a flux steepening would clarify the origin of ultrahigh energy cosmic rays by showing their “cosmologically meaningful termination.” Ultrahigh-energy cosmic rays are detected by two main techniques: ground arrays (of scintillators or water Cherenkov tanks) and fluorescence telescopes. Ground arrays sample the extensive air shower as the secondary particles reach the ground. Historic arrays built to explore these extremely energetic events include Haverah Park (1967 to 1987), Sydney University Giant Air-Shower Recorder (SUGAR) (1968 to 1979), Yakutsk (1991 to present), and the Akeno Giant AirShower Array (AGASA). The 111 surface detectors of AGASA covered 100 km2 and operated for just over a decade (1990 to 2004). An alternative technique based on the atmospheric fluorescence of extensive airshowers was pioneered by the Fly’s Eye detector, which in 1991 observed an event with energy of 3 × 1020 eV, the current record holder, challenging the prediction by Greisen, Zatsepin, and Kuzmin (GZK). The fluorescence technique was further developed by the High-Resolution Fly’s Eye (HiRes) experiment, which reached very large exposures accumulating enough ultrahigh energy cosmic rays to verify that the GZK prediction was correct. Fluorescence observatories detect the ultraviolet light produced by the fluorescence of nitrogen molecules in the atmosphere as the shower develops above the ground. Mirrors focus the ultraviolet light onto photomultiplier tubes that record the fast-moving shower pattern in the atmosphere. These fast and sensitive cameras can record the light equivalent to a 40 Watt light bulb moving at the speed of light tens of kilometers away. This technique can observe the full development of the shower giving the energy and A. v. olinto: cosmic rays: a century of mysteries the likely composition of the primary cosmic ray. However, it has a low duty cycle since it works best during clear moonless nights while ground arrays work 24 hours a day. Since the prediction of the GZK effect in 1966, the existence of the steepening of the spectrum was a great open question. The AGASA observatory found a flux that did not follow the expected shape, suggesting that new physical may be at play at these extreme energies. This discrepancy was settled by HiRes and the Pierre Auger Observatory. Located in the Mendoza province of Argentina, the Pierre Auger Observatory is the largest detector of cosmic rays ever built. Covering an area of 3,000 km2 with an array of water Cherenkov detectors and the four fluorescence telescope overlooking the site, it began full operations in 2008 (see fig. 8). In addition to confirming the shape of the spectrum at the highest observed energies, the Auger Observatory has found hints of anisotropies in the distribution of arrival directions of cosmic rays with energies above 6 ×1019 eV. These can be the first signs of the mysterious sources from outside our Galaxy [2]. The number of events at the highest energies is not enough yet to sharpen the image of the real source distribution but one strong candidate for a source of anisotropies is Centauros A, a nearby galaxy with a jet produced by a supermassive black hole at its center (see fig. 9). The quest for resolving this mystery continues with future observatories being designed to gather many more particles of extreme energies and sharpen up the picture of these mysterious and very powerful sources. In addition to hints of the source distribution in the sky, the Auger Observatory has found an interesting behavior of the shower profiles. They are better explained by heavier nuclei than protons, a complete surprise to most astrophysicists. This puzzle may indicate that particle interactions are different at these extreme energies or that astrophysical accelerators inject more heavy nuclei than what is available thorough intergalactic space. Another ground array recently complete, named the Telescope Array (TA), has not yet confirmed this unexpected behavior at the highest energies. Covering Fig. 7 Spectrum of Cosmic Rays (source: Swordy - U. Chicago). Fig. 8 Pierre Auger Observatory covering 3,000 km2 near the city of Malargue in the Mendoza province in Argentina. Each red dot is a water tank detector (separated by 1.5 km each) and the green lines represent the fluorescence telescope field of view. The schematic picture shows how particles are observed jointly by the water tanks and fluorescence telescopes at night (courtesy of Pierre Auger Observatory). vol28 / no5-6 / anno2012 > 37 Fig. 9 Centaurus A – a nearby galaxy with a jet produced by the supermassive black hole at its center. (Credit: X-ray: NASA/CXC/ CfA/R.Kraft et al; Radio: NSF/VLA/Univ. Hertfordshire/M. Hardcastle; Optical: ESO/ WFI/M.Rejkuba et al.) 700 km2 in Utah, USA, it observes the highest-energy events arriving in the Northern Hemisphere complementing the Southern Auger Observatory. These two giant arrays will likely continue to unravel the mysteries behind these extremely energetic particles during this decade or more. A new generation of observatories is now being planned with the goal of accumulating enough particle events to solve the mystery behind the extragalactic origin of cosmic rays of ultrahigh energies. A powerful fluorescence telescope is being designed by an international collaboration to be installed in the International Space Station to look down on Earth, the JEM-EUSO (Extreme Universe Space Observatory on the Japanese Experiment Module) project (fig. 10). It can accumulate ten times more events than the current ground arrays and observe showers from upward-going particles such as high-energy neutrinos. This first space mission for the highestenergy particles may pioneer the space exploration of the Earth’s atmosphere as a giant particle detector. A first step towards understanding the nature of the more than a billion particles of extreme energies that reach the Earth annually. References [1] A. deAngelis, P. Carlson, N. Giglietto, S. Stramaglia, in the “Proceedings of the 32nd International Cosmic Ray Conference, ICRC 2011”, Beijng, China, 2011. [2] K. Kotera and A. V. Olinto, Annu. Rev. Astron. Astrophys., 49 (2011) 119. Fig. 10 The Extreme Universe Space Observatory on the Japanese Experiment Module JEM-EUSO (source: JEM-EUSO website). 38 < il nuovo saggiatore Angela V. Olinto Angela V. Olinto is Professor and Chair of the Department of Astronomy and Astrophysics, and member of the Enrico Fermi Institute and the Kavli Institute for Cosmological Physics, at the University of Chicago. She received her Ph.D. in Physics from MIT (1987) for work on the physics of quark stars. She worked on inflationary theory, cosmic magnetic fields, the nature of the dark matter, and now leads the effort to understanding the origin of the highest energy cosmic particles, cosmic rays, gamma-rays and neutrinos. She is the US PI of JEM-EUSO and a member of the Pierre Auger Observatory. Olinto is a Fellow of the APS and the Chair-Elect of the APS DAP. She received the Quantrell Award at Chicago and the Chaire d’Excellence of the French ANR. il nostro mondo CERIMONIA INAUGURALE XCVIII CONGRESSO nazionale della Società Italiana di Fisica napoli, 17 settembre 2012 Cerimonia inaugurale del Congresso nell’Aula Rossa del Complesso Universitario di Monte Sant’Angelo dell’Università di Napoli “Federico II”. Da sinistra verso destra: Pasqualino Maddalena, Luisa Cifarelli, Massimo Marrelli, Guido Trombetti. L. Cifarelli: Buongiorno a tutti, sono ben lieta di inaugurare il 98° Congresso Nazionale della Società Italiana di Fisica in questa città. Il nostro Congresso torna a Napoli dopo 25 anni, un bel lasso di tempo. all’epoca era Rettore dell’Università il Professor Carlo Ciliberto, cui è intitolata questa aula Rossa. Vorrei dare il benvenuto a tutti voi, colleghi e amici, e ai vari rappresentanti di società scientifiche come la Società Italiana di Fisica Medica, l’Unione Matematica Italiana, l’Associazione per l’Insegnamento della Fisica, la Società Italiana Aerosol, la Società Italiana di Gravitazione, la Società Italiana di Ottica e Fotonica, la Società Italiana di Elettromagnetismo, l’Associazione Nazionale per la Fisica e sue Applicazioni, qui rappresentate da presidenti, vicepresidenti o consiglieri che ringrazio vivamente per la loro presenza. Ringrazio anche per la loro presenza il direttore dell’INFN della Sezione di Napoli, il direttore dell’Istituto CNR-SPIN, il presidente dell’Istituto Nazionale di Oceanografia Fisica Sperimentale. Il Presidente dell’INFN sarà a Napoli alla fine del Congresso, in occasione di un evento correlato presso la Città della Scienza, e il Presidente del CNR ci ha fatto pervenire il suo saluto, non potendo essere oggi qui con noi. Accanto a me, alla mia sinistra, ho l’onore di avere il Magnifico Rettore dell’Università di Napoli “Federico II”, il Professor Massimo Marrelli, che ci ospita in questa bellissima sede, e accanto a lui il Professor Guido Trombetti, Assessore della Regione Campania alla Ricerca e Innovazione. Dall’altro lato il Professor Pasqualino Maddalena, Presidente del Comitato Organizzatore Locale e Direttore del Dipartimento di Scienze Fisiche dell’Università, che stamattina rappresenta anche il Sindaco di Napoli. Magnifico Rettore, a Lei la parola. M. Marrelli: Grazie mille. Innanzitutto vi voglio dare il benvenuto qui a Napoli. Per noi è importante che dopo 25 anni il Congresso della SIF si svolga di nuovo presso la “Federico II”, perché è un’Università di lunghissima tradizione anche nella fisica, come tutti voi sapete; è quindi un onore e un piacere avervi qui come ospiti. Il Preside della Facoltà di Scienze, il fisico Professor Roberto Pettorino, non può essere qui stamattina perché è previsto l’insediamento del nucleo di valutazione, del quale è il coordinatore. Il punto che mi preme sottolineare è un problema di politica universitaria generale. Questi sono tempi tristi per l’università per tanti motivi: le ristrettezze economiche, il problema che abbiamo delle continue cosiddette riforme, per cui non riusciamo neanche a stabilizzare un sistema che subito dopo ne viene un altro e dobbiamo cambiare nuovamente. Questo però è anche un momento che io credo sia da cogliere come opportunità. Abbiamo appena costituito alla “Federico II” i nuovi dipartimenti, abbiamo approvato il nuovo statuto, il nuovo codice etico. Il Dipartimento vol28 / no5-6 / anno2012 > 39 il nostro mondo Aula Rossa “Carlo Ciliberto” durante la Cerimonia Inaugurale del Congresso. di Fisica sarà composto da 130–140 persone, e a mio giudizio è un eccellente dipartimento. Abbiamo ridotto il numero dei dipartimenti da 76 a 26, per cui sono di dimensione molto più ampia; se questo sarà un bene o un male, lo scopriremo nel prossimo futuro. La cartina di tornasole è in qualche modo proprio il Dipartimento di Scienze Fisiche, perché era già un dipartimento ampio. Perciò abbiamo la possibilità di confrontare quello che succedeva col vecchio sistema con quello che succederà col nuovo. La struttura non è cambiata se non marginalmente, ma con la nuova organizzazione abbiamo un termine di paragone rispetto a come funzionava prima. Una cosa importante è che nell’area fisica, intesa come Area CUN, il nostro tasso di inattivi è inferiore di 2 punti rispetto alla media nazionale. Come avete visto l’ANVUR ha pubblicato il numero di inattivi o parzialmente inattivi, e la nostra è un’area buona. Il Professore Pasqualino Maddalena, che ben conoscete, ha inondato i colleghi di e-mail a questo proposito e il risultato è positivo. In quanto al giudizio sulla qualità, questo sarà compito dei valutatori. Detto questo vi auguro buon lavoro. Grazie di essere qui, grazie alla Presidente e a tutti voi. Divertitevi anche, perché Napoli è una città che vale la pena di vedere e di godere, magari con una bella passeggiata sul lungo mare questa sera. Grazie mille. L. Cifarelli: Grazie Magnifico Rettore. Approfitteremo sicuramente delle accoglienti strutture universitarie della “Federico II”, di Napoli e delle sue bellezze. Tra l’altro questa è la settimana di San Gennaro e non a caso noi siamo qui! Professor Trombetti, adesso a Lei la parola. G. Trombetti: Grazie. Per me è motivo di compiacimento enorme essere qui stamattina. Innanzitutto assolvo un compito formale e da me molto sentito, di portare i saluti del Presidente e della Giunta Regionale tutta. Io 40 < il nuovo saggiatore sono stato Preside della Facoltà di Scienze per 10 anni e ho insegnato, fermandomi da un anno per la prima volta dopo oltre 40 anni, e ho insegnato analisi matematica ai fisici per 20 anni. Quindi io mi sento di casa dal punto di vista umano, insieme a Franco Buccella, Aldo Covello, Giancarlo Gialanella e poi gli amici giovani, Marco Napolitano e tanti altri… Mi sento di casa e devo dire che insegnare ai fisici è stata, della mia esperienza professionale dal punto di vista didattico e umano, l’esperienza più significativa. Infatti io ho svolto corsi per chimici, biologi, matematici, ingegneri e anche all’istituto navale, ma il dato incontrovertibile, poi altri potranno analizzarne le ragioni socio-culturali, è che la qualità media degli studenti di fisica non era buona, ma era semplicemente eccezionale. Io ho avuto annate di studenti, che oggi sono tutti ricercatori, professori, moltissimi hanno fatto la tesi scegliendo argomenti di matematica, in particolare di analisi, molti anche con me, e si sono avviati a brillantissime carriere. Ne voglio citare uno solo, l’ultimo, Marco Cicalese. Marco Cicalese è un ragazzo che fa parte di un’annata veramente straordinaria, come il vino. È un ricercatore a farmacia e mi ha mandato un bellissimo e-mail, commovente: è figlio di pensionati, una persona che ha studiato con molti sacrifici, è diventato professore ordinario a Bonn. Non gli hanno chiesto la mediana, non gli hanno chiesto l’H-index, l’impact factor, nessuna delle amenità di stampo anglosassone in circolazione. Si sono solo accorti che era un fior di matematico, forse l’avranno sentito, gli avranno parlato, gli avranno fatto fare delle conferenze, avranno – udite udite – letto i suoi lavori. Questo cervello è fuggito secondo me con grande prestigio per il nostro paese, ma con grande dispiacere per me. Quindi il mio legame con questo ambiente è un legame fortissimo. Io scherzo, Fantoni è un amico carissimo, siamo stati rettori insieme, quindi conosciamo di questa via crucis dell’accademia tutti i dolori e tutte le sofferenze. Quando penso alla fisica penso quindi a un ambito di grande eccellenza. Penso a Pancini, penso a Caianiello, grandi maestri che sono passati per questo dipartimento e che hanno con la loro genialità fatto crescere questa bella comunità che aveva, credo che abbia e che spero conservi una caratteristica, quella di riuscire a ragionare di cultura con la C maiuscola e non solo di fisica, guardando la fisica all’interno di una visione più ampia, così come dovrebbe essere, che è il progresso, la crescita culturale del paese. Questo è un aspetto che mi sta particolarmente a cuore in un mondo che tende a rendere mercantile anche la scienza. In fondo la domanda che tutti sempre più spesso ascoltiamo è: “a cosa serve quello che fai?” ed è inutile rispondere. Quando Dostoevskij o Thomas Mann scrivevano si chiedevano “a che serve quello che scrivo”? No. Ma la stessa Europa secondo me è miope quando sceglie in via esclusiva di finanziare linee cosiddette di ricerca applicata, che poi significa praticamente l’ingegneria, le biotecnologie e pochi ammennicoli ulteriori. L’ingegneria, non lo diciamo agli ingegneri, è un po’ di fisica applicata e un po’ di matematica applicata. Quello che scelgono di fare in Europa, significa dimenticare che se l’Europa è stata l’Europa per grandi fisici applicati e ingegneri lo è stata anche per Hegel, Fichte, e per i grandi scrittori mitteleuropei. Ignorare completamente questa parte residuale della cultura e demandarla agli stati membri i quali, nell’attuale periodo di crisi economica, non sono in condizione di finanziare niente, a mio avviso è una scelta semplicemente anticipatrice di un declino che noi dobbiamo impedire. Quindi mi rivolgo a tutte le autorità, io faccio la mia parte, ma anche a quelli che gestiscono e governano i sistemi di valutazione ai quali va comunque tutta la mia gratitudine perché valutare significa fare scelte e fare scelte significa sempre accontentare alcuni e scontentare altri. Tutti devono capire che la valutazione oggettiva non esiste, che la valutazione, poiché sceglie dei parametri e degli indicatori, ha dei contenuti soggettivi, l’importante è che si conoscano le regole del gioco. Però forse proprio in queste sedi è opportuno un richiamo all’alto valore della cultura e all’idea che la cultura sale tutta o scende tutta e non è possibile pensare di sviluppare o far progredire un territorio puntando esclusivamente su certi ambiti lasciandone morire altri. Secondo me questo è un compito degli intellettuali, per quanto questa parola sia ormai carica di significati deteriori, e di tutti quanti come me e come voi, caro Fantoni, sono preposti al governo della ricerca scientifica nel paese. Grazie e buon lavoro. L. Cifarelli: Grazie. Adesso vorrei dare la parola al Presidente del Comitato Organizzatore Locale che si è notevolmente prodigato per l’organizzazione di questo Congresso assieme alla sua squadra. P. Maddalena: Buongiorno a tutti. Do il benvenuto a nome del Comitato Organizzatore e di quanti hanno collaborato con noi per l’organizzazione di questo evento. In qualità di Direttore del Dipartimento di Scienze Fisiche colgo l’occasione per dare il benvenuto a nome di tutta la comunità dei fisici della “Federico II”, insieme ai ricercatori della Sezione INFN di Napoli e dell’Unità CNR-SPIN di Napoli. Come anticipava Luisa Cifarelli ho avuto l’incarico formale da parte del Sindaco Dr. Luigi De Magistris di portarvi i saluti della Giunta Comunale e suoi personali, con le scuse per la sua assenza, legata a impegni improvvisi. Questo evento rappresenta per Napoli un’occasione unica per certi versi, coinvolgendo in maniera così profonda il settore della ricerca e, in modo particolare, la comunità dei fisici su scala non solo cittadina ma regionale. Napoli, come sapete, è una città ricca di contraddizioni, il che probabilmente rappresenta la sua ricchezza principale, ed è alla ricerca, direi quasi perenne, di occasioni di rilancio. Le occasioni di rilancio vanno trovate non solo nel sociale ma anche nell’arte e nella cultura: da questo punto di vista sicuramente il 98° Congresso Nazionale della SIF è un evento culturale di rilievo per la città. Dal punto di vista personale vi confesso che sono molto emozionato perché la gestione di un Congresso così grande è un’occasione unica e impegnativa. Oltre all’emozione c’è anche un senso forte di soddisfazione perché, stando alle stime iniziali, si prevede una larga partecipazione nell’arco della settimana con diverse centinaia di partecipanti, indice questo del successo della manifestazione. Sono d’altro canto teso perché il ritorno del Congresso SIF a Napoli avviene dopo ben 25 anni. Qui ci sono alcune delle persone che hanno contribuito all’organizzazione del Congresso del 1987; non credo di sbagliare affermando che, sia dal punto di vista degli aspetti scientifici che di quelli organizzativi e dell’ospitalità, il Congresso SIF del 1987 ha rappresentato uno standard di confronto molto impegnativo per le edizioni che sono seguite. Tutti ricordano il lavoro svolto da Giancarlo Gialanella, Bruno Preziosi, Peppino Iadonisi e da tutto il Comitato Organizzatore. È anche vero che i tempi nel 1987 erano un po’ diversi. La legge 382 del 1980, che riformava l’Università, si avviava a regime. Per il CNR quello era il periodo dei progetti finalizzati, che hanno determinato un forte rilancio del settore della ricerca. Anche l’INFN conduceva le proprie attività in relativa tranquillità. Ai tempi odierni la situazione è sicuramente diversa. Ci avviamo a cogliere i primi risultati dell’applicazione della legge 240, con tutto quello che questo può implicare dal punto di vista della ricerca e della didattica accademica. Gli Enti di Ricerca sono coinvolti in diverse vicende, che mirano alla riforma degli enti stessi. È evidente che, in un tale contesto di crisi e di incertezze, i tempi che viviamo sono più duri. Nonostante tutto, però, devo dire che la comunità nazionale dei fisici ha saputo portare avanti la ricerca in maniera egregia con eccellenti risultati anche a livello internazionale, apportando un contributo fondamentale, in alcuni casi addirittura determinante, al successo della stessa. Nel corso del Congresso, durante questa settimana andremo a cogliere tutti gli aspetti e i risultati dell’ultimo anno della ricerca italiana. Essi saranno illustrati nell’arco delle riunioni delle varie Sezioni previste dal Congresso. Come è noto, abbiamo 8 Sezioni in totale. L’intera manifestazione si svolgerà in questo sito, i Centri Comuni del Complesso Universitario di Monte S. Angelo. Abbiamo riservato l’Aula Rossa e l’Aula Azzurra per le relazioni generali e le aule E e le aule F, al piano superiore, per le varie riunioni delle Sezioni. Abbiamo anche provveduto a garantire un accesso wireless alla rete per i partecipanti: per i dettagli potete fare riferimento al banco della Segreteria. Un’ultima notazione prima di chiudere: il Dipartimento di Scienze Fisiche è a non più di 200 metri da qui. Vi invito a visitarlo e a prendere contatto con i ricercatori per poter eventualmente visitare i laboratori e le strutture. Chiudo augurandovi buon lavoro, sperando che esso sia proficuo e che nello stesso tempo abbiate tempo di godere della città. Buon lavoro a tutti. L. Cifarelli: Grazie, grazie davvero. Prima che il Magnifico Rettore e forse anche l’Assessore ci lascino a causa dei loro ulteriori impegni istituzionali, vorrei offrire a ciascuno di loro un dono simbolico, che è la cravatta della Società Italiana di Fisica, insieme a un regalo del Comitato Organizzatore Locale, che è una simpatica statuetta di Pulcinella. Grazie ancora per essere venuti. Adesso proseguiamo secondo tradizione con la cerimonia di premiazione della Società Italiana di Fisica. Partiamo dalla nomina dei Soci Benemeriti della SIF, illustri colleghi i quali hanno onorato la Società e la Scienza con i loro contributi. Il primo Socio Benemerito di quest’anno, in ordine alfabetico, è: - Tullio Bressani dell’Università di Torino, Socio Benemerito per i suoi contributi dati alla Fisica Nucleare Sperimentale e alla Società Italiana di Fisica. T. Bressani: Le cose che fanno piacere sono quelle che arrivano inaspettate e questa è stata del tutto inaspettata. Ringrazio Luisa, il Presidente, e tutti gli altri membri del Consiglio, per avermi dato questo onore e spero di continuare a servire la Società Italiana di Fisica. Grazie a tutti. L. Cifarelli: Ho il piacere di chiamare adesso: - Stefano Fantoni della SISSA di Trieste, Socio Benemerito per i suoi contributi dati alla Fisica Teorica delle Particelle e alla Società Italiana di Fisica. Dopo tutto quello che abbiamo sentito negli ultimi mesi in relazione alle delicate procedure di valutazione e all’ANVUR, permettetemi di dire che questo è anche un simbolo di riconciliazione nei confronti del suo Presidente. S. Fantoni: Ringrazio moltissimo di questo riconoscimento per me molto importante anche per tutto quello che è stato il mio trascorso nell’ambito della SIF e per quello che ho fatto nella mia carriera che adesso è cambiata. Quindi il riconoscimento è particolarmente gradito perché mi fa ritornare, almeno per questo piccolo intervallo, laddove sono sempre stato e mi piacerebbe stare, a dire la verità. Parlavi di riconciliazione, io mi auguro che non si tratti di riconciliazione, ma di un aiuto che noi come ANVUR chiediamo a tutto il sistema universitario nell’intraprendere questa strada della valutazione. Una strada complicata che ha bisogno di correzioni, di modifiche, un processo dinamico come immagino noi fisici capiamo, un po’ meno i rappresentanti di certe altre aree devo dire. Forse ricollegandomi a ciò che l’assessore Trombetti ha detto, io credo che l’aspetto culturale di tutta l’operazione di valutazione e quindi anche di strategia del paese, in qualche modo, è molto presente. Anzi, l’energia massima che noi dell’ANVUR stiamo spendendo è proprio là, nelle aree umanistiche che per noi certamente sono importanti. Però è anche importante che queste aree umanistiche capiscano che i tempi prevedono che nei modi di reclutamento dei giovani, le valutazioni e l’inserimento in un mondo europeo e internazionale devono essere sempre presenti. Quindi anche se loro sentono di soffrire molto questa operazione che è tradizionalmente lontana da loro, credo che sia inevitabile e che quindi con un po’ di “mal di pancia” la debbano accettare; e siamo convinti di agire per il bene proprio di questa cultura che Trombetti richiamava, non per castigare nessuno, ma proprio perché è importante che questa componente umanistica sia una componente che a tutto titolo possa sentirsi europea e internazionale. Dopodiché io mi sento fisico e sono molto orgoglioso che l’area della fisica e più in generale tutta l’area tecnico-scientifica sia un’area guida nel processo di valutazione, un processo che quest’area ha imparato a conoscere da tempo e ha nel suo DNA. Quindi non parlerei di una riconciliazione. Il nostro è un tentativo di far vedere ai nostri giovani che c’è un’apertura in questo momento per loro così difficile e che un processo di valutazione sia molto importante per poter dare loro questa speranza. Grazie. L. Cifarelli: Grazie e aggiungo che la SIF è molto contenta che tu sia oggi qui con noi. Chiamerei ora: - Gianluigi Fogli dell’Università di Bari, Socio Benemerito per i suoi contributi dati alla Fisica Teorica delle Particelle e alla Società Italiana di Fisica. G. Fogli: mi fa piacere e devo ringraziare la Società Italiana di Fisica. Non so se ho fatto moltissimo, potevo sicuramente fare molto di più. E poi vorrei un po’ condividere questo riconoscimento con tutti i miei giovani collaboratori che sono stati essenziali nella mia attività scientifica, a cui ho sempre fatto riferimento e che sono tenuti a continuare questa attività. Io ripongo in loro molta fiducia perché sono molto bravi. L. Cifarelli: Grazie. Chiamo ancora: - Giuseppe Iadonisi dell’Università di Napoli “Federico II”, Socio Benemerito per i suoi vol28 / no5-6 / anno2012 > 41 il nostro mondo contributi dati alla Fisica della Materia Teorica e alla Società Italiana di Fisica. G. Iadonisi: Io sono molto grato alla SIF per questo riconoscimento, credo di non avere fatto tantissimo, comunque le sono molto grato anche per avermi permesso di organizzare ben due corsi a Varenna, il che per me e per i miei collaboratori è cosa non da poco. Grazie. L. Cifarelli: Ti ricordo che al Congresso di 25 anni fa tu fosti presidente della sezione in cui Alex Müller presentò la superconduttività calda e che il suo Premio Nobel fu annunciato durante il Congresso della SIF. All’epoca il Congresso si svolgeva a fine ottobre, dopo che il Comitato Nobel si era pronunciato. Chiamo ancora: - Sandro Santucci dell’Università dell’Aquila, Socio Benemerito per i suoi contributi dati alla Fisica della Materia Sperimentale e alla Società Italiana di Fisica. S. Santucci: Grazie di questa onorificenza molto gradita, ma anche molto sorprendente, nel senso che era così inaspettata che ho addirittura perso l’e-mail con cui mi veniva comunicata. Per fortuna la segreteria della Società è stata molto efficace nel ricordarmelo! È un grandissimo onore, come dicevo inaspettato, per il quale ringrazio la Presidente professoressa Cifarelli e il Consiglio della Società per avermi proposto. In questo momento il mio pensiero va al dipartimento di Fisica dell’Università dell’Aquila di cui sono stato direttore per 8 anni e ai colleghi con cui ho attraversato un periodo di vita piuttosto difficile ma concreto. Ora il dipartimento, nell’ottica degli accorpamenti delle strutture, è diventato Dipartimento di Scienze Fisiche e Chimiche. Questa nuova struttura conserva un’attività scientifica di ottimo livello che ci ha contraddistinto nel tempo. Ciò è verificato dall’applicazione dei nuovi metodi di valutazione del personale universitario, le tanto bistrattate mediane, che vedono molti nostri giovani ben posizionati e meritevoli di essere valorizzati per contribuire alla rivitalizzazione della Fisica italiana. Infine il mio pensiero va alla mia famiglia, ai miei genitori, che con loro sacrifici hanno preparato la strada che mi ha permesso di poter svolgere il lavoro entusiasmante del fisico, ai miei figli e in particolare mia moglie che è qui e che sopporta la fisica da circa 40 anni; hanno contribuito tutti in modo essenziale. Di nuovo grazie alla SIF e grazie a tutti. L. Cifarelli: Grazie mille. Infine chiamo: - Giancarlo Setti dell’Università di Bologna, Socio Benemerito per i suoi contributi dati all’Astrofisica e all’Astronomia e alla Società Italiana di Fisica. 42 < il nuovo saggiatore G. Setti: È stata una gradita sorpresa e un grande onore essere nominato Socio Benemerito di una Società secolare come quella di Fisica. Ciò ha per me un valore straordinario. Io sono un astrofisico, ma mi sento semplicemente un fisico cresciuto a Bologna alla scuola di Giampietro Puppi. Quello che vorrei qui ricordare è come la nuova astronomia, quella che si è venuta affermando negli anni successivi al secondo conflitto mondiale, ha avuto un grande impulso dalla fisica. Lo sviluppo della radioastronomia, dell’astronomia dei raggi X e gamma, dell’astronomia dell’infrarosso e della ricerca delle onde gravitazionali, cioè tutto quello che era astronomia non tradizionale, è nato e cresciuto in Italia grazie alle iniziative intraprese dalla grande scuola della fisica di Amaldi, Occhialini e Puppi, che hanno anche promosso la ricerca spaziale europea e italiana. Io mi ritrovo sia da una parte che dall’altra, come un fisico consapevole che la storia della fisica e della scienza affonda le sue radici nell’astronomia, e forse oggi più che mai. Non è un caso se fra i miei primi lavori i due che hanno maggiormente tracciato il percorso della mia ricerca sono stati pubblicati su Il Nuovo Cimento nel lontano 1967. Vi ringrazio molto. L. Cifarelli: Grazie a te. La Cerimonia continua con i premi istituiti dal mio predecessore Giuseppe Franco Bassani, ovvero i premi per le migliori comunicazioni dei giovani al Congresso dell’anno precedente, che danno anche diritto alla pubblicazione sulle riviste della Società Italiana di Fisica. I Premi per le Migliori Comunicazioni al Congresso sono congiuntamente offerti da Il Nuovo Cimento e da The European Physical Journal (EPJ). Si riferiscono alle varie Sezioni parallele del Congresso (nominerò solo i premiati che avevano comunicato di poter essere presenti alla Cerimonia odierna): - Per la Sezione di Fisica Nucleare e Subnucleare, il Primo Premio va a Laura FRANCALANZA dell’INFN, Laboratori Nazionali del Sud, Catania, per la sua comunicazione “Competizione fra meccanismo di fusioneevaporazione e multiframmentazione in collisioni centrali 58Ni + 48Ca a 25 AMeV”. - Per la Sezione di Fisica della Materia, il Primo premio va a Giovanni Maria VANACORE del CNISM, Dipartimento di Fisica, Politecnico di Milano, per la sua comunicazione “Nanoscale mapping of strain, composition and electronic structure in SiGe nano-stripes”. Ritira il premio Raffaella Belvedere. - Per la Sezione di Fisica Astroparticellare, Astrofisica e Cosmologia, il Secondo Premio va a Giovanni BENATO del Dipartimento di Fisica “G. Galilei”, Università di Padova e INFN, Sezione di Padova, per la sua comunicazione “Studio del decadimento doppio beta con due neutrini nel 76Ge”. - Per la Sezione di Geofisica e Fisica dell’Ambiente, il Primo Premio va a Matteo FURLAN del Dipartimento di Fisica “G. Galilei”, Università di Padova e INFN, Sezione di Padova, per la sua comunicazione “Musteel: un progetto europeo per l’utilizzo della tomografia muonica per la protezione ambientale in processi industriali”. - Per la Sezione di Biofisica e Fisica Medica, il Primo Premio va a Daniela PETTI del Dipartimento di Fisica e L-NESS, Politecnico di Milano, Sede di Como, per la sua comunicazione “Bead magnetorelaxometry with on-chip platform based on magnetic tunnelling junctions”. - Per la Sezione di Fisica Applicata, il Primo Premio va a Andrea Mario TORTI del L-NESS e CNISM, Dipartimento di Fisica, Politecnico di Milano, Sede di Como, per la sua comunicazione “Magnetic domain wall conduits for on chip biological manipulation”. Il Secondo Premio va a Davor RISTIC del CSMFO Lab, CNR-IFN, Trento, per la sua comunicazione “Vetri attivati con ioni di terre rare per conversione in frequenza della radiazione solare”. - Per la Sezione di Fisica per i Beni Culturali, il Primo Premio va a Michele SECCO di CIRCe, Università di Padova, per la sua comunicazione “Restoration of cultural heritage masonry structures damaged by the 2009 Abruzzo earthquake: materials and methods”. - Per la Sezione di Fisica Generale, Didattica e Storia della Fisica, il Secondo Premio va a Stefano VERCELLATI dell’Unità di Ricerca in Didattica della Fisica, Università di Udine, per la sua comunicazione “Interpretare l’induzione elettromagnetica nella scuola secondaria: una sperimentazione di ricerca”. Tutti questi ragazzi pubblicheranno un articolo tratto dalla loro comunicazione in un fascicolo speciale de Il Nuovo Cimento. Ora passiamo ai premi riservati ai giovani talenti laureati in Fisica, cui vengono attribuiti Premi di operosità scientifica, intitolati ai passati Presidenti della Società Italiana di Fisica. Cominciamo dai giovanissimi laureati in Fisica dopo il Maggio 2009. I premi sono stati sponsorizzati da Physik Instrumente e CAEN. - Il Premio “Gilberto Bernardini”, che era presente qui al Congresso di Napoli 25 anni fa e che inaugurò il Congresso, va a Laura Cardani, laureata in Fisica presso l’Università di Milano-Bicocca e attualmente dottoranda presso l’Università di Roma “La Sapienza”. - Il Premio “Orso Mario Corbino” va a Andrea celentano, laureato in Fisica presso l’Università di Genova e attualmente dottorando presso la stessa Università. - Il Premio “Augusto Righi” va a Ninetta Saviano, laureata in Fisica presso l’Università di Napoli “Federico II” e attualmente dottoranda presso il II Institut für Theoretische Physik, Universität Hamburg, Germany. - Il Premio “Pietro Blaserna” va a Simone zanotto, laureato in Fisica presso l’Università di Pavia e attualmente dottorando la Scuola Normale Superiore di Pisa. Il secondo gruppo riguarda i premi riservati ai dottori in Fisica laureati dopo il Maggio 2005. - Il Premio “Vito Volterra” va a Francesco merola, laureato in Fisica presso l’Università di Napoli “Federico II” e attualmente ricercatore dell’Istituto Nazionale di Ottica, INO-CNR, Sezione di Napoli. - Il Premio “Giovanni Polvani” va a Simone stracka, laureato in Fisica presso l’Università di Milano e attualmente post-doc presso TRIUMF, Vancouver, Canada. Ora abbiamo dei premi istituiti in ricordo di vari colleghi che hanno contribuito alla scienza e alla società. Iniziamo con il Premio “Giuliano Preparata” per la Fisica Teorica, assegnato grazie al contributo dell’Associazione per la Fondazione “Giuliano Preparata”. Consegna il premio Emilia Campochiaro Preparata. Il premio va a Francesco Dimitri Maria Pellegrino, laureato in Fisica presso l’Università di Catania e attualmente dottorando in Scienze Fisiche della Materia presso l’Università di Roma Tre, “per le sue ricerche teoriche sul grafene, in particolare sugli effetti di impurezze e deformazioni sulle proprietà elettroniche e di trasporto”. Passo al Premio “Marco Fontana” per la Fisica della Materia Soffice, assegnato grazie al contributo dei colleghi e amici dell’Università di Parma. Consegna il premio Roberto De Renzi. Il premio va a Simone Belli, laureato in Fisica presso l’Università di Trieste e attualmente dottorando presso l’Institute for Theoretical Physics, Università di Utrecht, The Netherlands, “per i suoi contributi alla termodinamica di mesofasi con risultati di rilievo relativi agli effetti della poli-dispersione di dimensioni per molecole piatte”. Ora abbiamo un premio particolarmente caro a Napoli, intitolato a Antonio Barone, che tra l’altro era presente al Congresso di 25 anni fa. Il premio è assegnato grazie al contributo del Comitato Organizzatore Locale del Congresso SIF di Napoli, consegnano il premio Ruggero Vaglio e Renato Angelo Ricci. Il Premio “Antonio Barone” è assegnato ex aequo a: Alessandro casaburi, laureato in Fisica presso l’Università di Napoli “Federico II” e attualmente post-doc presso la School of Engineering and Physical Science, Heriot–Watt University, Edinburgh, UK, “per i brillanti contributi nello sviluppo di dispositivi di rivelazione superconduttori nano-strutturati per la spettrometria di massa di macromolecole di interesse biologico”; e a Angelo cruciani, laureato in Fisica presso l’Università di Roma “La Sapienza” e attualmente assegnista di ricerca della stessa Università, “per i notevoli risultati ottenuti nell’ottimizzazione di rivelatori superconduttori per fotoni basati sui meccanismi di induttanza cinetica delle coppie di Cooper”. Un altro premio intitolato a un collega, questa volta di Firenze, è il Premio “Emiliano Sali” per la Fisica Atomica, Molecolare o Ottica, assegnato grazie al contributo dei colleghi e amici. Il premio va a Lucia caspani, laureata in Fisica presso l’Università dell’Insubria, attualmente post-doc all’Insitut National de la Recherche Scientifique (INRS), Varennes, Canada, “per i suoi approcci innovativi allo studio spazio-temporale di aspetti specifici di entanglement e per il suo contributo significativo alla proposta di una nuova tecnica di imaging ad alta sensibilità basata su correlazioni d’intensità a livello quantistico”. Lucia Caspani non è potuta venire e consegniamo il premio al collega Guglielmo Tino. La Borsa “Antonio Stanghellini”, tradizionale borsa della SIF che esiste da molti anni, va a Matteo rinaldi, laureato in Fisica presso l’Università di Perugia e attualmente dottorando presso il Dipartimento di Fisica dell’Università di Perugia, “per l’originale proposta di esperimenti di diffusione anelastica su nuclei di 3He che consentirebbero per la prima volta di misurare il momento angolare dei partoni nel neutrone”. Passo adesso al Premio “Sergio Panizza” per la Optoelettronica o la Fotonica, assegnato grazie al contributo della Laser Optronic di Milano, anche questo uno storico premio della SIF. Consegna il premio Silvano De Pascalis della Laser Optronic. Il premio va a Miriam Vitiello, laureata in Fisica presso l’Università di Bari e attualmente ricercatrice presso il Laboratorio NEST dell’Istituto di Nanoscienze del CNR e della Scuola Normale Superiore di Pisa, “per i risultati conseguiti nello sviluppo di sorgenti laser a semiconduttore e di rivelatori nanoelettronici ad alta frequenza che hanno aperto nuove frontiere nell’innovazione della fotonica Terahertz”. La Borsa “Ettore Pancini” per la Fisica Nucleare e Subnucleare, assegnata grazie al contributo di Roberto Mazzola del CNR, che consegna il premio, va a Luciano Libero pappalardo, laureato in Fisica presso l’Università di Catania e attualmente assegnista di ricerca al Dipartimento di Fisica dell’Università di Ferrara, “per il suo studio sperimentale della struttura del nucleone tramite misure di deep-inelasticscattering e, in particolare, per il suo contributo alla comprensione degli effetti di spin e di impulso trasverso dei quark”. Il Premio per l’Outreach va a Katia genovali, dottoranda in Astronomia presso l’Università di Roma Tor Vergata e studente visitatore ESO (European Southern Observatory), sede di Garching, Germany, “per il contributo qualificato e originale alla realizzazione di due importanti documentari per la scuola dedicati alla storia dell’Universo”. Il Premio per la Didattica o la Storia della Fisica quest’anno è stato assegnato per la Didattica a Lino DE SANTIS e Bruno MARCONI, entrambi insegnanti di fisica attualmente in pensione, “per la loro più che ventennale attività di formazione per insegnanti e di orientamento per studenti di scuole di ogni ordine e grado, prevalentemente a carattere sperimentale, presso i Laboratori Nazionali del Gran Sasso dell’INFN, con l’utilizzo, in particolare, di apparecchi realizzati con materiali comuni”. Vengo ora al Premio “Giuseppe (Beppo) Occhialini”, congiuntamente istituito dalla società di Fisica del Regno Unito (IOP – Institute of Physics) e dalla Società Italiana di Fisica (SIF) nel 2007, in occasione del centenario della nascita di Occhialini, allo scopo di commemorare la figura dell’insigne scienziato e di consolidare le relazioni tra le due Società. Il premio è annuale e viene alternativamente conferito da una delle due Società a un fisico selezionato a partire da una lista di candidati proposti dall’altra. Il vincitore del Premio Giuseppe Occhialini 2012 è stato selezionato dall’“Award Committee” dell’IOP a partire da una terna di nomi sottoposta dal Consiglio di Presidenza della SIF. Il premio e la medaglia verranno consegnati al vincitore durante la cena ufficiale di premiazione che si terrà il prossimo 3 ottobre a Londra. Il premio va a Eugenio COCCIA dell’INFN e Università di Roma Tor Vergata, per “il suo fondamentale contributo alla realizzazione dei primi osservatori continui di onde gravitazionali tramite rivelatori criogenici e ultracriogenici, e per il suo ruolo nella comunità scientifica internazionale delle onde gravitazionali e nella più vasta comunità astroparticellare”. E. Coccia: Sono particolarmente fiero di avere ricevuto il premio intitolato a Giuseppe Occhialini poiché per noi questo nome è quello di uno degli dei del pantheon della Fisica Astroparticellare. Il mio premio lo intendo come un premio dato un po’ a tutta la comunità della ricerca sulle onde gravitazionali. La rivelazione delle onde gravitazionali è una delle maggiori sfide della fisica sperimentale contemporanea. Rivelarle non porterà solo a una ulteriore conferma della Relatività Generale di Einstein. Segnerà anche l’inizio di una nuova astronomia, basata sui segnali costituiti dalle vibrazioni dello spaziotempo. Sono segnali generati copiosamente da movimenti accelerati di sorgenti astronomiche, come le stelle di neutroni e i buchi neri e forse da sorgenti ancora sconosciute (sempre quando si è aperta una nuova finestra vol28 / no5-6 / anno2012 > 43 il nostro mondo Eugenio Coccia, vincitore del premio “Giuseppe (Beppo) Occhialini” 2012 e Luisa Cifarelli. Luisa Cifarelli con Roberto Car e Michele Parrinello, vincitori del premio “Enrico Fermi” 2012. astronomica, si sono scoperte sorgenti assolutamente impensate). Né i tradizionali o nuovi telescopi che osservano fotoni, né i rivelatori di raggi cosmici o di neutrini possono fornire un racconto così dettagliato del movimento della materia cosmica in condizioni estreme, dove le densità sono elevate e la gravità molto forte. Ma non è tutto: significherà anche rivelare un flusso di gravitoni. Cioè poter indagare per la prima volta direttamente le caratteristiche dei bosoni mediatori dell’interazione gravitazionale, in termini di sezione d’urto con la materia, spin e massa, grazie all’ampiezza, alle caratteristiche tensoriali e alla velocità di propagazione dei segnali rivelati. Considero il Premio Giuseppe Occhialini un grande onore e un riconoscimento all’attività svolta da molti ricercatori per arrivare a 44 < il nuovo saggiatore compiere una particolare transizione di fase nella ormai lunga storia della caccia alle onde gravitazionali: la transizione dal continuo lavoro di ricerca e sviluppo, con solo brevi runs scientifici di rivelatori afflitti da disturbi sismici, acustici ed elettronici non modellabili, alla realizzazione di rivelatori stabili, con rumore di fondo atteso, e quindi maturi per lunghi periodi di osservazione continua. Anche questa transizione, come tutta questa ricerca, ha visto l’Italia e l’INFN in primissima fila. È così che i rivelatori risonanti criogenici, sensibilissimi diapason, si sono avventurati per primi fin dagli anni ’80 in regioni inesplorate della fisica sperimentale. Sono così arrivati, negli anni ’90 i primi significativi limiti superiori a sorgenti impulsive, alle pulsars, al rumore stocastico di origina cosmica. Questo lavoro ha comportato un originale uso di tecnologie quantistiche, quali la refrigerazione dovuta alla diluizione di 3He in 4He, per ridurre il rumore termico, e l’uso di sensori basati su dcSQUID, per portare il rumore elettronico vicino al limite quantistico imposto dal principio di indeterminazione di Heisenberg. È una soddisfazione per me il fatto che varie caratteristiche progettuali del rivelatore ultracriogenico Nautilus, che detiene il record di temperatura e che è stato il primo a rivelare acusticamente i raggi cosmici, siano poi state adottate nei refrigeratori a diluizione realizzati dalla Oxford Instruments e dalla Leiden Cryogenics per successivi esperimenti scientifici, in particolare per le onde gravitazionali e per la natura dei neutrini. Senza soluzione di continuità, gli anni 2000 hanno visto il grande sorpasso nella sensibilità da parte dei grandi interferometri laser, come Virgo a Pisa. La comunità gravitazionale italiana si è da anni in gran parte ricongiunta su questi straordinari strumenti, potenzialmente sensibili a molte sorgenti provenienti da migliaia di galassie. È continuato inoltre il progetto di un grande interferometro nello spazio, LISA, che vedrà presto un dimostratore a guida italiana tracciare la via per rendere possibile la sua futura realizzazione. Una preziosa esperienza sperimentale di decenni si è ora riversata sulla nuova generazione di interferometri avanzati. L’appuntamento con la prima rivelazione è fissato, e stavolta riteniamo a ragion veduta, entro un lustro con i rivelatori Advanced Virgo in Italia e Advanced LIGO negli USA. Sarebbe fantastico se questa arrivasse già nel 2016, a cento anni esatti dalla predizione teorica di Einstein. Ci si è messo troppo tempo? L’attività e i progressi nella ricerca delle onde gravitazionali vanno valutati alla luce dell’estrema difficoltà della loro rivelazione, cioè della estrema piccolezza degli effetti da misurare. Non per niente la gravitazione è la più debole delle interazioni fondamentali. Non è stato facile arrivare, come siamo arrivati, ad apprezzare spostamenti dell’ordine di un miliardesimo di miliardesimo di metro. Famosa è la frase di Kip Thorne, guru teorico americano del nostro settore: “Gravitazione: paradiso per i teorici, inferno per gli sperimentali”. Sarà pure un inferno, ma è uno di quelli appassionanti. L. Cifarelli: Arriviamo ora al prestigioso Premio “Enrico Fermi” della Società Italiana di Fisica. Il Premio è stato istituito nel 2001, in occasione del centenario della nascita del grande fisico italiano, per onorarne la memoria e legare il suo illustre nome alla Società Italiana di Fisica. Il Premio è assegnato a uno o più Soci che abbiano particolarmente onorato la Fisica con le loro scoperte, selezionati da una Commissione costituita da rappresentanti del CNR, dell’INAF, dell’INFN, del Centro Fermi (Museo Storico della Fisica e Centro Studi e Ricerche “Enrico Fermi”), dell’INGV e del Consiglio SIF, e presieduta dal Presidente della SIF. La medaglia è una riproduzione esatta del medaglione bronzeo, opera di Giannino Castiglioni, fatto realizzare da Polvani dopo la morte di Fermi, e che si trova murato nell’Aula Fermi di Villa Monastero a Varenna. Quest’anno il Premio è stato assegnato congiuntamente a Roberto CAR, del Dipartimento di Chimica, Università di Princeton, USA, e Michele PARRINELLO, del Dipartimento di Chimica e Bioscienze Applicate, ETH Zurigo, Svizzera , con la seguente motivazione: “Per la scoperta del metodo di Dinamica Molecolare universalmente noto come metodo di Car-Parrinello, un metodo che ha rivoluzionato il campo delle simulazioni numeriche, con grande impatto in numerosi contesti interdisciplinari, sia teorici sia sperimentali, che vanno dalla Scienza dei Materiali, alla Chimica e alla Biologia”. M. Parrinello: Ringrazio la Società Italiana di Fisica di questo premio che mi è particolarmente gradito. Io ho lasciato l’Italia nel 1989 e mi sono abbastanza contaminato con altre discipline come la Chimica e la biologia, ma mi ritengo sempre un fisico italiano e sono molto grato alla comunità dei fisici che mi ha formato e di cui apprezzo moltissimo la ricerca svolta interamente in Italia. Sono anche grato a questa comunità per l’alto numero di giovani di talento che riesce a produrre, alcuni dei quali ho avuto il piacere di avere come collaboratori. Possiamo ora cominciare con la discussione, la mia sarà un po’ più generale di quella di Roberto. (Il resto del discorso di M. Parrinello è in lingua inglese). The development of ever more powerful computers which proceeds at an exponential pace has fostered the growth of computational science which has become one of the three legs on which modern science stands. Computer simulations complement and guide experiments, provide precious insight, replace expensive and dangerous experiments, and can predict new phenomena. Using computer graphics the motion of the atoms can be transformed in images and movies providing a form of virtual microscopy with a very high special and temporal resolution. Over the years the standing of computer simulation in the scientific community has grown from a pariah status to a well accept sound discipline that can be used to support the validity of an experimental result. However in spite of the very remarkable progress which derives from a combination of increased computer power and clever algorithms much needs to be done to improve and extend the method in order to be able to study larger systems, with more realistic Hamiltonians and on longer time scales. Thus allowing computer simulation to describe the ever more complex systems that are of the focus of much of contemporary science. We will focus here on the last problem of time scale which, among the limits of computer simulation is the least amenable to a cure based on an increase in computer power. To address this problem we have developed metadynamics which is now a widely used method. In metadynamics one identifies appropriate order parameters or collective variables and focuses on the free energy surfaces. The dynamics of the collective variables is enhanced by a history dependent bias and is able of reconstructing the free energy surfaces. Besides accelerating sampling metadynamics provides a conceptual framework in which complex phenomena can be analyzed and described. The metadynamics point of view has brought copious fruits not only for its many applications but also for the theoretical insight it provides. Though metadynamics novel statistical mechanics ensemble with desirable properties can be defined and sampled. Finally the combination of metadynamics and machine learning algorithms provides a very useful representation of very complex free energy surfaces. R. Car: Ringrazio la Società Italiana di Fisica per avermi conferito il premio Fermi e desidero sottolineare che la mia carriera professionale deve molto all’ottima formazione in fisica ricevuta in Italia. L’invenzione della dinamica molecolare ab initio, per cui sono stato premiato insieme a Michele Parrinello, è avvenuta presso la Scuola Superiore di Studi Avanzati e il Dipartimento di Fisica Teorica dell’Università di Trieste. Il lavoro di Car e Parrinello, intitolato “Unified Approach for Molecular Dynamics and Density-Functional Theory”, pubblicato nel 1985 nelle Physical Review Letters, è prossimo a superare la soglia delle 6000 citazioni. Nella dinamica molecolare ab initio le forze agenti sugli atomi non derivano da potenziali empirici, come di norma nelle simulazioni di dinamica molecolare, ma sono ricavate dallo stato fondamentale degli elettroni secondo l’approssimazione di Born e Oppenheimer. La motivazione mia e di Parrinello nell’introdurre la dinamica molecolare ab initio era di predire le proprietà dei materiali a partire dalle leggi della meccanica quantistica, un obbiettivo che si erano già posti gli iniziatori di questa disciplina. Nel 1929, al termine del decennio che stabilì le fondazioni della meccanica quantistica, Dirac dichiarava che le leggi necessarie per la trattazione matematica di gran parte della fisica e dell’intera chimica erano note, ma la difficoltà risiedeva nel fatto che le equazioni erano troppo complesse per poter essere risolte nel caso di sistemi di molte particelle. L’anno successivo Dirac ritornò sull’argomento perfezionando il modello atomico di Thomas e Fermi includendovi gli effetti di scambio tra gli elettroni. Nell’introduzione di questo lavoro, Dirac osserva che nel caso di atomi con molti elettroni è necessario usare delle approssimazioni dato che la soluzione dell’equazione d’onda di Schrödinger in uno spazio a molte dimensioni è di gran lunga troppo complicata. All’epoca, la migliore approssimazione disponibile, il metodo del campo autoconsistente di Hartree o di HartreeFock, era ugualmente troppo complicata. Dirac si concentrò quindi sul più semplice modello di Thomas e Fermi. Con l’avvento dei computers è divenuto possibile risolvere le equazioni del campo autoconsistente non solo per atomi isolati ma anche per aggregati atomici come le molecole e i materiali, sistemi per i quali la soluzione esatta dell’equazione d’onda ha un costo proibitivo, esponenziale nel numero di elettroni. La teoria del funzionale di densità di Kohn, Hohenberg e Sham, apparsa nel 1965, segna un progresso importante in questo campo. Il lavoro che è valso a Kohn il premio Nobel per la chimica nel 1997, rende esatto il metodo di Hartree, dimostrando che lo stato fondamentale di un sistema a molti elettroni può ottenersi formalmente da equazioni simili a quelle di Hartree il cui costo computazionale cresce solo algebricamente col numero degli elettroni. In pratica tuttavia, il contributo al potenziale autoconsistente dovuto agli effetti di scambio e correlazione va approssimato con approcci simili a quelli usati nel modello di Thomas, Fermi e Dirac. I primi calcoli per modelli realistici di materiali usando questa teoria sono apparsi sul finire degli anni ’70 ad opera di Cohen e collaboratori all’Università di Berkeley. Tali calcoli, limitati a strutture statiche, hanno mostrato che la struttura cristallina di un materiale si può predire a partire dalle leggi della meccanica quantistica senza fare ricorso a parametri empirici, un risultato all’epoca tutt’altro che scontato. Con Parrinello abbiamo esteso la teoria del funzionale di densità a situazioni dinamiche introducendo una Lagrangiana che dipende sia dalle coordinate e dalle velocità dei nuclei che dalle funzioni d’onda di Kohn e Sham e dalle loro derivate temporali. Le funzioni d’onda di Kohn e Sham sono i parametri d’ordine elettronici della teoria. Le equazioni del moto corrispondenti si integrano numericamente dando accesso alle traiettorie classiche dei nuclei generate dalle forze prodotte dagli elettroni nello stato fondamentale. Dalle traiettorie si calcolano le proprietà statistiche di equilibrio classiche di un aggregato atomico seguendo l’approccio della dinamica molecolare iniziato da Fermi, Pasta e Ulam, e successivamente sviluppato da Alder, Rahman ed altri. Il metodo della dinamica molecolare ab initio può essere esteso al calcolo delle proprietà di equilibrio quantistiche utilizzando gli integrali di cammino di Feynman. La dinamica molecolare ab initio è diventata nel corso degli anni uno strumento importante per simulare il comportamento microscopico della materia ed è utilizzata da numerosi gruppi di ricerca in fisica, chimica, scienza dei materiali e biofisica. A scopo di illustrazione, menzionerò brevemente alcuni risultati ottenuti con simulazioni di dinamica molecolare ab initio: il diagramma di fase del carbone a pressioni e temperature estreme, i processi atomistici che portano alla produzione catalitica di idrogeno molecolare in prossimità di una superficie funzionalizzata in contatto con acqua acida, e infine la funzione di correlazione di coppia ossigeno-ossigeno e la distribuzione dei momenti della quantità di moto dei protoni nell’acqua. Nel caso del diagramma di fase del carbone il comportamento rientrante della curva di equilibrio diamante-liquido predetto dalle simulazioni è stato successivamente confermato dagli esperimenti. Nel caso dell’acqua le simulazioni, in ottimo accordo con gli esperimenti, indicano che la struttura di questo liquido dalle proprietà insolite è dovuta alla competizione di diversi effetti: i legami idrogeno, le forze di van der Waals, e gli effetti quantistici di punto zero associati ai protoni. Per finire, ricordo quella che secondo me è stata l’innovazione concettuale più importante del mio lavoro con Parrinello: il fatto che un complesso problema di ottimizzazione, come è in generale un problema di meccanica statistica all’equilibrio, si può risolvere simulando numericamente l’evoluzione temporale di un opportuno sistema a molti corpi. Questa comprensione è stata di ispirazione in molte ricerche successive al lavoro che ha introdotto la dinamica molecolare ab initio più ancora del successo di tale metodologia nelle singole applicazioni. L. Cifarelli: Ringrazio di cuore i nostri illustri premiati. Sono grata a tutti voi per la vostra presenza, agli organizzatori locali per il loro fondamentale impegno e ai numerosi sponsor per il loro contributo al successo di questo evento. Dichiaro quindi ufficialmente aperti i lavori del 98° Congresso della Società Italiana di Fisica. vol28 / no5-6 / anno2012 > 45 il nostro mondo THE EUROPEAN PROJECT “IMMERSION IN THE SCIENCE WORLDS THROUGH THE ARTS” Franco Rustichelli1*, Mario Stefanon2** 1 Sezione Scienze Fisiche, Dipartimento Di.S.C.O., Università Politecnica delle Marche, Ancona, Italy 2 ENEA, Bologna, Italy The aim of the project “Immersion in the Science Worlds through the Arts” (ISWA) is to make people emotionally involved in scientific subjects by establishing a connection between Science and the Arts. The main target is the students in the last three years of high school, in order to give them a more correct idea of what science is and help them in their choice of future university studies. The project involves 16 partners form 15 European countries (see box) and has a duration of 24 months expiring on February 28, 2013. The original idea of the ISWA project comes from the consideration that, nowadays, in our society, science is generally presented to young people without paying enough attention to the fact that science always originates from a creative and emotional process. This lack of a realistic description of how a scientific discovery or observation is intimately related to a creative process, is partially to blame for the reduced interest in science shown by young people, as evidenced by recent trends in their educational and career paths. At the same times adults not commonly involved in science-related activities are not familiar with and sometimes reluctant to understand scientific concepts. A deeper knowledge of the true meaning of science can make an effective difference in the way people make life choices. Unfortunately science is increasingly confused, especially by children and teen-agers, with the use of high technology devices such as play-stations and mobile phones, which are considered as a sort of natural products to be found in supermarkets like vegetables and apples. This misleading perception can persist into adulthood and can reduce the interest in science even in those very gifted children, who represent the hope for the future of our society. At the same time adults become reluctant to understand the role of science, which is relegated mostly into niche programmes by our modern means of communications, and people often look suspiciously at the work of * Project coordinator * Retired 46 < il nuovo saggiatore scientists. Science popularization, TV programs which seriously inform a wide audience tend to fail in attracting people who are not interested in science in the first place, but provide information only to those who have already shown a particular interest in scientific issues. A still more deviating phenomenon is when science is mixed with magic and paranormal suggestions by our media, transmitting misleading information. Furthermore, children’s videos and youth literature are now producing series of little guys and monsters with magic powers, and this kind of story is going to replace the old science fiction novels which were very popular until a few decades ago and at least transmitted the positive message that the intelligence of man could succeed in saving the planet. There is a clear and growing realization of the importance of bridging the gap between science and society. Involving the arts in order to assist young people in understanding the creative processes underlying scientific discovery and technological innovation seems to be an appropriate tool to stimulate that kind of emotional interest which is the principal driving force in the learning process. It is in fact through everyday experience of parents and teachers that children are able to understand what they “like” to learn more easily than what they “must” learn, and that emotional involvement can release incredible capacities in our children. This target can be easily achieved in the particular case of music, this art, in fact, seems to be the most independent of previous knowledge, being able to stimulate, in musically gifted subjects, sensitive emotions and intense feelings, even in one year old babies, suggesting a real comprehension of the musical message by the age of two. In the case of science, the task is much more difficult: discovering talents and driving young people to feel the beauty of understanding the mysteries of nature requires a much longer, unclear pattern of education. In ancient times, when arts, culture and schools were accessible to a minority, every master was highly interested in having very talented pupils, hence sometimes happened that he would decide to take care directly of the education of an exceptionally gifted child. Individual education is nowadays possible only in the case of university-graduated students, with the exception of music, where the relationship between the teacher and a gifted pupil remains similar to that of the ancient times. The standard school finds it very difficult to discover talents and to encourage future scientists. There is however a growing consciousness of the fundamental importance of scientific education in the earlier learning stages, leading to a number of good initiatives. There are many nice books for children which explain scientific arguments or help to set up simple physics experiments and there are well-organized science museums to be visited by school classes. There are institutions and science-actor groups working to popularize a kind of “easy-science”, where simple scientific observations are made attractive by means of spectacular, amusing effects. This kind of initiatives can surely help to make the study of science less boring for a large number of Participant no. Participant organisation name Country 1 (Coordinator) UNIVPM - Università Politecnica delle Marche Italy 2 ESRF European Synchrotron Radiation Facility France 3 SIMPLE Simpleware Company United Kingdom 4 HCGS HCGS, Siauliai University Lithuania 5 IOB Institute of Oral Biology, Zurich, Switzerland Switzerland 6 RSAS Institute of Materials Research, Slovak Academy of Sciences, (IMR Slovakia SAS), Košice, Slovak Republic 7 TESLA Tesla Union, Pardubice, Czech Republic Czech Republic 8 TUW Institute for Mechanics of Materials and Structures, Wien, Austria Austria 9 UMINHO University of Minho (UMINHO), Portugal 10 UNINA University of Napoli “Federico II” Italy 11 UPP Uppsala University, Uppsala Sweden 12 IPPT Institut Podstawowych Problemow Techniki Poland 13 DOCK The Dance Studio DOCK11, Berlin, Germany Germany 14 ARSTIC Audiovisual Solutions provide innovative solutions Spain 15 CBRAS Centre for Bioengineering RAS Russian Federation 16 IOAN University of Ioannina Greece List of the partners. students, but it seems that they are unable to really face the problem of stimulating the development of new scientists. Playing with some simple physical laws cannot compete alone with the charming mysteries of a magician as offered by the literature and media to children and teen-agers, exactly at that time when enthusiasm and dreams for the future should appear. Interviewing gifted young people, one realizes that what they like to know is the answer to very deep and often unanswerable questions, such as the origin of life and of the universe, the nature of black holes, the possibility of extra-galactic or time travels and so on. The mystery attracts gifted children, especially those having the talent to become future scientists, and we must be able to tell them that the fascination of science is exactly to face a mystery, solving at least small pieces of it, by means of intelligence and a devoted, passionate work. Making physics easy (if it were possible!) is not enough. But we believe that European initiatives like the ISWA project can lead to a further step in attracting young people to the fascination of science. There are indeed stronger links between the arts and science than those that are generally perceived by the public and by scientists and artists too, because science and the arts are nowadays generally developed in separated environments. There are, in fact, only very few cases in which an artist has any knowledge or experience in science or that a scientist is active in artistic fields. This sort of division between the “scientific” and the “artistic” part of an individual is very strange if we remember the figure of the artist-scientist of the past times and in particular of the Renaissance (for instance Leonardo da Vinci). One of the principal reasons why many people, in particular students, cannot realize the emotional features that science shares with the arts is the false impression that in science there is little room for going beyond boundaries and rules, while arts, on the contrary, do not have any kind of limit. Just looking at the history, including modern and present times, it immediately appears that this assumption is wrong: boundaries and rules play a fundamental role in order to allow us to base future progress on previous experience, and exist in both science and art. This misunderstanding, widely spread even in scientific environments, is mainly due to the different languages we employ to communicate science and the arts. The rhythm and harmony of a violin playing Bach, Paganini or Shostakovich give an immediate impression of immense freedom, completely ignoring the incredibly long work necessary to prepare the performance and the complicated, strict rules which were employed to compose the pieces. On the other hand, the language employed in the communication of Physics, consisting of words and formulae, will mostly show an enormous intellectual effort which completely obscures the fascination of discovering and understanding. The aim of the ISWA project is to awake and stimulate the interest of young people (in particular European secondary-school students) in approaching science by making use of both parts of the brain: the rational one and the emotional one by discovering that the creative process is a common feature of both science and art. In order to achieve this purpose we have preferred cinema and ballet to theatre in spite of many excellent existing theatrical pieces concerning sciencerelated stories. Music and visual expressions dominate in fact both in cinema and dance, while theatre is based mostly on words and can then transfer emotions in an indirect way (i.e. only through the rational part of us). Moreover, theatre (in this context) is usually related to the biography of scientists and reports on discoveries, whereas dance can express movements, vibration and librations like those of atoms and molecules, transmitting emotions directly, which can be related to the fascinating phenomena occurring in the world of the infinitely small which is normally hidden by formulae and specialist language, as mentioned before. In addition cinema if it has the ambition of producing pieces of artistic value (as it is foreseen in the present project), besides satisfying science popularization goals, can exploit a much greater freedom as compared to theatre, choosing creative means and techniques. and is much more dynamic than theatre. The project also proposes a kind of fantasy-literature based on science-like suggestions like the famous Cosmicomics of Italo Calvino. We think, in fact, that the process of reading this kind of story, written in a sort of poetical way, i.e. using metaphors and puzzling images, can bring us into a nearly visible imaginary world, full of emotions, easily filtering (as if it were a poem) through the barrier of rational language. Finally, visual contemporary arts and photography were vol28 / no5-6 / anno2012 > 47 il nostro mondo also considered when inspired by scientific subjects. Summarizing: all the following artistic disciplines were considered to produce science-inspired works: 1) 2) 3) 4) 5) Modern dance, Cinema, Contemporary Art, Imaging, Literature. The artworks produced are exploited in two ways: 1) by presenting them at live events and showcasing them in appropriate venues addressing both the targeted audience of high-school students (in the 15-19 years age range) and the general public, 2) by organizing a competition among EU high-school students for each of the 5 considered disciplines. In the case of “modern dance” and “cinema”, professional artists realized artworks based on relevant scientific issues, conceived at the same time by artists and scientists, who monitored the artistic level of the final result and its capacity to highlight the creative and emotional aspects involved in the chosen scientific or technological subjects. In discipline 3, the Project organized exhibitions of contemporary art able to transmit a science-related message to the public. Distribution of illustrative brochures jointly with the active presence of art and science experts, and furthermore short “coffee-break conferences” helped the public to share the emotional content of a natural science phenomenon that appears to subtend artistic expression. The physical presence of scientists in this kind of events provides an added value: while professional science communicators know very well how to divulge knowledge, only scientists actually involved in research can communicate a real passion for science. In discipline 4, a wide database of videos describing the European Synchrotron Radiation Facility in Grenoble and the research that is developed there, was made available for European secondary-school students using many different media and communication strategies. Videos were distributed to students, who worked with this material by selecting some interesting photograms which were then manipulated, superimposed, assembled, partially painted in order to produce “artworks” to be submitted to the European competition. In discipline 5, well-known literary works bearing relationship to science (such as, for instance, Italo Calvino’s “Cosmicomics”) were considered as examples to inspire EU students to produce their own science-related stories. The artworks related to the disciplines 1-4 produced by professional artists and scientists were then performed, shot and disseminated among the European high schools, which participate in our initiative. Students were invited to choose one of the artistic disciplines and conceive and realize an artwork taking as an example the works realized by the project consortium. For each discipline (dance, cinema, etc.) a commission of experts chooses the seven best works realized by the students. Videos of these artworks will be presented in a final event in Grenoble, near the European Synchrotron Radiation Facility, where the Fig. 1 From the choreography “On the way to Immortality “ by Jadi Carboni and Franco Rustichelli (ISWA Project). 48 < il nuovo saggiatore coordinator will announce the winners of each discipline. A project website was realized to facilitate the transfer of artistic and scientific materials between the project management and the schools as well as to promote the project’s activities. Summing up, the project is assumed to evolve in four phases: 1) Preparation of the artworks related to the disciplines 1-4 by professional scientists and artists . 2) Live performances and artwork exhibitions in the different partners cities and simultaneous live dissemination in the local schools by the coordinator and a local scientist of the project and call for student competition. 3) Preparation of the artwork by the students participating in the 5 competitions . 4) Evaluation by the 5 committees of the artwork produced by the students. At present we are in phase 4. A leading idea of ISWA was to give a target of high educational quality in each phase of the project. The ambitious objective was that learning, teaching and artistic aspects would induce all involved actors (artists, scientists, students and teachers) to confront the following two points. i) A creative fusion of art and science can help to understand science and cultivate more general intellectual abilities. The role of art in ISWA is not only to spread scientific culture. Art is seen as an active element influencing scientists and their research directions and as a powerful Fig. 2 Vanessa Gravina and Franco Rustichelli in the movie “Let’s save the Professor”, directed by Italo Moscati. f. rustichelli, m. stefanon: The european project… List of events delivered until now Modern dance (see fig. 1) 1) “On the way to Immortality” Premier Berlin DOCK 11 3-4/6/2011 Paris Theatre Adyar 15/6/2011 Moscow Artovy Zal 21/6/2011 Rome Teatro Ruskaja 11/7/2011 Ancona Mole Vanvitelliana 14/7/2011 Prague New Stage of National Theatre 23/11/2011, 12/12/2011 Vienna TU Vienna Cupola Hall 12/06/2012 2) “Night in NanoPOLIS show” Cinema The 7 movies “Let’s save the Professor” were presented for the first time in Ancona, Italy, in the main hall of the Engineering Faculty in the presence of the authors, on January 24th, 2012. Figure 2 presents the poster of the event. Schools, students, professors, Ancona citizen were invited. Around 350 persons were present. Short movies projections were organized in the following European cities: Šiauliai and Kaunas (SU), Wien (TUW), Kosice (IMRSAS), Moscow (CBRAS), Uppsala (UU), Zurich (UZH), Ioannina (IOAN), Porto (UMINHO), Paris (SIMPLE), Warsaw (IPPT), Malta (MT), Prague (CZ). Contemporary arts “After the Crash” exhibition Rome, Museo Orto Botanico 11-18/06/2011 “Before the Crash” exhibition Exeter Castle 15-20/10/2011 “ART & SCIENCE “ exhibition Zaragoza, University of Zaragoza 18/10/2011 to 17/11/20122 Contemporary art exhibition “NanoPOLIS” New Stage of the National Theatre, Prague 1/11/2011 to 4/1/2012 NanoScope Redux Pardubice 26/05/2012 - September 2012 UTESLA Festival Spring 2011 Pardubice 26/5/2011 UTESLA Festival Fall 2012 Pardubice 13/10/2011 Imaging Four young artist spent 1 week at ESRF in July 2011. opportunity for learners and teachers to involve all rational and emotional processes to improve the understanding of scientific concepts. “The arts are not just affective and expressive. They are also deeply cognitive. They develop the tools of thinking itself: careful observation of the world, mental representation of what is observed or imagined, abstraction from complexity, pattern recognition and development, symbolic and metaphoric representation, and qualitative judgment. We use these same thinking tools in science, philosophy, math and history. The advantage of the arts is that they link cognitive growth to social and emotional development. Students care more deeply about what they study, they see the links between subjects and their lives, their thinking capacities grow, they work more diligently, and they learn from each other” [1]. ii) An education based on the relationship between art and science can foster complex understanding of scientific concepts. Students and teachers that work together to put on a play or a dance piece will also learn how to cooperate, sharing ideas, feelings and enthusiasm as never happens in a normal lesson. The cooperation involved in scientific-artistic work can become a model of interactivity and productive exchanges that can lead to a fruitful way of communication in the classroom. Reference [1] Nick Rabkin (Executive Director of the Centre for Arts Policy, Columbia College Chicago) and Robin Redmond (Associate director), The Art of Education Success, Washington Post, January 8, 2005, p. A19. vol28 / no5-6 / anno2012 > 49 il nostro mondo Eugenio Coccia Gran Sasso Science Institute Centro di Studi Avanzati dell’INFN, L’Aquila Rendere L’Aquila una delle capitali europee degli studi universitari e della ricerca. È l’obiettivo con cui la Scuola di dottorato internazionale Gran Sasso Science Institute (GSSI) è stata istituita dal Governo nello scorso mese di aprile. Fisica, Matematica, Informatica, Gestione dell’Innovazione e dello Sviluppo Territoriale saranno le materie oggetto di insegnamento superiore e di ricerca. Il soggetto attivatore della Scuola è l’INFN, in collaborazione con prestigiosi istituti di istruzione post-universitaria italiani quali la SISSA, la Scuola Sant’Anna di Pisa e l’IMT di Lucca. Importanti sinergie con l’Università dell’Aquila e con il mondo produttivo andranno ad arricchire l’attrattiva culturale della futura città e del suo territorio. Il GSSI inizierà le sue attività a ottobre 2013, finanziato con fondi straordinari per un periodo iniziale di 3 anni (fondi per la ricostruzione e il rilancio dell’economia aquilana e fondi regionali per lo sviluppo e la coesione). Il finanziamento successivo è subordinato all’esito di una valutazione da parte dell’ANVUR. A valle di una valutazione positiva, il GSSI potrebbe assumere carattere di stabilità. Tra pochi mesi verrà ufficializzata la sede, nel centro storico dell’Aquila, e sarà online il sito web con tutte le informazioni riguardanti i docenti, i corsi e le procedure di iscrizione per gli studenti. 1 Storia Il 3 luglio e il 10 settembre 2009 il Ministero dell’Economia e delle Finanze (MEF), in collaborazione con l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), organizzò due riunioni per discutere le politiche e le scelte strategiche necessarie a rilanciare, dopo il terremoto del 6 aprile 2009, l’economia della città dell’Aquila. Agli incontri parteciparono soggetti istituzionali, imprese, rappresentanti del mondo produttivo, accademico e della società civile. Vedi il Report OECD: Spreading the Eagle’s Wings so It May Fly: Relaunching the Economy of L’Aquila Region, GOV/TDPC/RD(2009)8 http://www. oecd.org/dataoecd/0/36/43307733.pdf Oltre alla necessità di garantire la ricostruzione materiale della città colpita dal sisma, l’evento catastrofico poneva e pone importanti sfide inerenti il rilancio economico dell’area aquilana. Per rilanciare l’economia rinforzandone lo sviluppo futuro furono proposti diversi progetti, che l’OCSE ha provveduto a scrutinare e ordinare per importanza. Il primo, denominato “The Nest of the Eagle’s Future”, è stato il GSSI. Collocato a L’Aquila e beneficiando della presenza nel territorio dei Laboratori Nazionali del Gran Sasso dell’Istituto Nazionale di Fisica Nucleare (INFN) e dell’Università dell’Aquila, il GSSI è stato inizialmente proposto come centro di insegnamento post-universitario e di ricerca a livello internazionale nelle scienze di base e poi esteso anche alle scienze sociali. I modelli ispiratori sono stati la SISSA di Trieste e la Scuola Normale Superiore di Pisa. Nello spirito della proposta, la missione del GSSI è duplice: da un lato rilanciare L’Aquila come città universitaria e come centro di eccellenza scientifica, capace di attrarre gli studenti migliori da tutto il mondo, dall’altro creare un ponte tra ricerca accademica e industria. 50 < il nuovo saggiatore Un argomento decisivo ai fini della positiva valutazione di questo progetto da parte dell’OCSE è stata la presenza nell’area aquilana di un centro di ricerca di riconosciuta eccellenza, quale i Laboratori Nazionali del Gran Sasso. è stato riconosciuto che la spiccata vocazione internazionale di questi laboratori e, più in generale, l’esperienza dell’INFN nel trasferimento delle competenze sviluppate nell’ambito della proprio attività, rappresentino una risorsa in grado di sviluppare l’intermediazione tra ricerca e impresa con dirette ricadute sull’imprenditorialità Abruzzese. Naturalmente verranno coinvolte varie realtà scientifiche di eccellenza dell’Università dell’Aquila. Un Comitato Ordinatore, istituito dal Ministro dell’istruzione, università e ricerca (http://www.istruzione.it/web/ministero/ cs090512), ha elaborato il piano strategico delle attività e l’INFN, recependo le indicazioni della legge, ha creato nel suo statuto una nuova tipologia di centro nazionale, il Centro Nazionale di Studi Avanzati, pensato per dare vita alle attività di una scuola di dottorato internazionale come il Gran Sasso Science Institute. 2 Le attività Gli strumenti attraverso i quali il GSSI potrà realizzare la sua missione sono: a. Corsi di dottorato triennali secondo la vigente normativa italiana, rivolti a studenti selezionati in possesso di Laurea specialistica. b. Corsi integrativi rivolti a studenti selezionati iscritti ai corsi di Laurea Specialistica della Facoltà di Scienze dell’Università dell’Aquila. c. Sviluppo di progetti di ricerca coinvolgenti docenti, ricercatori e studenti del GSSI e manager del settore produttivo. L’attività del GSSI sarà concentrata nelle seguenti tre aree: 1. Fisica 2. Matematica e Informatica 3. Gestione dell’Innovazione e dello sviluppo territoriale Ogni area ospiterà un organico di docenti e giovani ricercatori a tempo determinato in parte reclutati tramite bandi internazionali e assunti con contratti a tempo determinato, in parte provenienti da università e istituti di ricerca italiani, secondo quanto previsto dalle disposizioni vigenti. Le aree gestiranno l’attività didattica post laurea (corsi di dottorato) di giovani laureati selezionati da tutto il mondo. La lingua ufficiale dell’istituto sarà l’inglese. Ogni area, oltre all’attività didattica, potrà sviluppare proprie originali attività di ricerca in collaborazione con l’industria e il settore produttivo in genere. Come in molte scuole di dottorato, si prevede di avere dei corsi per gli studenti di dottorato al primo anno e di lasciare che gli alti due anni siano completamente dedicati al lavoro di ricerca. L’attività didattica del GSSI sarà basata non soltanto sugli strumenti tradizionali quali lezioni, seminari, ecc., ma anche sul modello dell’on-the-job-training, che prevede di instaurare collaborazioni, su specifiche attività, tra studenti e ricercatori da un lato, e manager e staff di aziende pubbliche e private dall’altro. Circa 35-40 nuovi studenti di dottorato potranno iscriversi ogni anno, con un centinaio di studenti totali a regime sui tre anni. Gli studenti di dottorato saranno inquadrati secondo l’attuale normativa italiana, riceveranno una borsa di studio di dottorato ed avranno accesso gratuito alle infrastrutture di housing dell’Istituto. Al termine del percorso di studi triennale il GSSI rilascerà il titolo di Dottore di Ricerca secondo la vigente normativa italiana, tramite gli istituti di istruzione superiore coinvolti dall’INFN. Oltre agli studenti di dottorato, il GSSI potrebbe ospitare anche un selezionato numero di studenti della Laurea Specialistica dell’Università dell’Aquila, organizzando attività didattiche integrative ai programmi dei locali corsi universitari. Le attività di ogni area punteranno a raggiungere livelli di qualità confrontabili con quelli delle maggiori scuole dottorali internazionali. Le attività di ricerca terranno conto delle strutture specialistiche già esistenti nel territorio. I progetti dovranno esaltare l’attrattività del territorio per risorse esterne, sviluppando in particolare quei progetti e quelle attività che vedono a L’Aquila e nel suo territorio possibilità uniche di sviluppo. Tra le istituzioni da coinvolgere nell’attività del GSSI, con cui attuare delle convenzioni per il rilascio congiunto del titolo di PhD, ci sono gli istituti di alta formazione scientifica a livello dottorale, di carattere internazionale, situati in Italia: la SISSA di Trieste, la Scuola Normale Superiore di Pisa, la Scuola Sant’Anna di Pisa, l’IMT di Lucca. In particolare sono in corso di formulazione accordi con la SISSA per il rilascio dei titoli di PhD in Fisica e in Matematica, con l’IMT di Lucca per l’Informatica e con la Scuola Sant’Anna di Pisa per il Gestione dell’Innovazione e dello sviluppo territoriale. Il coinvolgimento di altre prestigiose istituzione straniere è un importante obiettivo del GSSI per instaurare collaborazioni su specifiche attività didattiche e di ricerca. 3 L’ area fisica L’attività del GSSI nell’area fisica non potrà prescindere dall’opportunità unica offerta dalla prossimità dei Laboratori del Gran Sasso dell’INFN, la più grande infrastruttura sotterranea del mondo dedicata alla ricerca scientifica. Il laboratorio è andato rafforzando negli anni il ruolo di centro di eccellenza per la fisica delle particelle di origine cosmica, o fisica astroparticellare, e costituisce un attrattore a livello internazionale per un migliaio di ricercatori provenienti da 26 paesi diversi. La sua attività comprende linee di ricerca quali lo studio dei neutrini (natura, massa, oscillazioni) utilizzando sorgenti naturali, quali il Sole e la Terra, e neutrini generati da acceleratori di particelle o da decadimenti rari della materia; la rivelazione diretta di materia oscura; l’astrofisica nucleare; lo studio della radioattività naturale, sia di origine cosmica che di origine terrestre. La fisica astroparticellare costituisce un settore in grande espansione, al confine tra la fisica delle particelle elementari, l’astrofisica e la cosmologia. Oltre che nei laboratori sotterranei, queste ricerche sono condotte in altre infrastrutture internazionali, alcune delle quali situate in Italia. oppure vengono svolte tramite missioni spaziali che vedono il nostro Paese protagonista sia a livello scientifico che a livello tecnologico. Fanno parte del primo caso la ricerca delle onde gravitazionali, svolta all’European Gravitational Observatory presso Pisa, e la ricerca di neutrini cosmici di alta energia, presso l’osservatorio sottomarino in corso di sviluppo in Sicilia. Nel caso dello spazio, vanno citate in particolare le ricerche di antimateria nell’Universo e lo studio della radiazione di alta energia da sorgenti astrofisiche violente. Le attività sperimentali qui menzionate devono la loro eccellenza anche allo sviluppo di strumentazione innovativa e all’impiego di materiali e dispositivi speciali. Esse si svolgono in ambienti estremi (dalle profondità marine e terrestri allo spazio) e sono caratterizzate da un alto grado di interdisciplinarietà e da importanti relazioni con aziende ad alto contenuto tecnologico. Tutto ciò permette di prefigurare nel GSSI, oltre ad un curriculum astroparticellare, anche un percorso formativo di fisica applicata, in sinergia con le competenze accademiche e professionali esistenti nel territorio. Inoltre le opportunità offerte dalla collocazione sotterranea dei laboratori del Gran Sasso e le competenze riguardo allo studio della radioattività ambientale e alle tecnologie spaziali aprono la strada a naturali sinergie anche con la fisica ambientale, la geofisica e la climatologia. Il GSSI può diventare un riferimento internazionale per la formazione dei giovani ricercatori in questi diversi campi della fisica. 4 Le altre Aree La seconda area si occuperà di Matematica e Informatica, giocando per molti versi un ruolo centrale in questo nuovo Istituto. Il collegamento con l’area fisica ha una tradizione consolidata e rinnovata oggi dai nuovi metodi computazionali e domini applicativi. Negli ultimi decenni gli sviluppi dell’ingegneria nei settori delle telecomunicazioni, dei nuovi materiali, della progettazione strutturale, della meccanica, dell’analisi e del controllo dei processi, hanno stimolato lo studio di importantissime questioni matematiche. D’altro canto il futuro pone enormi sfide per la progettazione, la gestione e l’utilizzo dei sistemi informatici. Le visioni di Internet of things, dei cyber physical systems, dei systems of systems sono tutte declinazioni dello stesso paradigma fisico-virtuale, il cui sviluppo richiede conoscenze specialistiche multidisciplinari che si fondino su una solida conoscenza degli strumenti di modellizzazione ed analisi forniti dalle materie di base matematiche e fisiche. Un filo che lega tutte le aree è lo studio della complessità. Questo filo collega in particolare l’area della Matematica e della Computer Science alla terza area della Gestione dell’Innovazione e dello Sviluppo Territoriale, in altri termini alle Scienze Sociali. La conoscenza scientifica generata da attività di ricerca da un lato, l’insieme complesso dei bisogni emergenti e delle sfide sociali che caratterizzano il territorio dall’altro, sono i punti di partenza per l’attività di studio e ricerca della terza area. In particolare, un dato emerge dagli studi recenti: la scala metropolitana è il luogo di innovazione del futuro. Al centro della sfida vi è la costruzione di un nuovo genere di bene comune, una grande infrastruttura tecnologica ed immateriale che faccia dialogare persone ed oggetti, integrando informazioni e generando intelligenza, producendo inclusione e migliorando il vivere quotidiano. Le grandi sfide sociali ed i grandi living labs ad esse connessi rappresentano grandi opportunità di rilancio e di crescita per alcuni importanti settori dell’industria nazionale e del sistema della ricerca. Alcuni progetti che il GSSI potrebbe sviluppare in un contesto interdisciplinare, e che corrispondono a riconosciute priorità strategiche nel nostro Paese e in Europa, sono: Smart Cities and Communities. L’Aquila sarà nei prossimi anni al centro di ristrutturazioni e nuove realizzazioni infrastrutturali che richiederanno progetti di architettura, urbanistica, ICT, inclusione sociale, etc., costituendo una sorta di laboratorio a cielo aperto per soluzioni innovative. Il GSSI può diventare un attrattore decisivo di competenze e risorse a livello internazionale. Cultural Heritage. L’Aquila è considerata una delle più importanti città d’arte d’Italia. Tecnologie innovative per l’analisi, il monitoraggio e la conservazione dei beni culturali, provenienti in particolare dalla fisica, sono state recentemente sviluppate. Il GSSI può costituire quell’alveo interdisciplinare per fare dell’Aquila una dei centri mondiali di formazione e ricerca su questa tematica. Risk Assesment and Disaster Recovery. L’Aquila deve rilanciare la propria economia dopo un evento catastrofico e ricostruire un centro storico in sicurezza rispetto a futuri eventi. L’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) ha individuato da tempo il Disaster Recovery come un importante tema di ricerca di impatto globale. Inoltre, l’OCSE ha giocato nel territorio aquilano un ruolo importante nella selezione di progetti per il rilancio dell’economia da raccomandare alle autorità locali e nazionali (il GSSI ne è un esempio). Il GSSI potrebbe proporsi, in stretta collaborazione con l’OCSE, come centro di studi internazionale su questo tema. vol28 / no5-6 / anno2012 > 51 Il nostro mondo LA FISICA DEGLI ACCELERATORI IN ITALIA Luigi Palumbo Università di Roma “La Sapienza” e INFN, Sezione di Roma 1, Roma, Italia “Misura ciò che è misurabile e rendi misurabile ciò che non lo è” G. Galilei* “Nothing tends so much to the advancement of knowledge as the application of a new instrument “ Sir Humphrey Davy** Gli acceleratori di particelle sono senza dubbio gli strumenti che maggiormente hanno contribuito all’avanzamento della conoscenza nel XX secolo. Partendo dai primi tubi a raggi catodici nel 1890, essi hanno visto una straordinaria evoluzione come strumentazione scientifica. Dal primo ciclotrone costruito a Berkeley nel 1930 da Ernest Lawrence dalle dimensioni di alcuni centimetri di diametro all’acceleratore di particelle più potente di oggi, il Large Hadron Collider (LHC) del CERN lungo 27 chilometri, sono state costruite macchine sempre più potenti, precise e innovative in grado di far progredire il sapere scientifico. Oggi, oltre al loro ruolo nella ricerca scientifica, fasci di particelle sono utilizzati in settori che vanno dalla diagnosi e cura delle malattie ai processi industriali, e nel futuro opportunità ancora maggiori saranno possibili nella cura del cancro, nello sviluppo di nuovi materiali, nel campo dell’energia nucleare sicura, nel trattamento dell’aria e dell’acqua [1]. La storia dello sviluppo degli acceleratori vede la comunità scientifica italiana protagonista sin dal 1953, quando l’INFN decise di realizzare a Frascati (nell’allora laboratorio del CNEN) l’Elettro Sincrotrone, un acceleratore circolare di elettroni in grado di raggiungere un’energia massima di 1.1 miliardi di elettronvolt che andò in funzione nel 1959. Due anni dopo, nel 1961, la costruzione dell’Anello di Accumulazione AdA aprì la * Citazione attribuita a Galileo Galilei. ** Sir Humphrey Davy in “Elements of Chemical Philosophy”, 1812. 52 < il nuovo saggiatore strada all’era dei collisori elettrone-positrone. La realizzazione di queste macchine diede il via alla nascita in Italia di una scuola di fisica degli acceleratori che continua a gemmare nuove generazioni pronte ad affrontare le sfide scientifiche e tecnologiche del futuro. 1 La comunità italiana di fisica e tecnologia degli acceleratori La comunità italiana che opera nel settore è composta da circa 220 tra fisici e ingegneri distribuiti tra l’INFN, il Sincrotrone Trieste, il Centro CNAO, l’ENEA e le Università. Si occupa di progettazione, realizzazione, e gestione di macchine acceleratrici per la fisica nucleare, per la fisica della materia, per ricerche biologiche, per la terapia medica, per l’archeometria, nonché per lo sviluppo di tecniche nucleari per l’energia. Circa 130 fisici di macchina operano nell’INFN, prevalentemente presso i Laboratori Nazionali di Frascati (LNF), di Legnaro (LNL) e di Catania (LNS). La realizzazione di AdA ai LNF negli anni ’60 diede impulso alla fisica dei fasci negli anelli di accumulazione che si affermò con i successivi sviluppi di ADONE, negli anni ’70, e di DAFNE alla fine degli anni ’90. A Frascati furono scoperti e studiati gli effetti d’instabilità dei fasci che limitano la corrente accumulata e la luminosità nelle collisioni. Gli studi effettuati su AdA e ADONE hanno contribuito alla realizzazione dei collisori basati su anelli di accumulazione in tutto il mondo. Ai LNF furono realizzate le prime linee di luce di sincrotrone in Italia (su Adone), e in tempi più recenti è stato costruito il primo Free Electron Laser su Linac (SPARC). Oggi ai LNF si sperimentano sorgenti di radiazione basate su effetto Compton e nuove tecniche di accelerazione da interazione Laser Plasma. DAFNE continua a essere una palestra per la sperimentazione di nuove idee come il “crab waist” per incrementare la luminosità dei collisori. Il gruppo di fisici e ingegneri di Frascati collabora attivamente ai progetti internazionali come LHC-upgrade, CLIC, ILC (International Linear Collider), ELI (Extreme Light Infrastructure), EuroFEL ed ha fornito un notevole supporto alla realizzazione del CNAO (Centro Nazionale di Adroterapia Oncologica). A Legnaro le ricerche di fisica nucleare furono avviate nel 1961 quando entrò in funzione il primo acceleratore “Van de Graaff - CN“. Era lo strumento più sofisticato del suo genere disponibile allora in Italia. Nel 1968 i laboratori passarono alla gestione dell’INFN e nel tempo i Laboratori Nazionali di Legnaro si sono affermati come un centro di eccellenza nella fisica nucleare con ben quattro acceleratori: Tandem-XTU, ALPI, AN2000, CN. Fisici e ingegneri hanno sviluppato tecniche innovative nella produzione di strutture acceleranti superconduttive e nella realizzazione dei quadrupoli a radiofrequenza “RFQ”. Essi hanno inoltre contribuito allo sviluppo di Acceleratori Lineari di Protoni ad alta intensità per la trasmutazione delle scorie radioattive (TRASCO) e partecipano attivamente ai progetti europei EURISOLe ENSAR, dedicati alla ricerca in fisica e astrofisica nucleare e alle applicazioni della “nuclear science”. Inoltre i laboratori partecipano al programma internazionale IFMIF-EVEDA, “test facility” per lo studio dei materiali nei reattori a fusione. I Laboratori Nazionali del Sud (LNS), istituiti nel 1976, costituiscono un polo avanzato di sviluppo di tecnologie e strumentazione. Le attività di ricerca sono prevalentemente Fig. 2 Numero di ricercatori di Fisica e Tecnologia degli Acceleratori in Europa. Fig. 1 Localizzazione dei Laboratori Nazionali e delle Sezioni dell’INFN. orientate allo studio della struttura e delle proprietà dei nuclei. Sono dotati di due acceleratori di particelle: un Tandem Van de Graaff e un Ciclotrone Superconduttore realizzato con la collaborazione del Laboratorio LASA di Milano. Ai LNS sono state sviluppate le sorgenti di ioni da plasma tipo ECR utilizzate come iniettori del Ciclotrone. è stato il primo laboratorio italiano a realizzare una linea di terapia medica con fasci di protoni/ ioni dedicata al trattamento del melanoma dell’occhio. I LNS partecipano ai progetti europei ESS (European Spallation Source) e a ELI (Extreme Light Infrastructure) con la linea di ricerca ELI-MED. Gruppi di Fisica e Tecnologia degli acceleratori sono presenti presso il Laboratorio LASA di Milano (dove è stato costruito il primo ciclotrone superconduttore italiano) e presso le Sezioni di Milano, Padova, Genova, Pisa, Ferrara, Roma, Napoli, Bari, Catania. Presso la Sezione INFN di Firenze è stato realizzato il laboratorio LABEC dedicato alle tecniche nucleari per i beni culturali. Forte dell’attività pioneristica e dell’esperienza sviluppata presso i LNF con Adone, in Italia è cresciuta rapidamente una comunità di utenti di luce di sincrotrone che ha stimolato la nascita di un centro dedicato. Il sincrotrone ELETTRA a Trieste è stato realizzato negli anni ’90 diventando un centro di eccellenza nella sperimentazione con i fasci di radiazione di sincrotrone. Sul sincrotrone è stato installato ed è funzionante uno dei primi Laser a Elettroni Liberi su anello di accumulazione (EUFELE) e nel 2011 è andato in funzione FERMI, sorgente FEL di radiazione X generata da fasci di elettroni. Il gruppo di Trieste con circa 50 unità è numericamente la seconda comunità in Italia. Oltre allo sviluppo e alla gestione delle sorgenti di radiazione, ST si coordina con INFN e CNR nella partecipazione a numerosi programmi europei, X-FEL, ESS, ELI, EuroFEL. L’avvio nel 2011 dell’attività clinica del Centro Nazionale di Adroterapia Oncologica (CNAO) rappresenta senza dubbio un successo della comunità scientifica italiana che ha promosso e realizzato a Pavia un importante centro per la cura dei tumori. L’iniziativa ha coagulato gli sforzi di medici e di esperti di macchine acceleratrici i quali hanno progettato costruito e messo in funzione il sincrotrone per protoni, ioni di carbonio, e altri ioni leggeri come il litio. Si concentra oggi a Pavia il maggior numero di esperti (circa 30 tra fisici e ingegneri) di fisica dei fasci adronici dedicati alla cura dei tumori. Una tradizionale e rilevante attività nel campo della fisica degli acceleratori si svolge presso l’ENEA di Frascati dove, a seguito dello scioglimento del CNEN, approdarono alcuni dei fisici degli acceleratori di Frascati. Oggi i ricercatori si occupano principalmente di Laser a Elettroni Liberi (FEL), contribuendo ai progetti EUFELE e FERMI, e SPARC, di sorgenti THz, e di componenti innovativi di acceleratori lineari per applicazioni medicali per il progetto TOP (Terapia Oncologica con Protoni). Vivace per idee e iniziative è l’attività dei gruppi di ricerca presso le Università: Milano, Padova, Bologna, Genova, Pisa, Roma, Napoli, Lecce, Bari, Catania, i quali svolgono un ruolo di primo piano nella ricerca e nella formazione. L’Università di Napoli sin dal 1977 ha allestito il Laboratorio Acceleratore con il primo TANDEM dove si svolgono esperimenti di fisica atomica, nucleare, biofisica, datazione e archeometria, spettrometria di massa ultrasensibile, astrofisica, dosimetria e radioprotezione. L’Università del Salento ha realizzato negli anni 2000 il CEDAD, primo centro italiano per la ricerca e il servizio datazione con il radiocarbonio mediante Spettrometria di Massa con Acceleratore (AMS). Sono in funzione i laboratori TANDETRON, CLAMS e OPTLAB nei quali si sviluppano tecniche nucleari, chimiche e ottiche per applicazioni in Archeometria, Biologia, Ingegneria, Scienze Ambientali, Geologia, Scienza dei Materiali, Fisica. Va inoltre ricordato che nei 165 centri di radioterapia italiani sono installati 346 acceleratori lineari, alcuni dei quali molto sofisticati. Anche nell’industria vi sono numerosi acceleratori soprattutto impiegati nei controlli non distruttivi (radiografia) e nella sterilizzazione di alimenti. In ultimo è crescente il numero di ciclotroni per la produzione di isotopi (una ventina), soprattutto per i centri PET che sono oramai diffusi in tutte le regioni italiane. La comunità, distribuita su tutto il territorio nazionale (fig.1), possiede uno straordinario patrimonio di competenze, è impegnata a sviluppare strumentazione di ricerca avanzata e collabora con ruoli primari alle maggiori iniziative Europee. Un quadro meno soddisfacente emerge da una recente indagine riguardante la diffusione della Fisica degli Acceleratori in Europa [2], in cui risulta che il numero di ricercatori italiani è pari a circa un terzo dei ricercatori in Francia e Germania (con circa 600 unità), due terzi rispetto alla gran Bretagna ed è di poco superiore a paesi con una minore tradizione come la Polonia e la Spagna. La presenza del CERN in Svizzera rende il dato elvetico non confrontabile (fig. 2). vol28 / no5-6 / anno2012 > 53 Fig. 3 Diffusione dell’insegnamento della Fisica degli Acceleratori nelle Università. 2 La formazione universitaria e post-doc Lo sviluppo della teoria e delle simulazioni di “beam physics”, la sperimentazione di nuove tecnologie, sono attività basilari nella formazione di giovani ricercatori presso le università e i centri di ricerca. L’insegnamento della Fisica degli Acceleratori ha visto nel tempo una progressiva diffusione nelle università italiane ma solo in casi rari esso è incluso tra i corsi curriculari. Complessivamente si individuano circa 16 corsi nelle varie sedi universitarie (fig. 3): • 1 corso per la Laurea Triennale in Fisica (Catania); • 9 corsi per le Lauree Magistrali in Fisica e Ingegneria (Catania, Napoli, Roma 3, Pisa, Padova, Milano, Genova); • 1 corso per la Scuola di Specializzazione (Catania) • 5 corsi per i Dottorati in Fisica e Ingegneria (Catania, Roma 2, Pisa, Pavia); Particolare rilievo assume la recente attivazione di un corso di dottorato in “Fisica degli Acceleratori “ a La Sapienza di Roma, con 6 borse finanziate dall’INFN. Vale la pena menzionare che docenti italiani insegnano nelle più prestigiose scuole di acceleratori internazionali: • JUAS - Joint Universities Accelerator School, • CAS (CERN Accelerator School), • Euroschool on Exotic Ion Beams, • Helmoltz HGS-HIRe Lecture Week on Accelerator Physics, • USPAS (US Particle Accelerator School), • JAS (Joint US-CERN-JAPAN-RUSSIAN Accelerator School). 54 < il nuovo saggiatore Il numero complessivo di studenti italiani che annualmente frequenta un corso di Fisica degli Acceleratori nei corsi di laurea, di dottorato e di post-doc, si aggira in media intorno alle 70 unità, insufficienti a soddisfare le esigenze di sviluppo di un paese come l’Italia che ambisce a mantenere un ruolo di avanguardia nel settore e a dotarsi di nuove infrastrutture di ricerca. L’esiguità dell’investimento complessivo nella formazione risulta ancora più evidente se raffrontato con il livello degli altri paesi europei, misurato in unità/milione di abitanti. Una recente indagine [2] rileva per l’Italia un valore di circa 1,5 unità/milione e si riscontra, con non poca sorpresa, che oltre a Francia, Germania, Gran Bretagna e Spagna, vi è una maggior livello di formazione “pro capite” anche in Svezia, Norvegia, Finlandia e Danimarca, paesi che non hanno la tradizione italiana né un ampio parco di infrastrutture di ricerca con acceleratori (fig. 4). 3 Futuro della Fisica degli Acceleratori Le sfide del futuro sono già all’orizzonte, e il lavoro dei ricercatori italiani ha già preso il suo cammino. Per la fisica delle alte energie, in particolare per i collisori, si studiano nuove tecniche per accelerare fasci di particelle in dispositivi a elevatissimo gradiente. In molti laboratori sono in fase di allestimento esperimenti di accelerazione a plasma (“Laser Plasma Wakefields Accelerators”), volti a dimostrare la fattibilità di moduli di accelerazione in cascata, affidabili e in grado di produrre fasci di particelle di elevata qualità (energia, carica, dimensioni trasverse e longitudinali). Nella fisica nucleare sta emergendo la “photonuclear physics” con lo sviluppo di sorgenti “gamma”, e lo studio di collisori fotone-fotone. La ricerca con la luce di sincrotrone si avvia a investigare fenomeni ultraveloci, e richiede sorgenti di radiazione capaci di produrre una radiazione ultrabrillante con durata degli impulsi dell’ordine dei femtosecondi o attosecondi. Nel campo medico la tecnologia della terapia con fasci di particelle protoni/ioni è in rapida evoluzione, e maggiori risultati si attendono nei prossimi anni. Tecniche di generazione di protoni basate su interazione Laser a elevata potenza producono fasci di protoni e ioni con energie di decine di MeV e possono offrire nel prossimo futuro sorgenti compatte per la terapia medica. Sorgenti compatte monocromatiche di raggi x e sorgenti di raggi gamma basate su effetto Compton della luce laser con un fascio di elettroni ad alta qualità consentiranno di realizzare strumentazione di “imaging” ad alta risoluzione. Una sfida fondamentale, infine, riguarda la riduzione della radiotossicità e del tempo di decadimento del combustibile nucleare esaurito. La trasmutazione controllata con acceleratori di particelle in combinazione con lo smaltimento geologico può portare a una soluzione socialmente accettabile al problema della gestione delle scorie. Inoltre, si discute della possibilità di utilizzare fasci di ioni accelerati per il riscaldamento del plasma nei reattori per la fusione nucleare a confinamento magnetico. L. Palumbo: La fisica degli acceleratori in Italia Fig. 4 Futuro della Fisica degli Acceleratori. 4 Prospettive della comunità di “fisica e tecnologia” degli acceleratori In Europa e negli USA le comunità dei Fisici di Acceleratori hanno costituito l’Accelerator Group [3] affiliato alla European Physical Society, e il Beam Physics Group [4] affiliato all’American Physical Society. Organizzazioni nazionali sono nate in Francia [5], Gran Bretagna [6], Giappone [7] e la comunità è molto attiva in Germania. La comunità italiana ha recentemente avviato iniziative che mirano alla costituzione di un coordinamento nazionale con lo scopo di: • promuovere lo sviluppo della fisica dei fasci di particelle; • promuovere le applicazioni nel campo della fisica nucleare e subnucleare, nelle sorgenti di fotoni (luce sincrotrone, sorgenti Compton, FEL etc.), nelle applicazioni medicali, industriali, beni culturali; • incoraggiare una maggior diffusione e pubblicazione di articoli su riviste, trovando adeguati spazi agli sviluppi tecnologici; • promuovere l’insegnamento della Fisica degli Acceleratori nelle università; • sostenere l’avanzamento di carriera dei ricercatori presso gli enti di ricerca e università. L’esperienza della valutazione dei prodotti di ricerca (VQR) e il recente bando per le abilitazioni nazionali nel ruolo di professori universitari hanno messo in evidenza criticità del settore sotto vari aspetti: • Inadeguatezza delle banche dati ISI-WEB e SCOPUS per il calcolo dei parametri bibliometrici relativi al settore della Fisica degli Acceleratori; • Consuetudine a pubblicare i lavori scientifici prevalentemente sui “proceedings” delle Conferenze Internazionali, come la IPAC (International Particle Acceleratori Conference); • Rischio di limitate opportunità di carriera e accesso ai fondi per la ricerca. 5 Conclusioni La straordinaria tradizione della Fisica degli Acceleratori in Italia continua e i ricercatori italiani contribuiscono con nuove idee, sviluppano nuove tecnologie e realizzano nuove macchine. Una comunità di circa 220 ricercatori è coinvolta nei progetti di punta in Italia e all’estero ed è impegnata nella formazione delle nuove leve. La scarsa presenza di corsi curriculari presso le università italiane è un limite alla diffusione della cultura degli acceleratori e rappresenta un punto di debolezza rispetto agli altri paesi europei. Inoltre, le criticità causate da inadeguate metodologie di valutazione della ricerca rischiano di limitare l’accesso ai finanziamenti e la progressione di carriera dei ricercatori, determinando nel tempo una minore attrattività per le nuove generazioni. La comunità italiana ha avviato la costituzione di un coordinamento nazionale che intende collaborare e contribuire alle attività della SIF. Ringraziamenti L’autore ringrazia i colleghi: Caterina Biscari, Giovanni Bisoffi, Marco Bozzo, Luciano Calabretta, Lucio Calcagnile, Luigi Campajola, Luciano Catani, Franco Cervelli, Alessandro Cianchi, Giacomo Cuttone, Gerardo D’Auria, Alessandro Fabris, Graziano Fortuna, Francesca Galluccio, Santo Gammino, Andrea Ghigo, Giovanni Gigante, Susanna Guiducci, Iaia Masullo, Renzo Parodi, Paolo Pierini, Luca Serafini, Michele Svandrlik, Giorgio Turchetti, Vittorio Vaccaro, Alessandro Variola, per il loro aiuto nella raccolta delle informazioni e dei dati presentati in modo sintetico, e sicuramente non esaustivo, nel presente articolo. Bibliografia [1] Walter Henning, Charles Shank “ Accelerators for America” (US Department of Energy) June 2010. [2] F. Kircher et al., Education and Training Survey Report, April 2012. [3] http://epac.web.cern.ch/EPAC/EPS-AG/Welcome.html [4] http://www.aps.org/units/dpb/index.cfm [5] http://www.sfpnet.fr/index.php?page=divisions [6] http://www.iop.org/activity/groups/subject/pab/ index.html [7] http://www.jps.or.jp/english/concept.html vol28 / no5-6 / anno2012 > 55 il nostro mondo Antefatti. [vedi: N. Robotti “I fisici e il Risorgimento” XCVII Congresso Nazionale della Società Italiana di Fisica. L’Aquila, 2011. http://www. sif.it/attivita/congresso/ xcvii/conferenza . 1839-1847. Riunioni annuali degli Scienziati Italiani in sede circolante nei diversi Stati 1841. Progetto di un “nuovo corso di studi di Fisica” affiancato da un testo comune, condivisibile da tutti i fisici italiani 1843-1847. Si pubblica “Il Cimento”. 1845 Definizione di un sistema di unità di pesi e misure uniforme per tutti gli Stati Italiani 28 Luglio 1861. Legge n. 132 “Sui pesi e sulle misure”: “I pesi e le misure legali nel Regno d’Italia sono unicamente quelli del sistema metrico decimale, le cui unità sono le seguenti: […]” L’archivio storico de Il Nuovo Cimento è disponibile per i Soci all’url: http://members.sif.it IL NUOVO CIMENTO 150, 100, 50 ANNI FA 150 anni fa Il Regno d’Italia ha un anno. Il Nuovo Cimento (successore de “Il Cimento”) da sette anni raccoglie le pubblicazioni di ricercatori da tutta l’Italia. La Società Italiana di Fisica non è ancora nata. I gabinetti di Fisica non fanno solo ricerca pura, ma anche utili applicazioni. Da “Di alcune maniere di applicare l’elettricità ad una persona isolata, con avvertenze circa l’uso della bottiglia di Leida, nello scuotere le persone e relazioni di cure eseguite coll’elettricità somministrata dalla macchina elettrica” di S. Mariannini, Il Nuovo Cimento 15 (1862) 169. È noto ai cultori della scienza elettrica che mentre una persona trovasi sullo sgabello isolante e comunica mediante una striscia metallica col conduttore principale d’una macchina elettrica in azione, può essere elettrizzata in parecchi altri modi. Credo bene di accennarne alcuni in questa Memoria ad istruzione di chi, non essendo dell’arte trovasi nel caso di potere amministrare l’elettricità ad un ammalato, al quale sia stato prescritto questo rimedio […] I1 Sacerdote, sig. D. Bardoni Parroco di una villa era da molto tempo travagliato da pertinace malinconia che tenevalo ben spesso mesto, taciturno e piangente; e senza che ne apparisse veruna cagione, né a lui né ad altri. Nella state del 1853 egli venne un giorno nel Gabinetto fisico di questa Università, non so se per consiglio d’altri o suo proprio, per farsi elettrizzare. Visto in lui un soggetto di buon colore, ben nutrito, vantaggiato della persona, e, per quanto appariva, sano robusto e forte, cominciai ad elettrizzarlo a bagno e, mentre stava sullo sgabello isolante, io traeva molto scintille, da principio corte, poscia lunghe dai cinque ai dieci centimetri dalle braccia, dalle spalle, e più dalla schiena lungo la spina dorsale dell’individuo […] La seduta durò un’ora e mezzo e il sig. D. Bardoni partì ben contento del rimedio adoperato. Io non lo vidi più; ma dopo otto mesi mi ha fatto sapere che da quel giorno egli si trovò guarito e stava benissimo. 100 anni fa La Società Italiana di Fisica ha quindici anni. Da “Sulla scarica a scintilla in un gas rarefatto e sulla sua trasformazione in fascio di raggi magnetici” del Prof. Sen. A. Righi, Il Nuovo Cimento, 26 (1912) 159. Non occorre descrivere minutamente la macchina elettrica. Mi basta dire che è una Holtz a quattro dischi, di cui i due mobili sono messi in rotazione da un motore elettrico. Essa fornisce una corrente assai più intensa di quella che sogliono dare macchine di uguali dimensioni, e questo in ragione della notevole velocità angolare dei dischi giranti, che fanno circa 12 giri al secondo. Nel caso attuale non sarebbe indispensabile una tale rapidità d’azione; è però utile perché, naturalmente, le scariche risultano assai più frequenti. Il condensatore, caricato dalla macchina e le cui scariche vengono utilizzate è quello altra volta descritto, formato con 108 grandissime bottiglie di Leyda riunite in 6 batterie di 18 bottiglie ciascuna. La disposizione dell’apparecchio è tale che con facilità si possono avere sei batterie in serie (o cascata) ognuna con 1 a 18 bottiglie oppure due batterie di 54 bottiglie poste in cascata, oppure infine le 108 bottiglie in batteria unica. È così possibile variare la capacità entro estesi limiti, e cioè da circa 1000 unità elettrostatiche sino a 680 000 unità. 50 anni fa La fisica italiana è matura. Il Nuovo Cimento è una delle principali riviste di fisica mondiali. Le teorie relativistiche di campo sono in crisi. Si studiano le proprietà analitiche della matrice di scattering e si sviluppano modelli fenomenologici nel suo ambito. Grande importanza avrà il modello multiperiferico. Da “Theory of high-energy scattering and multiple production” di D. Amati, S. Fubini, A. Stanghellini, Il Nuovo Cimento, 26 (1962) 896. a cura di Alessandro Bettini 56 < il nuovo saggiatore […] We shall discuss in this paper a theoretical model for study of high-energy collisions (above the GeV region). The experimental information in this field − provided by big accelerators and − for even higher energies, by cosmic rays − is rich and many features are rather independent of the nature of the colliding particles (we restrict the discussion to strong interactions). Let us point out some characteristic behaviours: a) total cross-sections seem to be energy-independent or, at least, to vary slowly with it; b) multiplicities of secondaries increase slowly with the energy; c) the major part of secondaries are pions (K-mesons, hyperons and antibaryons are in small number compared with pions); d) the mean transverse momenta of secondaries seem to be small (~ 300 MeV) and rather energy-independent; e) the only important diffractive channel is the elastic one: the shape of the diffraction peak depends weakly on the energy. It shows perhaps a slight shrinking at increasing energies. […] The multiperiferal model. The basic idea of the peripheral model is that the one-pion exchange amplitudes dominate the high-energy processes. […] Therefore any subdivision of an amplitude, using the one-pion exchange for it, degrades the energy of each group of particles in the final state, repeating the same procedure for all the high-energy amplitudes, we shall arrive at a situation in which we have a chain of low-energy amplitudes linked by virtual pions, as shown in Fig. 2. News The Italian Physical Society “Enrico Fermi” Prize and Medal 2012 The “Enrico Fermi” prize of the Italian Physical Society has been awarded starting from 2001, to commemorate the great scientist on the occasion of the centenary of his birth. The prize and medal are yearly awarded to Members of the Society who particularly honoured physics with their discoveries. A commission made of experts appointed by SIF, CNR, INAF, INFN, INGV and Centro Fermi selected the winners in a list of candidates proposed by the community. The proposal was submitted to the Council of the SIF for final approval. The Enrico Fermi Prize and Medal has been awarded for 2012 for condensed matter physics to Roberto Car of the Princeton University and Michele Parrinello of the Eidgenössische Technische Hochschule (ETH) of Zürich, “for the discovery of a Molecular Dynamics method known the world over as the Car-Parrinello method. This method has been a breakthrough in the field of numerical simulations, with great impact in many interdisciplinary contexts both theoretical and experimental, ranging from Material Science to Chemistry and Biology”. The award ceremony has been part of the opening session of the XCVIII SIF National Congress in Naples on 17 September 2012. Roberto Car (left) and Michele Parrinello (right) delivering their respective “Fermi Lectures” at the award ceremony of the XCVIII SIF National Congress in Naples. Roberto Car and Michele Parrinello started working together in the early 1980s at SISSA, the International School of Advanced Studies, in Trieste. With a stroke of genius they created in 1985 the “first-principle molecular dynamics”, better known as Car-Parinnello method, in an article on Physical Review Letters titled “Unified Approach for Molecular Dynamics and DensityFunctional Theory” . Indeed, the authors had recognized that the unification of two existing computational methods, called Density Functional Theory and Molecular Dynamics, could allow a fantastic innovation in the field of numerical simulations for the description and prediction of the behaviour of individual atoms in solids, liquids and molecules, under different external conditions. The aim of Car and Parrinello was to predict the properties of condensed matter starting, ab initio, from the laws of quantum mechanics, namely the Schrödinger equation. This has been a dream in physics since the beginning vol28 / no5-6 / anno2012 > 57 Fig. 1 The protonation of the distal iron site of the [FeFe]H cluster. The calculation used constrained first-principles (Car-Parrinello) molecular dynamics (FPMD). Panels (a)-(e) correspond to snapshots of a constrained FPMD trajectory at T=330 K. (Reprinted with permission from F. Zipoli et al., J. Am. Chem. Soc., 132 (2010) 8593-8601, ©2010 American Chemical Society.) of quantum theory. Already in 1930 P. A. M. Dirac wrote: “For dealing with atoms involving many electrons the accurate quantum theory, involving solution of the wave equation in many-dimensional space, is far too complicated to be practicable. One must therefore resort to approximate methods.” He continued quoting the Hartree methods, in which the electrons are treated as if they were non-interacting, as the best available ones, but at the time even these methods were too complicated. A very important step forward was made in 1965 with the density-functional theory of Kohn (Nobel prize for chemistry in 1998), Hohenberg and Sham. The authors demonstrated that the ground-state energy of a system of interacting electrons in the static field of the atomic nuclei could be calculated from equations formally similar to those of the Hartree method. With the availability of computers of increasing CPU power the breakthrough made it possible to calculate the crystalline structure of a material, starting from the basic equations, 58 < il nuovo saggiatore without the use of empirical parameters. Car and Parrinello extended the densityfunctional theory to dynamic situations by introducing a Lagrangian depending on the coordinates and velocities of the atomic nuclei, the Kohn-Sham wave functions and their temporal derivatives. The resulting equations of motion are integrated numerically and finally, knowing the trajectories, the statistical equilibrium properties of the complex system under study are calculated. Since its introduction, the Car-Parrinello Molecular Dynamics method was adopted in a wealth of interdisciplinary contexts ranging from materials science to chemistry and biology. It represents a beautiful joint effort of theoretical and computational physics to understand both the properties of matter and the dynamics of chemical and materials transformations . In the next years, having left Trieste, Roberto Car and Michele Parrinello followed different career paths in the most prestigious world institutions, continuing in high-profile research activities, teaching and inspiration to the younger generations. As an example, in a recent paper R. Car and collaborators (F. Zipoli, R. Car, M. H. Cohen and A. Selloni. “Simulation of Electrocatalytic Hydrogen Production by a Bioinspired Catalyst Anchored to a Pyrite Electrode” J. Am. Chem. Soc (2010) 132, 8593–8601) start stating in the abstract: “The possibility of using the active site, the [FeFe]H cluster, of the bacterial di-iron hydrogenases as a catalyst for hydrogen production from water by electro- or photocatalysis is of current scientific and technological interest.” Figure 1 taken from this article shows the “protonation” of the distal iron site (Fed) of the [FeFe]H cluster exposed to water with an extra proton. A. Bettini Università di Padova and INFN Laboratorio Subterráneo de Canfranc News SIF-iop “Giuseppe (beppo) Occhialini” Prize and Medal 2012 The Giuseppe Occhialini prize and medal has been promoted jointly by the Italian Physical Society (SIF) and the British Institute of Physics (IOP) in 2007 on occasion of the Centenary of the birth of Giuseppe Occhialini, with the aim to commemorate the eminent scientist, who worked in England and Italy, as well as to strengthen the relationship between the two societies. The award is made alternately by the Councils of one of the two societies to a physicist selected from a list of nominees submitted by the other. The award is made for distinguished work carried out within the 10 years preceding the award. The award is to be made to physicists in alternating years who work in Italy or the UK or Ireland. This year the Occhialini prize and medal has been awarded at the official award dinner of the IoP in London on the 3rd October to Eugenio Coccia of Rome “Tor Vergata” University, with the following motivation: “For his major contribution to the realization of the first long term observatories with cryogenic and ultra-cryogenic detectors of gravitational waves, and for his international role in the gravitational wave community and in the broader community of astroparticle physics”. The award had been announced during the inauguration ceremony of the XCVIII SIF Congress in Naples. The gravitational interaction between two massive bodies does not take place instantaneously, as all the other interactions. It propagates with a definite velocity, equal to that of light, under the form of gravitational waves, as an immediate consequence of the special relativity stated by Poincaré in 1905. However, only the general relativity of Einstein foresees the specific character of gravitational waves, how they are produced by their sources and how they act on the instruments built to detect them. A first type of sources are the implosions of the stars that, at the end of their life, suddenly collapse in a supernova. A second type of sources are the coalescing binaries, namely binary stars that after having slowly approached each other end up by quickly coalescing. Both phenomena are, in a given galaxy, very rare. Nobody succeeded in detecting a gravitational wave yet, but enormous progresses have been made since when J. Weber in the late 1960s gave birth to this research. Italy is the leading Country of the field, since when E. Amaldi, with G. Pizzella and M. Cerdonio, started the R&D of the “cryogenic antennas” in Rome in 1971. These are big cylindrical bars, which resonate, but very weakly, when hit by a gravitational wave, emitted by a supernova collapse. To be successful the antenna should be sensitive to a volume of the Universe large enough to contain a sufficiently frequent collapse. However, the first antennas were very far from that. Substantial progress was obtained in Italy in the frame of the INFN. The ROG (Ricerca di Onde Gravitazionali) group of Rome, under the leadership of Pizzella built EXPLORER, an antenna that became operational in 1983 at CERN. ROG succeeded, Sir Peter Knight (IOP President) and Eugenio Coccia at the IOP official award dinner, London. in particular, in substantially enhancing the efficiency of the transfer of the very tiny vibration energy of the bar to the system dedicated to its read-out. After Pizzella, the leadership of ROG passed to Coccia. Two, even more sensitive antennas, where developed and built in two National Laboratories of the INFN: NAUTILUS at Frascati and AURIGA at Legnaro, under the leaderships of E. Coccia and M. Cerdonio, respectively. To be complete, we recall a second type of antennas, the large Michelson LASER interferometers, with their two perpendicular arms a few kilometres long. They are, in particular, sensitive to the coalescing binaries. The most sensitive antennas are LIGO in the USA and VIRGO in Italy. Operational since 2007, VIRGO was built by a French-Italian collaboration in the country near Cascina, with two 3 km long arms, based on the design principles developed by A. Giazzotto at Pisa. Coming back to cryogenic and ultra-cryogenic antennas, Eugenio Coccia was the first to cool a bar weighting more than a ton to millikelvin temperatures. These antennas are extremely sophisticated, requiring a very high level of isolation from the vibrations of the 3He-4He dilution refrigerator and from the external seismic and acoustic noises. To achieve this, Coccia developed a series of original ideas, several of which have been used by other groups. Later on, from 1997 to 2003, E. Coccia was the director of the INFN Gran Sasso laboratory. A. Bettini Università di Padova and INFN Laboratorio Subterráneo de Canfranc vol28 / no5-6 / anno2012 > 59 News Il premio Nobel per la fisica 2012 Il premio Nobel per la Fisica del 2012 è stato assegnato a Serge Haroche (École Normale Supérieure e Collège de France, Parigi) e David J. Wineland (NIST, Boulder, USA) “per avere inventato delle tecniche sperimentali rivoluzionarie che permettono la misura e la manipolazione di sistemi quantistici individuali”. La chiave per comprendere la portata di questa motivazione è proprio nell’ultima parola: “individuali”. Molti effetti fondamentali previsti dalla meccanica quantistica, come la creazione di stati di sovrapposizione o la generazione di entanglement, si basano sul concetto di coerenza quantistica e possono essere osservati soltanto quando si considerano singoli sistemi quantistici o un numero molto limitato di essi. A questo proposito, E. Schrödinger scriveva [1]: “We never experiment with just one electron or atom or (small) molecule. In thought-experiments we sometimes assume that we do; this invariably entails ridiculous consequences...” Nella loro attività di ricerca, Haroche e Wineland sono riusciti ad intrappolare singoli atomi e singoli fotoni, e ad osservare quelle “ridicole” conseguenze che si riteneva potessero essere dedotte soltanto da esperimenti mentali, impossibili da mettere in pratica. Gli esperimenti di Haroche e Wineland, portati avanti in maniera indipendente e in gran parte complementare, hanno una duplice portata: da un lato hanno permesso di indagare aspetti-chiave della meccanica quantistica e di osservarne i principi fondativi, dall’altro hanno gettato le basi per una nuova tecnologia intrinsecamente quantistica, che si basa su una manipolazione coerente dello stato di sistemi quantistici individuali. Le ricerche di Serge Haroche e David Wineland partono da molto lontano. Si tratta di esperimenti realizzati su banchi ottici in laboratori di pochi metri quadrati, ma al tempo stesso molto complessi poiché basati su tecniche molto sofisticate, concepite a partire dagli anni ‘70 e pienamente sviluppate nei decenni successivi. Entrambi gli esperimenti si basano su applicazioni molto avanzate delle leggi della fisica atomica che regolano l’interazione fra la radiazione e la materia. L’utilizzo che fanno di luce e di atomi è 60 < il nuovo saggiatore però in gran parte complementare: negli esperimenti di Haroche i fotoni vengono osservati e manipolati grazie alla David J. Wineland Serge Haroche loro interazione con Photo: © CNRS Photothèque/ Photo: © NIST un fascio di atomi, in Christophe Lebedinsky quelli di Wineland sono gli atomi ad essere indagati attraverso la loro interazione con fasci laser. E, nonostante trappola armonica fortemente confinante abbiano portato avanti le loro ricerche in il moto è quantizzato in stati di oscillatore maniera indipendente, in più occasioni i due armonico quantistico, che possono essere fisici si sono trovati ad affrontare problemi risolti spettroscopicamente attraverso analoghi e a fare scoperte simili, spesso l’eccitazione di transizioni elettroniche proibite: pubblicate a poca distanza le une dalle altre, se oltre alla transizione tra stati con lo stesso non negli stessi numeri delle stesse riviste. numero vibrazionale v, possono essere eccitate transizioni verso stati vibrazionali v ’ diversi. Ioni intrappolati. David Wineland è uno dei Nella tecnica di sideband cooling, inventata pionieri delle tecniche di raffreddamento laser, da Wineland alla fine degli anni ‘80, gli ioni che consentono di rallentare il moto degli vengono raffreddati attraverso un’eccitazione atomi fino a temperature di pochi miliardesimi dallo stato vibrazionale v a uno stato v−1 di grado sopra lo zero assoluto. Nel 1975 è (quindi su una sideband a energia più bassa stato autore insieme a H. Dehmelt (premio rispetto all’energia di transizione dello ione Nobel per la Fisica 1989) di un articolo in libero), dal quale decadono verso stati con cui proponeva di utilizzare la luce laser per numero vibrazionale medio più basso: in raffreddare singoli ioni intrappolati, nello questo modo, è possibile raffreddare gli ioni stesso anno in cui una proposta simile veniva fino allo stato fondamentale della trappola, formulata da T. W. Hänsch e A. Schawlow dove il loro moto è congelato all’energia di (premi Nobel per la Fisica 2005 e 1981) per punto zero. In queste trappole, operanti in atomi neutri. Wineland è stato il primo, insieme condizioni di ultra-alto vuoto al fine di isolare a P. Toschek, a dimostrare la possibilità di gli ioni dall’ambiente esterno, possono essere intrappolare singoli ioni carichi positivamente confinati per tempi molto lunghi (anche in trappole elettro-magnetiche (trappole di svariati giorni o settimane) ioni singoli o Penning) o trappole elettrodinamiche, in cui catene formate da un numero piccolo di ioni, una differenza di potenziale rapidamente che interagiscono fortemente tra di loro a oscillante applicata agli elettrodi della causa della repulsione elettrostatica e vanno trappola produce un potenziale medio di a posizionarsi in punti diversi della trappola, confinamento (trappole di Paul) come quella il che li rende osservabili e controllabili in raffigurata schematicamente nel pannello di maniera indipendente. Questa capacità di sinistra di fig. 1. Insieme a Toschek e Dehmelt, controllo sullo stato interno ed esterno degli Wineland ha dimostrato la possibilità di ioni e sulle loro interazioni ha consentito fare spettroscopia su una singola particella sviluppi estremamente importanti nel campo intrappolata, inducendo transizioni proibite fra della spettroscopia e dell’ottica quantistica, due livelli elettronici dello ione e misurando come descriveremo più avanti. la probabilità di eccitazione attraverso l’osservazione diretta dei quantum jumps fra i Fotoni e cavità. Serge Haroche è sempre due stati. stato molto legato alla fisica atomica italiana, Uno dei meriti di Wineland è stato l’avere che ha con la scuola francese una lunga sviluppato nuove tecniche di raffreddamento storia di collaborazioni iniziata con A. Gozzini che permettono un controllo totale sullo stato e A. Kastler, ed è tra l’altro membro del di moto dello ione nella trappola [2]. In una consiglio scientifico del Laboratorio Europeo Fig. 1 A sinistra sono raffigurati degli ioni confinati in una trappola elettrodinamica di Paul, come negli esperimenti di Wineland: gli ioni vengono raffreddati, rivelati e manipolati utilizzando la loro interazione con fasci laser. A destra sono rappresentati fotoni intrappolati all’interno di una cavità a microonde realizzata con due specchi affacciati, come negli esperimenti di Haroche: lo stato del campo elettromagnetico nella cavità viene rivelato in maniera non distruttiva e manipolato attraverso la sua interazione con atomi di Rydberg che attraversano la cavità. di Spettroscopie Nonlineari (LENS) di Firenze. L’oggetto di indagine delle ricerche di Haroche che lo hanno portato al premio Nobel sono singoli fotoni intrappolati. In quanto privi di massa, i fotoni sono molto più difficili da catturare: possono essere intrappolati in cavità ottiche risonanti formate da due specchi ad altissima riflettività posti l’uno di fronte all’altro, in modo che il fotone rimbalzi per un numero molto elevato di volte prima di essere assorbito o perso da uno dei due specchi. Insieme a D. Kleppner, H. Walther, J. Kimble e al nostro F. De Martini, negli anni ‘80 Haroche è stato uno dei fondatori dell’elettrodinamica in cavità (cavity QED), quel campo dell’ottica quantistica che studia l’interazione fra gli atomi e i fotoni del campo elettromagnetico all’interno di una cavità ottica [3]. Nei primi anni 2000 Haroche è riuscito a sviluppare delle cavità superconduttrici in cui la riflettività degli specchi è talmente alta da far sì che in media un singolo fotone rimbalzi fra i due specchi per miliardi di volte prima di abbandonare la cavità, garantendo tempi di intrappolamento maggiori di 100 ms. Nei suoi esperimenti Haroche è riuscito a dimostrare come lo stato del campo elettromagnetico nel modo fondamentale della cavità possa essere controllato grazie all’interazione dei fotoni con un fascio di atomi che attraversa la cavità stessa, come raffigurato nel pannello di destra di fig. 1. In questo di tipo di sistema lo stato degli atomi è fortemente accoppiato al modo fondamentale della cavità e l’interazione radiazione-materia, descritta da un modello completamente quantistico (detto di JaynesCummings), fa sì che lo stato atomico possa essere convertito in maniera coerente nello stato del campo in cavità e viceversa. Nelle sue ricerche Haroche utilizza fotoni a microonda e atomi di Rydberg, cioè atomi in stati elettronici altamente eccitati con un tempo di vita molto lungo (fino a decine di ms), che possono passare da un livello all’altro proprio assorbendo o emettendo fotoni a microonda. In una serie di esperimenti fondamentali Haroche, insieme ai suoi colleghi M. Brune and J.-M. Raymond, ha dimostrato che l’analisi dello stato atomico permette di effettuare una ricostruzione completa e non distruttiva dello stato quantistico del campo elettromagnetico all’interno della cavità, “contando” i singoli fotoni senza distruggerli. Questo tipo di misura, detta quantum non-demolition measurement (QND) nel linguaggio dell’ottica quantistica, rappresenta la realizzazione sperimentale della misura ideale proiettiva della meccanica quantistica, in cui l’evento di misura fa “collassare” lo stato quantistico sullo stato esito della misura, senza “distruggere” il sistema (come invece accade, per esempio, in un fotomoltiplicatore, dove la rivelazione di singoli fotoni comporta la loro distruzione). In particolare, Haroche è riuscito a osservare, attraverso una successione di misure non distruttive, come lo stato del campo elettromagnetico evolve durante la misura portando a un collasso progressivo del numero di fotoni nella cavità [4], in accordo con i postulati della meccanica quantistica. Gatti di Schrödinger ed entanglement. Come dicevamo, tra i principi fondanti della meccanica quantistica vi sono due concetti chiave, che sono collegati alla realizzazione di stati nonclassici della luce o della materia. Il primo è il concetto di sovrapposizione quantistica, le cui conseguenze paradossali, se trasportate al mondo macroscopico, furono esemplificate da Erwin Schrödinger con il celebre paradosso del gatto, vivo e morto al tempo stesso. Se un sistema quantistico ha due possibili stati |0〉 e |1〉, allora una qualsiasi combinazione lineare dei due a |0〉 + b |1〉 , con a e b coefficienti complessi (quindi con una fase ben definita della sovrapposizione), è ancora uno stato ammissibile per il sistema. In una serie di esperimenti fondamentali realizzati con le sue cavità a microonde, Haroche è riuscito a ricostruire lo stato quantistico del campo elettromagnetico e a distinguere stati di Fock |n〉, caratterizzati da un numero esatto n di fotoni inn cavità, da stati coerenti 2 a e-|a| /2 ∑n √n! |n〉 in cui il numero di fotoni non è ben definito e segue una statistica poissoniana data dalla sovrapposizione di stati con numero di fotoni diverso. Questa ricostruzione dello stato quantistico del campo (effettuata misurandone in maniera non distruttiva la funzione di Wigner) è resa possibile dal regime di forte interazione fra atomo e campo elettromagnetico, che consente di trasferire lo stato del campo nello stato atomico. Non solo, utilizzando degli atomi inizialmente in uno stato di sovrapposizione (creato con impulsi p/2 a microonda), Haroche è riuscito a creare gatti di Schrödinger fatti con fotoni e a studiarne l’evoluzione nel tempo, mettendo in evidenza come lo stato nonclassico dopo tempi lunghi decade in una sovrapposizione classica. Si tratta di studi fondamentali sull’evoluzione dello stato quantistico, la cui estensione a un numero grande di fotoni può illuminare un problema ancora irrisolto della meccanica quantistica, quello della transizione tra mondo microscopico e macroscopico, dove gli effetti di coerenza sono rapidamente persi e si assiste alla transizione dalla descrizione quantistica alle leggi deterministiche della fisica classica [5, 6]. Il secondo concetto chiave è quello di entanglement, che caratterizza il possibile stato quantistico di sistemi composti da più particelle. Se consideriamo due particelle a e b, ciascuna caratterizzata da due possibili stati vol28 / no5-6 / anno2012 > 61 news |0〉 e |1〉, uno stato ammissibile per il sistema a due corpi è lo stato entangled a |0〉a |1〉b + b |1〉a |0〉b , che è uno stato non separabile, cioè non può essere scritto come il prodotto tensoriale di due stati nei rispettivi spazi di Hilbert. Nonostante lo stato della singola particella non sia definito, la non separabilità dello stato porta a delle forti correlazioni quantistiche. Si consideri una tipica operazione quantistica di misura, capace di discriminare fra lo stato |0〉 e lo stato |1〉 : per lo stato entangled scritto sopra, una misura proiettiva fatta sulla particella a che dà come esito lo stato |0〉 ha come conseguenza il collasso della particella b nello stato |1〉 e viceversa. Le correlazioni quantistiche in uno stato entangled si manifestano indipendentemente dalla posizione delle due particelle, anche se queste si trovano a distanze talmente grandi da non ammettere nessuna possibilità di “interferenza” classica tra di esse. Il concetto di entanglement è quindi strettamente connesso a una natura non locale della meccanica quantistica, contro la quale si sono scontrati molti scienziati, tra i quali si annoverano A. Einstein, B. Podolsky e N. Rosen, autori del celebre articolo “EPR” [7] in cui si proponeva un gedanken experiment – allora considerato come tale, ma oggi realizzabile in laboratorio – che mostrava le conseguenze paradossali della nonseparabilità degli stati dal punto di vista della relatività e del principio di località. Haroche e Wineland non soltanto sono riusciti a creare stati entangled, ma anche ad utilizzare l’entanglement in maniera controllata come un potente strumento di rivelazione e di manipolazione. Negli esperimenti di Haroche, grazie al regime di forte accoppiamento fra atomi di Rydberg e cavità a microonde, si ha un entanglement fra lo stato del campo elettromagnetico e lo stato degli atomi accoppiati alla cavità, e proprio grazie a questo entanglement è possibile realizzare la misura delle proprietà quantistiche del campo e a “modificarne” lo stato attraverso l’interazione con atomi opportunamente preparati. Negli esperimenti con gli ioni intrappolati, come quelli di Wineland, si ha un entanglement tra lo stato interno degli ioni e l’eccitazione coerente di modi di vibrazione all’interno della trappola: in presenza di più ioni intrappolati in una catena, questa stessa tecnica consente di creare un entanglement controllato fra gli ioni [8], con conseguenze importanti che sono descritte nel seguito. Orologi atomici. Gli esperimenti di Wineland nascono negli anni ‘70 dall’intuizione di sfruttare le proprietà di singoli ioni intrappolati per la realizzazione di orologi atomici estremamente accurati. Il vantaggio di usare atomi intrappolati, piuttosto che gas in cella o fasci atomici, sta nel fatto che in questo modo è possibile eliminare ogni perturbazione dovuta al loro moto: il forte confinamento fa sì che 62 < il nuovo saggiatore sia possibile accedere spettroscopicamente ai diversi stati vibrazionali dello ione nella trappola, con la conseguente possibilità di raffreddarlo fino allo stato fondamentale e di poterlo interrogare, per tempi molto lunghi, in un regime dove lo spostamento Doppler e gli effetti legati al rinculo atomico sono completamente eliminati. Nella storia della misura del tempo, la precisione è andata sempre crescendo mano a mano che si sono presi come riferimento fenomeni fisici caratterizzati da oscillazioni con frequenza sempre maggiore (dagli orologi a pendolo, agli orologi a quarzo, agli orologi atomici). Alla fine degli anni ‘90, grazie allo sviluppo di sorgenti laser altamente monocromatiche e all’invenzione del frequency comb, premiata con il Nobel per la Fisica a T. W. Hänsch e J. L. Hall nel 2005, si è resa concreta la possibilità di utilizzare transizioni ottiche (con una frequenza di circa 1015 Hz) per la realizzazione di standard di tempo e di frequenza, invece della transizione a microonde utilizzata negli orologi al cesio (con una frequenza di circa 1010 Hz), sulla quale è basata l’attuale definizione del secondo. Wineland ha fornito un contributo fondamentale alla realizzazione di standard di frequenza basati su transizioni ottiche in ioni intrappolati. Il funzionamento degli orologi più precisi di Wineland si fonda proprio sul concetto di entanglement di cui si parlava prima. Il riferimento di frequenza è costituito da un singolo ione di Al+, che ha proprietà metrologiche ideali, possedendo transizioni molto strette e caratterizzate da effetti sistematici limitati e ben controllabili (ad esempio, la sua insensibilità alla radiazione di corpo nero dovuta alla temperatura finita del setup sperimentale). Tuttavia la sua manipolazione (sia il suo raffreddamento che la rivelazione del suo stato) pone dei problemi di natura tecnica dovuti alla mancanza di transizioni elettroniche facilmente accessibili. La soluzione ideata da Wineland è quella di mettere nella stessa trappola uno ione diverso, il Be+, che è invece molto più semplice da raffreddare e da rivelare, ma non è un buon “orologio” come l’Al+. Sfruttando le interazioni tra i due ioni, soprattutto la possibilità di creare uno stato entangled, quindi una correlazione quantistica perfetta tra lo stato interno dello ione Al+ e quello del Be+, Wineland ha dimostrato la possibilità di usare il secondo ione per interrogare il primo, raggiungendo così delle precisioni relative migliori di una parte su 1017 [9]. Una precisione di questo tipo, superiore a quella degli attuali orologi atomici al cesio, significa che un orologio che avesse iniziato a contare il tempo al momento del Big Bang adesso avrebbe perso o guadagnato soltanto pochi secondi. Perché misurare il tempo con questa precisione? Nella storia della Fisica, ogni volta che si è trovato un modo più preciso di misurare il tempo, si sono sempre fatte scoperte fondamentali. Questa estrema precisione nella misura del tempo dimostrata negli esperimenti di Wineland consente test di fisica fondamentale, legati ad esempio alla misura di una possibile variazione temporale delle costanti fondamentali o all’osservazione di effetti di relatività generale, come il redshift gravitazionale, su scale spaziali estremamente piccole: negli orologi di Wineland una variazione significativa della frequenza di transizione può essere apprezzata quando lo ione è spostato in altezza di appena poche decine di centimetri in presenza del campo gravitazionale terrestre [10]. Oltre a queste implicazioni nella ricerca di base, ci sono applicazioni importanti in cui una misura più accurata del tempo può avere una notevole rilevanza, soprattutto nel campo della navigazione (si ricorda che il funzionamento del sistema di posizionamento GPS si basa sulla sincronizzazione fra gli orologi atomici montati a bordo di satelliti diversi). è molto probabile che esperimenti come quelli di Wineland, o esperimenti simili realizzati con atomi neutri intrappolati, porteranno nei prossimi anni a una ridefinizione del secondo basata su un nuovo standard ottico di frequenza. Anche in Italia si lavora intensamente in questo campo, con esperimenti di primo piano in funzione a Torino presso l’INRIM (con atomi neutri di itterbio) e a Firenze (con atomi neutri di stronzio) [11]. Computer quantistici. La possibilità di manipolare sistemi quantistici individuali in maniera coerente e non distruttiva ha aperto la possibilità di usare lo stato quantistico per immagazzinare e processare informazione in modo intrinsecamente diverso da quello classico. A differenza della logica classica binaria, in cui l’unità di informazione è codificata nello stato 0 o 1 di un bit classico, nella logica quantistica ogni bit quantistico, o qubit, può trovarsi in una sovrapposizione di stati, e bit diversi possono formare tra loro stati entangled. Queste proprietà fanno sì che, su specifiche operazioni, un computer basato su una logica quantistica potrebbe portare a una velocità di calcolo esponenzialmente più alta di quella di un calcolatore classico. Proprio D. Wineland è riuscito nel 1995 a utilizzare i suoi ioni intrappolati per la prima dimostrazione del funzionamento di una porta logica quantistica “controlled-NOT” [12], la versione quantistica di uno dei circuiti logici elementari che sono alla base del funzionamento di un calcolatore. In esperimenti più recenti, è stata dimostrata la possibilità di controllare un numero sempre maggiore di ioni intrappolati e di realizzare stati entangled comprendenti fino a 14 qubits [13]. La realizzazione di computer quantistici per applicazioni pratiche è ancora un sogno remoto, ma sono in molti a pensare che, L. Fallani, M. Inguscio, G. M. Tino: Il premio nobel per la fisica 2012 nonostante la strada sia lunga e in salita, l’obiettivo possa essere alla portata. Se da un lato computer molto più “potenti” di quelli attuali potrebbero sembrare inutili per un utilizzo di massa, dall’altra ci sono applicazioni in cui un aumento significativo della potenza di calcolo potrebbe essere decisivo. Uno di questi problemi è proprio la simulazione di sistemi quantistici, che è un compito estremamente difficile per un qualsiasi computer classico, a causa della crescita esponenziale degli stati possibili per il sistema all’aumentare delle dimensioni dello spazio di Hilbert che lo descrive. Come congetturato da R. Feynman nel 1982 [14], un problema quantistico può essere efficientemente “risolto” soltanto da un simulatore quantistico, cioè un sistema composto di tante particelle quantistiche delle quali si è in grado di controllare le interazioni, in modo da produrre in laboratorio una realizzazione di specifici modelli hamiltoniani dei quali si possono misurare le proprietà. Questa possibilità è stata dimostrata con atomi ultrafreddi intrappolati in reticoli ottici, che, riproducendo il comportamento degli elettroni nello stato solido, hanno già permesso di studiare molti effetti fondamentali di fisica della materia condensata, come dimostrato in esperimenti realizzati al LENS di Firenze [15]. Nei prossimi anni l’evoluzione di questo campo di ricerca potrebbe fornire una soluzione ad alcuni problemi irrisolti della Fisica, come ad esempio quello riguardante l’origine della superconduttività ad alta temperatura. Verso una nuova tecnologia? Nei loro esperimenti Haroche e Wineland non soltanto hanno osservato in modo diretto i principi base della meccanica quantistica. Hanno compiuto dei passi fondamentali affinché questi principi possano essere utilizzati per fondare una nuova tecnologia basata sulla possibilità di inizializzare, controllare e rivelare in maniera coerente e non distruttiva lo stato di un sistema quantistico. William D. Phillips, premio Nobel per la Fisica nel 1997 (per i suoi contributi allo sviluppo delle tecniche di raffreddamento laser), in occasione di una sua visita a Firenze organizzata per il suo 60° compleanno, affermava che il XXI secolo sarà il secolo di una “seconda rivoluzione quantistica”. Una nuova tecnologia quantistica, basata sull’applicazione della meccanica quantistica alle tecnologie dell’informazione e della comunicazione, è già in pieno sviluppo e, riprendendo un esempio di Phillips, potrebbe rappresentare un cambio di paradigma più radicale di quello che ha portato l’uomo dall’abaco all’uso dei computer. Questa tecnologia quantistica in alcuni campi è già matura (si pensi alla crittografia quantistica) ed è facile prevedere che molti saranno i suoi sviluppi negli anni futuri. Haroche e Wineland con i loro esperimenti hanno contribuito a gettarne le basi. Il nobel e la fisica italiana. Concludiamo sottolineando come la fisica italiana sia particolarmente legata al premio Nobel 2012, non soltanto per gli importanti contributi di ricerca nel campo della fisica atomica e dell’ottica quantistica, ma anche per l’attività della Società Italiana di Fisica (che già nel 1987 invitò Serge Haroche al Congresso Nazionale di Napoli per una conferenza plenaria sui suoi esperimenti di CQED). Le tappe fondamentali del lungo percorso che ha portato alle scoperte di Haroche e Wineland sono state testimoniate e stimolate dall’attività di alta formazione svolta dalla SIF con la scuola internazionale “Enrico Fermi” di Varenna, che nel 2013 compierà 60 anni. Dopo il corso “Topics of radiofrequency spectroscopy” diretto nel 1960 da A. Gozzini, che comprendeva il nuovo campo della spettroscopia maser, molti corsi fondamentali sono stati diretti o co-diretti da vincitori di premi Nobel per la fisica atomica e per l’ottica quantistica: C. H. Townes (“Quantum electronics and coherent light”, 1963), R. J. Glauber (“Quantum optics”, 1967), N. Bloembergen (“Nonlinear spectroscopy”, 1975), W. D. Phillips (“Laser manipulation of atoms and ions”, 1991), C. E. Wieman (“BoseEinstein condensation in atomic gases”, 1998), W. Ketterle (“Ultra-cold Fermi gases”, 2006), T. W. Hänsch (“Metrology and fundamental constants”, 2006). Emblematico è il corso “Frontiers in Laser Spectroscopy” del 1992 [16], che all’epoca aveva tra i propri docenti soltanto un premio Nobel, A. L. Schawlow, che con Townes aveva dato inizio alla lunga avventura del laser. Sfogliando oggi gli atti di quella scuola, si contano i contributi di altri 6 vincitori di premi Nobel (J. L. Hall, C. E. Wieman, T. W. Hänsch, S. Chu, e i vincitori di quest’anno D. J. Wineland e S. Haroche), un buon viatico per i tanti giovani che continuano ad appassionarsi alla fisica atomica. Quali nuove scoperte possiamo aspettarci nel futuro? Riprendendo le parole di Hänsch dalla prefazione di [17]: “What can we expect from atomic physics in the future? We can safely predict more Nobel Prizes for surprising discoveries. However, we cannot predict the evolution of atomic physics. As in the past, the most important research results will be those that make all planning obsolete...” L. Fallani., M. Inguscio, G. M. Tino Dipartimento di Fisica ed Astronomia e Laboratorio Europeo di Spettroscopie Nonlineari (LENS), Università di Firenze Bibliografia [1] E. Schrödinger, “Are there quantum jumps?”, Philos. Sci., 3 (11), (1952) 233. [2] D. Leibfried, R. Blatt, C. Monroe e D. Wineland, “Quantum dynamics of single trapped ions”, Rev. Mod. Phys., 75 (2003) 281. [3] S. Haroche e J.-M. Raymond, “Exploring the Quantum: Atoms, Cavities and Photons” (Oxford University Press) 2006. [4] C. Guerlin, J. Bernu, S. Deléglise, C. Sayrin, S. Gleyzes, S. Kuhr, M. Brune, J.-M. Raimond, e S. Haroche, “Progressive field-state collapse and quantum non-demolition photon counting”, Nature, 448 (2007) 889. [5] W. H. Zurek, “Decoherence and the Transition from Quantum to Classical”, Phys. Today, 44 (1991) 36. [6] S. Haroche, “Entanglement, Decoherence and the Quantum/Classical Boundary”, Phys. Today, 51 (7), (1998) 36. [7] A. Einstein, B. Podolsky e N. Rosen, “Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?”, Phys, Rev., 47 (1935) 777. [8] R. Blatt e D. Wineland, “Entangled states of trapped atomic ions”, Nature, 453 (2008) 1008. [9] C. W. Chou, D. B. Hume, J. C. J. Koelemeij, D. J. Wineland e T. Rosenband, “Frequency Comparison of Two High-Accuracy Al + Optical Clocks”, Phys. Rev. Lett. 104 (2010) 070802. [10] C. W. Chou, D. B. Hume, T. Rosenband e D. J. Wineland, “Optical Clocks and Relativity”, Science, 329 (2010) 1630. [11] G. Ferrari, P. Cancio, R. Drullinger, G. Giusfredi, N. Poli, M. Prevedelli, C. Toninelli e G. M. Tino, “Precision frequency measurement of visible intercombination lines of strontium”, Phys. Rev. Lett., 91 (2003) 243002; N. Poli, M. G. Tarallo, M. Schioppo, C. W. Oates e G. M. Tino, “A simplified optical lattice clock”, Appl. Phys. B, 97 (2009) 27. [12] C. Monroe, D. M. Meekhof, B. E. King, W. M. Itano e D. J. Wineland, “Demonstration of a Fundamental Quantum Logic Gate”, Phys. Rev. Lett., 75 (1995) 4714. [13] T. Monz, P. Schindler, J. T. Barreiro, M. Chwalla, D. Nigg, W. A. Coish, M. Harlander, W. Hänsel e M. Hennrich, R. Blatt, “14-Qubit Entanglement: Creation and Coherence”, Phys. Rev. Lett., 106 (2011) 130506. [14] R. P. Feynman, “Simulating Physics with Computers”, Int. Theor. Phys., 21 (1982) 467. [15] G. Roati, C. D’Errico, L. Fallani, M. Fattori, C. Fort, M. Zaccanti, G. Modugno, M. Modugno e M. Inguscio, “Anderson localization of a non-interacting BoseEinstein condensate”, Nature, 453 (2008) 895. [16] T. W. Hänsch e M. Inguscio (a cura di), “Frontiers in Laser Spectroscopy”, Proceedings of the International School of Physics “Enrico Fermi”, Corso CXX (North Holland, Società Italiana di Fisica) 1994. [17] M. Inguscio e L. Fallani, “Atomic Physics: Precise Measurements and Ultracold Matter” (Oxford University Press) 2013. vol28 / no5-6 / anno2012 > 63 News Il “compleanno” dell’A.I.F. e il XIII Convegno Orlandini Il 25 maggio 1962, a Torino, veniva fondata l’A.I.F. (allora “Associazione Insegnanti di Fisica” e poi, dal 1967, “Associazione per l’Insegnamento della Fisica”). Per festeggiare il 50esimo anniversario di quella data, il Direttivo dell’A.I.F. – di concerto con la SIF – ha organizzato una edizione speciale del Convegno Ettore Orlandini che si è tenuta a Torino presso l’ITIS “Avogadro”, prima sede dell’Associazione, il 26 e 27 maggio di quest’anno. Come tutte le precedenti edizioni, anche il XIII Convegno Orlandini è stato dedicato a un tema disciplinare specifico, che questa volta è stato “L’insegnamento della meccanica”. In apertura, dopo i saluti delle Autorità e un breve intervento di Alessandro Bettini, vicepresidente della SIF, una relazione di Carla Romagnino (già presidente dell’A.I.F. , premio SIF per la didattica nel 2009) ha ripercorso i 50 anni dell’A.I.F. dalla sua fondazione. Alla costituzione dell’A.I.F. si giungeva dopo una discussione nata in seno alla SIF, principalmente tra gli insegnanti di scuola secondaria. Nell’ottobre del 1960 la Società aveva organizzato a Napoli, in concomitanza con il proprio Congresso, il Corso internazionale di aggiornamento e sperimentazione didattica per l’insegnamento della fisica nelle scuole secondarie dove il prof. Bruno Rossi del MIT aveva presentato il progetto PSSC. Durante quel corso, per iniziativa di Maria Ferretti, gli insegnanti indirizzavano una petizione al presidente della SIF, Giovanni Polvani, per la costituzione di un “gruppo” che si occupasse dell’insegnamento della fisica nelle scuole. Polvani aveva contribuito, durante tutta la sua presidenza, a far crescere l’attenzione della SIF verso la scuola e considerava cruciale la questione della didattica della fisica nelle scuole; già nel suo discorso per il cinquantenario della SIF (1947) aveva sottolineato il problema: “E innanzitutto la scuola: meglio …l’insegnamento della stessa disciplina nelle nostre scuole, sia medie che superiori”[1]. La proposta di costituire un “gruppo” fu ripresentata al Congresso successivo (Como, 1961) ma, intanto, incominciava a farsi strada l’idea di costituire un’associazione autonoma. Questa, in effetti, formavano di lì a poco gli insegnanti degli Istituti tecnici industriali che, nel gennaio 1962, avevano partecipato ad un corso di sperimentazione didattica al Museo della Scienza e della Tecnica di Milano. Il Consiglio di Presidenza della SIF propose allora che si costituisse anche un’associazione per raccogliere i docenti dei Licei, affiliata alla SIF; la Società avrebbe garantito appoggio economico e la presenza di due rappresentanti nel proprio Consiglio di Presidenza. Dopo uno fitto scambio di contatti tra i promotori delle varie iniziative, si giunse alla costituzione dell’A.I.F. – alla quale la SIF garantì da subito un ampio appoggio, in particolare ospitando i congressi annuali della nuova associazione all’interno del proprio, cosa che continuò fino al congresso di Como del 1977. Dal 1978 l’A.I.F., ormai cresciuta e consolidata, decise di organizzare autonomamente i propri congressi annuali; da allora i rapporti tra SIF e A.I.F., pur con vicende alterne e, talora, con qualche divergenza, sono sempre stati coltivati attraverso commissioni di lavoro, iniziative, studi e attività comuni. Tra queste iniziative ricorre l’organizzazione periodica del Convegno Ettore Orlandini [2]. 64 < il nuovo saggiatore Torino, 26 maggio 2012 – Un gruppo di partecipanti all’uscita dal Convegno. Sono poi seguite due relazioni sui temi specifici del Convegno. M. Michelini ha presentato “Proposte esplorative sui nodi di apprendimento della meccanica, in prospettiva verticale”, fornendo una panoramica dei risultati della ricerca didattica su queste tematiche; C. E. Agnes e A. Merletti hanno presentato “La Quantità di Moto: una occasione per insegnare la Forza”, argomento discusso nel quadro delle proposte della Fisica di Karlsruhe. Il giorno seguente vi sono state altre interessanti relazioni. P. Cerreta con “F = m a, ma che cosa è F, cosa è m e cosa è a?” ha discusso la questione dei principi di Newton; A. Dodero, A. Iscra e M. Pippo con “L’insegnamento della meccanica e la sicurezza: due esperienze di percorsi interdisciplinari” hanno parlato di come si possano presentare cinematica e dinamica in relazione alla sicurezza personale nella guida; M. Recchi con “Un esempio di utilizzo di riprese foto/video per analizzare un fenomeno” ha illustrato le molte possibilità oggi utilizzabili nella scuola per studiare moti partendo da videoriprese. E. Fabri, infine, ha tracciato un quadro complessivo dei problemi connessi con l’insegnamento della meccanica nella relazione “Obiettivi culturali e formativi dell’insegnamento della meccanica”. A conclusione del convegno, G. Haeusermann ha presentato la lezione/spettacolo “Insegnamento della meccanica... inizia così!”, accompagnata da esperimenti e dimostrazioni svolti con l’ausilio di giocattoli. Tutte le relazioni sono pubblicate sul sito web dell’A.I.F. dove è in preparazione la messa in rete anche dei filmati [3]. Ai partecipanti al convegno è stata distribuita una riproduzione anastatica del primo numero del “Bollettino della Associazione Insegnanti di Fisica”, uscito nel 1963 (nel 1968 questa pubblicazione si sarebbe trasformata nella rivista “La Fisica Nella Scuola”). In questo fascicolo è presente un resoconto della giornata del 1962 quando i soci fondatori dell’A.I.F. si recano dal notaio, “dopo di che, con la persuasione di aver compiuto qualcosa di buono, ognuno se ne torna a casa propria mentre intorno calano le ombre della sera.” E così pure, “con la persuasione di aver compiuto qualcosa di buono” si sono lasciati cinquanta anni dopo i partecipanti al XIII Convegno Orlandini, dedicato a tutti coloro che “hanno creduto in questa Associazione dedicandovi molte delle loro energie; festeggiare il compleanno” ha voluto essere “anche un modesto omaggio a tutte queste persone, il cui elenco sarebbe troppo lungo, ma del cui ricordo abbiamo alimentato la nostra memoria” [4]. Ettore Orlandini (1921-1985) fu una figura fondamentale nell’A.I.F. – membro del Consiglio Direttivo per 19 anni, due volte vice presidente, presidente dal 1968 al 1972 – con grande intelligenza e iniziativa seppe stimolare l’Associazione nella ricerca didattica, nell’organizzare proposte di aggiornamento per gli insegnanti e nell’elaborare posizioni e suggerimenti nei confronti del Ministero dove, nel 1977, fu nominato Ispettore centrale. In precedenza era stato insegnante, preside, ispettore tecnico ed aveva a lungo curato il Centro di Fisica presso il Museo della Scienza e della Tecnica di Milano. Socio della SIF, si adoperò con autorevolezza per promuovere la più ampia collaborazione sui temi della didattica. È stata a lui intitolata la Scuola Superiore per Interpreti e Traduttori di Reggio Calabria. Il Ministero della Pubblica Istruzione ha conferito alla sua memoria la Medaglia d’oro per i Benemeriti della Scuola, della Cultura e dell’Arte. La SIF, nel 1985, gli ha conferito un premio della didattica alla memoria. Dopo la sua improvvisa scomparsa, a partire dal 1986, in suo onore sono stati periodicamente promossi dall’A.I.F. i Convegni Ettore Orlandini, tematici e dedicati all’elaborazione di proposte didattiche direttamente utili al lavoro nelle classi; dal 1988 (con C. Marchi Trevisi e S. Focardi) i Convegni Orlandini sono organizzati unitamente dalla SIF e dall’A.I.F. [5]. Bibliografia [1] Citato in: R. A. Ricci. “I cento anni della Società Italiana di Fisica”, La Fisica nella Scuola, XXXII, 3 (1999) 174. [2] Per questa ricostruzione vedere anche: C. Romagnino. I quarant’anni dell’AIF, La storia dell’Associazione per l’Insegnamento della Fisica, AIF 2004 (supplemento a La Fisica nella Scuola XXXVII, 4 (2004). [3] http://www.aif.it/ATTIVITA/TO50.htm [4] R. Serafini. “Editoriale”, La Fisica Nella Scuola, XLV, 2 (2012) 53. [5] Vedere anche il sito: http://www.ettoreorlandini. altervista.org S. Sgrignoli Associazione per l’Insegnamento della Fisica vol28 / no5-6 / anno2012 > 65 news European Gender Summit 2012 a call for enhancing full realization of the research and innovation potential in Europe The European Gender Summit under the theme “Aligning Agendas for Excellence” took place on 29 -30 Nov 2012 at the European Parliament in Brussels, http://www. gender-summit.eu/. The meeting brought together top-level researchers, science leaders, and policy makers to examine gender issues that impact on the implementation of the upcoming HORIZON 2020, European Research Area, and Innovation Union. The participants discussed during eight plenary sessions and four thematic Cafés Scientifiques opportunities for advancing excellence through greater awareness of the role of gender as a dimension of research content. The aim of the Cafés Scientifiques was to facilitate open discussion on selected gender equality topics of current and future importance, namely those that impact on current policy initiatives and help promote quality of research and innovation at institutional, national and European levels. The topics were: “The leaky pipeline and age discrimination “, “Gender as a ‘Big Ticket’ item in R&D&I”, “From manifesto to Gender Equality Standard for projects and institutions”, “GenderSTE: Networking the way to gender equality in science and technology”. Image from the video-contest “Science: it’s your thing!” 66 < il nuovo saggiatore I attended the Café “From manifesto …”, which was led by Prof. Marja Makarow – Vice-President, Academy of Finland, Dr. Peter Fisch – Head of Unit for Ex-post evaluation and evaluation, DG Research and Innovation, and Dr. Shirin Heidari – Chair of the European Association of Science Editors’ Gender Policy Committee and Executive Editor of Journal of the International AIDS Society, who represented the views of research funders, research producers and research publishers. The main focus of the discussion was on the feasibility of adopting a cross-European standard for gender equality in science for projects and institutions. Three key case studies were highlighted during the Café. The American colleague shared two useful measures taken by the NSF-US. Firstly, if the principal investigator has a female post-doc, the NSF would put extra money on the top of the grant to elaborate a mentoring plan to help the female researcher in combining the efforts for family (baby) care and acquiring new scientific skills. Secondly, the NSF supports special schools for women at associate professorship level where the participants are thought how to build international recognition that is a necessary step for becoming a full professor. The enthusiasm of the audience about gender perspectives was slightly reduced by the EU representative, Dr. Fisch, who informed us that there was no specific temptation to involve gender aspects in the HORIZON 2020. The proposals will be judged on their scientific excellence only as it has been during the FP7. The reaction was bitter and we underlined that it had been unfair to oppose excellence and gender aspect of research. One important role of gender in research is that it brings diversity. Let me give only two examples of recent contributions to advancing evidence for addressing gender issues in research – biomarkers: women and men differ significantly in their metabolite profile; drilling in space was made possible with the help of female wood wasp. The winners of the video-contest “Science: it’s your thing!”, organized before the summit, were announced on the 29th of November and videos can be watched on http://www. gender-summit.eu/index.php/videocontest The video contest was successful in creating discussion and engagement, triggering an animated debate on how to promote science to young women – a crucial element in bringing the campaign to life. My presentation “Unconventional thinking – a road less travelled” was included in the poster presentation, which was showcased online in the virtual Gender Summit Exhibition and onsite through the Poster Cards Exchange. The core of my presentation can be summarized with the following lines: Courage and risk are major requirements for unconventional and creative thinkers. They are not afraid to take chances and try new things. They stretch the boundaries of what is known and acceptable. They understand that new frontiers have dangers. As a final comment I would like to stress that the gender is not a problematic issue. In my view, it is an opportunity. A. Proykova Ana Proykova, Full Professor of the Atomic Physics Department of Sofia University, Bulgaria, is Member of the Equal Opportunity Committee (EOC) of the European Physical Society. The EOC looks at the barriers that contribute to the under representation of women in Physics in order to assure a more equitable gender balance. Una donna ai vertici della comunità dei fisici italiani delle alte energie Lo scorso ottobre Speranza Falciano, è stata eletta vicepresidente dell’Istituto Nazionale di Fisica Nucleare dal Consiglio direttivo dell’Istituto. è la prima volta che una donna ricopre questa carica istituzionale. La sua nomina è avvenuta dopo quella a membro della giunta esecutiva dell’INFN nel dicembre 2011, anche in quell’occasione tale carica era stata assegnata a una donna per la prima volta. Speranza Falciano, dirigente di ricerca dell’INFN, ha diretto la sezione INFN di Roma 1, presso l’Università “La Sapienza”. fisico sperimentale, ha lavorato al CERN di Ginevra in numerosi esperimenti. Attualmente è membro della collaborazione ATLAS dell’acceleratore LHC del CERN nella quale ha numerosi incarichi di coordinamento in particolare per quanto riguarda il trigger e lo spettrometro dei muoni. Speranza Falciano è anche membro del comitato scientifico de Il Nuovo Saggiatore per cui le congratulazioni sono davvero speciali: Auguri di buon lavoro da parte di tutta la redazione! Società Italiana Storia della Scienza Società Italiana di Fisica PRESENTAZIONE DEL VOLUME a cura di edited by Luisa Cifarelli Raffaella Simili Lo scorso 9 novembre ha avuto luogo presso l’Accademia delle Scienze dell’Istituto di Bologna la presentazione ufficiale del volume “Laura Bassi - Emblema e primato nella scienza del settecento/Emblem and primacy in Settencento science”. La bellissima Sala Ulisse era Presentazione del volume in onore di Laura Bassi affollata e tra il publico spiccava la presenza di un gruppo di giovani invitati in rappresentanza di alcuni licei cittadini. Dopo i saluti del Presidente dell’Accademia delle Scienze, Francesco Antonio Manzoli, del Magnifico Rettore dell’Università di Bologna, Ivano Dionigi, e delle curatrici La Sala Ulisse durante la presentazione del volume. del volume, rispettivamente Presidenti delle due Società di Fisica e di Storia della Scienza, Luisa Cifarelli e Raffaella Simili, si sono alternati gli oratori Carla Faralli (Università di Bologna), Nadia Robotti (Università di Genova) e Lucio Fregonese (Università di Pavia). Ha concluso con un significativo intervento il Sottosegretario del MIUR, Elena Ugolini, che ha voluto onorare l’evento con la sua presenza. Delle relazioni sarà dato ampio resoconto in un prossimo fascicolo dei Quaderni di Storia della Fisica, pubblicato dalla SIF. L’evento durante il saluto del Presidente dell’Accademia: da sinistra L. Cifarelli, E. Ugolini, F. A. Manzoli, I. Dionigi e R. Simili. vol28 / no5-6 / anno2012 > 67 intervista A benedetto vigna Da Pietrapertosa (Potenza) Benedetto Vigna, nato nel 1969, si sposta presso l’Università di Pisa per laurearsi in Fisica Subnucleare. Nel 1995 Vigna entra a far parte del Laboratorio di Ricerca e Sviluppo della STMicroelectronics a Castelletto (Milano). Sei anni più tardi, diventa direttore della Business Unit MEMS della STMicroelectronics e responsabile per la progettazione, produzione e marketing dei prodotti MEMS della ST. Questi ultimi sono stati scelti da grandi produttori di apparati di elettronica di consumo, fra i quali Nintendo che li ha inseriti nella sua innovativa interfaccia utente per la console di videogiochi Wii, e da molti produttori di telefoni cellulari. Nel 2007, l’organizzazione di Vigna è stata trasformata in una Divisione di Prodotto e le sue responsabilità comprendono la gestione di Sensori, RF, Analogici ad Alte Prestazioni e a Segnale Misto, prodotti di Interfaccia, Audio per Sistemi portatili, Prodotti analogici generici. Vigna è titolare, ad oggi, di oltre 130 domande di brevetto sul micro-machining ed è autore di numerose pubblicazioni in questo campo. È stato invitato a tenere diverse relazioni in occasione di importanti convegni internazionali. Vigna è anche consulente industriale del Presidente del CNR (Consiglio Nazionale delle Ricerche). Attualmente è Executive Vice President, Direttore Generale della Divisione Analogici, MEMS e Sensori, posizione che ricopre dal settembre 2011. l’avventura dei dispositivi mems Benedetto, dopo le scuole a Potenza lei ha scelto di andare a studiare Fisica subnucleare all’Università di Pisa. Cosa voleva fare da grande? Ero attratto dalle materie scientifiche, e Pisa aveva una buona fama. Nel mio caso come in molti altri ha avuto influenza la personalità dell’insegnante di matematica e fisica del liceo e poi un incontro con il professor Carlo Bernardini (a Cortona nell’estate del 1987). Sognavo di fare il ricercatore e in effetti dopo la laurea ho lavorato prima al CERN a Ginevra, dove mi sono occupato di cromodinamica quantistica, poi all’European Synchrotron Facility a Grenoble e infine al Max Planck Institut di Monaco di Baviera a lavorare al laser ai raggi X per decifrare la struttura tridimensionale delle proteine. Ma la fisica teorica ha tempi lunghissimi. Così mi sono accorto di voler vedere dei risultati in tempi più brevi, di amare il confronto delle mie idee con quelle del mercato, di unire la riflessione all’azione. Ed è entrato in azienda… Stavo pensando di cambiare lavoro e tipo 68 < il nuovo saggiatore di carriera quando mi hanno chiamato per il servizio militare. Appena congedato sono entrato in STMicroelectronics, in uno dei centri di Ricerca e Sviluppo dell’azienda, quello che faceva capo a Bruno Murari e la cui sede principale era vicino Milano, a Cornaredo. Bruno aveva tante attività in corso ma anche tante idee nel cassetto, e mi propose di esplorare un campo nuovo, quello del micromachining. All’epoca, fine 1995, esistevano già i sensori di accelerazione che fanno scattare gli airbag delle auto. Bruno pensava alle caratteristiche meccaniche del silicio e alle capacità di lavorarlo che la ST aveva sviluppato negli anni. E poi c’erano gli impianti della ST da sfruttare. Così appena assunto mi assegnò l’incarico di esplorare questo mondo della fabbricazione di sensori mettendomi in mano l’unico articolo pubblicato in materia, peraltro da un esperto di Analog Devices. Da lì sono partito a studiare, a leggere, a viaggiare per conferenze scientifiche e per un anno ho studiato a Berkeley, in California. Dalla fisica alla microelettronica. Comincia cosi l’avventura dei MEMS? Non so se definirla avventura, certo in ST c’erano solide basi di partenza in termini industriali come know-how e come impianti. Sul piano personale è stata sicuramente una magnifica avventura sia perché il settore era veramente agli inizi, il mio team era piccolo e formato da giovanissimi, sia perché abbiamo perseguito strade nuove rispetto alle altre aziende e come insegnano i migliori studiosi di marketing abbiamo creato un nuovo settore di attività in cui ancora oggi siamo i leader e controlliamo più del 50 per cento del mercato. Di un mercato, oltretutto, che cresce a due cifre nonostante l’impatto che la crisi ha avuto dal 2008 in poi sulla domanda di beni di elettronica di consumo. Come avete fatto? Abbiamo imparato molto strada facendo, anche dai nostri stessi insuccessi. Ma all’inizio abbiamo avuto due importanti stimoli. Da una parte la capacità di innovazione che era un punto fermo delle strategie di ST e quindi era incentivata e supportata anche quando i risultati non arrivavano immediatamente. Dall’altra un’intuizione: i MEMS dell’epoca erano grossi e costosi come gioielli importanti. Questo limitava necessariamente il loro utilizzo. Ma la ST produceva miliardi di chip l’anno e la sua grande infrastruttura manifatturiera si muoveva efficientemente solo per grandi volumi. L’elettronica di consumo era all’epoca il solo settore che potesse assorbire grandi numeri di prodotti ma che dovevano necessariamente avere caratteristiche completamente diverse dai sensori degli airbag. I nostri MEMS dovevano essere piccoli, consumare poca energia, svolgere molte funzioni e costare poco. Niente gioielleria, in una parola, piuttosto grande magazzino. Ci siamo messi al lavoro e abbiamo cominciato subito a correre perché dovevamo sviluppare allo stesso tempo il prodotto, ma anche le tecnologie per produrlo, le macchine per testarlo, e così via. Nuove procedure, nuove specifiche, centinaia di brevetti (600 per la precisione), tanti prodotti diversi sviluppati per clienti e applicazioni diverse. Per vari motivi però non siamo mai entrati in produzione in volumi. Finché non abbiamo preso una decisione radicale: abbandonare tutti gli sviluppi in corso per affrontare una sola grande sfida a cui nessuno si era ancora applicato. Dare cioè ai nostri accelerometri miniaturizzati la terza dimensione. In effetti il nostro mondo ha tre dimensioni. Così ci siamo impegnati a costruire un terzo asse su una piastrina di silicio di meno di un millimetro. La sfida era enorme anche perché dovevamo tenere bassi i consumi, studiare un package adeguato e tenere bassi i prezzi, come ci eravamo proposti. Ma alla fine del 2002 avevamo il primo accelerometro a tre assi al mondo capace cioè di percepire ogni dimensione di movimento lineare. è stato questo accelerometro la chiave del successo? Non immediatamente. Abbiamo avuto molti contatti e molti clienti ma non grandi volumi. Per questo è stato importante avere alle spalle un’azienda con grande esperienza di innovazione che ha continuato a darci fiducia anche se il fatturato non c’era. Anzi il management ha preso una decisione cruciale in un momento cruciale: nonostante non avessimo grandi ordini, è stato deciso di avviare alla produzione di MEMS una linea ad otto pollici, quando tutti i concorrenti ne avevano una a sei pollici. Si è investito per garantire al nuovo prodotto quello che gli altri non potevano avere: grandissimi volumi, grande affidabilità, prezzi molto contenuti. E come ha fatto a convincerli? L’idea di partenza nasceva dall’esperienza di chi ha visto per anni crescere l’industria elettronica. Abbiamo apparati sempre più sofisticati e multifunzione. Ma se il loro uso non resta semplice se ne limita la diffusione. Pensi ai telecomandi dei televisori. O alle tastiere dei telefonini. Noi pensavamo che il movimento o meglio il gesto potesse semplificare l’interfaccia uomo macchina. Anche per alleggerire il peso dei dispositivi portatili. Viene in mente il paragone con l’entrata del mouse o delle icone sulla scena del personal computing. Poter passare dalle raggelanti ed ostiche istruzioni scritte alla semplicità intuitiva della selezione con i movimenti del polso e delle dita ha avvicinato milioni di nuovi utenti al computer. Lo stesso tipo di rivoluzione è stato reso possibile dall’affacciarsi dei MEMS sul mercato di massa. C’era chi puntava sulla voce come interfaccia che tuttavia richiede grande dispendio di energia. Noi abbiamo avuto successo, anche perché ci siamo attrezzati “just in time”. E poi, dall’altra parte del mondo qualcun altro pensava a come mettere in pratica l’insegnamento di P. Drucker: creare un mercato invece di trovare un cliente. Nintendo aveva perso la posizione di leader nel mercato dei videogiochi rispetto a Sony e Microsoft. Era necessario un colpo di reni: questo è stato possibile proprio grazie all’incontro di due innovazioni. Nintendo ha compiuto un’innovazione radicale trasformando il concetto di gaming con la console Wii. D’altra parte c’è l’innovazione radicale nella tecnologia e nella sua applicazione all’industria rappresentata dal nostro accelerometro a 3 assi. Come siete arrivati a questo incontro? Questa è una storia ormai scritta. Ma vale la pena di ricordarla. Sino all’arrivo sul mercato della Wii, i videogiochi – come qualunque altra apparecchiatura elettronica – venivano controllati attraverso la pressione di tasti, lo spostamento di selettori o al massimo con il movimento di un joystick. L’interfaccia uomomacchina era tutt’altro che amichevole. Per chi aveva superato l’adolescenza e non aveva saputo conquistarsi un’adeguata mobilità dei pollici, l’impatto con il gioco era addirittura ostile. Il controllore della Wii, costruito attorno all’accelerometro, cambia radicalmente le regole e si propone come nuovo paradigma nei videogiochi, trasformandosi in estensione naturale delle braccia come racchetta da tennis, pistola da tiro a segno, mazza da baseball o addirittura in bacchetta di direttore d’orchestra. Partendo da questo primo impiego di massa, i MEMS si posizionano per creare una nuova interfaccia, più naturale di mouse, joystick e tasti sempre più piccoli, fra noi e le tecnologie elettroniche della vita quotidiana. Quanto è meglio poter comandare gli oggetti dell’elettronica quotidiana con un semplice gesto, una cosa che a noi mediterranei viene peraltro facilissimo. La forza del gesto imprime a una piccola massa all’interno del dispositivo un’accelerazione, come spiegato 300 anni fa dal grande Newton. Quest’accelerazione può essere rilevata e trasformata in un segnale elettrico. E Nintendo conquista un mercato nuovo, il mercato di tutti coloro che mai si erano o si sarebbero cimentati con un joystick e che invece trovano naturale maneggiare una racchetta o un guantone da boxe. La console Wii è stato un successo senza precedenti. Cosa è successo dopo? Immagino una strada in discesa? Niente affatto. Anzi, abbiamo cominciato a correre ancora più veloci e affrontato scommesse sempre più grandi. è vero che dal 2008 siamo ufficialmente leader di un mercato che prima non esisteva, quello dei MEMS per applicazioni portatili e di elettronica di consumo e da allora ci attribuiscono quote del mercato che vanno dal 70 al 50 %. Ma noi guardiamo a quello che non abbiamo ancora realizzato. Dall’accelerometro a 3 assi siamo passati al giroscopio a 3 assi, perché l’accelerazione è importante ma il movimento angolare è preciso. Quando abbiamo cominciato sul mercato li trovavi in cubi di una decina di centimetri di lato. In 100 giorni abbiamo progettato un giroscopio di 4 mm compreso il package per Apple. E anche questo risultato ha aperto un mercato nuovo e molto ampio. Ma non c’è solo il movimento. Così costruiamo e vendiamo sensori di pressione per poter localizzare un oggetto in movimento anche come altitudine. Fra l’altro questo ci ha aperto il settore della navigazione personale in luoghi chiusi, come aeroporti, musei o centri commerciali dove è fondamentale sapere a che piano mi trovo e il segnale del satellite non arriva. Poi ci sono i microfoni MEMS, piccolissimi anch’essi, che permettono di cancellare il rumore e di migliorare l’audio anche a partire da un telefono cellulare. In effetti, guardando indietro più che il fascino della tecnologia con cui realizziamo queste minuscole sensibili macchine, mi colpiscono le trasformazioni che si rendono via via possibili. Le applicazioni sono davvero infinite e siamo ancora solo all’inizio. Penso a quelle intorno al nostro corpo, che ci aiuteranno a stare bene, a migliorare la diagnosi e a curarci. Una nota azienda di attrezzi sportivi usa i nostri sensori per sollecitare i più pigri al movimento: registra ogni movimento di carattere “sportivo” o salutistico e ci mette in competizione con noi stessi, con quanto ci siamo mossi o non ci siamo mossi rispetto ai nostri obbiettivi. Penso ai sensori MEMS e non che progettiamo per gli ambienti, che processeranno dati e manderanno informazioni ma anche istruzioni ad altre macchine. Passiamo dall’interfaccia uomo-macchina basata sul movimento a macchine che interfacciano altre macchine raccogliendo ed elaborando informazioni dall’ambiente in cui vivono e magari anche catturando energia per autoalimentarsi. Sono nuovi settori che si spalancano quasi ogni giorno. Dal punto di vista industriale cosa ha comportato il vostro successo? Potremmo dire che è nata una nuova industria, complementare a quella dei semiconduttori, quasi un pollone nuovo da una pianta molto radicata. Abbiamo fatto investimenti, creato posti di lavoro, salvaguardato posti che la crisi della domanda post 2008 aveva messo in gioco, avviato una catena di fornitura complementare. L’impianto produttivo di Agrate Brianza è stato ampliato più volte per far fronte alla domanda di MEMS, mentre a Malta si assembla il prodotto finale e in uno stabilimento francese si produce il chip che legge i segnali del sensore. Calcoliamo in 1500 i posti di lavoro ST legati ai MEMS, di cui un migliaio in Italia. Ma soprattutto il cuore della ricerca, dello sviluppo e del marketing resta vicino a Milano, dove i MEMS sono nati, a Cornaredo. S. Centro Università di Padova vol28 / no5-6 / anno2012 > 69 opinioni DAMA E XENON ANCORA UNA VOLTA A CONFRONTO Gentile Direttore, le scrivo in merito all’articolo “Dark Ladies” uscito sul Nuovo Saggiatore vol. 28, n. 3-4 a pag. 77. Premetto che: 1) come noto anche all’autrice dell’articolo, sono professore ordinario di Fisica Nucleare e Subnucleare presso l’Università di Roma Tor Vergata e non professore di Fisica all’Università di Roma Tre, come lì riportato. 2) avevo compreso dall’autrice che ella fosse una giovane ricercatrice che doveva preparare una presentazione per il congresso SIF di Napoli nell’ambito di un progetto europeo sulle situazioni di genere – e su ciò si era principalmente basata la nostra breve conversazione – e non un articolo per il Nuovo Saggiatore. 3) il mio pensiero sull’argomento della presunta specificità del settore in anomalia di genere – unico punto di interesse nel nostro breve colloquio non è stato riportato. Avevo, infatti, posto all’attenzione dell’autrice che tale anomalia di fatto non esiste, essendo – oggi e almeno nel recente passato – presenti in molti campi di ricerca più donne in posizione di responsabilità, un esempio attuale per tutti: LHC. Accludo di seguito pochi dei chiarimenti necessari sul contenuto del testo per corretta informazione dei lettori del Nuovo Saggiatore e a tutela del lavoro della nostra collaborazione internazionale. La collaborazione DAMA – pioniere nel settore – ha pubblicato il primo risultato positivo indipendente da modelli nel 1998, lo ha confermato nelle pubblicazioni del 1999, del 2000 e del 2003, sempre con aumentata esposizione. Successivamente il nuovo apparato DAMA/LIBRA di seconda generazione ha ancora confermato e pubblicato i suoi risultati nel 2008 e nel 2010. DAMA/LIBRA è stato potenziato recentemente ed è in presa dati. L’evidenza – indipendente da modelli – per la presenza di particelle di Materia Oscura nell’alone galattico è a circa 9 sigma di livello di confidenza e l’esposizione è ordini di grandezza maggiore di quelle tipicamente rilasciate nel campo. Una ampia letteratura 70 < il nuovo saggiatore di DAMA e di altri si è resa disponibile negli anni su analisi corollarie in termini di varie delle molte possibili particelle candidate come Materia Oscura dell’Universo in vari dei molti scenari possibili di astrofisica, di fisica nucleare e delle particelle. Tali risultati non sono affatto in disputa con la recente attività Xenon, cui fa riferimento l’autrice. Infatti, DAMA persegue un approccio diverso e indipendente da modelli, utilizza un materiale bersaglio diverso, e – al contrario di altri – è di per sè sensibile a molti e diversi scenari e candidati di Materia Oscura, oltre alla classe delle WIMPs (cui afferiscono in realtà candidati con fenomenologie anche molto diverse da quella assunta a priori per il singolo risultato, dipendente da modello, presentato da Xenon). In particolare, non c’è possibilità di confronto diretto indipendente da modelli tra gli osservabili misurati dalle due attività: ampiezza di modulazione del tasso di conteggio in NaI(Tl) per DAMA e numero di candidati recoil-like in Xenon, che sopravvivono a vari tipi di data handling, per Xenon. Per ristabilire anche un po’ di chiarezza scientifica, noto che le implicazioni poi dichiarate da Xenon (come da alcuni altri) si basano tra l’altro sull’assunzione a priori – largamente arbitraria – di un numero rilevante di aspetti sperimentali e teorici (natura e interazioni del candidato, leggi di scala, fattori di forma, modello di alone, ecc. e valori dei relativi parametri), senza dar conto inoltre nemmeno delle incertezze esistenti in tale particolare cucina. Le implicazioni di DAMA non sono correttamente riportate. Ci sono poi aspetti sperimentali nelle procedure adottate da Xenon – come evidenziato variamente nel campo e come ricordato dalla stessa autrice dell’articolo – che rendono questionabili i limiti presentati perfino per la singola cucina assunta. è stato mostrato in letteratura ad esempio come Xenon non abbia in realtà sensibilità per WIMPs di bassa massa – non solo nella sua cucina, ma in generale – considerata sia l’energia di rinculo coinvolta che il fatto che la pretesa soglia energetica (ed, e.g., efficienze correlate) è estrapolata da calibrazioni a energie molto più elevate nonostante i pochi fotoelettroni/keV disponibili, la risposta del rivelatore grandemente disuniforme, la luce emessa nell’estremo UV, ecc. Quindi, l’assioma proclamato in tale articolo che “Xenon esclude WIMPs dove DAMA dice che sono” è destituito di fondamento in senso generale per tutte le ragioni indicate e per molte altre sperimentali e teoriche. Inoltre, DAMA è sensibile anche a candidati e scenari cui Xenon non è. Simili affermazioni apodittiche non erano vere in passato per altri e non sono vere per Xenon; certo è singolare che stavolta siano fuori virgolettato e sul bollettino della nostra Società a carattere scientifico invece che lasciate alla responsabilità di quella collaborazione. Infine, come già mostrato in letteratura, i possibili risultati positivi di CRESST – così come quelli di CoGeNT – sono largamente compatibili con quelli di DAMA in vari scenari teorici al contrario di quanto affermato in tale articolo. Sono certa che concorderà sull’opportunità di pubblicare questa mia lettera a rettifica, nel sito del Nuovo Saggiatore e nel suo prossimo numero. Cordialmente, Rita Bernabei Dipartimento di Fisica Università di Roma Tor Vergata Opinioni Online First 10 ottobre 2012 La ricerca della materia oscura è una sfida affascinante. Ne è la prova la lettera di Rita Bernabei concernente l’articolo “Dark Ladies” di Ilenia Picardi, comparso nell’ultimo numero de Il Nuovo Saggiatore. Ci scusiamo innanzi tutto con Rita Bernabei per l’imprecisione circa la sua sede universitaria. L’affermazione incriminata, “XENON esclude WIMPs dove DAMA dice che sono”, è però imprecisamente riportata da Rita Bernabei. Infatti la frase originale pubblicata nell’articolo di Ilenia Picardi è: “DAMA vede le WIMP proprio dove secondo XENON non ce ne dovrebbero essere”. Il condizionale usato dall’autrice sembra volere attenuare, a mio avviso, il carattere apodittico attribuito a questa frase. Ad ogni modo la disputa scientifica esiste ed è ben nota. Nulla di male che sia stata menzionata nelle colonne de Il Nuovo Saggiatore in un contesto diverso dal solito. Luisa Cifarelli Scienza, etica e responsabilità sociale dello scienziato La sentenza del Tribunale dell’Aquila che ha condannato i membri della Commissione Grandi Rischi impone una riflessione sulla responsabilità sociale dello scienziato scevra da qualunque posizione preconcetta. Il punto che qui ci interessa, non è se la sentenza – di cui ancora non si conoscono le motivazioni – sia stata giusta o sbagliata. Il punto è invece costituito dal fatto che, diversamente da quanto asserito da più parti, non c’è stato alcun “processo alla scienza”, ma, piuttosto, una imputazione che riconduce ad una possibile violazione della salvaguardia dell’autonomia della scienza: gli scienziati si sarebbero piegati a pressioni esterne nell’esprimere le loro valutazioni sui rischi cui la popolazione aquilana era sottoposta [1]. In Italia, la consapevolezza dell’importanza dei problemi etici connessi alla professione dello scienziato è scarsa: i dibattiti ricorrenti sull’uso delle tecniche biologiche (staminali, procreazione assistita, OGM) non debbono trarre in inganno. Questi dibattiti, infatti, sono per lo più innescati per ragioni di polemica politica o per la difesa di credenze religiose: essi non hanno mai portato al centro dell’attenzione la questione dell’etica della scienza nella sua complessa articolazione. Nel mondo anglosassone, invece, l’attenzione rivolta ai problemi etici della scienza è stata stimolata nei primi anni Quaranta del secolo scorso dalle opere di Robert Merton (19102003). Seguendo la traccia di Merton, possiamo affermare che la scienza, non è eticamente neutra: il suo sviluppo è stato infatti favorito dalla applicazione di alcune norme e dall’adozione di alcuni valori il cui insieme può essere considerato come costitutivo di un’etica della scienza. Alcune di queste norme sono di natura epistemologica; altre derivano dal fatto che la scienza è un fenomeno sociale (le norme che seguono sono una articolazione/ estensione di quelle individuate da Merton [2, p. 267-278], qui indicate da un asterisco): • L’indipendenza di giudizio. Per usare una felice espressione di Percy Bridgman (18821961): “[Lo scienziato] ha scoperto che non è sufficiente credere alle parole del suo vicino, ma che, se vuole essere sicuro, deve essere in grado di verificare un risultato egli stesso”. • Lo scetticismo organizzato: ogni asserzione deve essere valutata dal punto di vista • • • • • • logico (coerenza del contesto in cui è inserita), da quello empirico, da quello della plausibilità*. Il rifiuto di dogmi e, quindi, la possibilità di dissenso. La parità: le opinioni devono essere valutate indipendentemente dalla persona che le sostiene. Il disinteresse: gli interessi personali dello scienziato non debbono influenzare le sue asserzioni scientifiche*. La comunione dei beni, cioè dei risultati della scienza*. L’universalismo: nessuna barriera o connotazione nazionale, etnica, ideologica, religiosa, politica*. L’autonomia: le asserzioni della scienza non debbono essere condizionate da istituzioni o organizzazioni pubbliche o private. La storia ha mostrato che quando qualcuna di queste norme è stata violata da individui, da stati, da organizzazioni civili o religiose, il procedere della scienza ne è stato, in misura più o meno grave, ostacolato. L’esistenza di norme di comportamento all’interno della comunità scientifica non significa che esse siano universalmente rispettate o che la loro applicazione non sia contrastata. Le violazioni delle norme della scienza di maggiore rilevanza non sono quelle individuali (la manipolazione dei dati, per esempio), ma quelle oggi favorite dal radicamento sociale della scienza e dal suo intreccio con la tecnologia. La progressiva specializzazione ha favorito, per quanto riguarda la formazione degli scienziati, il prevalere di criteri di efficienza e rapidità rispetto all’esigenza di sviluppare un approccio critico allo studio delle discipline; come conseguenza, si va indebolendo l’indipendenza di giudizio e la capacità di valutare senza pregiudizi posizioni non ortodosse. La possibilità di applicazioni militari e civili tende a limitare o ad impedire la condivisione delle nuove conoscenze. Il richiamo a valori etici integrativi o sostitutivi di quelli della scienza può condurre alla richiesta di impedire lo sviluppo della conoscenza in alcuni settori; organizzazioni religiose perseverano nell’attacco ad alcuni valori fondanti della scienza quali la ricerca non condizionata della conoscenza, l’indipendenza di giudizio, lo scetticismo, il rifiuto di dogmi. Tuttavia, l’attacco forse più insidioso all’etica della scienza è, oggi, quello rivolto alla sua autonomia. L’intreccio tra scienza e tecnologia e il diffuso uso sociale delle conoscenze scientifiche ha potenziato il ruolo dello scienziato, ma ne ha anche accresciuto le responsabilità in relazione al rispetto ed alla salvaguardia dei valori etici della scienza. Per esempio, uno scienziato in quanto componente di un gruppo di esperti in difesa di una parte attiva in un processo penale o civile, abdica, a priori, alla sua autonomia e pone le sue conoscenze scientifiche al servizio di tesi precostituite. Queste forme di consulenza sono inevitabili nelle dinamiche delle società moderne: tuttavia, deve essere chiara e consapevole la torsione cui è sottoposta l’etica della scienza in questi casi di “gioco delle parti”. Completamente diverso è il caso di gruppi di esperti chiamati a svolgere una funzione pubblica di consulenza su temi di grande rilevanza sociale quali l’impatto delle tecnologie sull’ecosistema o sulla salute dei cittadini o la valutazione di rischi connessi a fenomeni naturali. In questi casi, la strenua difesa, da parte dello scienziato, della sua autonomia da interferenze o pressioni esterne, non risponde solo al richiamo di uno dei fondamentali valori dell’etica della scienza, ma è anche una sua efficace tutela dal punto di vista penale. Oggi, a livello mondiale, il dibattito sui temi etici posti dalla pratica scientifica è assai vivace e numerose sono le organizzazioni che se ne occupano. è necessario aprire anche nel nostro paese una seria riflessione su questi temi e sull’opportunità di inserirli strutturalmente nei corsi di laurea (discipline scientifiche, storia e filosofia) e nei corsi di formazione degli insegnanti. Giuseppe Giuliani Dipartimento di Fisica, Università di Pavia Bibliografia [1] Requisitoria dei pubblici ministeri del 25/09/2012, in rete alla pagina: http://www.inabruzzo.com/ REQUISITORIA.pdf [2] R. Merton, The normative Structure of Science, in “The Sociology of Science: Theoretical and Empirical Investigations” (University of Chicago Press) 1973. Opinioni Online First 21 novembre 2012 vol28 / no5-6 / anno2012 > 71 recensioni R. P. Huebener and H. Lüebbig S. Komura and T. Ohta (Editors) A Focus of Discoveries­ Non-Equilibrium Soft Matter Physics Series in Soft Condensed Matter Vol. 4 World Scientific, Singapore, 2012 pp. XII + 422, $108.00 Second Edition World Scientific, Singapore, 2008 pp. X + 185; $98.00 Recensione di Amand A. Lucas Recensione di R. Piazza Pubblicata online 13 settembre 2012 Pubblicata online 10 agosto 2012 M. Bastoni A. W. Chao and W. Chou Eclissi ! Reviews of Accelerator Science and Technology cielo Accelerator Applications in Industry and the Environment Vol. 4 World Scientific, Singapore, 2011 pp. VIII + 291; $168.00 Quando Sole e Luna danno spettacolo in Springer-Verlag Milano, 2012 pp. IX + 131; € 20.00 Recensione di F. Bònoli Pubblicata online 11 settembre 2012 Pubblicata online 27 settembre 2012 S. Turchetti S. Ossicini The Pontecorvo Affair L’Universo è fatto di storie non solo The University of Chicago Press, London, 2012 pp. 292, $45.00 Breve storia delle truffe scientifiche A Cold War Defection and Nuclear Physics di atomi I Colibrì. Neri Pozza, Vicenza, 2012 pp. 286, € 18.00 Recensione di L. Belloni Recensione di L. Belloni Pubblicata online 28 settembre 2012 Pubblicata online 6 novembre 2012 D. S. Ginley and D. Cahen (Editors) D. Hoffmann and M. Walker (Editors) Fundamentals of Materials for Energy and Environmental Sustainability The German Physical Society in the Third Reich Physicists between Autonomy and Accommodation Cambridge University Press, Cambridge, 2012 pp. 772, £. 135,00, US$ 122,73 Cambridge University Press, New York, 2012; pp. XXIII + 458, $110.00 Recensione di A. Terrasi Pubblicata online 5 dicembre 2012 Recensione di D. Rifuggiato How to get into the fascinating and multidisciplinary world of renewable and sustainable energies 72 < il nuovo saggiatore Pubblicata online 5 dicembre 2012 Recensione di Amand A. Lucas S. Braibant, G. Giacomelli and M. Spurio G. Caprara Particelle e interazioni fondamentali Storia italiana dello spazio Visionari, scienziati e conquiste dal XIV secolo Springer-Verlag Italia S.r.l., Milano, 2012 2a edizione pp. XVI + 520, € 31,95 alla stazione spaziale Saggi, Bompiani, 2012 pp. 496, € 19 ISBN 45271106 Recensione di G. Benedek Recensione di L. Belloni Pubblicata online 5 dicembre 2012 Pubblicata online 5 dicembre 2012 F. V. De Blasio Aria, acqua, terra e fuoco Vol. I: Terremoti, frane ed eruzioni vulcaniche Springer-Verlag Italia S.r.l., Milano, 2012 pp. XIV + 233, € 24,00 ISBN 978-88-470-2546-2 Vol. II: Uragani, alluvioni, tsunami e asteroidi Pubblicata online 11 dicembre 2012 Springer-Verlag Italia S.r.l., Milano, 2012 pp. XIV + 302, € 26,00 ISBN 978-88-470-2543-1 Recensione di G. Ottonello a cura di Giorgio Benedek in ricordo di Gloria Campos Venuti Giordano Diambrini Palazzi Marcello Cini Gabriele Francesco Giuliani Photograph by C. Mercadini Roma, 25 dicembre 1928 Roma, 5 giugno 2012 Fano, 17 maggio 1926 Roma, 4 settembre 2012 Firenze, 29 luglio 1923 Roma, 22 ottobre 2012 P. Salvadori G. Barbiellini G. Jona-Lasinio Pubblicato online 6 agosto 2012 Pubblicato online 27 settembre 2012 Pubblicato online 7 dicembre 2012 Ascoli Piceno, 13 aprile 1953 West Lafayette, IN, USA, 22 novembre 2012 G. Vignale Pubblicato online 7 dicembre 2012 vol28 / no5-6 / anno2012 > 73 in evidenza La torre degli Asinelli. Un laboratorio di fisica C. M. Graney; Anatomy of a fall: Giovanni Battista Riccioli and the story of g. Physics Today., 65 (2012) 36 Il manifesto del 96˚ congresso della SIF, Bologna 2010, ricordava l’esperimento di Giovanni Battista Guglielmini, che, nel 1791, riuscì per primo a misurare lo spostamento dei gravi verso Est, facendo cadere sfere pesanti dalla torre degli Asinelli. L’esistenza dell’effetto, come prova della rotazione o meno della Terra, era stata avanzata un secolo e mezzo prima dal gesuita e scienziato Giovanni Battista Riccioli (molto prima di Coriolis) nel suo Almagestum Novum del 1651. Egli aveva preceduto Guglielmini nello sperimentare con sfere lasciate cadere dagli Asinelli. L’effetto, che sarà calcolato solo da Newton nel 1679, è molto piccolo (17 mm nel caso specifico) e Riccioli non riuscì ad osservarlo, ma alcuni notevoli suoi risultati sperimentali sono stai ora portati all’attenzione di un vasto pubblico da Physics Today. Illustrazione degli esperimenti degli Asinelli dall’Almagestum Novum. Graney, che ha studiato l’Almagestum Novum, racconta come Riccioli fosse rimasto scettico leggendo, col permesso dei superiori, nel Dialogo di Galilei, che era all’indice, l’affermazione che un grave impiega 5 s per cadere da fermo da 100 braccia (circa 48 m). Infatti aveva misurato tempi minori per percorsi di caduta maggiori. Aveva ragione Riccioli, anche i grandi sbagliano a volte. Decise quindi di misurare accuratamente i tempi di caduta. Fabbricò pendoli di diversi periodi che calibrò accuratamente in secondi siderali rispetto ai moti celesti (due passaggi successivi di una stella al meridiano). Si fece aiutare da confratelli, con qualche difficoltà nell’ultimo caso, nel conteggio delle oscillazioni per 24, 48 e sino a 72 ore. Per misurare i brevi intervalli di tempo delle cadute libere utilizzò un pendolo di semiperiodo di 1/6 di secondo. Nell’Almagestum Novum si trovano riportati i risultati di tre esperimenti, nei quali si misurano gli intervalli di tempo impiegati dal grave (una sfera di argilla di 8 once di massa) a percorrere successive distanze nella caduta (5 distanze nei primi due esperimenti, 4 nell’ultimo). La resistenza dell’aria risulta di fatto trascurabile, a meno degli ultimi tratti, e Riccioli confermò con la precisione di qualche per cento la legge di Galilei che gli spazi sono proporzionali ai quadrati dei tempi impiegati dall’inizio (o proporzionali ai numeri “oddi” negli intervalli successivi). Si noti che Galilei aveva trovato la legge sperimentando di proposito con accelerazioni ridotte, nei suoi 74 < il nuovo saggiatore esperimenti di discesa con rotolamento sul piano inclinato. Graney conclude riportando i dati di Riccioli in un grafico dei tempi (in secondi) contro le distanze (in piedi romani) e mostrando come i punti cadano su di una parabola. Il fit dà g = 9.36 ± 0.22 m/s2, dove rimane un’incertezza dovuta al rapporto tra piedi e metri. Riccioli non calcolò l’accelerazione di gravità, ma, se l’avesse fatto, avrebbe trovato un valore corretto entro il 5%. Per altre informazioni sull’Almagestum Novum vedi di C. M. Graney arXiv 1103.2057; 1204.3267 e 1205.4663 Una sorgente di fotoni singoli sintonizzabile nella banda delle telecomunicazioni su fibra ottica S. Zaske et al., Visible to telecom frequency conversion of light from a single quantum emitter. Physical Review Letters, 109 (2012) 147404 I quantum dots sono insiemi di atomi di dimensioni nanometriche che possiedono collettivamente stati elettronici eccitati. Essi possono emettere, diseccitandosi, un singolo fotone. Il loro utilizzo pratico come emettitori di segnale in una rete di comunicazione a fibra ottica deve risolvere il problema che i quantum dots emettono nel visibile o vicino infrarosso, mentre le fibre ottiche lavorano nell’infrarosso medio. Gli autori sono riusciti a dimostrare un processo efficiente (>30%) di conversione quantitstica di frequenza di fotoni singoli, “quantum frequency down conversion (QFDC)”, convertendo fotoni singoli emessi da un quantum dot nel visibile (711 nm) ad una frequenza da telecomunicazioni (1313 nm). Un forte filtraggio spettrale permette di operare con elevato rapporto segnale/ rumore. L’analisi della coerenza del primo e del secondo ordine, prima e dopo la conversione di frequenza, mostra che le proprietà rilevanti della radiazione, il tempo di coerenza e l’antibunching, sono completamente conservate dal processo di conversione. I fotoni singoli convertiti sono accoppiati via fibra e la lunghezza d’onda di pompa è a 1550 nm (banda C telecom), rendendo lo schema, completamente a stato solido, del tutto compatibile con le strutture esistenti di telecomunicazioni. Gli autori concludono affermando di aver provato come la combinazione di un brillante emettitore quantistico con la tecnica QFDC fornisca un elegante e flessibile approccio alla realizzazione di sorgenti di fotone singolo sintonizzabili in banda da telecomunicazioni. primaria entrando nell’atmosfera dà origine ad uno sciame di particelle cariche e neutre che si sviluppa via via nell’atmosfera. Auger copre un’area di 3000 km2 con una tecnica di rivelazione ibrida composta da un insieme di rivelatori di particelle cariche al suolo e di telescopi che osservano (di notte) la fluorescenza dell’azoto atmosferico prodotta dallo sciame. L’osservatorio è così in grado di “fotografare” la forma dello sciame e di determinare, in particolare, Xmax , la posizione alla quale lo sciame deposita la massima energia. Più grande è la sezione d’urto primario-aria più piccolo è Xmax . La composizione dei raggi cosmici, cioè le frazioni, dipendenti dall’energia, di protoni e nuclei di diversa massa è solo parzialmente nota. Auger sfrutta quindi il fatto che la “coda” della distribuzione di Xmax è sensibile alla sezione d’urto dei protoni. La composizione rimane comunque la maggior sorgente di incertezze sistematiche e Auger limita l’analisi ad energie tra 1018 e 1018.5 eV dove i dati suggeriscono che la composizione sia per la maggior parte di protoni. La corrispondente energia media nel centro di massa è 57 TeV. Dopo aver ricavato la sezione d’urto protonenucleo di aria medio, gli autori estraggono la sezione d’urto protone-protone e la confrontano con le estrapolazioni, guidate da diversi modelli, dai valori misurati a LHC. I laboratori sotterranei del mondo Un “focus point on Deep underground science laboratories and projects”. EPJ Plus, 127, N. 9 (2012) Il modello standard delle particelle elementari e delle interazioni fondamentali è stato testato con precisione agli acceleratori, sino alla recente scoperta a LHC dell’ultimo elemento mancante, il bosone di Higgs. Sappiamo però che esso non è completo e che la scala alla quale le forze debole, elettromagnetica e forte si unificano non è raggiungibile con acceleratori, meno ancora quella di Planck. Fenomeni caratterizzati da altissime energie possono essere indagati indirettamente ricercando eventi naturali estremamente rari. Per farlo bisogna anzitutto proteggere gli esperimenti dalla radiazione cosmica, lavorando in laboratori sotterranei appositamente progettati ed attrezzati. Quello del Gran Sasso è il più grande al mondo, sia come dimensioni sia come utenza, ma ce ne sono parecchi altri in Europa, in Giappone e in Canadà e in progetto negli USA, Argentina, Cina ed India. Il focus point contiene la loro descrizione fatta da ciascuno dei direttori. Misura di sezione d’urto di protoni ad energia più alta di LHC P. Abreu et al. Measurement of the proton-air cross section at √s=57 TeV with Pierre Auger Observatory Physical Review Letters, 109 (2012) 062002 L’osservatorio Pierre Auger studia le particelle più energiche dell’Universo, i raggi cosmici di altissime energie, nella Pampa Amarilla dell’Argentina. La regione energetica di interesse, ancora poco nota, è ad energie maggiori di 1019 eV, dove il flusso è di una particella per chilometro quadrato per secolo. La particella a cura di Alessandro Bettini annunci Time and Matter 4 - 8 March 2013, Venice, Italy http://tam.ung.si/ email: [email protected] web: http://www.ntu.edu.sg/ias/QCD vol28 / no5-6 / anno2012 > 75 University of Sharjah, Sharjah - UAE http://metaconferences.org/ Sharjah - Central Souq http://www.inpc2013.it/ 76 < il nuovo saggiatore MECO38 38th Conference of the Middle European Cooperation in Statistical Physics 25 - 27 March 2013 (ICTP, Trieste, Italy) ISAPP Schools in 2013 ISAPP, the International School of AstroParticle Physics, is a network, including 33 Institutions from France, Germany, Israel, Italy, Norway, Russia, Slovenia, Sweden, Spain and the U.K. It organizes two European Doctorate Schools every summer since 2003. Next July, the two schools will be held in Canfranc Estacion in the Spanish Pyrenees, hosted by the Underground Laboratory, and at Diurönäset near Stocholm organized by Alessandro Bettini and Lars Bergström, respectively. Further details at the web sites. http://www.lsc-canfranc.es/isapp2013/ http://okc.albinova.se/isapp2013stockholm vol28 / no5-6 / anno2012 > 77 indici del volume 28 INDICE PER FASCICOLI Numero 1/2, 2012 Editoriale/Editorial L. Cifarelli 3 La nanofotonica in silicio e la fotonica con il nanosilicio A. Anopchenko, F. J. Aparicio Rebollo, P. Bettotti, F. Bianco, P. Bellutti, M. Cazzanelli, K. Fedus, E. Froner, D. Gandolfi, M. Ghulinyan, N. Kumar, Y. Jestin, P. Ingenhoven, S. Larcheri, L. Lunelli, M. Mancinelli, A. Marconi, E. Moser, L. Pasquardini, C. Pederzolli, C. Potrich, N. Prtljaga, G. Pucker, F. Ramiro Manzano, E. Rigo, M. Scarpa, F. Sgrignuoli, A. Tengattini, L. Pavesi 5 The proton in 3D a. bacchetta, m. contalbrigo 16 energia dalla differenza di salinità D. Brogioli 28 The policryps holographic structure C. P. Umeton 39 Cent’anni di superconduttività A. Varlamov, M. Putti, P. Fabbricatore, L. Rossi, G. Grasso, R. Vaglio, P. Carelli 53 Programma della Scuola estiva “Enrico Fermi” di Varenna 67 Joint EPS-SIF International School on Energy 72 XCVIII Congresso Nazionale della Società Italiana di Fisica: Informazioni generali 73 Bandi dei concorsi a premi della SIF 77 Il Nuovo Cimento 150, 100, 50 anni fa A. Bettini 82 Una petizione europea affronta la questione del genere per rafforzare ricerca e innovazione S. Croci 83 Intervista a Angela Bracco E. Nappi 85 Opinioni (F. Guerra, N. Robotti) 86 Recensioni (*) 87 In ricordo di (*) Fernando Pacciani (E. Iarocci) 88 Alberto Gigli Berzolari (A. Piazzoli) 88 Alessandro Alberigi Quaranta (C. Jacoboni, A. Taroni) 88 Massimo Ugo Palma (A. Messina, F. Persico) 88 In evidenza (A. Bettini) 89 Annunci 90 Numero 3/4, 2012 Editoriale/Editorial L. Cifarelli 3 Il bosone di Higgs: la sua esistenza, la nostra esistenza A. Masiero 5 A quantum digital universe G. M. D’Ariano 13 Applicazione di nanofili di ossidi metallici nel campo prevenzione/sicurezza E. Comini, G. Faglia, M. Ferroni, A. Ponzoni, D. Zappa, G. Sberveglieri 23 Occhio specchio dell’anima: il sistema visivo umano visto dalla fisica A. Farini 35 i 50 anni dei laboratori di legnaro: un pezzo di storia della Fisica dei Nuclei in Italia R. A. Ricci 45 (*) Il testo completo delle recensioni e dei necrologi è pubblicato solo nella versione online (http://www.sif.it/attivita/ saggiatore/econtents) 78 < il nuovo saggiatore XCVIII Congresso Nazionale della Società Italiana di Fisica Programma Generale SISSA: una realtà italiana nel panorama internazionale G. Martinelli Il Nuovo Cimento 150, 100, 50 anni fa A. Bettini Progetto STEPSTWO (2009-2011): attività, risultati e raccomandazioni E. Sassi Cento anni di diffrazione dei raggi X N. Robotti Il progetto HadronPhysics3 C. Guaraldo Dark ladies I. Picardi Opinioni (E. Lodi Rizzini) Recensioni (*) In evidenza (A. Bettini) Annunci 61 64 68 69 73 75 77 79 79 80 81 Numero 5/6, 2012 Editoriale/Editorial L. Cifarelli 3 Disordered systems A. Ottochian, C. De Michele, F. Puosi, D. Leporini 5 The super flavor factory SuperB M. a. giorgi, m. rama10 Dalle basse dosi al “Silenzio cosmico” e. fratini, d. capece 23 Cosmic rays: a century of mysteries A. v. olinto31 Cerimonia Inaugurale XCVIII Congresso Nazionale della Società Italiana di Fisica 39 The European Project “Immersion in the science worlds through the arts” F. Rustichelli, M. Stefanon 46 Gran Sasso Science Institute E. Coccia 50 La fisica degli acceleratori in Italia L. Palumbo 52 Il Nuovo Cimento 150, 100, 50 anni fa A. Bettini 56 The Italian Physical Society “Enrico Fermi” Prize and Medal 2012 A. Bettini 57 SIF-IOP “Giuseppe (Beppo) Occhialini” Prize and Medal 2012 A. Bettini 59 Il Premio Nobel per la Fisica 2012 L. Fallani, M. Inguscio, G. M. Tino 60 Il “compleanno” dell’A.I.F. e il XIII Convegno Orlandini S. Sgrignoli 64 European Gender Summit 2012 A. Proykova 66 Intervista a Benedetto Vigna S. Centro 68 Opinioni (R. Bernabei); (G. Giuliani) 70 Recensioni (*)72 In ricordo di (*) Gloria Campos Venuti (P. Salvadori) Giordano Diambrini Palazzi (G. Barbiellini) Marcello Cini (G. Jona-Lasinio) Gabriele Francesco Giuliani (G. Vignale) 73 In evidenza (A. Bettini) 74 Annunci 75 indice del vol. 28 78 INDICE PER AUTORI Froner E. (vedi Anopchenko A.) A Anopchenko A., Aparicio Rebollo F. J., Bettotti P., Bianco F., Bellutti P., Cazzanelli M., Fedus K., Froner E., Gandolfi D., Ghulinyan M., Kumar N., Jestin Y., Ingenhoven P., Larcheri S., Lunelli L., Mancinelli M., Marconi A., Moser E., Pasquardini L., Pederzolli C., Potrich C., Prtljaga N., Pucker G., Ramiro Manzano F., Rigo E., Scarpa M., Sgrignuoli F., Tengattini A., Pavesi L. La nanofotonica in silicio e la fotonica con il nanosilicio 28:1/2, 5 Aparicio Rebollo F. J. (vedi Anopchenko A.) G Gandolfi D. (vedi Anopchenko A.) Ghulinyan M. (vedi Anopchenko A.) giorgi M. a., rama m. The super flavor factory SuperB Giuliani G. Scienza, etica e responsabilità sociale dello scienziato Grasso G. (vedi Varlamov A.) Guaraldo C. Il progetto HadronPhysics3 Guerra F., Robotti N. La borsa di studio della rivista “Missioni”: un punto fermo sulla vicenda di Ettore Majorana B bacchetta a., contalbrigo m. The proton in 3D Barbiellini G. In ricordo di (*) Giordano Diambrini Palazzi Bellutti P. (vedi Anopchenko A.) Bernabei R. DAMA e XENON ancora una volta a confronto Bettini A. The Italian Physical Society “Enrico Fermi” Prize and Medal 2012 Bettini A. SIF-IOP “Giuseppe (Beppo) Occhialini” Prize and Medal 2012 Bettotti P. (vedi Anopchenko A.) Bianco F. (vedi Anopchenko A.) Brogioli D. energia dalla differenza di salinità C capece d. (vedi fratini e.) Carelli P. (vedi Varlamov A.) Cazzanelli M.(vedi Anopchenko A.) Centro S. Intervista a Benedetto Vigna Coccia E. Gran Sasso Science Institute Comini E., Faglia G. , Ferroni M., Ponzoni A., Zappa D., Sberveglieri G. Applicazione di nanofili di ossidi metallici nel campo prevenzione/sicurezza contalbrigo m. (vedi bacchetta a.) Croci S. Una petizione europea affronta la questione del genere per rafforzare ricerca e innovazione D D’Ariano G. M. A quantum digital universe De Michele C. (vedi Ottochian A.) F Fabbricatore P. (vedi Varlamov A.) Fallani L., Inguscio M., Tino G. M. Il Premio Nobel per la Fisica 2012 Faglia G. (vedi Comini E.) Farini A. Occhio specchio dell’anima: il sistema visivo umano visto dalla fisica Fedus K. (vedi Anopchenko A.) Ferroni M. (vedi Comini E.) fratini e., capece d. Dalle basse dosi al “Silenzio cosmico” 28:1/2, 16 28:5/6, 73 28:5/6, 70 28:5/6, 57 28:5/6, 59 28:1/2, 28 I Iarocci E. In ricordo di (*) Fernando Pacciani Ingenhoven P. (vedi Anopchenko A.) Inguscio M. (vedi Fallani L.) 28:5/6, 10 28:5/6, 71 28:3/4, 75 28:1/2, 86 28:1/2, 88 J Jacoboni C. , Taroni A. In ricordo di (*) Alessandro Alberigi Quaranta Jestin Y. (vedi Anopchenko A.) Jona-Lasinio G. In ricordo di (*) Marcello Cini 28:1/2, 88 28:5/6, 73 K Kumar N.(vedi Anopchenko A.) 28:5/6, 68 28:5/6, 50 28:3/4, 23 28:1/2, 83 28:3/4, 13 L Larcheri S. (vedi Anopchenko A.) Leporini D. (vedi Ottochian A.) Lodi Rizzini E. Riflessioni sui parametri ANVUR Lunelli L. (vedi Anopchenko A.) 28:3/4, 79 M Mancinelli M. (vedi Anopchenko A.) Marconi A. (vedi Anopchenko A.) Martinelli G. SISSA: una realtà italiana nel panorama internazionale Masiero A. Il bosone di Higgs: la sua esistenza, la nostra esistenza Messina A., Persico F. In ricordo di (*) Massimo Ugo Palma Moser E. (vedi Anopchenko A.) N Nappi E. Intervista a Angela Bracco 28:5/6, 60 28:3/4, 64 28:3/4, 5 28:1/2, 88 28:1/2, 85 28:3/4, 35 O olinto A. v. Cosmic rays: a century of mysteries Ottochian A., De Michele C. , Puosi F., Leporini D. Disordered systems 28:5/6, 23 P Palumbo L. La fisica degli acceleratori in Italia 28:5/6, 31 28:5/6, 5 28:5/6, 52 vol28 / no5-6 / anno2012 > 79 Pasquardini L. (vedi Anopchenko A.) Pavesi L. (vedi Anopchenko A.) Pederzolli C. (vedi Anopchenko A.) Persico F. (vedi Messina A.) Piazzoli A. In ricordo di (*) Alberto Gigli Berzolari Picardi I. Dark ladies Ponzoni A. (vedi Comini E.) Potrich C. (vedi Anopchenko A.) Prtljaga N. (vedi Anopchenko A.) Proykova A. European Gender Summit 2012 Pucker G. (vedi Anopchenko A.) Puosi F. (vedi Ottochian A.) Putti M. (vedi Varlamov A.) INDICE PER RUBRICHE SCIENZA IN PRIMO PIANO 28:1/2, 88 28:3/4, 77 28:5/6, 66 R rama m. (vedi giorgi M. a.) Ramiro Manzano F. (vedi Anopchenko A.) Ricci R. A. i 50 anni dei laboratori di legnaro: un pezzo di storia della Fisica dei Nuclei in Italia 28:3/4, 45 Rigo E. (vedi Anopchenko A.) Robotti N. (vedi Guerra F.) Robotti N. Cento anni di diffrazione dei raggi X 28:3/4, 73 Rossi L. (vedi Varlamov A.) Rustichelli F., Stefanon M. The European Project “Immersion in the science worlds through the arts” 28:5/6, 46 S Salvadori P. In ricordo di (*) Gloria Campos Venuti Sassi E. Progetto STEPSTWO (2009-2011): attività, risultati e raccomandazioni Sberveglieri G. (vedi Comini E.) Scarpa M. (vedi Anopchenko A.) Sgrignoli S. Il “compleanno” dell’A.I.F. e il XIII Convegno Orlandini Sgrignuoli F. (vedi Anopchenko A.) Stefanon M. (vedi Rustichelli F.) 28:5/6, 73 28:3/4, 69 V Varlamov A., Putti M., Fabbricatore P., Rossi L., Grasso G., Vaglio R., Carelli P. Cent’anni di superconduttività Vaglio R. (vedi Varlamov A.) Vignale G. In ricordo di (*) Gabriele Francesco Giuliani Z Zappa D. (vedi Comini E.) 80 < il nuovo saggiatore FISICA E... Applicazione di nanofili di ossidi metallici nel campo prevenzione/sicurezza E. Comini, G. Faglia, M. Ferroni, A. Ponzoni, D. Zappa, G. Sberveglieri Dalle basse dosi al “Silenzio cosmico” e. fratini, d. capece energia dalla differenza di salinità D. Brogioli Occhio specchio dell’anima: il sistema visivo umano visto dalla fisica A. Farini The policryps holographic structure C. P. Umeton 28:3/4, 23 28:5/6, 23 28:1/2, 28 28:3/4, 35 28:1/2, 39 PERCORSI 28:5/6, 64 T Taroni A. (vedi Jacoboni C. ) Tengattini A. (vedi Anopchenko A.) Tino G. M. (vedi Fallani L.) U Umeton C. P. The policryps holographic structure A quantum digital universe G. M. D’Ariano 28:3/4, 13 Disordered systems A. Ottochian, C. De Michele, F. Puosi, D. Leporini 28:5/6, 5 Il bosone di Higgs: la sua esistenza, la nostra esistenza A. Masiero 28:3/4, 5 La nanofotonica in silicio e la fotonica con il nanosilicio A. Anopchenko, F. J. Aparicio Rebollo, P. Bettotti, F. Bianco, P. Bellutti, M. Cazzanelli, K. Fedus, E. Froner, D. Gandolfi, M. Ghulinyan, N. Kumar, Y. Jestin, P. Ingenhoven, S. Larcheri, L. Lunelli, M. Mancinelli, A. Marconi, E. Moser, L. Pasquardini, C. Pederzolli, C. Potrich, N. Prtljaga, G. Pucker, F. Ramiro Manzano, E. Rigo, M. Scarpa, F. Sgrignuoli, A. Tengattini, L. Pavesi 28:1/2, 5 The proton in 3D a. bacchetta, m. contalbrigo 28:1/2, 16 The super flavor factory SuperB M. a. giorgi, m. rama 28:5/6, 10 Cent’anni di superconduttività A. Varlamov, M. Putti, P. Fabbricatore, L. Rossi, G. Grasso, R. Vaglio, P. Carelli 28:1/2, 53 Cosmic rays: a century of mysteries A. v. olinto 28:5/6, 31 i 50 anni dei laboratori di legnaro: un pezzo di storia della Fisica dei Nuclei in Italia R. A. Ricci 28:3/4, 45 IL NOSTRO MONDO 28:1/2, 39 28:1/2, 53 28:5/6, 73 Gran Sasso Science Institute E. Coccia La fisica degli acceleratori in Italia L. Palumbo SISSA: una realtà italiana nel panorama internazionale G. Martinelli The European Project “Immersion in the science worlds through the arts” F. Rustichelli, M. Stefanon Scuole e Congressi SIF Programma della Scuola estiva “Enrico Fermi” di Varenna XCVIII Congresso Nazionale della Società Italiana di Fisica: Informazioni generali 28:5/6, 50 28:5/6, 52 28:3/4, 64 28:5/6, 46 28:1/2, 67 28:1/2, 73 Bandi dei concorsi a premi della SIF XCVIII Congresso Nazionale della Società Italiana di Fisica Programma Generale Cerimonia Inaugurale XCVIII Congresso Nazionale della Società Italiana di Fisica Joint EPS-SIF International School on Energy 28:5/6, 39 28:1/2, 72 Il Nuovo Cimento 150, 100, 50 anni fa A. Bettini 28:1/2, 82 28:3/4, 68 28:5/6, 56 News Cento anni di diffrazione dei raggi X N. Robotti Dark ladies I. Picardi European Gender Summit 2012 A. Proykova Il “compleanno” dell’A.I.F. e il XIII Convegno Orlandini S. Sgrignoli Il Premio Nobel per la Fisica 2012 L. Fallani, M. Inguscio, G. M. Tino Il progetto HadronPhysics3 C. Guaraldo Progetto STEPSTWO (2009-2011): attività, risultati e raccomandazioni E. Sassi SIF-IOP “Giuseppe (Beppo) Occhialini” Prize and Medal 2012 A. Bettini The Italian Physical Society “Enrico Fermi” Prize and Medal 2012 A. Bettini Una petizione europea affronta la questione del genere per rafforzare ricerca e innovazione S. Croci Intervista a Angela Bracco E. Nappi Benedetto Vigna S. Centro In ricordo di (*) Fernando Pacciani E. Iarocci Alberto Gigli Berzolari A. Piazzoli Alessandro Alberigi Quaranta C. Jacoboni, A. Taroni Massimo Ugo Palma A. Messina, F. Persico Gloria Campos Venuti P. Salvadori Giordano Diambrini Palazzi G. Barbiellini Marcello Cini G. Jona-Lasinio Gabriele Francesco Giuliani G. Vignale 28:1/2, 77 28:3/4, 61 28:3/4, 73 28:3/4, 77 28:5/6, 66 28:5/6, 64 28:5/6, 60 28:3/4, 75 28:3/4, 69 28:5/6, 59 28:5/6, 57 28:1/2, 83 28:1/2, 85 28:5/6, 68 28:1/2, 88 28:1/2, 88 28:1/2, 88 28:1/2, 88 28:5/6, 73 28:5/6, 73 28:5/6, 73 28:5/6, 73 OPINIONI La borsa di studio della rivista “Missioni”: un punto fermo sulla vicenda di Ettore Majorana F. Guerra, N. Robotti 28:1/2, 86 Riflessioni sui parametri ANVUR E. Lodi Rizzini DAMA e XENON ancora una volta a confronto R. Bernabei Scienza, etica e responsabilità dello scienziato G. Giuliani 28:3/4, 79 28:5/6, 70 28:5/6, 71 RECENSIONI (*) Accelerator Physics, S. Y. Lee recensito da G. Bellomo A Focus of Discoveries, R.P. Huebener and H. Lübbig recensito da Amand A. Lucas Analisi dei dati per il data mining, M. Fraire e A. Rizzi recensito da R. Habel, M. Pallotta Aria, acqua, terra e fuoco, F.V. De Blasio recensito da G. Ottonello Fundamentals of Materials for Energy and Environmental Sustainability, David S. Ginley and David Cahen (Editors) recensito da A. Terrasi Eclissi! Quando Sole e Luna danno spettacolo in cielo, M. Bastoni recensito da F. Bònoli Il rumore elettrico, G. V. Pallottino recensito da F. Marchesoni I marziani siamo noi, G. F. Bignami recensito da G. Benedek Judging Edward Teller, I. Hargittai recensito da G. Kauffman, L. Belloni Il Papa e l’Inquisitore, G. Maltese recensito da L. Belloni Léon Rosenfeld, A. S. Jacobsen recensito da Amand A. Lucas L’Universo è fatto di storie non solo di atomi, S. Ossicini recensito da L. Belloni Mass and Motion in General Relativity, L. Blanchet, A. Spallicci and B. Whiting (Editors) recensito da Luca Lusanna Modern Perspectives in Lattice QCD, L. Lellouch, R. Sommer, B. Svetitsky, A. Vladikas and L. F. Cugliandolo (Editors) recensito da G. Marchesini Non-Equilibrium Soft Matter Physics, S. Komura and T. Ohta (Editors) recensito da R. Piazza Odissea nello zeptospazio, G. F. Giudice recensito da G. Isidori Particelle e interazioni fondamentali, S. Braibant, G. Giacomelli and M. Spurio recensito da G. Benedek Physics Around Us. How and Why Things Work, E. M. Henley and J. G. Dash recensito da A. Rigamonti Quadrivium, M. Lundy, D. Sutton, A. Ashton, J. Martineau, J. Martineau recensito da G. Benedek Reviews of Accelerator Science and Technology, A. W. Chao and W. Chou recensito da D. Rifuggiato Storia italiana dello spazio, G. Caprara recensito da L. Belloni The German Physical Society in the Third Reich, D. Hoffmann and M. Walker (Editors) recensito da Amand A. Lucas The Mathematics and Topology of Fullerenes, F. Cataldo, A. Graovac, O. Ori (Editors), Tores et Torsades, J. Charvolin et J.-F. Sadoc, Nanomolecules and Nanostructures, M. V. Diudea recensito da G. Benedek (recensione unica) 28:3/4, 79 28:5/6, 72 28:3/4, 79 28:5/6, 73 28:5/6, 72 28:5/6, 72 28:1/2, 87 28:1/2, 87 28:1/2, 87 28:1/2, 87 28:3/4, 79 28:5/6, 72 28:3/4, 79 28:1/2, 87 28:5/6, 72 28:1/2, 87 28:5/6, 73 28:1/2, 87 28:5/6, 72 28:5/6, 73 28:5/6, 72 28:1/2, 88 vol28 / no5-6 / anno2012 > 81 The Pontecorvo Affair. A Cold War Defection and Nuclear Physics, S. Turchetti recensito da L. Belloni 28:5/6, 72 Transiting Exoplanets, C. A. Haswell recensito da R. Gratton 28:1/2, 87 IN EVIDENZA Il salto di Bidone - L’energi a nel Sole - La tela del ragno Oscillazioni quantistiche di punto zero di un regolo L’ombra della terra sui positroni 82 < il nuovo saggiatore 28:1/2, 89 Brillanti prospettive per la fisica dei neutrini - Icecube non vede neutrini da lampi gamma - La scoperta di una quasi-particella, spinore di Majorana - Come scuotere un elettrone fuori da un atomo 28:3/4, 80 La torre degli Asinelli. Un laboratorio di fisica - Una sorgente di fotoni singoli sintonizzabile nella banda delle telecomunicazioni su fibra ottica - Misura di sezione d’urto di protoni ad energia più alta di LHC - I laboratori sotterranei del mondo 28:5/6, 74 2013 DOMANDA DI ISCRIZIONE alla SOCIETÀ ITALIANA DI FISICA ITALIAN PHYSICAL SOCIETY MEMBERSHIP APPLICATION FORM Nome Name Cognome Surname Luogo e data di nascita Place and date of birth Nazionalità Nationality a Istituto o Ente di appartenenza Affiliation b Indirizzo privato Home address Indirizzo e-mail E-mail Breve curriculum (titolo di studio, attività didattica e scientifica): Brief scientific curriculum: a Indirizzo a cui inviare il Bollettino della Società e la corrispondenza: Address where Bullettin and Society communications are to be sent: Firme leggibili dei Soci Presentatori (*) Signatures of two introducing Members (*) b Nomi in stampatello e indirizzi e-mail Names in block letters and e-mail addresses 1) 2) Socio INDIVIDUALE INDIVIDUAL Member € 45,00 Socio JUNIOR al di sotto dei 30 anni JUNIOR Member under 30 € 25,00 Socio INDIVIDUALE anche membro di altre associazioni scientifiche relative alla fisica (**) INDIVIDUAL Member also member of other scientific associations (**) € 35,00 Socio COLLETTIVO COLLECTIVE Member € 260,00 Socio SOSTENITORE (a partire da) SPONSORING Member (starting from) € 310,00 La quota di iscrizione dovrà essere pagata dopo aver ricevuto comunicazione dell’accettazione della domanda. (*) Applicants will have to pay the membership dues only AFTER having been informed by the Society of the acceptance of their application. (*) (*) Eccetto per i Soci INVITATI (neolaureati triennali in Fisica) che usufruiscono di pre-associazione gratuita per due anni. (*) Except for INVITED Members (newly graduated bachelors in Physics) who are granted free pre-membership for two years. (**) Informazioni: http://www.sif.it/associazione (**) Information: http://en.sif.it/association Data Date Firma Signature Autorizzo il trattamento dei miei dati personali ai sensi del D.Lgs. 196/2003 I hereby authorize the treatment of my personal data according to the privacy law D.Lgs. 196/2003 sì /yes no Società Italiana di Fisica Via Saragozza 12 - 40123 Bologna Tel. 051331554 - Fax 051581340 - e-mail: [email protected] - internet: http: //www.sif.it SOCIETÀ ITALIANA DI FISICA Per diventare Socio SIF: Informazioni: http://www.sif.it/associazione Quote sociali 2013 della Società Italiana di Fisica Socio Individuale Socio Junior al di sotto dei 30 anni Socio Individuale anche membro di altra associazione scientifica relativa alla fisica (*) Socio Collettivo Socio Sostenitore (a partire da) € 45,00 € 25,00 € 35,00 € 260,00 € 310,00 (*) Informazioni: http://www.sif.it/associazione Per diventare Socio EPS: Informazioni: http://www.eps.org/subscribe Quote sociali 2013 della Società Europea di Fisica per “Individual membership” Socio Socio al di sotto dei 30 anni Socio in pensione Studente Insegnante (pre-universitario) € 22,00 € 16,50 € 16,50 € 16,50 € 16,50 Modalità di pagamento della quota sociale alla SIF: online a mezzo carta di credito, tramite collegamento diretto e sicuro (POS) con la banca BNL, attraverso l’Area Soci del sito web della Società Italiana di Fisica a mezzo assegno bancario a mezzo bonifico postale: BancoPosta, IBAN IT14 G076 0102 4000 0001 9197 409 intestato a: Il Nuovo Cimento - Società Italiana di Fisica S.I.F. a mezzo versamento sul c/c postale n. 19197409 intestato a: Il Nuovo Cimento - Società Italiana di Fisica S.I.F. a mezzo carta di credito, tramite la Società Italiana di Fisica, compilando e spedendo il modulo sottostante (**) (**) In questo caso sono escluse le carte Diners e American Express. ✃ Compilare e spedire a : Società Italiana di Fisica – Via Saragozza 12 – 40123 Bologna – fax 051 581340 Il sottoscritto: Nato a: Residente a: Via: Documento di riconoscimento: Rilasciato da: Titolare carta di credito VISA n. Scadenza Titolare carta di credito MASTERCARD n. Scadenza il n. n. il AUTORIZZA La Società Italiana di Fisica A prelevare dalla carta di credito sopra descritta L’importo di € , (importo in cifre) ( ) (importo in lettere) Data Autorizzo il trattamento dei miei dati personali ai sensi del D.Lgs. 196/2003 sì no Firma vol28 / no5-6 / anno2012 > 85 86 < il nuovo saggiatore vol28 / no5-6 / anno2012 > 87 2013 DOMANDA DI ISCRIZIONE alla SOCIETÀ ITALIANA DI FISICA ITALIAN PHYSICAL SOCIETY MEMBERSHIP APPLICATION FORM Nome Name Cognome Surname Luogo e data di nascita Place and date of birth Nazionalità Nationality a Istituto o Ente di appartenenza Affiliation b Indirizzo privato Home address Indirizzo e-mail E-mail Breve curriculum (titolo di studio, attività didattica e scientifica): Brief scientific curriculum: a Indirizzo a cui inviare il Bollettino della Società e la corrispondenza: Address where Bullettin and Society communications are to be sent: Firme leggibili dei Soci Presentatori (*) Signatures of two introducing Members (*) b Nomi in stampatello e indirizzi e-mail Names in block letters and e-mail addresses 1) 2) Socio INDIVIDUALE INDIVIDUAL Member € 45,00 Socio JUNIOR al di sotto dei 30 anni JUNIOR Member under 30 € 25,00 Socio INDIVIDUALE anche membro di altre associazioni scientifiche relative alla fisica (**) INDIVIDUAL Member also member of other scientific associations (**) € 35,00 Socio COLLETTIVO COLLECTIVE Member € 260,00 Socio SOSTENITORE (a partire da) SPONSORING Member (starting from) € 310,00 La quota di iscrizione dovrà essere pagata dopo aver ricevuto comunicazione dell’accettazione della domanda. (*) Applicants will have to pay the membership dues only AFTER having been informed by the Society of the acceptance of their application. (*) (*) Eccetto per i Soci INVITATI (neolaureati triennali in Fisica) che usufruiscono di pre-associazione gratuita per due anni. (*) Except for INVITED Members (newly graduated bachelors in Physics) who are granted free pre-membership for two years. (**) Informazioni: http://www.sif.it/associazione (**) Information: http://en.sif.it/association Data Date Firma Signature Autorizzo il trattamento dei miei dati personali ai sensi del D.Lgs. 196/2003 I hereby authorize the treatment of my personal data according to the privacy law D.Lgs. 196/2003 sì /yes no Società Italiana di Fisica Via Saragozza 12 - 40123 Bologna Tel. 051331554 - Fax 051581340 - e-mail: [email protected] - internet: http: //www.sif.it SOCIETÀ ITALIANA DI FISICA Per diventare Socio SIF: Informazioni: http://www.sif.it/associazione Quote sociali 2013 della Società Italiana di Fisica Socio Individuale Socio Junior al di sotto dei 30 anni Socio Individuale anche membro di altra associazione scientifica relativa alla fisica (*) Socio Collettivo Socio Sostenitore (a partire da) € 45,00 € 25,00 € 35,00 € 260,00 € 310,00 (*) Informazioni: http://www.sif.it/associazione Per diventare Socio EPS: Informazioni: http://www.eps.org/subscribe Quote sociali 2013 della Società Europea di Fisica per “Individual membership” Socio Socio al di sotto dei 30 anni Socio in pensione Studente Insegnante (pre-universitario) € 22,00 € 16,50 € 16,50 € 16,50 € 16,50 Modalità di pagamento della quota sociale alla SIF: online a mezzo carta di credito, tramite collegamento diretto e sicuro (POS) con la banca BNL, attraverso l’Area Soci del sito web della Società Italiana di Fisica a mezzo assegno bancario a mezzo bonifico postale: BancoPosta, IBAN IT14 G076 0102 4000 0001 9197 409 intestato a: Il Nuovo Cimento - Società Italiana di Fisica S.I.F. a mezzo versamento sul c/c postale n. 19197409 intestato a: Il Nuovo Cimento - Società Italiana di Fisica S.I.F. a mezzo carta di credito, tramite la Società Italiana di Fisica, compilando e spedendo il modulo sottostante (**) (**) In questo caso sono escluse le carte Diners e American Express. ✃ Compilare e spedire a : Società Italiana di Fisica – Via Saragozza 12 – 40123 Bologna – fax 051 581340 Il sottoscritto: Nato a: Residente a: Via: Documento di riconoscimento: Rilasciato da: Titolare carta di credito VISA n. Scadenza Titolare carta di credito MASTERCARD n. Scadenza il n. n. il AUTORIZZA La Società Italiana di Fisica A prelevare dalla carta di credito sopra descritta L’importo di € , (importo in cifre) ( ) (importo in lettere) Data Autorizzo il trattamento dei miei dati personali ai sensi del D.Lgs. 196/2003 sì no Firma vol28 / no5-6 / anno2012 > 85 86 < il nuovo saggiatore vol28 / no5-6 / anno2012 > 87