Hanno collaborato a questo
numero:
G. Barbiellini, G. Benedek, L. Belloni,
R. Bernabei, A. Bettini, F. Bònoli,
d. capece, S. Centro, E. Coccia,
C. De Michele, L. Fallani, e. fratini,
M. a. giorgi, G. Giuliani, M. Inguscio,
G. Jona-Lasinio, D. Leporini,
A. A. Lucas, A. v. olinto, A. Ottochian,
G. Ottonello, L. Palumbo,
R. Piazza, A. Proykova, F. Puosi,
m. rama, D. Rifuggiato, F. Rustichelli,
P. Salvadori, S. Sgrignoli, M. Stefanon,
A. Terrasi, G. M. Tino, G. Vignale
IL NUOVO SAGGIATORE
BOLLETTINO DELLA SOCIETÀ ITALIANA DI FISICA
Nuova Serie Anno 28 • N. 5 settembre-ottobre 2012 • N. 6 novembre-dicembre 2012
Direttore Responsabile
Vicedirettore
Comitato scientifico
Luisa Cifarelli
Giuseppe Grosso
G. Benedek, A. Bettini,
P. Cenci, S. Centro,
E. De Sanctis, A. Di Virgilio,
S. Falciano, F. Ferroni,
S. Focardi, E. Iarocci,
I. Ortalli, F. Palmonari,
P. Picchi, B. Preziosi
sommario
FISICA E...
23 Dalle basse dosi al "Silenzio
cosmico"
e. fratini, d. capece
News
57 The Italian Physical Society
“Enrico Fermi” Prize and Medal 2012
A. Bettini
59 SIF-IOP “Giuseppe (Beppo)
Occhialini” Prize and Medal 2012
A. Bettini
60 Il Premio Nobel per la Fisica 2012
L. Fallani, M. Inguscio, G. M. Tino
64 Il "compleanno" dell'A.I.F. e
il XIII Convegno Orlandini
S. Sgrignoli
66 European Gender Summit 2012
A. Proykova
percorsi
31 Cosmic rays: a century of mysteries
A. v. olinto
68 Intervista a
Benedetto Vigna
S. Centro
IL NOSTRO MONDO
39 Cerimonia Inaugurale
XCVIII Congresso Nazionale
della Società Italiana di Fisica
46 The European Project “Immersion
in the science worlds through the
arts”
F. Rustichelli, M. Stefanon
50 Gran Sasso Science Institute
E. Coccia
52 La fisica degli acceleratori in Italia
L. Palumbo
56 Il Nuovo Cimento 150, 100, 50
anni fa
A. Bettini
70 OPINIONI
3 EDITORIALE
L. Cifarelli
/ EDITORIAL
SCIENZA IN PRIMO PIANO
5 Disordered systems
A. Ottochian, C. De Michele, F. Puosi,
D. Leporini
10 The super flavor factory SuperB
M. a. giorgi, m. rama
72 RECENSIONI(*)
73 in ricordo di(*)
Gloria Campos Venuti (P. Salvadori)
Giordano Diambrini Palazzi
(G. Barbiellini)
Marcello Cini (G. Jona-Lasinio)
Gabriele Francesco Giuliani
(G. Vignale)
74 in evidenza
75 ANNUNCI
78 indice volume 28
(*) Il testo completo delle recensioni e dei
necrologi è pubblicato solo nella versione
online (http://www.sif.it/attivita/
saggiatore/econtents)
Il Nuovo Saggiatore - Bollettino della Società Italiana di Fisica viene inviato gratuitamente ai Soci
Modalità di Iscrizione alla sif
Per iscriversi occorre presentare domanda di associazione con un breve curriculum scientifico e l’indicazione di due Soci
presentatori.
La domanda di associazione può essere fatta online (oppure scaricando l’apposito modulo di associazione, pubblicato
anche in questo fascicolo) all’indirizzo: http://www.sif.it/associazione.
La domanda verrà poi esaminata ed eventualmente approvata dal Consiglio di Presidenza.
Il pagamento della quota sociale, nei modi sotto indicati, dovrà avvenire dopo aver ricevuto comunicazione della accettazione
a Socio.
Rinnovo Quote Sociali
Il rinnovo della quota sociale può essere effettuato:
• Online nell’Area Soci del sito web della SIF; in questo caso si utilizza la carta di credito, con collegamento diretto e sicuro
al sito della Banca Nazionale del Lavoro (BNL).
Ricordiamo che l’Area Soci è un’area protetta per accedere alla quale occorre utilizzare username e password che vengono
inviati a tutti i Soci. (Per accedere agli altri servizi disponibli nell’Area Soci occorre essere Soci in regola).
• Seguendo le modalità pubblicate in rete all’indirizzo:
http://www.sif.it/associazione.
In caso si desideri procedere anche in questo caso con la carta di credito, ricordarsi di usare l’apposito modulo
debitamente compilato in tutte le sue parti.
• È anche possibile rinnovare l’associazione alla European Physical Society (EPS) attraverso le rispettive società nazionali. I
Soci che desiderano pagare la propria quota di associazione all’EPS tramite la SIF possono farlo con le modalità di cui sopra.
Le quote di associazione all’EPS sono pubblicate in ultima pagina e in rete allo stesso indirizzo sopraindicato.
How to become a SIF member
To apply for membership an application form must be filled in, including a brief scientific curriculum and the signatures of
two introducing Members.
The application can be filled in online or downloading the application form at the following address:
http://en.sif.it/association.
The application form will be examined and eventually approved by the Council. Applicants will have to pay the
membership dues, as indicated in the form, only after having been informed by the Society about the acceptance of their
application.
Membership Renewal
Those who wish to renew membership, may pay dues by one of the following terms of payment:
• Online by credit card through direct connection with the bank (BNL). This service can be accessed through the
Members Area of the SIF website.
We remind you that the Members Area is secured and can be accessed only through the username and password supplied to
Members.
• By cheque or credit card filling the payment form published on the web at the address:
http://en.sif.it/association .
In case you wish to use the credit card also in this case, make sure to fill in the form in all its parts.
• It is also possible to renew the association to the European Physical Society (EPS) through the respective national
societies. Members who wish to pay the EPS association fee through SIF can do so according to the instructions above.
The EPS association fees are available on the SIF website at the above-indicated address.
2 < il nuovo saggiatore
editoriale / editorial
Carissimi Soci,
il 2012 si conclude positivamente per la SIF. La situazione economica della
Società è rimasta sotto controllo, malgrado la crisi del nostro Paese, e le attività
scientifiche e culturali sono andate avanti per il meglio.
A Varenna, oltre a tre eccellenti corsi dell’International School of Physics Enrico
Fermi, che hanno avuto luogo nel periodo 19 giugno-27 luglio 2012, ha esordito
con grande successo dal 30 luglio al 4 agosto il primo corso della Joint EPS-SIF
International School on Energy, organizzata in collaborazione con l’European
Physical Society (EPS). Le Lecture Notes di questa nuova scuola, che saranno
pubblicate a cura delle due Società in una speciale collana, potranno costituire
un testo di riferimento negli anni a venire in materia di energia. I corsi della
International School on Energy avranno cadenza biennale e si alterneranno con
l’European Energy Conference (E2C), organizzata dall’EPS in collaborazione con
altre società o istituzioni, come l’European Association for Chemical and Molecular
Sciences (EuCheMS), l’European Materials Research Society (E-MRS) o l’European
Science Foundation (ESF).
La Società Italiana di Fisica ha compiuto 115 anni nel 2012. In quanto alla Scuola
Enrico Fermi, è ormai giunta alla soglia dei 60 anni: nel 2013 ne festeggeremo il
sessantenario con uno specialissimo simposio internazionale. Tale anniversario
coincide con quello del Consiglio Nazionale delle Ricerche (CNR), che compirà 90
anni, e con quello del Politecnico di Milano, che ne compirà 150. Entrambe queste
prestigiose istituzioni hanno profondi legami con Varenna e il suo territorio.
L’ iniziativa dell’EPS di cui abbiamo già parlato in questo giornale, per la
proclamazione di un International Year of Light (IYOL) nel 2015 da parte delle
Nazioni Unite, ha ottenuto nel mese di ottobre 2012, a Parigi, l’approvazione
dell’Executive Board dell’United Nations Educational, Scientific and Cultural
Organization (UNESCO). Ben 33 Nazioni, tra cui l’Italia, hanno votato in favore
dell’iniziativa, formalmente presentata dal Ghana e dal Messico. Ciò spiana la strada
per la definitiva approvazione all’Assemblea Generale delle Nazioni Unite nel 2013.
Il Congresso SIF di Napoli (17-21 settembre 2012) ha radunato un gran numero
di partecipanti. L’Oceanografia Fisica è stata inclusa per la prima volta in una delle
sezioni parallele del Congresso. Le relazioni e comunicazioni, le tavole rotonde – di
cui una in particolare, aperta al pubblico, su “I vulcani italiani e i loro segreti” – sono
state di notevole interesse e di alto livello. Le notizie incoraggianti di un anno fa
dal Large Hadron Collider (LHC) del CERN circa il bosone di Brout-Englert-HiggsGuralnik-Hagen-Kibble, comunemente detto bosone di Higgs, hanno trovato
formidabile conferma nei risultati sperimentali annunciati nel mese di luglio 2012
dagli esperimenti ATLAS e CMS, con un effetto di 5 deviazioni standard per uno
stato bosonico “Higgs-like” osservao in diversi possibili canali di decadimento, con
una massa di circa 126 GeV/c2. Se ne è ovviamente molto parlato al Congresso
di Napoli. LHC, dopo tre memorabili anni di attività, chiuderà i battenti all’inizio
del 2013 per circa due anni prima di riprendere a operare con collisioni protoneprotone a energie e luminosità ancora maggiori. Molti altri risultati di rilievo
arriveranno da ATLAS e CMS ma anche dagli esperimenti LHCb e ALICE, in
particolare per collisioni Pb-Pb e p-Pb.
Torniamo alla SIF. Nel corso del 2012 è entrata in azione la neonata
Commissione Didattica Permanente (CDP) su questioni didattiche (Piano Lauree
Scientifiche, classi di abilitazione, formazione degli insegnanti, ecc.) e universitarie
(reclutamento, valutazione, ecc.), in collaborazione con altre associazioni e altri
organismi: AIF, UMI, SAIt, SCI, Con.Scienze, CUN, MIUR. Aggiornamenti sull’operato
della CDP e su vari altri interventi e azioni della SIF, come sempre in favore dei
fisici e della Fisica, sono reperibili sul sito web della Società, peraltro rinnovato
quest’anno nel suo aspetto e nei suoi contenuti.
Sul fronte editoriale, sia per le riviste proprie della SIF sia per quelle a
partenariato europeo, la situazione è soddisfacente. EPJ Plus, nel suo secondo
anno di esistenza, ha pubblicato tanti interessanti articoli e le aspettative in termini
di impact factor sembrano essere buone. All’orizzonte si delinea la questione
dell’open access che presenta aspetti editoriali innovativi, anche dal punto di vista
economico.
Segnaliamo inoltre la pubblicazione, in collaborazione con la Società Italiana
di Storia della Scienza (SISS), di un bel volume illustrato di carattere storico sulla
figura emblematica, meglio nota all’estero che in Italia, di Laura Bassi (si veda il
breve articolo a p. 67 di questo fascicolo). Per il 2013 sono previste altre iniziative
editoriali, in particolare con la stampa di speciali volumi celebrativi in ricordo di
grandi personaggi della Fisica italiana.
Per finire, un piccolo richiamo o appello per i nostri attuali o futuri Soci: l’anno
2013 sarà un anno elettorale, le votazioni avranno luogo durante il 99° Congresso
Nazionale che si svolgerà nella splendida città di Trieste, dunque ricordatevi per
tempo di associarvi alla SIF!
A voi tutti infine i miei grati e sinceri auguri per un felice 2013.
Dear Members,
the year 2012 will end positively for SIF. The economical situation of the Society
stayed under control, notwithstanding the crisis that is interesting our Country,
and the cultural and scientific activities went on all the better.
This year in Varenna, in addition to the three excellent regular courses of the
International School of Physics “Enrico Fermi”, that took place from June 19 to July
27, the first course of the Joint EPS-SIF International School on Energy, organized
in collaboration with the European Physical Society (EPS), made very successfully
its debut from July 30 to August 4. The Lecture Notes of this new school that will
be published by the two Societies as a dedicated series, will serve as a reference
textbook for energy matters in the years to come. The courses of the International
School on Energy will take place biennially and will alternate with the European
Energy Conference (E2C) that is organized by EPS in collaboration with other
societies and institutions, like the European Association for Chemical and
Molecular Sciences (EuCheMS), the European Materials Research Society (E-MRS)
or the European Science Foundation (ESF).
The Italian Physical Society had its 115th anniversary in 2012. And the Enrico
Fermi School is nearing 60: in 2013 we shall celebrate this event with a very
unique international symposium. This anniversary coincides with that of the
Italian National Research Council (CNR), that will be 90, and that of the Polytechnic
University of Milan, that will be 150. Both these prestigious institutions have deep
links with Varenna and its district.
We already mentioned in this journal the EPS intiative for the declaration of an
International Year of Light (IYOL) by the United Nations in 2015. In the month of
October this year in Paris, it has obtained the approval of the Executive Board of
the United Nations Educational, Scientific and Cultural Organization (UNESCO).
As many as 33 Nations among which Italy voted in favour of the initiative, which
was formally submitted by Ghana and Mexico. This smooths the way for the final
approval by the General United Nations Assembly in 2013.
The SIF Congress in Naples (17-21 September 2012) has gathered a great
number of participants. Physical Oceanography has been covered for the first
time in one of the parallel sections of the Congress. The presentations and
communications, the round tables – especially one, open to the public, on “Italian
vulcanos and their secrets” – have been particularly interesting and of high level.
The encouraging news of one year ago from the Large Hadron Collider (LHC)
of CERN, concerning the Brout-Englert-Higgs-Guralnik-Hagen-Kibble boson,
commonly known as the Higgs boson, have been wonderfully confirmed by the
experimental results announced in the month of July 2012 by the ATLAS and CMS
experiments, with an effect of 5 standard deviations for a “Higgs-like” bosonic
state, observed in several possible decay channels, with a mass around 126 GeV/c2.
Obviously this has been extensively dealt with at the Congress in Naples. LHC,
after three memorable years of operation, will shut down at the beginning of 2013,
before restarting operation with proton-proton collisions at even higher energy
and luminosity. Many other relevant results are expected from ATLAS and CMS but
also from LHCb and ALICE experiments, especially with Pb-Pb and p-Pb collisions.
Coming back to SIF, in the course of 2012 the newborn Commissione
Didattica Permanente (CDP - Permanent Education Commission) started its
activity concerning matters related to teaching (Scientific Graduation Plan - PLS,
teachers diplomas, teachers training, etc.) and university (careers, assessment,
etc.) in collaboration with other Italian societies and bodies: AIF, UMI, SAIt, SCI,
Con.Scienze, CUN, MIUR. Updatings on CDP activities and various other SIF actions
and interventions, as always in favour of physicists and Physics, are retrievable
from the Society website that has been renewed this year both in presentation and
contents.
On the publication side, both the journals owned by SIF and those run in
cooperation with European partners performed in a satisfactory way. EPJ Plus
reached its second year of existence and has published a good number of
interesting papers that could positively affect its impact factor. The debate on
open access looms up on the horizon, presenting novel publishing aspects also
from an economical point of view.
Worthy of mention is the publication, in collaboration with the Società Italiana
di Storia della Scienza (SISS - Italian Society for the History of Science), of a nice
illustrated volume of historical nature about the emblematic figure of Laura Bassi,
better known abroad than in Italy (see the brief report on p. 67 of this issue). In
2013 other publishing initiatives are foreseen, in particular special volumes to
celebrate great personalities of Italian Physics.
Let me end with a little reminder or call for present or future SIF Members: 2013
will be an election year, voting will take place during the 99th National Congress to
be held in the beautiful town of Trieste, so do not forget to subscribe to SIF in time!
Lastly, to you all my grateful and sincere wishes for a happy 2013.
vol28 / no5-6 / anno2012 >
3
C a l e n d a r i o
E v e n t i
SIF
VARENNA - VILLA MONASTERO - LAKE COMO
INTERNATIONAL SCHOOL OF PHYSICS “ENRICO FERMI”
CLXXXVI Course
1 - 6 July 2013
“New Horizons for Observational Cosmology”
Directors:
A. Cooray (University of California, Irvine)
A. Melchiorri (Università di Roma “La Sapienza”)
E. Komatsu (University of Texas, Austin and
Max Planck Institut, Garching)
CLXXXVII Course
8 - 13 July 2013
“Water: Fundamentals as the Basis for Understanding
the Environment and
Promoting Technology”
Directors:
P. G. Debenedetti (Princeton University)
M. A. Ricci (Università degli Studi Roma Tre)
CLXXXVIII Course
15 - 20 July 2013
“Atom Interferometry”
Directors:
G. M. Tino (Università e LENS, Firenze, and INFN, Sezione di Firenze)
M. A. Kasevich (Stanford University)
CLXXXIX Course
22 - 30 July 2013
“Ion Traps for Tomorrow’s Applications”
Directors:
M. Knoop (Université de Provence, Marseille)
I. Marzoli (Università di Camerino)
G. Morigi (Universität des Saarlandes)
XCIX CONGRESSO NAZIONALE
DELLA SOCIETÀ ITALIANA DI FISICA
Trieste, 23 – 27 settembre 2013
ELEZIONI DELLE CARICHE SOCIALI SIF PER IL TRIENNIO 2014-2016
A norma del Regolamento Elettorale per le cariche sociali della Società Italiana di Fisica, l'Assemblea
Elettorale è convocata, in occasione del 99° Congresso Nazionale della SIF presso la sede della SISSA
a Trieste, mercoledì 25 settembre 2013 alle ore 9.00. Il Seggio Elettorale verrà aperto alle ore 10.00
di mercoledì 25 settembre e verrà chiuso alle ore 10.00 di venerdì 27 settembre. Si rammenta che,
sempre a norma del Regolamento, hanno diritto di voto i Soci in regola con la quota sociale 2013
almeno sei mesi prima dell'Assemblea Elettorale, e cioè entro il 25 marzo 2013. L'elenco di tali Soci
verrà pubblicato online nell'Area Soci entro il mese di aprile 2013. Secondo il Regolamento possono
essere candidati e quindi eletti i Soci che, in regola entro il 25 marzo 2013, lo erano anche nel 2012.
Per informazioni aggiornate sugli eventi consultare il sito: www.sif.it
scienza in primo piano
disordered systems
PREDICTING THE ULTRA-SLOW processes by picosecond dynamics
Alistar Ottochian1*, Cristiano De Michele2, Francesco Puosi1**, Dino Leporini1,3
1
Dipartimento di Fisica “Enrico Fermi”, Università di Pisa, Pisa, Italy
Dipartimento di Fisica, “Sapienza” Università di Roma, Roma, Italy
3
CNR, Istituto per i Processi Chimico-Fisici, Pisa, Italy
2
One distinctive feature of the disordered systems is the breadth of their dynamics.
It includes picosecond vibrations up to processes, involving the rearrangement
of the nanostructure or the diffusive transport, which become observable only
over extremely long times, i.e. even weeks or years. Numerical simulations and
experiments evidence unexpected strong correlations between the picosecond and
the ultra-slow dynamics for a wide class of disordered systems. Here we show that
the fast wiggling of the atomic or molecular constituents provides a predictive tool
of creeping phenomena. The fast predictability of the sluggish dynamics suggests
novel routes to tackle complex cutting-edge applicative problems, like the longevity
of the data stored in optical media and the long-term stability of biomaterials like
food, drugs and vaccines.
1 Introduction
Ultra-slow processes, developing over hours, weeks or much longer times, are common in
disordered systems and have important applicative implications. They include the mobility
of water or reactants that sets the long-term stability of food [1], biological samples and
pharmaceutical products [2], the gas uptake and the chemical aging of semisolid organic
aerosol particles affecting the air quality and climate [3], the ionic diffusion in intercalated
solids which are used as batteries with high-energy density [4] and the molecular
rearrangements occurring in the optical media limiting the longevity of the discs for data
storage [5].
Owing to their creeping emergence, the ultra-slow processes are difficult to be
characterized. From a more fundamental perspective, the sluggish evolution is often traced
back to the phenomenon of the “glass transition”, i.e. the progressive solidification of a liquid
to an amorphous state [6]. In this article we will show that both simulation and experiments
unveil the unexpected correlation between the picosecond dynamics and the time scale of
the slow molecular rearrangements occurring close to the glass transition (minutes, hours or
longer) [7]. To prepare the discussion, a brief outline of the glass transition is given in the next
section.
* Present address: Lab. SPMS, école Centrale Paris, Chatenay-Malabry, France.
** Present address: LIPHY, Univ. Grenoble 1, Saint Martin d’Hères, France.
vol28 / no5-6 / anno2012 >
5
2 The glass transition: an outline
Daily experience shows that most pure liquids crystallize
when sufficiently cooled. However, crystallization may be
avoided by diverse routes, e.g. by cooling fast enough or by
confinement in small volumes, which lead the system to the
metastable supercooled liquid state [6]. It is observed that
liquids composed of asymmetric molecules are supercooled
more easily than those consisting of symmetric molecules.
In particular, many macromolecules are virtually incapable of
crystallizing due to their global and local irregular structures.
A simple empirical indicator of the resistance to freezing is
the ratio between the boiling temperature Tb , indexing the
cohesive energy, and the melting temperature Tm . It is found
that the ratio Tb / Tm > 2 for many organic liquids that are
easily supercooled. This interrelation is consistent with the
effect of molecular asymmetry, decreasing Tm while leaving Tb
nearly unaffected as seen, e.g., in isomeric series.
2.1 The cage effect
A phenomenon at the heart of supercooled liquids is the
so-called “cage effect”, namely the transient trapping of
atoms or molecules by their neighbours1. Figure 1 provides
an illustration. The trapped particle is not immobilized by
the surrounding cage; it undergoes fast irregular vibrations
with mean period in the picosecond range and mean square
amplitude 〈u 2 〉 which is determined by the size of the cage.
The centre of the vibrational motion is determined by the
forces exerted by the neighbouring particles and moves
along with the displacement of these particles. In this case,
therefore, in contrast to a crystal, one has only temporary
and unstable equilibrium positions. After an average time ta
the cage constraints weaken, due to the rearrangement of
the surroundings, and the trapped particle is released. This
process is usually referred to as “structural relaxation” and ta
is named the “structural relaxation time”, a measure of the
cage lifetime. The exact definition of ta is more involved and
is skipped here [7]. After the release, the particle wanders off
and then is trapped again.
Figure 2 displays some typical tracks of a mobile particle
in a liquid environment at different temperatures. At high
temperature, say above the melting temperature Tm , the
particle undergoes the usual Brownian random walk (fig. 2,
top). Trapping is very short (ta ≈ 10 ps) and the particle
usually does not bounce back when it hits its neighbours.
This results in a high self-diffusion coefficient D and a low
viscosity h (remind that, according to the Stokes-Einstein
law, D ∝ T/h). By lowering the temperature and entering
scienza
in primo
piano
the supercooled regime, the particle motion becomes
more impeded by the cage effect; the random walk is a
continuous series of trapping/release events that slows
down the particle and increases the viscosity (fig. 2, middle).
Looking at the path followed by the particle, it is apparent
that marks of a solid (trapping around a position) and a liquid
(Brownian random walk) coexist in the typical motion of
the particle below Tm . They give rise to a mixed behaviour
named “viscoelasticity” which will be discussed in more
details in the next section. By lowering the temperature
further, the trapping time increases by orders of magnitude
and reaches times of the order of minutes, the diffusivity
becomes vanishingly small and the viscous flow is strongly
hampered (fig. 2, bottom). Conventionally, one defines a
“glass transition temperature”, Tg , when ta = 100 s. At Tg , by
virtue of the Maxwell relation h = G ta , the viscosity is around
1012 Pa s (the elastic modulus G is about 10 GPa). Below Tg , the
system undergoes a “structural arrest”; it resembles a virtually
immobilized disordered structure, a glass, over times of the
order of hours or longer2.
The solidification mechanism that we described is not
limited to supercooled liquids. It is observed in many other
systems, including polymers, bio-materials, colloids and
metallic glasses. It must be also pointed out that, in addition
to the standard cooling route, the glassy state may be also
reached by alternative methods involving, e.g., compression,
chemical reactions and solvent evaporation.
2.2 Viscoelasticity
Liquids are fluids; when at rest, they do not sustain a
tangential, or shearing, force due to the continuous and
irrecoverable change of the particles position. Instead,
a deformed solid maintains the shearing forces and the
atoms, or molecules, move back to their original positions
once the forces are removed leading to a finite elastic
modulus G. As discussed in the previous section, viscous
liquids are viscoelastic: they exhibit both elastic and viscous
characteristics. The rigidity is transient and limited by the
structural relaxation. In a low-viscosity liquid (ta ≈ 10 ps),
the high fluidity conceals the elastic behaviour, whereas the
reverse happens in an ultra-viscous liquid close to the glass
transition (ta ≈ 100 s) .
To better understand the viscoelastic behaviour, let us
consider the response of a liquid to an external force applied
to the constitutive particles. If a constant external force is
applied to the particles of a liquid, a particles flow along the
direction of the force is observed. If the magnitude of the
applied force is sufficiently small, the current of liquid that
1
For simplicity reasons the discussion is limited to spherical particles.
In the case of non-spherical molecules the reorientation of the particles
should be also taken into consideration.
6 < il nuovo saggiatore
2
This picture neglects the small-amplitude rattling motion of the
particles around their equilibrium position.
D. Leporini et al.: PREDICTING THE ULTRA-SLOW DYNAMICS etc.
arises is seen to be proportional to the applied
force; this form of internal friction determines
the viscosity of the liquid. An entirely different
result is obtained in the case of a variable
external force that changes so rapidly that
its characteristic time is appreciably less
than the trapping time ta . In the simplest
case of a sudden force applied for a short
time, the flow mechanism described above
does not have time to emerge; the effect of
the applied force on the liquid is an elastic
deformation just like in a crystal. In this
case, in addition to longitudinal elastic
deformations of the compression-expansion
type one also observes transverse (shear)
elastic deformations due to the occurrence
of tangential stresses. In most experiments
it is more convenient to apply continuously
acting oscillatory forces instead of transient
forces to observe the viscoelasticity. In the
high-frequency limit (f >> 2p / ta ), solid-like
elastic responseis observed. In the opposite
low-frequency limit (f << 2p / ta ), the fluidity
of liquids completely masks their elasticity.
In the intermediate range (f ~ 2p / ta ), the
liquid response to the applied force exhibits
both viscous and elastic characteristics.
Fig. 1 The cage effect in viscous liquids. Particles, here sketched as
spheres with s diameter, are temporarily trapped by their neighbours.
During the trapping period the centre of the particles undergoes
irregular fast vibrations with mean square amplitude 〈u 2 〉. After an
average time ta the restraint weakens, the trapped particle “1” escapes
from the cage and is replaced by a new one , “2”.
T > TM
3 Structural stability criteria
The transition to a glass is usually described
as an approach to states with vanishing
fluidity. An interesting alternative is offered
by recognizing that, on approaching the glass
transition, the transient elasticity of viscous
liquids is not only more persistent in time
but it is also increasing in magnitude. Thus,
the increase of the rigidity is a measure of
the stability of the disordered microscopic
structure. The notion of elastic stability was
introduced by Born who investigated the
melting of crystals [8]. The crystal would lose
its rigidity or “stability” and melt when at least
one of the shear moduli vanishes.
Another well-known stability criterion for
crystals is the Lindemann criterion which
states that melting occurs when the meansquare amplitude of thermal vibrations
−−−
of atoms, √〈u2 〉 reaches a critical fraction
of the nearest-neighbour separation
−−−
d (√ 〈u2 〉 ≈ d/10) [9]. An oversimplified picture
Tg < T < TM
T ~ Tg
Fig. 2 The paths of the random walk of a particle in a liquid at high
temperature (top), in the supercooled regime (middle) and close to the
glass transition (bottom). At lower temperatures the particle movement
is temporarily restricted by the neighbours. The trapping time ta
becomes as long as minutes close to the glass transition.
vol28 / no5-6 / anno2012 >
7
scienza
in primo
piano
position distribution
of the position distribution due to the
thermal vibrations around the equilibrium
positions of ordered and disordered structures
is presented in fig. 3. One sees that, on
increasing the amplitude of the thermal
vibrations, the equilibrium structure is
progressively blurred. For crystals this effect
results in structural instability and melting.
4 Structure lifetime and cage rattling
in disordered systems
position
Fig. 3 Distribution of the particles around the equilibrium positions of
an ordered (top) and a disordered (bottom) 1D structure subjected to
different thermal vibrations due to low (blue), intermediate (red) and
high (black) temperature. The blur effect increases with the temperature
and masks the equilibrium structure. According to the Lindemann
melting criterion, the red and black curves for the ordered structure
correspond to unstable states. Numerical simulations suggest extensions
of the Lindemann criterion to disordered structures.
r(t0)
r(t0+t)
2
〈∆r (t)〉
∆r(t)
~ σ2/4
2
〈u 〉
1-10 ps
time
~ τα
Fig. 4 Time evolution of the mean square displacement of the monomer
belonging to a polymer chain. After a short initial displacement, the
neighbours cage themonomer which wiggles with mean square
amplitude 〈u2 〉 . The average trapping time is ta. Within this lapse of time
the displacement is comparable to the monomer radius s/2.
8 < il nuovo saggiatore
Numerical simulations and experiments
suggest the possibility to extend the
Lindemann criterion to viscous liquids [7].
One finds that the mean square amplitude
〈u2 〉 of the irregular vibrations in the
cage of the neighbours (fig. 1) is a good
indicator of the lifetime of the disordered
nanostructure ta.
Let us focus on the simulations, which
considered a liquid of a polymeric linear
chains melt. The model is very rough; each
chain comprises a series of spherical beads
linked by stiff springs. The coarse-grained
nature is motivated by the attempt of finding
a universal behaviour which is independent
of the detailed structure of the molecule.
Figure 4 shows the typical time evolution of
the mean square displacement (MSD) of one
monomer of a tagged polymeric chain. The
MSD shows three different regimes:
• At very short times the monomer
undergoes a ballistic motion, i.e. it moves
almost freely like in a gas phase, 〈Dr 2 (t) 〉 =
〈v 2 〉 t 2 = 3 kBT/m t2, where v, m, T and kB are
the velocity, the mass of the monomer, the
temperature and the Boltzmann constant,
respectively.
• At intermediate times, the monomer is
trapped within the cage formed by its
first neighbours and the mean square
displacement is almost constant at a value
〈u2 〉 . The cage lifetime is finite and the
monomer escapes after an average time
ta which is orders of magnitude longer
than the picosecond average period of the
wiggling motion in the cage. The MSD at ta
is about the square of the particle radius.
• For much longer times than the escape
time ta ,the monomer undergoes diffusive
t
log −a = b 〈u2 〉 –1 + g 〈u2 〉 –2 ,
t0
where b and g are constants. A simple model
of the structural relaxation in a viscous liquid
provides insight into eq. (1) [10, 11]. It assumes
that the particle must overcome an energy
barrier DE in order to escape from the cage. It is
found that the barrier is inversely proportional
to the wiggling amplitude, DE ∝ kBT a 2 /〈u2 〉,
where a is the displacement needed to reach
the top of the barrier (fig. 6). Within this
simplified model eq. (1) is recovered with
b ∝ a2 and g = 0. In a disordered system
the particles do not displace by the same
amount to escape from their cages. If a proper
distribution is introduced, one derives eq. (1)
—
—
with b ∝ a2 and g ∝ s2a2 , where a2 and s2a2 are
the average and the variance of the square
displacements to overcome the barrier [7].
5 Universal scaling
Are the correlations observed by the
simulations supported by the experiments?
The answer is positive as is shown in fig. 7
3
After the escape from the cage, the monomer initially
displaces very slowly, since it is constrained by the
other monomers of the chain. The usual Brownian
diffusion manifests at later times when the whole
chain starts moving. In a simple liquid the intermediate
regime is missing.
4
The diffusion coefficient of a short polymer chain is
inversely proportional to the chain length M. To remove
this dependence, the product D M is considered.
(DM)
6
10
5
10
4
10
10
3
2
10
20
/<
1
2
u
30
2
>
M
2
3
5
10
0
10
20
30
/ <u >
1
2
Fig. 5 The high correlation between the average lifetime of the cage (in
reduced units) and the inverse of the mean square wiggling amplitude
of the monomer in the cage. They are evidenced by the simulation of a
polymeric liquid.The dashed line is the master curve given by eq. (1). The
average wiggling period is about one time unit tMD , corresponding to
about 1–10 ps, whereas ta may be orders of magnitude longer. The inset
shows that the correlation holds for the self-diffusion coefficient too.
Fig. 6 Simple activated model relating the energy barrier DE that the
particle must overcome to escape from the cage and the wiggling
amplitude. a is the displacement to reach the top of the barrier.
20
1 Year
PolyVinylChloride(191)
PolyMethylMethAcrylate(145)
a-PolyPropylene(137)
15

(1)
3
10
1
1,4-PolyButaDiene(99)
CKN (93)
2
10 s
Selenium(87)
OTP(81)
Ferrocene+Dibutylphthalate(69)
10

Figure 5 summarizes the results of the
simulations performed at several densities and
temperatures as well as at different number of
monomers M per chain and diverse interacting
potentials. These results suggest that the cage
lifetime ta and the mean square wiggling
amplitude in the cage 〈u2 〉 are strongly
correlated. The inset of fig. 5 shows that the
correlation holds also in the diffusive regime
that develops at much longer times than ta4.
The correlation plot of log ta vs. 〈u2 〉 –1 is
described by a “master curve” which turns out
to be a parabola in 〈u2 〉 –1:
log(τα τ ) , log(η η )
ο
ο
motion 〈Dr 2 (t) 〉 = 6 Dt, where D is the selfdiffusion coefficient3.
log(τα /τMD)
4
-1
D. Leporini et al.: PREDICTING THE ULTRA-SLOW DYNAMICS etc.
TNB(66)
1,4-PolyIsoprene(62)
Glycerol(53)
Zr46.8Ti8.2Cu7.5Ni10Be27.5(44)
5
B2O3(32)
GeO2 (20)
SiO2(20)
0
1 picosecond
-0,6
-0,4
(<
log
-0,2
/> <
2
ug
0
0,2
>)
2
u
Fig. 7 Experimental evidence of the correlation between the structural
relaxation time (or the viscosity h) and the wiggling amplitude for
several systems approaching the glass transition. 〈u2g 〉 is the amplitude at
the glass transition. The black line is calculated using eq. (1) as drawn by
the simulations and recast in terms of the reduced amplitude 〈u2 〉 / 〈u2g 〉 .
Note that the vertical axis spans about eighteen orders of magnitude.
vol28 / no5-6 / anno2012 >
9
where the structural relaxation time and the viscosity over
a range of about eighteen orders of magnitude for a wide
set of different systems approaching their glass transition,
including polymers, metallic glasses, ionic liquids, tetrahedral
liquids5, hydrogen-bonded and van der Waals molecular
liquids are plotted [7]. Both quantities are clearly correlated
to the reduced mean square wiggling amplitude 〈u2 〉 / 〈u2 〉
2
g , where 〈u g〉 is the amplitude at the glass transition. The
scaling is quite effective and the master curve (black line) is
calculated using eq. (1) with the same coefficients b and g
obtained by the simulations, and rewritten in terms of the
reduced amplitude.
Much of our current efforts are devoted to understand
the origin, as well as the limits,of the scaling. In this respect,
both the elasticity in polymers and liquids [12] and the
connectivity between particles in a model colloidal gel [13]
have been addressed.
Acknowledgements
Computational resources by “Laboratorio per il Calcolo
Scientifico” (Physics Department, University of Pisa) and
financial support from MIUR within the PRIN project “Aging,
fluctuation and response in out-of-equilibrium glassy
systems” are acknowledged. CDM acknowledges support
from ERC-226207-PATCHYCOLLOIDS.
References
[1] D. Champion, M. Le Meste, and D. Simatos, Trends Food Sci. Technol., 11
(2000) 41.
[2] B. C. Hancock and G. Zografi, J. Pharm. Sci., 86 (1997) 1.
[3] M. Shiraiwa, M. Ammann, T. Koop, and U. Pöschl, Proc. Natl. Acad. Sci.
U.S.A., 108 (2011) 11003.
[4] M. Wilkening, W. Küchler, and P. Heitjans, Phys. Rev. Lett., 97 (2006)
065901.
[5] Final Report on Optical Disc Longevity Study by the National Institute
of Standards and Technology/The Library of Congress (2007).
[6] P. G. Debenedetti, Metastable Liquids (Princeton University Press,
Princeton) 1996.
[7] L. Larini, A. Ottochian, C. De Michele, D. Leporini, Nat. Phys., 4 (2008)
42.
[8] M. Born, J. Chem. Phys., 7 (1939) 591.
[9] F. A. Lindemann, Z. Phys., 11 (1910) 609.
[10] R. W. Hall and P. G. Wolynes, J. Chem. Phys., 86 (1987) 2943.
[11] J. C. Dyre, Rev. Mod. Phys., 78 (2006) 953.
[12] F. Puosi and D. Leporini, J. Chem. Phys., 136 (2012) 041104.
[13] C. De Michele, E. Del Gado and D. Leporini, Soft Matter, 7 (2011) 4025.
Dino Leporini
Dino Leporini is associate professor at the Department
of Physics “Enrico Fermi” of the University of Pisa. He
is interested in the physics of disordered systems, in
particular polymers, liquids and liquid crystals, which
are studied by Electron Spin Resonance spectroscopy
and simulations.
5
tetrahedral liquids exhibit a preference for the formation of
tetrahedrally coordinated configurations.
10 < il nuovo saggiatore
Durante la preparazione di questo numero de Il Nuovo Saggiatore,
l'INFN (Istituto Nazionale di Fisica Nucleare) ha diramato il
comunicato stampa che qui di seguito riportiamo:
L'INFN RIVEDE IL SUO PROGETTO BANDIERA
Pubblicato Mercoledì, 28 Novembre 2012
I risultati della commissione internazionale nominata dal MIUR per
il costing review del progetto bandiera SuperB sono stati esaminati
ieri dal Ministro della Ricerca che ha voluto discuterne con i vertici
dell’INFN e successivamente con quelli del Cabibbolab. Il Ministro ha
fatto presente che non erano in discussione l’importanza e la qualità
del programma, ma che le condizioni economiche del paese e i limiti
previsti dal Piano Nazionale per la Ricerca, erano incompatibili con i
costi del progetto valutati. Il Ministro, mostrando grande disponibilità,
ha dato la possibilità all’INFN di proporre progetti, sempre nella
tipologia dei “progetti bandiera”, compatibili con lo stanziamento
previsto inizialmente.Le proposte dovranno essere valutate entro pochi
mesi. L’INFN sta quindi vagliando le idee in merito. Tra le possibilità,
comunque, verrà esplorata con convinzione l’ipotesi di presentare
il progetto per la realizzazione di un laboratorio internazionale
finalizzato alla costruzione di una macchina acceleratrice nell’area di
Frascati. (http://www.infn.it/index.php?option=com_co
ntent&view=article&id=359:bandiera&catid=21:news&
Itemid=532&lang=it).
A tale comunicato ha fatto immediatamente seguito, il 29 Novembre,
quello del Cabibbolab (http://www.cabibbolab.it).
Dato l'interesse scientifico dell'articolo di M. Giorgi e M. Rama su "The
Super Flavor Factory SuperB", previsto per questo numero, abbiamo
ritenuto di pubblicarlo comunque nella sua stesura originale.
While the present issue of Il Nuovo Saggiatore was in preparation,
INFN (the Italian National Institute of Nuclear Physics) circulated the
following press release:
INFN REVISES ITS FLAGSHIP PROJECT
published on wednesday November 28th, 2012
The results of the international commission appointed by MIUR
(Ministry of Education, University and Research) for the costing review
of the flagship project SuperB have been examined yesterday by the
Minister of Research who then wanted to discuss them first with
INFN and subsequently with Cabibbolab management. The Minister
underlined that neither the relevance nor the quality of the program
were brought into question, but that the economical situation of our
Country and the limits set forth by the "Piano Nazionale per la Ricerca"
(National Research Plan) were incompatible with the evaluated costs
of the project. The Minister demonstratrated his willingness giving
INFN the opportunity to submit other proposals of the same typology
as "flagship projects" that should fit the initially foreseen allocation.
The proposals shall be evaluated in a few months.
Therefore INFN is weighing up ideas in this respect. Among the
possibilities, anyway, the hypothesis of the project for the realization
of an international laboratory, having as purpose the construction
of an accelerator in the Frascati area, will be firmly considered.
(http://www.infn.it/index.php?option=com_content&
view=article&id=359:bandiera&catid=21:news&Itemi
d=532&lang=it).
To this press release immediately followed, on November 29th, that
of the Cabibbolab (http://www.cabibbolab.it).
Given the scientific interest of the paper by M. Giorgi and M. Rama
on "The Super Flavor Factory SuperB", scheduled for this issue, it was
considered appropriate to publish it anyhow in its original form.
scienza in primo piano
The super flavor factory SuperB
Marcello A. Giorgi1,2, Matteo Rama3
1
Università di Pisa e INFN sezione di Pisa, Italy
Cabibbo Lab, Rome, Italy
3
INFN-Laboratori Nazionali di Frascati, Italy
2
SuperB is a proposed next-generation asymmetric e+e– flavor factory designed to operate at a baseline
luminosity of 1036 cm–2 s–1, almost two orders of magnitude higher than the peak luminosity reached at
previous e+e– B-factories. The main purpose of the experiment is searching for physics beyond the Standard
Model and possibly investigating its nature through the measurement of rare processes involving b and
charm quarks as well as tau leptons. We present the physics program and an overview of the accelerator
and detector design.
1 Introduction
In the present approach to particle physics the phenomena
related to three of the four currently known fundamental
interactions in nature, electromagnetism, the weak force and
the strong force, are described by the standard model (SM).
The SM was formulated in its final form at the beginning
of the 70’s and since then it has been tested and verified
with great precision, collecting an impressive number of
successes. For example, it predicted the existence of the W
and Z bosons, which were later discovered by the UA1 and
UA2 experiments at CERN in 1983, and anticipated their
properties, then measured precisely at the Large ElectronPositron collider (LEP) at CERN between 1989 and 2000.
It also predicted the existence of the charm, bottom and top
quarks, the first discovered with the observation of the J/y
meson at the Stanford Linear Accelerator Center (SLAC) and
at the Brookhaven National Laboratory in 1974, the second
announced by the E288 experiment at Fermilab in 1977, the
third observed by the CDF and D0 collaborations again at
Fermilab in 1995. And it has predicted the existence of the
Higgs boson. The observation of a strong candidate has been
announced recently by the ATLAS and CMS experiments
running at the Large Hadron Collider (LHC) at CERN.
Its measured mass around 125 GeV/c 2 is consistent with the
indirect constraints from other measured SM parameters, but
more data are needed to establish if its properties are those
predicted by the SM.
Further confirmations of the SM have come recently from
the B-factory experiments BaBar at SLAC and Belle at KEK
(Tsukuba, Japan), whose main goal was the investigation
of CP violation in B meson decays. CP is the combination
of charge conjugation (C ), which transforms a particle
into its antiparticle, and parity (P ), which flips the sign of
spatial coordinates. C and P are known to be symmetries
of the electromagnetic and strong interactions but they
are maximally violated in weak interactions. However, their
combination CP was thought to be a fundamental symmetry
of nature till the experiment by J. Cronin and V. Fitch in 1964,
when the CP-violating weak decay KL → p+p– was observed
for the first time. New evidence of CP violation in neutral kaon
decays was reported in 1999 by the experiments KTeV at
Fermilab and NA48 at CERN, followed by the first observation
of CP violation in B meson decays by BaBar and Belle two
years later. Since then, CP violation has been observed in
several B decay channels at the B-factories and, recently, at
the LHCb experiment at CERN. Within the SM, CP symmetry
in weak interactions is broken by a single phase in the 3 × 3
unitary matrix that describes the W boson couplings with the
up quarks (u, c, t) and down quarks (d, s, b). The underlying
idea of quark mixing was proposed by Nicola Cabibbo for
processes involving the first two quark generations and
later extended with a third generation – not yet discovered
at that time – by M. Kobayashi and T. Maskawa to introduce
the CP-violating phase. The subsequent discovery of the
third generation of quarks, together with the precise
measurements of CP asymmetries at the B-factories in
agreement with the Cabibbo-Kobayashi-Maskawa (CKM)
vol28 / no5-6 / anno2012 >
11
model, constitute another impressive success of the SM.
The Nobel prize in physics in 2008 was awarded to Kobayashi
and Maskawa following the experimental confirmation of the
CKM mechanism at the B-factories.
Although the SM of particle physics can perhaps be
considered as the most successful theory of nature in history,
there are many reasons to believe that it must be extended.
For example, it does not provide an explanation for the dark
matter and dark energy, which account for about 23% and
72% of the energy density of the universe, respectively. And it
cannot explain the observed matter-antimatter asymmetry of
the universe. The violation of the CP symmetry is considered
a necessary condition for baryogenesis after the Big Bang,
as first noted by A. Sakharov in 1967, but the amount of
CP violation in weak interactions that originate from the
CKM mechanism is many orders of magnitude too small. In
principle the SM Lagrangian would allow for a CP-violating
term in strong interactions, but experimentally such an
asymmetry is not observed (which is a puzzle itself, usually
referred to as the “strong CP problem”). Hence, it seems
plausible that there must be other sources of CP violation still
undiscovered and not explained by the SM.
2 The SuperB project
For the aforementioned reasons, and others, a large
experimental effort is ongoing to shed light on the nature
of new physics (NP) beyond the SM. Current and future
experiments at particle accelerators are designed to face
the challenge using two complementary approaches. One
is the “energy frontier” path, whose main representatives
today are the ATLAS and CMS experiments. At the LHC
proton-proton collisions with a center-of-mass (CM) energy
up to 14 TeV will allow to produce new particles (if they
exist), with masses up to about 1 TeV/c 2. The second is the
“intensity frontier” path where indirect observation of new
particles or processes can be obtained through the precise
measurement of flavor physics1 phenomena at lower energy,
searching for deviations from the SM prediction in rare or
forbidden particle decays. The sensitivity to the mass scale
of NP with this approach depends on the model we consider
and it might be as high as O (100 TeV/c 2 ) if the flavor-violating
couplings of NP are enhanced compared to the SM.
If NP particles are observed at the LHC, then flavor physics
studies will help reconstruct the NP lagrangian by measuring
its flavor- and CP-violating couplings. If instead no new
particles are observed at the energy frontier, indirect searches
of flavor-changing processes would be the main tool to probe
1
Flavor physics denotes physics of transitions between the three
generations of SM quarks or leptons.
12 < il nuovo saggiatore
scienza
in primo
piano
NP scales in the 10–100 TeV region.
The SuperB experiment [1–4] is conceived to search for NP
and study its underlying mechanisms following the path of
the intensity frontier. It is based on a next-generation, highluminosity asymmetric electron-positron collider operating
at a nominal CM energy of 10.58 GeV – the Y(4S ) resonance
threshold – with the possibility to explore additional energy
regions from 3.77 GeV (the open charm threshold) up to
11 GeV above the Y(5S ) resonance. The machine is designed
to deliver a luminosity (a measure of the collision rate) of
1 × 1036 cm–2 s–1, nearly two orders of magnitude larger
than the peak luminosity achieved at the B-factories. In five
years at the nominal luminosity SuperB will collect a data
set of 75 ab–1 (1b = 10–24 cm2), corresponding to a sample
–
of about 80 × 109 BB pairs, 100 × 109 e+e– → cc– events and
9 + –
70 × 10 t t pairs: SuperB is in fact a “super flavor factory”.
There are two other experiments that will focus on B physics
in this decade: LHCb, currently operating at CERN, and Belle
II, under construction at KEK. A proposed LHCb upgrade, that
might start taking data at the end of this decade, is under
discussion. ATLAS and CMS are also contributing to flavor
physics, though their main focus is the direct search of the
Higgs boson and NP at the energy frontier. Additionally, there
are other flavor physics experiments, running or in the design
stage, that are relevant for the physics program of SuperB in
terms of providing complementary constraints on NP. These
include BES-III, NA62, KOTO, KLOE 2, MEG, Mu2e, and COMET.
The main physics goal of LHCb [5] and its proposed
upgrade is the study of B hadron decays produced from
proton-proton collisions at the LHC. Though both SuperB and
LHCb are (super) B-factories, the physics programs are largely
complementary. The main strength of SuperB is the clean
e+e– collider environment that allows also the reconstruction
of final states with neutrinos or several photons: measuring
such decays is problematic or impossible in the high
multiplicity hadronic environment of LHC. On the other hand,
LHCb can perform important complementary measurements,
–
exploiting the large bb production cross section and the
large boost of B hadrons in pp collisions. The physics program
includes for example the measurement of the very rare
decay Bs → m+m– and of the time-dependent CP-violating
asymmetries in Bs → J/yf and Bs → fg decays, which are
sensitive probes of NP where the e+e– B-factories are not
competitive.
Belle II [6] is an e+e– experiment running at the Y(4S)
that has many similarities with SuperB and a very large
overlap in the physics program, but also a few significant
differences. Belle II aims at reaching a target luminosity
of 8 × 1035 cm–2 s–1, collecting a data set of 50 ab–1 in
about seven years, while the SuperB design luminosity is
1 × 1036 cm–2 s–1 with a dataset of 75 ab–1 collected on a
similar time scale. The SuperB physics program is further
M. a. giorgi, m. rama: The super flavor factory SuperB
Fig. 1 Diagram illustrating
the SuperB physics program.
extended through the longitudinal polarization of the
electron beam and the possibility of operating the machine
at energies as low as the y (3770) threshold. The benefits of
these additional features are briefly discussed later in the
article.
In 2009 the INFN has approved the special project SuperBTDR aimed at the preparation of the Technical Design Report
of SuperB. In 2010 SuperB was included in the Italian National
Research Plan by the Ministry of Education, University and
Research as one of the flagship projects [7] and a preliminary
funding was approved by the Italian government at the end
of the same year. In October 2011 the consortium Laboratorio
Nicola Cabibbo [8] was setup with the joint membership of
INFN and University of Rome Tor Vergata. At the moment an
accurate cost review is underway. Details of the approval and
funding can be found in the “Piano Triennale” of INFN [9].
3 Physics program at SuperB
In the current situation where the nature of NP is largely
unknown, it is convenient to look for its signs in as many
different observables as possible. SuperB is an ideal
laboratory because it allows the investigation of NP in a wide
variety of processes: the decays of b quarks, c quarks and tau
leptons. For this reason e+e– B-factories are also called “flavorfactories” (fig. 1). In the following section we will briefly
discuss a few examples. The SuperB program is much wider
and the interested reader is invited to refer to [2, 10, 11, 12]
for more extensive and detailed discussions.
3.1 B physics
The B physics program covers observables measured using
the decays of charged and neutral B mesons (whose quark
–
–
content is bu and bd, respectively) produced through the
+ –
process e e → Y(4S) and the subsequent decay of Y(4S) to
−
B+B– and B0B0 pairs, each with a fraction of about 50%. At the
nominal luminosity of 1036 cm–2 s–1 SuperB will collect about
−
16 ×109 B B pairs per year. In addition, the machine may also
−
a run at the Y(5S) resonance, which is beyond the Bs(*) Bs(*)
threshold. Although the experiments running at hadronic
machines are expected to produce the largest amount of Bs
decays, measurements involving neutral particles are best or
only feasible at the e+e– colliders.
In the following we briefly discuss the basic principle by
which flavor physics observables can be sensitive to NP and
present a few examples. Quantum amplitudes contributing
to a process can be represented with the Feynman diagrams,
where particles are depicted as lines. Those entering or
leaving a Feynman diagram correspond to real particles
(representing the initial and final states) satisfying the energymomentum relation E 2 = p2c 2 + m2c 4, while intermediate
lines represent “virtual” particles. Virtual particles can have
masses even much larger than the typical energies at play in
the process: for this reason, observables can be potentially
sensitive to the existence of NP particles whose mass is too
large to be created at the accelerator. Examples of Feynman
diagrams are shown in fig. 2. The ideal observables to
search for NP effects in the flavor sector are those where the
experimental error and the SM theoretical uncertainty are
small compared to the potential contribution from a given
NP scenario, so that their measurement can impose stringent
constraints on the NP model parameters.
To illustrate this concept we briefly discuss the
−
−
measurement of B → D(*) t– nt decays recently reported
by the BaBar collaboration [13], based on a data sample
−
of 471 × 106 B B pairs. Semileptonic decays of B mesons
are well understood processes mediated by the W boson.
vol28 / no5-6 / anno2012 >
13
scienza
in primo
piano
Fig. 2 Leading
Feynman diagrams
−
for the B → D(*) t– −nt , B– → t– −nt ,
b →sℓ+ℓ– and b → ss–s processes
in the SM and in some NP
scenarios. Top row:
− leading SM
contributions to B → D(*) t– −nt and
B– → t– −nt (W–) and contributions
from a non-SM charged Higgs
(H–). Middle row: leading SM
contributions to b →sℓ+ℓ–.
Bottom row: SM gluon penguin
diagram and gluino-down squark
contribution to b → ss–s.
Decays involving the higher-mass tau lepton are sensitive
to additional amplitudes, for instance those involving an
intermediate charged Higgs boson as in the type-II twoHiggs-doublet model (2HDM) [14]. The leading Feynman
diagram is reported in fig. 2a. BaBar has measured the
−
−
−
ratios R (D) = BF (B → D t– nt) / BF (B → Dℓ– −nℓ ) and R (D*) =
−
−
BF (B → D* t– −nt) / BF (B → D*ℓ– −nℓ) (ℓ = e, m) and found values
exceeding the SM expectations by 2.0 and 2.7 standard
deviations, respectively. When the results are combined,
the disagreement grows up to the remarkable level of
3.4 s. Figure 3 shows the prediction of the type II 2HDM as
a function of the ratio of the vacuum expectation values
of the Higgs doublets, tan b ≡ n2 / n1 , and the mass of the
charged Higgs, mH + . The measured R (D) and R (D*), whose
central values depend on the value assumed for tan b/mH + ,
are superimposed. The SM expectations coincide with the
type-II 2HDM prediction in the limit tan b/mH + = 0 . From the
measured R (D) and R (D*) the model yields tan b /mH + = 0.44
± 0.02 and tan b/mH + = 0.75 ± 0.04, respectively. As a result,
the combination of R (D) and R (D*) not only is inconsistent
with the SM but also excludes the type-II 2HDM with a 99.8%
confidence level for any value of tan b /mH + . Although more
data are needed to confirm the results, this case illustrates
well the way measurements in the flavor sector can test
the SM, probe its extensions, and constrain the value of NP
parameters. This kind of measurement cannot be performed
at the LHC because of the presence of at least two neutrinos
in the final state that makes the combinatorial background
too large. Instead, at e+e– colliders one can use a recoil
−
analysis where one B from Y(4S) → B B is reconstructed into
a hadronic or semileptonic decay (Btag), and the signal decay
is searched in the remaining part of the event. The price to
14 < il nuovo saggiatore
pay with this technique is a Btag efficiency of about 0.1–0.2
per cent, that is usually widely compensated by the strong
suppression of combinatorial backgrounds that otherwise
would make the measurement impossible. SuperB is
−
expected to reduce the errors of the B → D(*) t– −nt branching
fractions by a factor between 5 and 10 compared to those
achieved at present B-factories.
−
As for B → D(*) t– −nt , in the SM the purely leptonic decay
−
B– → t– nt is mediated at leading order by a virtual W
boson and might receive sizeable contributions from new
particles, such as a charged Higgs as predicted in the typeII 2HDM mentioned before or in minimal supersymmetric
extensions (fig. 2b). For instance, the effect of a 2HDM
charged Higgs scales the SM branching fraction by a factor
(1 – tan b2 m2B /mH2 )2. Therefore, a precise measurement of
the branching fraction can test the NP model and constrain
its parameters. Similar relations apply to the B+ → m+nm and
B+ → e+ne decays, but the decay rates scale with the lepton
mass squared due to helicity suppression. SM estimates for
the branching fractions are ~10–4, ~ 5 × 10–7 and 10–11 for
t, m and e, respectively. Assuming the SM values and a dataset
of 75 ab–1, the branching fractions of the t and m channels
can be measured at SuperB with an error of about 5%,
making these channels very sensitive probes of models with a
charged Higgs.
Many of the most interesting observables are related to
processes that in the SM can only proceed through loops,
where any allowed virtual particles may contribute, including
possible new particles that are not part of the SM framework.
Amplitudes mediated by loops are generally suppressed in
the SM, so that contributions from NP might be relatively
large. As already stressed, it is important that the theoretical
M. a. giorgi, m. rama: The super flavor factory SuperB
Fig. 3 Comparison of− the
results of the BaBar B → D(*)
t– −nt measurement (blue) with
predictions that include a charged
Higgs boson of type II 2HDM
(red). The points at tanb/mH + = 0
correspond to the SM prediction.
The combination of R (D) and
R (D*) disagrees with the SM
at the 3.4 s level and allows to
exclude the type II 2HDM with a
confidence level of 99.8% in the
full tan b – mH+ parameter space
[13].
uncertainty of the SM prediction be small, to increase
the probability that a possible NP effect be recognized as
such. An important family of 1-loop amplitudes is the one
described by the so-called penguin diagrams, where for
example a quark of type b converts into a strange quark and
a photon, or a gluon, or a Z0 (see for example fig. 2 c and e).
Such processes are examples of flavor-changing neutral
currents (FCNC).
The radiative FCNC decays b → sg and b → dg are very
sensitive probes of NP for the reasons mentioned above.
To fully take advantage of these decays several observables,
such as the rate, CP asymmetries and the polarization of
the photon, must be measured. This can be done either
through the reconstruction of exclusive decays, or inclusively
by selecting all products of the s quark fragmentation.
Inclusive measurements are theoretically cleaner and
therefore in general more powerful in the detection and
interpretation of NP effects. Some specific decay channels,
such as B0 → K*0 [→ K+p–] g, can be measured precisely
also at hadron colliders, as recently demonstrated by the
LHCb collaboration. However, a number of exclusive modes
containing additional photons or KS , and the inclusive decay
B →Xsg , can only be measured at e+e– colliders where the
environment is sufficiently clean.
Within the SM photons in radiative b → qg decays (q = d, s)
are predominantly left-handed (i.e., the spin and momentum
of the photon have opposite direction), while in the charge
conjugate process they are right-handed. As a consequence,
mixing-induced CP asymmetries in b → qg are suppressed
by mq /mb , and therefore are very small. On the other hand,
in some extensions of the SM [15] the amplitude of righthanded photons grows proportional to the virtual NP
heavy-fermion mass, which can lead to larger asymmetries.
The polarization can be measured for instance through the
time-dependent CP asymmetry of B0 → Ksp0g decays, where
SuperB is expected to improve the current world average
precision by an order of magnitude (see table I).
The decay b → sℓ+ℓ– (and b → dℓ+ℓ– ) is also highly
sensitive to NP. The phenomenology is different, however,
since different operators contribute to the decay amplitude.
The lowest-order SM Feynman diagrams are reported in
fig. 2 (c, d). In addition to the rates and direct CP asymmetries,
a number of observables are sensitive to the presence of
new particles in the loops: the isospin asymmetry, the ratio
of the rate of the muon channel to the rate of the electron
channel, the forward-backward asymmetry and other
angular observables [16]. Both exclusive (e.g., B → K*ℓ+ℓ–)
and inclusive modes (B → Xs ℓ+ℓ–) are of interest in searching
NP, with the inclusive measurements generally affected by
smaller theoretical uncertainties. The LHCb collaboration has
already proved its ability of measuring the exclusive modes
B0 → K*0 m+m– and B+ → K+ m+m– very precisely [17, 18]. The
e+e– SuperB factories extend further the number of precisely
measured final states including all the B → K(*) m+m–and
B → K(*) e+e– decays and the inclusive modes B → Xs ℓ+ℓ–,
thus exploring the b → s ℓ+ℓ– sector with unprecedented
precision. Estimates of the expected yields are reported in
table I.
As an example we briefly discuss how the measurements
of b → sg and b → s ℓ+ℓ– can be used to constrain some
parameters of the minimal supersymmetric SM (MSSM)
with generic soft supersymmetry-breaking terms. The
MSSM is the minimal extension of the SM that realizes
supersymmetry (SUSY), the symmetry that relates every SM
vol28 / no5-6 / anno2012 >
15
scienza
in primo
piano
Table I Experimental
sensitivities for a selection of
SuperB measurements. Where
appropriate, the sensitivity for
LHCb and its proposed upgrade
is also indicated. The state of the
art (as of September 2011) is also
shown. The Belle II sensitivities
on 50 ab–1 can be approximately
estimated from SuperB scaling
by the difference in integrated
luminosity, except for those
measurements where the e− beam
polarization plays a key role such
as BF (t → mg) and sin2 qW . More
details can be found in [11].
Fig. 4 Example of SuperB
constraints on the parameters
of the minimal supersymmetric
SM with generic squark matrices
parametrized using the mass
insertion approximation.
Left: density plot of the selected
region in the Re (dd23)LR – lm (dd23)LR
plane for mg~ = mq~ =1 TeV
and (dd23)LR = 0.028 eip/4, using
different SuperB measurements:
BF (B → Xsg) (green),
BF (B → Xs ℓ+ℓ–) (cyan),
ACP (B → Xsg) (magenta), all
together (blue). Right: sensitivity
region (red) of SuperB in the
mg~ - (dd23)LR plane. The region is
obtained by requiring that the
reconstructed mass insertion is 3s
away from zero.
16 < il nuovo saggiatore
M. a. giorgi, m. rama: The super flavor factory SuperB
elementary particle with a hypothetical superpartner particle
differing by half a unit of spin. The superpartners of quarks
are called squarks. In our example we discuss the impact
of b → sg and b → s ℓ+ℓ– on the parameters of the MSSM
with generic squark mass matrices parametrized using the
mass insertion (MI) approximation [19], that can be used to
simplify expressions involving supersymmetric contributions
to flavor-changing neutral current processes from loop
diagrams. The simplification is achieved by the replacement
of a sum over all possible internal propagators and the
appropriate mixing at the vertices, with a single off-diagonal
mass insertion in a basis where all gauge couplings involving
SUSY partners of quarks have the same flavor structure of the
corresponding quark couplings.
For simplicity only the dominant contribution mediated
by the gluino (the superpartner of the gluon) is considered.
The relevant parameters are the gluino mass mg~ , the average
squark mass mq~ and the MIs (dd23)AB , where 23 and d indicate
the transition between the third and second family of downtype quarks (b → s) and A, B = L, R refer to the helicity of
the SUSY partner quarks. Figure 4 (left) shows the kind of
constraints that can be achieved on the real and imaginary
parts of the mass insertion parameter (dd23)LR , assuming
mg~ = mq~ = 1 TeV. Figure 4 (right) shows the region of mass
insertion (dd23)LR vs. SUSY mass mg~ for which a deviation
from the SM larger than 3s can be observed at SuperB. For
example, for mass insertions of about 0.1 the energy scale
probed by SuperB is about 10 TeV. Combinations of flavor
observables, such as those just described, can provide a
window to probe energies beyond the direct reach of the
LHC.
Another approach to search for NP effects is given by
the measurement of mixing-induced, time-dependent CP
violation in decays mediated by b → sq−q (q = u, d, s) penguin
transitions, such as B0 → fK s . In the SM these decays measure
sin2b up to small corrections (sin2beff ), while NP particles
in the loops can cause observable deviations. Thus the
difference between the measured and expected sin 2beff is
potentially sensitive to NP. Figure 2 (e, f ) shows the leading
penguin diagram in the SM and an example of a possible
NP contribution. The decays B0 → fK0, B0 → h′K0 , and B0 →
−
K0 K0 K0 are among the ones with the smallest theoretical
uncertainty. The expected sensitivities for B0 → fK0 and B0 →
h′K0 are reported in table I.
In addition, SuperB can perform a number of precision
measurements that can determine the CKM matrix
parameters at the percent level and test the consistency
of the SM. These include the measurement of the angles
alpha, beta and gamma of the “unitarity triangle”2, |Vcb|
and |Vub|. Even in case the CKM picture is found to be self2
The triangle in the complex plane drawn by the condition Vud V*
ub +
Vcd V *cb + Vtd V*tb = 0, which follows from the unitarity of the CKM matrix V.
consistent, the precise determination of the CKM parameters
is important to improve the SM prediction, and hence the NP
sensitivity, of many flavor observables. The expected reach of
SuperB on 75 ab–1 is reported in table I. The level of precision
needs the reduction of the theoretical uncertainties expected
in the next few years thanks to the intense activity in the
lattice QCD calculations with supercomputers.
3.2 Charm physics
− at the nominal
The cross section of the process e+e– → cc
CM energy is similar to that of the Y(4S) production, resulting
− pairs produced in 5 years at the
in about 9.8 × 1010 cc
nominal luminosity. Such a large sample provides unique
opportunities to search for signs of physics beyond the SM
in the charm sector, especially through the measurement of
CP asymmetries and the search for rare decays.
−
D0D0 mixing was first reported by Babar in 2007 and,
thanks also to the experimental results from Belle and CDF,
is now firmly established at a level consistent with the SM
expectations, though at its upper end. Its observation has
opened a window into the search for CP violation in mixing
through the time-dependent measurement of the D0 decay.
Since in the SM CP violation in charm mixing is negligibly
small, its observation would be an unambiguous indication of
NP. The current experimental uncertainty on the magnitude
and phase (rad) of the CP-sensitive parameter3 q/p is O (0.1)
and can be reduced by an order of magnitude with the
nominal SuperB dataset.
CP violation not related to the mixing amplitude is called
direct. Direct CP asymmetries in singly Cabibbo-suppressed
modes like D0 → K+K– and D0 → p+p– are generally predicted
to be as large as O (10–3) because of the interference between
the leading tree amplitude and the QCD “penguin” (1-loop)
amplitude. However, these predictions are affected by
large uncertainties associated to non-perturbative effects.
LHCb has recently reported the evidence of CP violation in
the time-integrated measurement of D0 → h+h– (h = p, K),
quoting ACP (K+K–) – ACP (p+p–) = (–0.82 ± 0.21 ± 0.11)% [20].
Establishing conclusively whether this result is consistent
with the SM will require further theoretical understanding
and the analysis of more experimental data, including the
measurement of CP asymmetries in related channels such as
D → pp, D → rr and D(s) → multibody decays [21]. SuperB
is expected to reach a precision of a few parts in 10–4 in the
measurement of ACP (K+K–) and ACP (p+p–) separately, and is
an ideal place to perform precision measurements of the
related modes, including those with neutral pions in the final
state whose reconstruction is very challenging or impossible
at the LHC.
3
q and p define the eigenstates |D±〉 of the Hamiltonian in the 2 × 2
−
−
Hilbert subspace spanned by |D0〉 and | D0 〉, |D±〉 = q |D0 〉 ± p | D0 〉; q/p = 1
if CP is conserved.
vol28 / no5-6 / anno2012 >
17
scienza
in primo
piano
Fig. 5 Comparison of the
experimental sensitivity on the
branching fractions of LFV tau
decays as obtained by BaBar and
Belle and as estimated at SuperB
and the LHCb upgrade.
The search for rare or forbidden charm decays provides an
additional opportunity to look for NP effects. For example,
the rate of the decay D0 → m+m– in the SM is estimated to
be of the order of 10–13, i.e. out of the present and future
experimental reach, but might be enhanced significantly in
several NP scenarios. The current experimental upper limit
of O (10–7) can be lowered by at least an order of magnitude
at SuperB. Similar considerations and similar experimental
limits apply to the decay D0 → e+e– and to the lepton-flavor–
violating (LFV) process D0 → e+m–.
Currently under discussion is the possibility to operate
−
the machine at the DD threshold, producing about
−
3 × 109 ψ (3770) → D0 D0 decays (~1 ab–1) with a 1-year run
at a luminosity of 1035 cm–2 s–1. The quantum correlation of
D meson pairs allows the measurement of the strong phase
−
difference between the D0 → f and D0 → f amplitudes, that
is needed to improve both the uncertainty of the mixing
and CPV parameters in time-dependent D0 decays, and the
precision of the unitarity triangle angle gamma extracted
from B → DK decays. In addition it is possible to use a recoil
analysis technique as done at the Y(4S) for rare B decays.
Selecting the events where one D is reconstructed, the
other D can be studied to search for rare decays in a very
clean environment, so that systematic uncertainties from
background contributions are kept to a minimum. The
CLEO-c experience has shown that at charm threshold
studies involving leptonic or semileptonic decays can provide
measurements that are competitive with those based on 2-3
18 < il nuovo saggiatore
orders of magnitude more data at the Y(4S) [22].
3.3 Tau physics
In the original formulation of the SM neutrinos have
null masses and lepton flavor is strictly conserved. During
the past decades evidence for neutrino oscillation has
been collected from many different experiments, up to
the recent measurement of the mixing parameter q13 by
the Daya Bay collaboration [23]. The phenomenon is now
firmly established, thus implying that neutrinos have (very
small) mass and their flavor is not conserved. In a modest
extension to the SM incorporating non-zero neutrino masses,
the branching fractions of LFV processes are many orders
of magnitude below the present and future experimental
accessibility (O (10–54)) while the same rates can be of the
order of 10–6 in some supersymmetric models. Hence LFV
decays, if observed, would be among the most theoretically
clean signatures of NP.
The expected experimental sensitivity for a selection of
tau LFV decays at SuperB is reported in table I. With a dataset
of 75 ab–1 SuperB can access LFV tau decay rates over 100
times smaller than BaBar in the cleanest channels such as
t+ → ℓ+ℓ+ℓ–, and over 10 times smaller in modes that suffer
irreducible backgrounds, such as t → ℓg (ℓ = e, m). Many of
these decays are difficult or impossible to reconstruct at
hadronic machines such as the LHC. The polarized electron
beam provides additional advantages because it allows to
further suppress backgrounds, to determine the properties of
M. a. giorgi, m. rama: The super flavor factory SuperB
Fig. 6 Present layout of the SuperB
site in the Tor Vergata campus of
Rome University.
the LFV interaction from the polarization-dependent angular
distribution of the tau decay products, and to optimize the
selection sensitivity for specific NP models. This feature gives
SuperB a specific advantage over its direct competitor Belle II.
Figure 5 shows the experimental sensitivity of LFV tau decays
measured by BaBar and Belle compared with the expected
sensitivity at SuperB and at the upgraded LHCb. For SuperB
only a few modes are shown, but in fact all modes accessible
at the B-factories can be measured.
The search for CP violation in tau decays and the
measurement of the tau electric dipole moment and the tau
anomalous magnetic moment are additional areas where
SuperB can significantly improve the current experimental
limits of observables that are sensitive to specific NP models.
Also in this case the electron beam polarization can be
exploited to significantly enhance the sensitivity [2].
3.4 Other topics
The SuperB physics program includes other topics that
are not discussed in this article. An important example is
spectroscopy, that allows the study of the theory of strong
interactions at energy scales not sufficiently high to apply
perturbation theory, through the measurement of the mass
and quantum numbers of hadrons. BaBar, Belle and other
experiments have already proved the ability to discover
unexpected states such as the D*s0 (2317)+, Y(4260) and
X (3872) [2, 10], which do not easily fit into “conventional”
spectroscopy. LHCb is expected to give important
contributions, especially in decays with only charged particles
in the final state. The SuperB factories will allow to enlarge
the data sample further, including final states containing
neutral particles.
Instead of giving an overview of the other physics areas
where SuperB can contribute, in the remaining part of this
section we will briefly discuss a specific example where the
beam polarization plays a key role.
The combination of high luminosity and polarized electrons
at SuperB provides a unique opportunity to measure sin2 qW
from the precise measurement of the left-right asymmetries
in e+e– → m+m–, t+t–, cc– which results from the interference of
amplitudes mediated by the photon and the Z 0 (the neutral
spin-1 gauge boson that mediates the weak interaction
together with W±). The Weinberg angle qW is a fundamental
parameter of the SM, whose value is not predicted by the
theory and must be determined experimentally. The value of
qW varies as a function of the momentum transfer (q) at which
the process is measured. The most precise measurement
has been done at q 2 ~ (91 GeV)2 corresponding to the mass
squared of the Z 0 boson, while SuperB could measure it
at q2 = (10.58 GeV)2 with a comparable precision. This is
of interest for two main reasons: i) a measurement at the
Y(4S) is theoretically cleaner than one at the Z 0 and ii) there
is no measurement at this particular energy which is in a
region where sin2 qW is changing rapidly. These precision
measurements are sensitive to NP scenarios where one or
more neutral gauge bosons can contribute to the process.
vol28 / no5-6 / anno2012 >
19
scienza
in primo
piano
Fig. 7 The crab-waist collision scheme.
(a) Crab sextuples off. (b) Crab sextuples on.
4 Accelerator
The SuperB e+e– collider is to be constructed on an area of
30 hectares of the Tor Vergata campus of Rome University,
5 km away from the Laboratori Nazionali di Frascati (LNF) of
the Istituto Nazionale di Fisica Nucleare (INFN). The project
is managed by Cabibbo Lab [8], a newly formed consortium
between the University of Tor Vergata (owner of the land)
and INFN. According to the current estimates beams might
circulate in the accelerator on a time scale of about six years
if all intermediate milestones are met [24]. A layout of the site
is in fig. 6.
The collider design comprises two rings with a 1.25 km
circumference, one for electrons at a nominal energy
of 4.2 GeV and one for positrons of 6.7 GeV. There is
one interaction point where the colliding beams are
squeezed down to a vertical rms size of 36 nm. Electrons
are longitudinally polarized with a polarization fraction
of 65–85%. The machine design is the result of a balance
between three main requirements: high luminosity,
relatively low backgrounds and electric power consumption
comparable with previous generation B-factories. Most of
the new accelerator techniques used at SuperB have been
achieved at other recently completed accelerators including
the new PETRA III light source at DESY (Germany) and the
upgraded DAFNE collider at LNF, or during the design studies
of the proposed CLIC or ILC linear colliders.
The luminosity of an e+e– collider can be written as
(1)
where N + (N – ) is the number of positrons (electrons) per
20 < il nuovo saggiatore
bunch, fc is the bunch collision frequency, sx /sy /sz are the
horizontal/vertical/longitudinal rms size of the bunch and q
is the bunch crossing angle. sx and sy can be written in terms
of the beam emittance (ε) and the beta function (β) at the
——
interaction point (IP) in each direction, si = √ b*i ei (i = x, y).
In high luminosity colliders with conventional collision
schemes the key requirements to increase the luminosity are
very small vertical beta function b*y at IP, high beam intensity
and large beam size sx . However, in these schemes the
luminosity is limited because b*y cannot be much smaller than
sz without incurring the “hourglass” effect (the dependence
of the vertical beam size on the longitudinal position along
the crossing region), and sz cannot be made too small
without introducing other problems which, in turn, would
limit the luminosity and increase dramatically the power
consumption. The solution chosen by SuperB is based on
the crab waist (CW) scheme [25–27] and aims at increasing
the luminosity without longitudinal bunch length reduction
and with moderate power consumption. Let us consider
two bunches colliding at an angle theta on the x-z plane
(fig. 7a). The CW principle can be explained in three basic
steps. The first one is the requirement of a large Piwinski
angle F = (sz / sx ) tan q/2 >>1 to reduce the overlap area
of the colliding bunches. In the CW scheme this condition
is fulfilled by decreasing the horizontal beam size x and
increasing the bunch crossing angle. Then, in the second step
the vertical beta function b*y at the IP is made comparable
to the overlap area size, i.e. much smaller than the bunch
length: b*y ~ 2sx /q ~ sz /F << sz . Reducing b*y brings several
advantages, including the increase of the luminosity keeping
the same bunch current, and the suppression of the synchrobetatron resonances. Furthermore, there is no need to
decrease the bunch length to increase the luminosity, and
M. a. giorgi, m. rama: The super flavor factory SuperB
this helps solving problems such as the electromagnetic
“high-order mode heating”, coherent synchrotron radiation of
short bunches and excessive power consumption. However,
the large Piwinski angle itself introduces new beam-beam
resonances which may significantly limit the maximum
achievable luminosity. At this point (third step) the CW
transformation enters the game. The vertical beta function
waist of one beam, which is perpendicular to the longitudinal
direction of the bunch in the usual collision schemes,
is rotated so that it is oriented along the central trajectory of
the other one (fig. 7b). The CW vertical beta function rotation
is provided by sextuple magnets placed on both sides of the
IP. The CW transformation yields a small geometric luminosity
gain due to the vertical beta function redistribution along
the overlap area, of the order of several percent. But the
dominating effect comes from the suppression of betatron
and synchro-betatron resonances otherwise arising from
the vertical motion modulation by the horizontal betatron
oscillations.
The collision scheme based on large Piwinski angle and
crab waist has been successfully tested at DAFNE in 2009,
observing a factor 3 luminosity increase when the crab waist
sextupoles were switched on, in good agreement with the
simulations [28]. The test was done in the absence of the
solenoidal magnetic field of a detector. Further tests are
currently in progress at DAFNE, where the detector KLOE-2
immersed in a 0.52 T magnetic field is now installed and
operational.
Considering for the SuperB baseline the parameters
N + = 5.1 × 1010, N – = 6.6 × 1010, fc = 233 MHz, sy = 36 nm,
sz = 5 mm and q = 66 × 10–3 << 1 (F >>1), the luminosity in
eq. (2) can be approximated to
(2)
The present design comprises beam currents of about 2 A
and a power consumption of the radio frequency units of
about 16 MW. The Technical Design Report of the accelerator
is in preparation.
It has been recently proposed to enhance the SuperB linear
accelerator with a Free Electron Laser (FEL) able to produce
monochromatic radiation in the region of hard X-rays. A FEL
is a device which converts a fraction of the electron kinetic
energy into coherent light by letting the electron beam pass
through an array of magnets with alternating poles called
undulator. A FEL with the proposed characteristics allows to
take “radiography” of matter with a resolution higher than
10–10 m and to investigate the dynamics of ultra-high speed
phenomena, with applications in material physics, biology
and medicine.
5 Detector
The SuperB detector concept is based on the BaBar detector
[29], with modifications required to operate at a luminosity
of 1036 cm–2 s–1 and with a reduced CM boost. The detector
includes (moving away from the interaction point) a tracking
system composed of a silicon vertex tracker (SVT) and a drift
chamber (DCH), a Cherenkov detector with fused silica bar
radiators (FDIRC) for charged kaon/pion particle identification,
an electromagnetic calorimeter (EMC) for energy and direction
measurement of photons and electrons, a superconducting
solenoid coil providing a 1.5 T magnetic field for the tracking
system, and an instrumented flux-return (IFR) for the detection
of muons and KL . A number of components are reused from
BaBar: the flux-return steel, the superconducting coil, the barrel
part of the EMC and the fused silica bars of the DIRC. A brief
overview of the main differences with respect to the BaBar
detector is reported below. The reader is referred to [4] for more
detailed discussions.
To maintain sufficient proper-time resolution for timedependent CP violation measurements with the planned
SuperB boost of bg = 0.24 (it was bg = 0.56 at BaBar), the vertex
resolution is improved by reducing the beam pipe radius
and placing the innermost layer of the SVT at about 1.5 cm
from the IP. The baseline technology for this layer is silicon
striplets, though other solutions based on pixelated sensors
are considered for possible detector upgrades. The drift
chamber is similar in design and performance to the BaBar
chamber. Compared to BaBar the inner radius is constrained
to be a few cm larger due to the presence of the tungsten
shield surrounding the final focus cooling system. R&D is
ongoing to evaluate the use of the cluster-counting technique
together with the dE/dx measurement to improve the particle
identification capability. The FDIRC is conceptually similar to the
BaBar DIRC and uses the same quartz bars as Cherenkov light
radiator, but the photon camera is replaced by a much smaller
one combined with faster photon detectors. This solution allows
to be about 100 times less sensitive to backgrounds keeping
similar performance in terms of particle identification. The
barrel part of the EMC reuses the BaBar barrel CsI(Tl) crystals
read by PIN diodes, with new readout electronics. There are
currently two main options for the forward EMC technology.
One is made of pure CsI crystals; the other is a hybrid solution
where the crystals closer to the barrel are taken from the CsI(Tl)
BaBar forward calorimeter and the remaining part, where
background rates are higher, is made of LYSO crystals. The IFR
uses the steel flux return of the magnet as a muon filter and
hadron absorber. Compared to BaBar, the absorber is increased
and redistributed to optimize the muon and KL identification
and the gaseous detectors (RPC and LST) are replaced by much
vol28 / no5-6 / anno2012 >
21
faster extruded plastic scintillator.
Two detector options are still under discussion: a “vetoquality” EMC made of lead and scintillator installed in the
backward region to increase the angular coverage, and a
time-of-flight detector placed between the DCH forward
endcap and the EMC to enhance the particle identification
capability in the forward region.
The Technical Design Report of the detector is in
preparation.
Bibliography
[1] http://superb.infn.it/home
[2] M. Bona et al., “The SuperB Conceptual Design Report”,
arXiv:0709.0451.
[3] M. E. Biagini et al., “SuperB progress reports, The Collider”,
arXiv:1009.6178.
[4] E. Grauges et al., “SuperB progress reports, The Detector”,
arXiv:1007.4241.
[5] A. A. Alves Jr et al., “The LHCb detector at the LHC”, JINST, 3 (2008)
S08005.
[6] T. Abe et al., “Belle II Technical Design Report”, arXiv:1011.0352.
[7] MIUR, Programma Nazionale della Ricerca 2011-2013 at
http://www.istruzione.it/web/ricerca/pnr
[8] http://www.cabibbolab.it
[9] Piano Triennale INFN 2012-2014 and 2011-2013 at http://www.
infn.it/ ; Giornata di Studio sul Piano Triennale 2013-2015 at
http://www.presid.infn.it
[10] B. O’Leary et al., “SuperB progress report - Physics”, arXiv:1008.1541.
[11] B. Meadows et al., “The impact of SuperB on flavour physics”,
arXiv:1109.5028.
[12] T. E. Browder, T. Gershon, D. Pirjol, A. Soni and J. Zupan, “New
Physics at a Super Flavor Factory”, arXiv:0802.3201, Rev. Mod. Phys.,
81 (2009) 1887.
–
[13] J. P. Lees et al., “Evidence for an excess of B → D(*)t–n–t decays”,
arXiv:1205.5442, Phys. Rev. Lett., 109 (2012) 101802.
[14] M. Tanaka and R. Watanabe, Phys. Rev. D, 82 (2010) 034027;
V. D. Barger, J. Hewett, R. Phillips, Phys. Rev. D, 41 (1990) 3421.
[15] see for example D. Atwood, M. Gronau, A. Soni, Phys. Rev. Lett., 79
(1997) 185.
[16] W. Altmannshofer et al., “Symmetries and Asymmetries of
B → K*m+m– decays in the Standard Model and beyond”,
arXiv:0811.1214, JHEP, 01 (2009) 019.
Marcello Giorgi
Marcello Giorgi is Professor of Particle Physics at the Physics Department
of the University of Pisa. His research activity focused initially on
experiments of electro-hadron and photon-hadron scattering at Frascati,
Daresbury and CERN. Later he worked in the ALEPH experiment at CERN
and in the BaBar experiment at SLAC. He pioneered the development
and use of silicon detectors in High Energy physics. He was president
of the “Commissione V” of INFN, director of the Pisa INFN section and
spokeperson of BaBar. He coordinated the international collaboration
that is proposing to build the super flavor factory SuperB in Italy, and he
is member of the Cabibbo Lab directorate with the responsibility for the
research and computing areas. He was awarded the EPS Fellow and the
University of Pisa “Cherubino d’Oro”.
22 < il nuovo saggiatore
6 Conclusions
Flavor physics offers a unique opportunity for disclosing
physics beyond the standard model and understanding its
origin. SuperB is a proposed super flavor factory designed
to reach unprecedented sensitivity not only in the B sector
but also in charm as well as in tau lepton decays. Its physics
program complements the direct searches and flavor physics
studies underway at the LHC.
[17] The LHCb collaboration, “Differential branching fractions and
angular analysis of the B0 → K*0m+m– decay”, LHCb-CONF-2012-008.
[18] R. Aaij et al., “Measurement of the isospin asymmetry in B → K(*)m+m–
decays”, arXiv:1205.3422, JHEP, 07 (2012) 133.
[19] L. J. Hall, V. A. Kostelecky and S. Raby, “New Flavor Violation in
Supergravity Models”, Nucl. Phys. B, 267 (1986) 415.
[20] R. Aaij et al., “Evidence for CP violation in time-integrated D0 → h+h–
decay rates”, arXiv:1112:0938, Phys. Rev. Lett., 108 (2012) 111602.
[21] See for example Y. Grossman et al., arXiv:1204.3557.
[22] See for example the measurement of the Ds decay constant
summarized by HFAG at http://www.slac.stanford.edu/
xorg/hfag/charm/index.html
[23] F. P. An et al. “Observation of electron-antineutrino disappearance at
Daya Bay”, arXiv:1203.1669, Phys. Rev. Lett., 108 (2012) 171803.
[24] A. Variola, talk given at the 4th SuperB Collaboration Meeting, La
Biodola, Isola d’Elba, Italy, 1-4 June 2012,
http://agenda.infn.it/conferenceOtherViews.
py?view=standard&confId=4880
[25] P. Raimondi, 2nd SuperB workshop, Frascati 2006, http://www.
lnf.infn.it/conference/superb06/prog.html
[26] P. Raimondi, D. Shatilov, M. Zobov, “Beam-Beam Issues for
Colliding Schemes with Large Piwinski Angle and Crabbed Waist”,
arXiv:physics/0702033.
[27] K. Ohmi, P. Raimondi, D. Shatilov, M. Zobov, “Crab Waist Collision
Studies for e+e– Factories”, arxiv:0802.2667.
[28] M. Zobov et al., “Test of “Crab-Waist” Collisions at the DAΦ NE
Φ Factory”, Phys. Rev. Lett., 104 (2010) 174801.
[29] B. Aubert et al., “The BaBar Detector”, hep-ex/0105044, Nucl.
Instrum. Methods. A, 479 (2002) 1.
Matteo Rama
Matteo Rama got the PhD in Physics at the University of Pisa in 2001 and
since 2005 he is researcher at the Laboratori Nazionali di Frascati of INFN.
He started his research activity in the BaBar experiment at SLAC, where
he contributed to the construction and commissioning of the silicon
vertex tracker and to the study of CP violation in B decays. In 2004-2008
he was coordinator of the BaBar physics working group on B decays
to charmed final states. Since 2008 he is also involved in the SuperB
project, contributing to the R&D of the drift chamber and coordinating
the development of the physics tools and the study of the physics reach
as a function of the detector geometry.
fisica e...
dalle basse dosi al
“silenzio cosmico”
Nuove evidenze degli effetti delle radiazioni ionizzanti
Per la salute
Emiliano Fratini1,2, Daria Capece1,3
1
Centro Studi e Ricerche e Museo Storico della Fisica “Enrico Fermi”, Roma, Italia
Istituto Superiore di Sanità, Roma, Italia
3
Università dell’Aquila, L'Aquila, Italia
2
I dati raccolti fin dagli anni ’50 sull’esposizione ad alte dosi di radiazioni hanno posto il DNA
come bersaglio primario della radiazione (target theory) e hanno gettato le basi di un modello
radioprotezionistico lineare senza soglia (LNT Model): gli effetti alle basse dosi sono estrapolati in
modo diretto e lineare dagli effetti ad alte dosi.
Negli ultimi decenni questo modello è stato messo in discussione dalle osservazioni di effetti non
bersaglio-specifici (Non-Target Effects) osservati a basse/bassissime dosi. Questi effetti non sono
dovuti esclusivamente alla risposta della singola cellula ma all’integrazione di risposte cellulari,
tissutali e dell’organismo intero.
1 Introduzione
Gli effetti delle radiazioni ionizzanti
(RI) possono essere suddivisi in
deterministici e stocastici se è possibile
correlarli direttamente o meno alla
dose assorbita. I primi sono attribuibili
direttamente all’irraggiamento e
generalmente si manifestano a
breve tempo dall’esposizione, hanno
una gravità proporzionale alla dose
assorbita e si manifestano solamente
al superamento di una dose soglia,
specifica per l’effetto osservato. Al
contrario, gli effetti stocastici non si
manifestano immediatamente e non
sono facilmente correlabili con la dose
assorbita.
Il modello lineare senza soglia (LNT
model), usato in radioprotezione per
predire gli effetti di basse dosi di RI
[1], ipotizza che la probabilità che
gli effetti prodotti dalla radiazione
siano direttamente proporzionali
alla dose, cioè il rischio per la salute
cresca linearmente con la dose.
Questo modello, costruito sulle basi di
studi epidemiologici, che riguardano
prevalentemente effetti di alte dosi
ed alti ratei di dose di RI, è usato per
stimare i rischi da basse dosi e bassi
ratei di dose, estrapolando i dati
ottenuti ad alte dosi.
Negli ultimi decenni il modello LNT
è stato messo in discussione in quanto
si sono raccolte un gran numero di
evidenze sperimentali che suggeriscono
che i rischi collegati alle basse dosi di
radiazioni non possono essere predetti
da una estrapolazione lineare dei rischi
valutati ad alte dosi.
L’universalità della “target theory”, che
asserisce che bersagli sensibili (target)
all’interno della cellula debbano essere
colpiti direttamente dalla radiazione,
o indirettamente attraverso l’azione
dei radicali liberi, per dar luogo a un
determinato effetto biologico, è messa
alla prova dalle osservazioni di effetti
non bersaglio-specifici (Non-Target
Effect, NTE), cioè che non richiedono
l’esposizione diretta alle radiazioni.
Gli effetti NTE sono particolarmente
evidenti alle basse dosi ed includono il
ruolo della comunicazione cellulare e
le risposte a livello tissutale e sistemico.
Tra i NTE possiamo considerare
l’instabilità genomica, il bystander effect
(BE), e la risposta adattativa (AR). Questi
due effetti verranno descritti in seguito.
Una migliore conoscenza degli effetti
non target può avere conseguenze
importanti per la valutazione del rischio
alle basse dosi e, conseguentemente,
sulla protezione dalle radiazioni. Alcuni
effetti, quali l’instabilità genomica
vol28 / no5-6 / anno2012 >
23
fisica e...
Fig. 1 Modelli di rischio per la
salute dovuti all’esposizione a basse
dosi di radiazioni ionizzanti [9].
e i fenomeni bystander, potrebbero
aumentare il rischio di cancro al di sopra
delle stime fatte per estrapolazione
del modello LNT, mentre al contrario
altri effetti potrebbero mostrare una
protezione (risposta adattativa) [2].
Questi studi possono contribuire alla
valutazione della stima del rischio di
cancro per l’esposizione occupazionale,
medica e ambientale alle radiazioni
ionizzanti, in quanto la soglia di dose
per gli studi epidemiologici è di circa
100 mSv. L’estrapolazione del rischio dai
dati epidemiologici dovrebbe essere
fatta con la certezza che i meccanismi
di carcinogenesi siano gli stessi per
le alte e basse dosi; se non fosse così,
l’estrapolazione e il modello LNT non
sarebbero validi [3].
Negli ultimi decenni, ed in seguito
a questi studi, Il modello LNT è stato
fortemente contestato [4]: la varietà dei
fenomeni biologici indotti dalle basse
dosi, potrebbe avere un impatto sulla
modulazione della forma della curva
dose-effetto e causare una deviazione
dal modello LNT (fig. 1).
2 Effetti “targeted”: il danno al
DNA e le vie di segnalazione e
riparazione
Come detto sopra gli effetti “targeted”
della radiazione, sono quelli che
24 < il nuovo saggiatore
necessitano l’esposizione diretta
del nucleo e l’interazione diretta o
indiretta della radiazione ionizzante
con il materiale genetico. Pertanto la
radiazione può provocare un danno
diretto sull’acido nucleico, come rotture
a singolo o doppio filamento (SSB,
Single-Strand Break; DSB Double-strand
break) o un danno indiretto provocato
dall’interazione del DNA con prodotti
della radiolisi dell’acqua (es. il radicale
.
OH, che è una componente dei ROS,
Reactive Oxigen Species).
Il danno derivato da ROS prodotte
durante l’irraggiamento, spesso a carico
di singole basi o di un solo filamento
dell’acido nucleico, è un danno che si
sovrappone a quello fisiologico dovuto
al metabolismo ossidativo della cellula.
Va sottolineato che dosi acute di
100 mGy di raggi γ non aggiungono al
livello spontaneo di danno ossidativo
endogeno più del 10% [5].
I sistemi di riparazione del danno
ossidativo sono: la reversione
diretta, per opera di enzimi specifici
(MGMT, O6-Methyl-Guanine DNA
Metil-Trasferase); l’asportazione
della sola base danneggiata (BER,
Base Excision Repair); l’asportazione
dell’intero nucleotide danneggiato
(NER, Nucleotide Excision Repair); la
riparazione di basi che non si appaiano
correttamente (MMR, MisMatch Repair).
Questi sistemi, essendo coinvolti anche
nella riparazione di danno fisiologico al
DNA, sono caratterizzati da una grande
accuratezza [6].
Al contrario le rotture a doppio
filamento, DSBs, sono più complesse da
riparare, e richiedono altri meccanismi
di riparazione. Il meccanismo più
efficiente, la ricombinazione omologa
(HR, Homologous Recombination), è
comunque soggetto a errori; le altre vie
di riparazione, l’unione delle estremità
non omologa (NHEJ, Non-Homologous
End Joining) e l’allineamento dei
filamenti singoli, sono intrinsecamente
molto più inclini all’errore. Mentre
i danni non riparati portano
generalmente alla morte cellulare, i
danni riparati male inducono mutazioni
e quindi la possibilità di cancerogenesi.
Inoltre, in presenza di alte dosi di RI
o di radiazione densamente ionizzante
(es. particelle α), si possono avere
modificazioni del DNA più complesse
come i danni ravvicinati, anche detti
clusterizzati o LMDS (Locally Multiply
Damaged Sites), come lesioni singole
(a singolo o doppio filamento)
raggruppate nel breve spazio di uno o
due giri d’elica di DNA. Queste lesioni
difficilmente inducono il cancro perché
attivano una segnalazione intracellulare
che induce il blocco della replicazione e
la morte cellulare [7].
Un ruolo importante nei meccanismi
cellulari di prevenzione della
e. fratini, d. capece: dalle basse dosi al “silenzio cosmico”
Fig. 2 Descrizione sintetica e
schematizzata della cascata di
segnalazione intracellulare a
seguito di danno al DNA, con
enfasi sul ruolo centrale della
proteina ATM.
cancerogenesi è giocato dalle vie di
rilevazione e segnalazione del danno
(fig. 2). Anche queste vie, come quelle
coinvolte in modo più diretto nella
riparazione, possono influenzare gli
effetti delle radiazioni. Una proteina
chiave nelle vie di rilevazione e
segnalazione del danno è la chinasi
ATM (Ataxia Telangectasia Mutated)
e, come dice il nome, mutazioni in
ATM causano gli effetti che portano
alla radiosensibilità tipica della
Ataxia Telangectasia. L’analisi della
fosforilazione di ATM e di altri sensori
del danno al DNA come l’istone γH2AX
sono ampiamente usati come indice
di danno e di attivazione delle vie di
segnalazione e riparazione, e sono
generalmente proporzionali alla dose
nell’intervallo tra i 10 mGy e 1 Gy.
Le vie di segnalazione del danno,
in gran parte indotte proprio da
ATM fosforilato, attivano processi
di risposta che includono l’arresto
del ciclo cellulare, il rimodellamento
della cromatina e l’induzione della
riparazione [8].
Una ridotta attivazione dei sensori
del danno e delle vie di segnalazione
a seguito di esposizione a RI può
avere gravi conseguenze per la salute.
Questo è dimostrato da rare malattie
genetiche recessive che sono associate
con la suscettibilità al cancro e con
la radiosensibilità. Nella popolazione
esposta a radioterapia, c’è un’enorme
variabilità nella risposta clinica, e questo
e dovuto in parte a variazioni nei geni
chiave delle vie di segnalazione e
riparazione del danno al DNA [9].
Negli ultimi decenni sono stati
identificati geni responsabili della
sensibilità alle radiazioni i cui prodotti
(RNA o proteine) sono coinvolti nel
rimodellamento della cromatina, nella
degradazione delle proteine e nel
processamento degli RNA [10]
Da tempo è noto che il danno
da radiazioni ionizzanti non è
esclusivamente a carico del nucleo e del
genoma, e che le radiazioni ionizzanti
inducono lesioni a tutti i costituenti
cellulari (acidi nucleici, proteine e lipidi).
La radiazione è in grado di modificare
la struttura secondaria e terziaria
delle proteine compromettendo la
loro funzione. Nelle membrane della
cellula e degli organelli, i ROS prodotti
dalla radiazione degradano i lipidi
polinsaturi formando malondialdeide;
quest’aldeide, molto reattiva, può
causare stress tossico nelle cellule,
formare addotti covalenti con proteine
e reagire con adenina e guanina nel
DNA, formando addotti mutagenici.
Per di più, i ROS possono danneggiare
i canali ionici compromettendo
l’omeostasi e la permeabilità della
membrana cellulare, come anche
causare la depolarizzazione della
membrana mitocondriale e il rilascio
del citocromo C nel citoplasma, fattore
che può indurre l’apoptosi o l’ulteriore
incremento di produzione di ROS [11].
Anche le vie di rilevamento,
segnalazione e riparazione del danno
non sono limitate al nucleo, essendo
le cellule in grado di attivare sistemi
di detossificazione che consentono di
ridurre i livelli di ROS.
3 Effetti “non-targeted”
Come detto prima, gli effetti
non-target sono caratterizzati dal
fatto di non richiedere l’irradiazione
diretta del nucleo cellulare e di essere
particolarmente significativi alle basse
dosi. Tra questi effetti ci sono l’effetto
bystander quando cellule danneggiate
sono in grado di segnalare il danno a
cellule vicine, o anche a grandi distanze,
e la risposta adattativa, quando
l’induzione di sistemi di segnalazione e
di riparo consente di prevenire il danno
dovuto a successive dosi di RI.
Una caratteristica comune di questi
fenomeni è la mancanza di una linearità
con la dose [12].
3.1 Effetti “bystander”
La traduzione alla lettera dall’inglese
di bystander (spettatore, astante) indica
in modo chiaro che gli effetti dovuti
vol28 / no5-6 / anno2012 >
25
fisica e...
Fig. 3 Meccanismo d’azione
dell’effetto bystander: la cellula
irradiata produce fattori solubili
che attraverso giunzioni
intercellulari o il mezzo di
coltura raggiungono cellule
vicine inducendo un danno e/o
una risposta (SCE = Scambi di
cromatidi fratelli).
a questo fenomeno sono indotti in
cellule che non sono state direttamente
colpite dalla radiazione ma che si
trovano nelle vicinanze di cellule
irradiate o che ne condividono il terreno
di coltura. Gli effetti biologici più
comunemente osservati sono: danno
al DNA, le alterazioni cromosomiche
come incremento della frequenza di
micronuclei, aumento di scambi tra
cromatidi fratelli (SCE, Sister chromatid
Exchange), ma anche riduzione della
sopravvivenza clonogenica e induzione
di apoptosi [13].
L’induzione di questi effetti è stata
descritta in relazione a radiazioni di
diversa qualità, sia di basso che di alto
LET, Linear Energy Transfer [14,15].
Esperimenti pionieri sul bystander
effect, utilizzando particelle-α, hanno
messo in evidenza che a dosi molto
basse, un gran numero di cellule pur
non essendo colpite direttamente dalla
radiazione venivano danneggiate [16].
Gli stessi esperimenti hanno mostrato
anche un andamento della relazione
dose-risposta non lineare, con una forte
crescita iniziale seguita da un plateau.
Una ulteriore caratterizzazione di
questo effetto ha messo in evidenza
una dipendenza dalla dose e dalla
qualità della radiazione, ma soprattutto
dal tipo di cellula trattata e dalle
condizioni in cui le cellule si trovano al
momento del trattamento (ad esempio
la fase del ciclo cellulare, la densità
26 < il nuovo saggiatore
cellulare ed il grado di contatto tra
cellule). Mothersill e Seymour hanno
dimostrato che cellule coltivate in
terreno precedentemente irraggiato
non presentavano l’incremento di
danno tipico del BE, mettendo così in
evidenza non solo l’importanza della
dose e del tipo di radiazione ma anche
del sistema cellulare.
Un meccanismo d’azione (fig. 3)
proposto prevede che le cellule
irradiate producano dei fattori solubili
che diffondendo nel terreno di coltura
si legano a recettori di membrana o
citoplasmatici delle cellule non colpite
dalla radiazione inducendo l’effetto
bystander. Questi effetti diminuiscono
se le cellule che ricevono la radiazione
sono prive di mitocondri e se si è in
presenza di molecole (scavenger)
capaci di catturare i ROS. Perciò
agenti candidati a essere induttori di
danno e delle relative risposte nelle
cellule non-target sono i ROS e i RNS
(Reactive Nitrogen Species), poiché
è stato dimostrato che producono
danno al DNA e che sono prodotti da
basse dosi di radiazione. Ad oggi, un
ottimo candidato a mediatore è l’ossido
nitrico (NO). Altri studi hanno mostrato
che anche le citochine, in particolare
interleuchine (ad esempio IL-8) e il
Fattore di Necrosi Tumorale (TNF-a),
sono prodotte nelle cellule irradiate e
possono sostituire o coadiuvare i ROS e
i RNS nell’indurre l’effetto nelle cellule
vicine. L’effetto bystender è amplificato
nel caso in cui le cellule sono ad alta
densità e quindi a stretto contatto; in
questo caso la diffusione dei fattori
induttori di danno può essere facilitata
da canali intercellulari (Giunzioni GAP)
che ne veicolano il trasporto da una
cellula all’altra [17].
L’evento che induce la sintesi e la
liberazione di questi fattori solubili da
parte delle cellule colpite da radiazione
non è ancora noto. Alcuni marcatori
di danno al DNA mostrano una stretta
correlazione tra l’induzione del BE e la
presenza di rotture a doppio filamento
del DNA (DSB). Ma la possibilità di
irraggiare singoli compartimenti
cellulari tramite “microbeam” ha
mostrato che l’irraggiamento del
citoplasma di per se è sufficiente
a produrre un effetto bystander e
quindi l’intera cellula, e non solamente
il nucleo, ha sensori del danno da
irradiamento [18]. Un importante
candidato è il mitocondrio, in quanto
la depolarizzazione della membrana
mitocondriale porta alla produzione di
ROS.
Il sistema d’irradiamento con
“microbeam” è estremamente utile
per gli studi sul BE poiché permette
di colpire con un numero esatto di
particelle ionizzanti una specifica cellula
oppure, come detto in precedenza, un
compartimento cellulare specifico. In
questo modo è stato dimostrato che il
e. fratini, d. capece: dalle basse dosi al “silenzio cosmico”
numero di cellule che subiscono l’effetto
bystander è indipendente dal numero
di particelle che attraversano una cellula
irradiata; pertanto si è fatta chiarezza sul
motivo della mancanza di linearità con
la dose [19]. Inoltre potendo indirizzare
la radiazione su di una sola cellula è
stato possibile valutare a che distanza
potessero arrivare i fattori induttori del
BE: in vitro i fattori rilasciati riescono
ad attivare la risposta in un gruppo
di trenta cellule adiacenti a quella
bersaglio, ma in colture tridimensionali
il segnale può arrivare fino a 1 mm di
distanza. Sembra quindi che la struttura
tissutale consenta di stabilizzare o
rafforzare il segnale per propagarlo a
maggiori distanze.
La conseguenza principale del BE è
una riduzione dell’efficienza clonale
nelle cellule non colpite da radiazione.
Questa ridotta capacità delle cellule
di formare colonie è dovuta ad una
instabilità genomica (aumento di
frequenza di SCE e micronuclei)
che, nelle cellule bystander, può
essere correlata a una disregolazione
dell’espressione di alcuni micro RNA e
in un’ipometilazione globale del loro
genoma [20].
Sebbene le cellule bystander possono
andare incontro a trasformazione
maligna in vitro, con un evidente
collegamento all’oncogenesi, spesso
mostrano l’attivazione di diversi
meccanismi protettivi come la morte
cellulare programmata (apoptosi) e il
differenziamento cellulare terminale
[21]. In questi casi il BE si evidenzia
non come una induzione di danno, ma
come una sorta di effetto protettivo
eliminando le cellule predisposte
a sviluppare la trasformazione
neoplastica.
Le osservazioni fatte in vitro sono
state confermate anche in esperimenti
in vivo. In particolare, sono stati valutati
danno al DNA, apoptosi, e alterazioni
della proliferazione cellulare.
Cambiamenti nella metilazione del
DNA e nell’espressione dei microRNA
potrebbero essere di vitale importanza
per il mantenimento dell’instabilità
genomica nei tessuti bystander.
3.2 Risposta adattativa e ormesi
Attualmente si discute anche sulla
possibilità che bassi livelli di radiazione
possano avere effetti benefici sulla
salute, e perciò sulla possibile
evenienza che il modello LNT possa
essere iperprotettivo [2]. Un fenomeno
cellulare correlato agli effetti benefici è
la risposta adattativa.
La risposta di adattamento alle
radiazioni è definita come l’induzione
di radio-resistenza ad alte dosi di
radiazione a seguito di una preesposizione a basse dosi. A livello
sperimentale è stato osservato in
cellule e tessuti, che una piccola dose di
radiazione (detta priming dose) riduce
gli effetti biologici di dosi successive
di radiazioni (challenging doses)
generalmente più alte (fig. 4).
Gli effetti modulati dalla risposta
adattativa, maggiormente indagati
finora, sono quelli visti anche negli
altri fenomeni (es. bystander effect)
e sono collegati con il danno al
DNA: induzione e riparazione di
DSBs, aberrazioni cromosomiche,
formazione di micronuclei, mutazione
genica, trasformazione cellulare,
letalità cellulare. Un elemento molto
importante e peculiare della risposta
adattativa è l’aumento di attività delle
proteine coinvolte nella detossificazione
da ROS. Proprio per questo nei
modelli predittivi della AR occorre
considerare oltre al danno al DNA e
alla letalità cellulare, anche l’efficienza
di riparazione al DNA e l’induzione di
enzimi antiossidanti [22].
Per avere una risposta adattativa
è richiesto un intervallo di tempo
(generalmente 4-6 ore), tra la dose
“priming” e quella “challenging”. Si
ritiene che in questo intervallo la
cellula debba produrre gli enzimi
necessari ad aumentare la propria
capacità di riparazione del danno e di
detossificazione. Questo fenomeno
è, in effetti, presente anche dopo
trattamento con agenti chimici, ed è
Fig. 4 Risposta adattativa: Cellule
pre-trattate con una bassa dose
di radiazione o agente mutageno
(a) sono più protette dal danno
biologico di una dose successiva
più alta, rispetto alle stesse cellule
non pre-trattate (b).
vol28 / no5-6 / anno2012 >
27
fisica e...
stato riportato anche un fenomeno
di adattamento trasversale tra i
diversi agenti. Ad esempio, Löbrich e
colleghi hanno dimostrato che cellule
trattate con piccole dosi di perossido
d’idrogeno riparano più efficientemente
DSBs indotte da 10 mGy di
raggi X. Il perossido d’idrogeno
a basse concentrazioni produce
esclusivamente SSBs e danni alle basi
del DNA attraverso la generazione di
radicali liberi dell’ossigeno, ma non
produce DSBs. Perciò bassi livelli di
ROS, attivando un gruppo di geni
specifici per la riparazione, inducono
una risposta che è richiesta per la
riparazione delle DSBs indotte da
radiazione [23].
Il meccanismo della risposta
adattativa è strettamente connesso
all’ormesi. L’ormesi, che deriva dal
verbo greco ormao che significa
stimolare, avviene con un meccanismo
di sovra-compensazione dovuta a una
perturbazione dell’omeostasi. Punti
caratteristici di questo fenomeno sono:
lo scompenso dell’omeostasi, una
modesta sovra-compensazione fino
al ripristino dell’omeostasi e la natura
adattativa del processo. L’ormesi, al
contrario della risposta adattativa che
è un fenomeno cellulare e tissutale,
si riferisce al livello sistemico, perciò
è caratterizzato dalla comunicazione
cellulare a breve e lunga distanza e può
includere anche fenomeni bystander
positivi.
I fenomeni ormetici sono
generalmente indagati in vivo, e si
manifestano come effetti benefici
delle radiazioni su altre patologie e
più in generale sull’aspettativa di vita.
Alcuni studi hanno mostrato come il
basso rateo di dose di radiazioni stimoli
il sistema immune e, ad esempio,
28 < il nuovo saggiatore
prolunghi l’aspettativa di vita di topi
con il diabete [24]. Questa stimolazione
avviene probabilmente tramite l’azione
di ormoni (es. leptina) che agendo in
modo paracrino o endocrino agiscono a
breve o lunga distanza [25].
Un aspetto cruciale è il ruolo di alcuni
elementi delle vie di segnalazione
dello stress nelle alterazioni
dell’aspettativa di vita dimostrato a
seguito d’irraggiamento a basse dosi.
Analisi specifiche hanno mostrato
un incremento dell’espressione di
geni legati all’autofagia, suggerendo
che le basse dosi possono
estendere l’aspettativa di vita anche
stimolando il ricambio delle proteine
intracellulari [26].
Sebbene i meccanismi molecolari
alla base dell’ormesi siano ancora
molto vaghi e difficili da identificare,
gli studi degli ultimi anni hanno messo
in evidenza alcune condizioni per cui
basse dosi di radiazione mostrano
protezione. Non solo le dosi devono
essere al di sotto dei 50 mSv, ma anche
il rateo della dose è di fondamentale
importanza. Inoltre, anche se gran parte
delle evidenze sperimentali sono state
ottenute con radiazioni a basso LET
(raggi x, raggi γ, paricelle β), ci sono
dati che mostrano ormesi dovuta a
radiazioni ad alto LET (es. neutroni [27]).
Da anni Sykes e colleghi stanno
studiando gli effetti della risposta
adattativa alle basse dosi di radiazione,
focalizzando l’attenzione su dosi
estremamente basse (1 µGy, 10 mGy,
250 mGy). Il loro approccio si basa
su esperimenti in vivo utilizzando
un topo transgenico, pKZ1, come
modello sperimentale irradiato con
dosi rilevanti sia per la sicurezza e
salute occupazionale (OH&S) sia per
l’esposizione della popolazione. Le
finalità di questi lavori sono l’analisi
in situ del danno a livello del DNA e del
destino cellulare tramite studi temporali
e di risposta adattativa. Il modello
murino da loro utilizzato, permette
di rilevare il danno prodotto anche
da piccolissime dosi di radiazioni in
quanto in presenza di danno al DNA
avviene una inversione cromosomica
del gene pKZ1 che permette alla cellula
di produrre di una proteina facilmente
identificabile.
Un incremento delle inversioni
di pKZ1 è stato trovato con
alte dosi di raggi X, e di agenti
alchilanti e mutageni, ma anche
con l’invecchiamento; mentre una
diminuzione del numero d’inversioni è
stata trovata con basse dosi di raggi X
(1–10 mGy), ed agenti mutageni.
Ma la cose più sorprendente, rilevata
in situ tramite saggio pKZ1 su milza
e prostata a seguito di esposizione a
basse dosi di raggi X, è un andamento
non lineare del danno al DNA. Questi
studi hanno mostrato una tendenza
alla protezione per le dosi comprese
tra i 0.1 e 100 mGy. Pertanto queste
dosi potrebbero essere le più efficienti
nello stimolare una risposta adattativa.
In effetti, esperimenti di risposta
adattativa, in cui queste dosi (0.1–100
mGy) sono seguite da una dose alta
(1Gy), mostrano la capacità di indurre
protezione e riparazione anche verso
dosi più elevate [28].
Per studiare se questa complessa
relazione dose-risposta possa essere un
effetto permanente, sono stati eseguiti
saggi d’inversione di pKZ1 protratti
nel tempo e si è visto che la risposta
temporale delle inversioni nella milza
è dipendente dalla dose impartita: in
particolare alla dose di 0.01 mGy si ha
un incremento delle inversioni nei primi
e. fratini, d. capece: dalle basse dosi al “silenzio cosmico”
tre giorni, seguito da un ritorno ai valori
del controllo al settimo giorno. Questo
effetto di diminuzione della frequenza
di inversioni di pKZ1 alle basse dosi,
rispetto al controllo non irradiato, può
essere interpretato come diminuzione
del numero di cellule che presentano
inversioni, grazie all’eliminazione
tramite apoptosi delle cellule pretumorali, fenomeno che in vitro è stato
verificato da Portess [29].
è ragionevole ritenere che anche
dosi molto basse come quelle dovute
al fondo naturale di radiazioni possano
avere effetti su cellule, tessuti e
organismi viventi. L’evoluzione degli
organismi viventi per miliardi di anni
in presenza di radiazione di fondo
ha portato molto probabilmente
all’integrazione di questo stimolo
giornaliero nei normali processi
biochimici e fisiologici cellulari
e sistemici. In questo contesto si
inseriscono gli studi effettuati in
condizioni di ridotto fondo di radiazione
ambientale da Satta e colleghi.
I Laboratori Nazionali del Gran Sasso
(LNGS) dell’Istituto Nazionale di Fisica
Nucleare (INFN), costituiscono un
sito unico al mondo per studiare gli
effetti del basso fondo di radiazione
ambientale. Questi laboratori si trovano
sotto a uno spesso strato di rocce
calcaree, circa 1400 metri, che permette
di ridurre il flusso di raggi cosmici
e perciò la radiazione ambientale
rispetto alla superficie. Gli esperimenti
fatti su cellule di lievito (Saccaromyces
cerevisiae), fibroblasti di criceto (V79)
e una linea linfoblastoide umana
(TK6), suggeriscono che il fondo di
radiazione naturale possa avere un
ruolo importante nel determinare una
serie di processi adattativi cellulari, e
in particolare che cellule cresciute a un
livello di radiazione al di sotto del fondo
ambientale naturale
• sono meno protette da danni al
DNA, indotto da agenti chimici e
fisici;
• presentano una maggiore sensibilità
all’apoptosi; ed infine,
• presentano una ridotta capacità di
“scavenging” di agenti ossidanti [30].
4 Conclusioni
Nonostante le correnti stime di
rischio assumano che qualsiasi
esposizione a radiazione ha un
rischio proporzionalmente lineare
alla dose, negli ultimi anni è cresciuta
la consapevolezza della presenza di
incertezze circa le conseguenze per la
salute di esposizioni a basse dosi e bassi
ratei di dose di radiazioni sia naturali
che artificiali. Gli studi epidemiologici
tradizionali e gli esperimenti di
tumorigenesi su animali non hanno il
potere statistico richiesto per stabilire
il rischio di cancro alle basse dosi.
Sebbene attualmente si pensa che
la radiazione causi un danno al DNA
lineare alla dose, le nuove evidenze
descritte in questo articolo mostrano
che sia il danno sia la risposta a questo
non sono necessariamente lineari
con la dose. Inoltre, negli ultimi due
decenni, abbiamo assistito ad un
importante cambio di prospettiva:
da una visione estremamente
DNA-centrica, si è passati ad una
visione più complessa in cui hanno
un ruolo importante anche target
“complementari”, che determinano
risposte cellulari molto eterogenee
e dipendenti dal sistema biologico.
Il ruolo del DNA rimane fondamentale
ma non esclusivo, in quanto deve
essere integrato in un sistema “sensore”
delle modifiche cellulari prodotte
dalla radiazione. Tramite esperimenti
in vitro e in vivo con basse dosi e bassi
ratei di dose sono stati individuati
nuovi fenomeni (es. bystander effect,
risposta adattativa), che portano a
una deviazione della curva doserisposta rispetto ai valori estrapolati dal
modello LNT.
La segnalazione cellulare si va
affermando come un aspetto
fondamentale nelle risposte
radiobiologiche dove le cellule
non rispondono come elementi
isolati, ma come sistemi integrati in
reciproca comunicazione mediante
la trasmissione di segnali biochimici.
Questa segnalazione può portare
a effetti “bystander” che risultano
spesso in un incremento del danno
coinvolgendo anche cellule non
direttamente colpite dalla radiazione,
ma possono presentare anche
componenti positive che, coadiuvate da
una risposta adattativa a livello cellulare
ed ormetica a livello sistemico, possono
produrre un effetto protettivo e spesso
benefico negli organismi colpiti da
basse dosi di radiazione. Inoltre sono
state identificate alcune soglie di
risposta alla dose, ma rimane una
lacuna nella conoscenza di come i livelli
di risposta alla radiazione, sia cellulari
sia tissutali e sistemici, interferiscano
con il rischio di cancro alle basse dosi.
Per colmare questo vuoto di
conoscenza sarà necessario studiare
i meccanismi molecolari che sono
alla base dei fenomeni coinvolti nella
risposta alle basse dosi di radiazione.
Mentre gli studi sull’effetto bystander
stanno facendo luce sui meccanismi e
sul ruolo, sia positivo sia negativo, della
comunicazione cellulare nella risposta
tissutale e sistemica, i meccanismi
vol28 / no5-6 / anno2012 >
29
molecolari che intervengono nella
risposta adattativa si perdono spesso
nelle normali risposte fisiologiche che
mantengono l’omeostasi della cellula.
Pertanto sono richieste tecnologie e
modelli cellulari e animali sempre più
sensibili che permettano di rilevare
modulazioni significative anche a
bassissime dosi, come nel caso del
modello transgenico murino pKZ1.
Un altro approccio interessante
è quello di valutare gli effetti della
riduzione del fondo naturale di
radiazione. Come visto, il fondo naturale
di radiazione garantisce uno stimolo
quotidiano che permette alle cellule di
rispondere prontamente a un eventuale
danno. Esperimenti, in vitro e ancor di
più in vivo, in assenza della stimolazione
del fondo naturale di radiazione,
potranno far luce sui meccanismi
molecolari, cellulari, tissutali e sistemici,
evoluti dagli organismi per rispondere
anche alle più basse dosi di radiazione.
Gli argomenti trattati nel presente articolo sono di interesse del progetto Silenzio Cosmico, finanziato dal Centro di Studi
e Ricerche “Enrico Fermi”, che si occupa di valutare se il fondo naturale di radiazioni esercita un’azione adattativa sui sistemi
viventi rispetto ad esposizioni acute ad agenti genotossici.
Bibliografia
[1] “The 2007 Recommendations of the International Commission on
Radiological Protection”, Ann. ICRP, 37 (2007).
[2] M. Tubiana, A. Aurengo, D. Averbeck, R. Masse, Radiat. Environ.
Biophys., 44 (2000) 245.
[3] L. Mullenders, M. Atkinson, H. Paretzke, L. Sabatier, S. Bouffler,
Nature, 9 (2009) 596.
[4] “Low-dose Extrapolation of Radiation Related Cancer Risk”, Ann.
ICRP, 35 (2005).
[5] J. P. Pouget et al., Radiat. Res., 157 (2002) 589.
[6] J.P.-M. Melis, M. Luijten, L. H. F. Mullenders and H. van Steeg, in
DNA Repair and Human Health, a cura di S. Vengrova (In Tech)
2011.
[7] D. Averbeck, Mutat. Res., 687 (2010) 7.
[8] S. C. Short, S. Bourne, C. Martindale, M. Woodcock, S. P. Jackson,
Radiat. Res., 164 (2005) 292.
[9] C. R. Correa, V. G. Cheung, Am. J. Hum. Genet., 75 (2004) 885.
[10] A. C. Mueller, D. Sun and A. Dutta, Oncogene, 23; doi: 10.1038/
onc.2012.131 (2012).
[11] T. M. Johnson,Z. X. Yu, V. J. Ferrans, R. A. Lowenstein, T. Finkel, Proc.
Natl. Acad. Sci. USA, 93 (1996) 11848.
[12] C. Mothersill, G. Bristow, S. M. Harding, R. W. Smith, A. Mersov,
C. B. Seymour, Int. J. Radiat. Biol., 87 (2011) 1120.
[13] K. M. Prise, M. Folkard & B. D. Michael, Radiat. Prot. Dosimetry, 104
(2003) 347.
[14] S. A. Ghandhi, B. Yaghoubian, S. A. Amundson, BMC Med.
Genomics, 1 (2008) 63.
[15] H. Yang, N. Asaad, K. D. Held, Oncogene, 24 (2005) 2096.
[16] H. Nagasawa, J. B. Little, N. M. Tsang, E. Saunders, J. Tesmer,
G. F. Strniste, Radiat. Res., 132 (1992) 375.
Emiliano Fratini
Campi di attività di Emiliano Fratini sono gli effetti biologici delle
radiazioni ionizzanti ed il metabolismo cellulare, in particolare nei
mammiferi. Dal 2011 è titolare di un grant del Centro “E. Fermi”
per studiare gli effetti biologici dovuti ad una riduzione del fondo
naturale di radiazione ambientale (MUrine coSmiC siLEnce project).
Laureato in Biologia nel 2007 con una tesi sul metabolismo delle
poliammine in condizioni fisiologiche e patologiche (cancro),
ha conseguito il Ph.D. nel 2010 con uno studio sulle principali
alterazioni genetiche e metaboliche, a livello molecolare e
cellulare, di organismi esposti alla radiazione dell’ambiente
spaziale (progetto ASI).
30 < il nuovo saggiatore
[17] E. I. Azzam, S. M. de Toledo, T. Gooding, J. B. Little J.B., Radiat. Res.,
150 (1998) 497.
[18] C. Shao, M. Folkard, B. D. Michael, K. M. Prise Targeted, Proc. Natl.
Acad. Sci. U.S.A., 101 (2004) 13495.
[19] O. V. Belyakov, A. M. Malcolmson, M. Folkard, K. M. Prise,
B. D. Michael, Br. J. Cancer, 84 (2001) 674.
[20] M. A. Kadhim, R. Lee, S. R. Moore, D. A. Macdonald, K. L. Chapman,
G. Patel, K. M. Prise, Mutat. Res., 688 (2010) 91.
[21] O. V. Belyakov, M. Folkard, C. Mothersill, K. M. Prise, B. D. Michael,
Radiat. Prot. Dosimetry, 99 (2002) 249.
[22] G. Esposito, A. Campa, M. Pinto, G. Simone, M. A. Tabocchini,
M. Belli, Radiat. Prot. Dosimetry, 143 (2011) 320.
[23] S. Grudzenski, A. Raths, S. Conrad, C. E. Rübe, M. Löbrich, Proc. Natl.
Acad. Sci. U.S.A., 107 (2010) 14205.
[24] T. Nomura,X. H. Li, H. Ogata, K. Sakai, T. Kondo, Y. Takano, J. Magae,
Radiat. Res., 176 (2011) 356.
[25] G. M. Cestelli, C. Mirri, E. Fratini, V. Licursi, R. Negri, A. Marcelli,
R. Amendola, Anal. Bioanal. Chem., DOI 10.1007/s00216-012-60183 (2012).
[26] A. A. Moskalev, E. N. Plyusnina, M. V. Shaposhnikov, Biogerontology,
12 (2011) 253.
[27] E. Fratini, V. Licursi, M. Artibani, K. Kobos, P. Colautti, R. Negri,
R. Amendola, PLOS ONE, 6 (2011) e19242 -1.
[28] T.K. Day, A. M. Hooker, G. Zeng, P. J. Sykes, Int. J. Radiat. Biol., 83
(2007) 523.
[29] D. I. Portess, G. Bauer, M. A. Hill and P. O`Neill, Cancer Res., 67 (2007)
1246.
[30] L. Satta et al., Radiat. Environ. Biophys., 41 (2002) 217.
Daria Capece
Campi di attività di Daria Capece sono gli effetti biologici delle radiazioni
ionizzanti sugli organismi viventi e lo studio delle basi molecolari dello
sviluppo dei tumori. Dal 2011 è titolare di un grant del Centro “E. Fermi”
per studiare gli effetti biologici dovuti a dosi estremamente basse di
radiazioni ionizzanti ambientali, incluse le radiazioni cosmiche (MUrine
coSmiC siLEnce project). Laureata in Biotecnologie nel 2006 con una tesi
sul ruolo della metilazione come possibile meccanismo di silenziamento
dell’espressione del gene REN/KCTD11 nei tumori umani, ha conseguito il
Ph.D nel 2010 con uno studio sulla caratterizzazione di una nuova isoforma
di splicing del gene Ikaros over-espressa nei disordini linfoproliferativi.
percorsi
Cosmic Rays: A Century of Mysteries
Angela V. Olinto*
Department of Astronomy & Astrophysics
Kavli Institute for Cosmological Physics
Enrico Fermi Institute, The University of Chicago, Chicago, IL, U.S.A.
If you open your hand parallel to the ground, as if you were catching some raindrops,
your hand will be traversed by a number of elementary particles moving close to the
speed of light. Some of these particles were produced in very energetic events far
away from our Solar System. The most common of these particles have been travelling
throughout our Galaxy, the Milky Way, for tens of millions of years. A rarer more
energetic type of these showering particles travelled from far away galaxies all the
way to Earth taking as little as tens of millions of years to large fractions of the age of
the Universe of 13.7 billion years. These messengers that reach us constantly bringing
mysterious puzzles to Earth are what we call cosmic rays.
Today we know that cosmic rays are particles like the nucleus of common atoms such
as protons (the nucleus of the hydrogen atom), helium nuclei, carbon nuclei, oxygen
nuclei, etc… all the way to iron nuclei and beyond. These nuclei have been accelerated
to relativistic energies, i.e., energies much larger than the particle mass by some yet to
be unveiled cosmic accelerators. The nature and mechanism operating in these cosmic
accelerators is a century old mystery. Recent advances in observations, experiments,
and theoretical models have been pointing the way to an eminent resolution.
1 Early history
The year 2012 marks the centenary of the famous balloon
flights by Victor Hess in 1912 (see fig. 1) when he showed that
the flux of cosmic rays at high altitude was greater than the
flux at lower altitudes. This kind of measurement established
the fact that what was then called “ionizing radiation” had a
cosmic origin, outside of the Earth.
* E-mail: [email protected]
The idea that some form of ionizing radiation was present
throughout space dates back to questions raised by Coulomb
in 1785 [1]. He found that electroscopes would spontaneously
discharge even if very well insulated. The discovery of
radioactivity at the end of the 19th century gave a partial
answer to this discharge phenomena: there are energetic rays
crisscrossing space produced by radioactive materials that
can cause the discharge of electroscopes. The fact that some
ionizing radiation does originate in radioactive materials
in the ground and some come from outer space awaited
another decade of experiments.
vol28 / no5-6 / anno2012 >
31
percorsi
Fig. 1 Victor Hess back from his balloon flight
in August 1912.
Fig. 2 Increase of ionization with altitude
as measured by Hess in 1912 (left) and
by Kolhörster (right). (Source: Alessandro
De Angelis.)
32 < il nuovo saggiatore
By 1909 scientists had taken electroscopes into
tunnels and surrounded them with metal shields to try
to understand the origin of the penetrating radiation. Was
it coming from the crust of the Earth, the atmosphere itself,
or did it originate outside of the Earth? The idea to measure
the rate of the ionizing radiation with height begins with
Theodor Wulf, a German Jesuit priest and scientist who
developed a transportable electroscope and took it up the
Eiffel Tower (300 m high) in Paris in 1909. He did not observe
a significant change at that altitude. A number of scientists
followed the quest for reaching higher altitudes by taking
electroscopes in balloon flights with mixed results before
1912.
A different strategy was developed by the Italian physicist,
Domenico Pacini, who made measurements of the ionizing
radiation underwater in 1911 [1]. He found that the variation
of the flux of ionizing radiation underwater (3 meters deep
and 300 meters from land) could be explained exclusively
by water absorption. His results questioned the idea that
the crust of the Earth was responsible for the radiation. The
possibility of the atmosphere itself or a cosmic origin would
still be plausible.
In 1910 and 1911, several scientists attempted to measure
the change of flux of the ionizing radiation with height using
balloons including K. Bergwitz, who reached 1.3 km, J.C.
McLennan, E.N. Macallum, and A. Gockel who reached 3 km.
The results were inconclusive until Hess made a series of
balloon flights 1912.
The Austrian physicist, Victor F. Hess, carried electroscopes
up in balloon flights seven times from April to August 1912.
In August 7, 1912, he reached 5200 meters. He found that
as one ascends in a balloon, the flux of ionizing radiation
decreases immediately above ground and begins to increase
again around 1 km in height, reaching twice the rate of
the penetrating radiation on the ground between 4 and
5.2 km. He called this radiation höhenstrahlung (radiation
from above). He also showed that höhenstrahlung was not
A. v. olinto: cosmic rays: a century of mysteries
Source: Cushing Memorial Library and
Archives, Texas A&M University.
Fig. 3 Robert A. Millikan,
Arthur H. Compton, and the New
York Times 1932.
AIP Emilio Segre Visual Archive.
coming from the Sun as there was no day-night variation. In
1936, Victor F. Hess received the Nobel Prize for the discovery
of the extra-terrestrial origin of the ionizing radiation, now
called cosmic rays.
The result of Hess were carefully verified by Werner
Kolhörster who reached 9.2 km by 1914 (see fig. 2). These
very courageous scientists had to use oxygen to reach these
altitudes. World War I interrupted the studies of cosmic rays
from 1914 to 1918. After the war, Kolhörster continued his
studies and in 1934, tragedy struck one of his expeditions
where two of his collaborators, Dr. Schrenk and Masuch, died
after reaching 12 km altitude.
After WWI, the focus of research in the field moved to the
United States. Robert A. Millikan, who received a Nobel prize
in 1923 for his measurement of the charge of an electron
and the photoelectric effect, was convinced by 1926 that
the ionizing radiation were gamma-rays (i.e., very energetic
light particles or photons). He proposed that these rays
were produced by hydrogen fusion in intergalactic space and
coined the name, cosmic rays. If cosmic rays were gammarays they would have zero electric charge.
In 1927 the Dutch scientists, Jacob Clay, observed that
the cosmic ray flux varied with latitude as he travelled from
Java, Indonesia, to Genova, Italy. A clear confirmation of
the effect came from a large scale expedition mounted
by Arthur H. Compton who enlisted about 100 scientists
throughout the world to measure the cosmic ray flux in
different latitudes and altitudes. (He published a single
authored paper on this effort in 1933.) The latitude effect can
be explained if cosmic rays are charged particles deflected by
the magnetic field of the Earth. The charged nature of cosmic
rays was further clarified by Compton and Luis W. Alvarez
who discovered the excess of cosmic rays coming from the
West relative to the East using an experiment designed by
the Italian Bruno Rossi. This East-West effect also showed that
cosmic rays were mostly positively charged (fig. 3).
From 1933 to 1953, a large number of new particles were
discovered through the studies of cosmic rays. In 1933, the
positron, the first antimatter particle to be identified (the antielectron, e+), was discovered by Carl. D. Anderson using tracks
left by cosmic ray particles in his cloud chamber. For this
discovery, he received the Nobel Prize in 1936. In 1937, the
muon (µ) was discovered followed by the pion (p), the kaon
(K), and the lambda (L0 ) in 1947. These were the first hints
that the building blocks of nature are complex.
2 From Particle Physics to Astrophysics
By the early 1950s, the study of the fundamental nature of
matter and its interactions moved from the use of cosmic rays
to man-made particle accelerators. In 1955 the antiproton
(the antimatter version of the proton) was discovered at the
Bevatron of the Lawrence Berkeley Laboratory. By the mid
1970s, Sheldon Glashow, Steven Weinberg, and Abdus Salam
formulated the Standard Model of particle physics based
on gauge bosons as force carriers and three generations of
quark and leptons. The subsequent discoveries of the charm
quark (1974 at Brookhaven National Laboratory and Stanford
Linear Accelerator Center), the bottom quark (1977 at Fermi
National Laboratory or Fermilab), the W and Z bosons (1983
at the European Organization for Nuclear Research or CERN),
the top quark (1995 at Fermilab), and the tau neutrino (2000
at Fermilab) established the Standard Model. Most recent
the announcement, on July 4, 2012, of a Higgs-type particle
observed at the Large Hadron Collider (LHC) at CERN has
completed the predictions of the model up to the LHC energy
scale which is about 8,000 times mpc 2, where mp is the mass
of a proton. (mp is 1.673 10−4 grams which corresponds to and
energy unit of mp c 2 = 0.938 GeV, where gigaelectronvolt or
GeV = 109 eV, and 1 eV, or electronvolt, is the kinetic energy
an electron gains when it crosses a 1volt potential).
The opportunity to test particle interactions with cosmic
rays is still possible as cosmic rays can reach much higher
energies than current particle accelerators. The work of
vol28 / no5-6 / anno2012 >
33
percorsi
Fig. 4 Extensive Atmospheric Showers.
the Italian Bruno Rossi, led to the discovery of airshowers
by Rossi, K. Schmeiser, W. Bothe, Kolhörster and Pierre
Auger. They established that a single particle in the upper
atmosphere can produce a very large cascade of particles,
now called an extensive airshower (see fig. 4), by placing
particle detectors at different distances and observing the
coincidence in arrival time of particle signals on the ground.
By 1939, Auger estimated that the energy of the primary
cosmic ray (the original particle that generated the particle
cascade) reached 1 million times mp c 2. Now we know
that there are cosmic rays with energies above 100 billion
mp c 2, 7 million times the LHC energy. (For these extremely
energetic particles, the typical interaction energy with
atmospheric atoms is about 100 times that of the LHC.)
The study of cosmic rays became of great interest to
astrophysicists, curious to understand how an astrophysical
source can impart such extreme energies to subatomic
particles. In 1934 the German astronomer Walter Baade and
34 < il nuovo saggiatore
the Swiss astronomer Fritz Zwicky suggested that supernova,
the explosive death of stars, are responsible for accelerating
cosmic rays based on how much energy would be necessary
to explain the observations. In 1949 the Italian physicist
Enrico Fermi proposed that cosmic rays are accelerated via
a stochastic process in the interstellar space by collisions
against moving magnetized clouds. His theory explained
the puzzling power law behavior of the spectrum of cosmic
rays and is still the basis for most current explanations for the
acceleration of cosmic rays.
Modern theories of the origin of cosmic rays divide
cosmic rays into a galactic origin from energies of about
mp c 2 to about a billion times mp c 2, and an extragalactic
origin for energies above that. The primary model for the
origin of galactic cosmic rays involves the combination of
Baade and Zwicky’s suggestion with Fermi’s mechanism, i.e.,
stochastic acceleration in the remnants of the supernova
explosion. This type of model can explain the observed
spectrum up to 10 million mp c 2, and may be able to reach
higher energies. Given that cosmic rays are charged, their
distribution of arrival directions is isotropized by magnetic
fields in their path to Earth. Observations using photons
(from radio to gamma-rays) are the best route to try to
identify the acceleration sites in the Galaxy. Recent gammaray observations by the NASA Fermi satellite and the groundbased HESS, MAGIC, and VERITAS observatories are beginning
to resolve possible cosmic ray acceleration sites. One prime
candidate is the Tycho supernova remnant shown in fig. 5.
In the next decade these efforts may lead to the resolution of
the mystery of the origin of Galactic cosmic rays.
After acceleration in sites such as supernovae remnants,
cosmic rays diffusive around our Galaxy for long periods of
time depending on their energy (the lower the energy the
more they diffuse). It would take a neutral relativistic particle
about sixty thousand years to cross our Galaxy (travelling
in a straight light), while cosmic rays take tens of millions of
years to reach Earth. This long delay is due to magnetic fields
in the Galaxy that significantly bend their paths to Earth.
This magnetic diffusion process is studied by measuring
the relative abundances of different elements as a function
of energy. From the 1960s, this study used short- and
long-duration balloon experiments and space missions. These
experiments observed that spallation products of common
nuclei are much more abundant in cosmic rays than in solar
system material; for example, lithium, beryllium, and boron
nuclei which are produced mainly by the spallation of carbon
A. v. olinto: cosmic rays: a century of mysteries
and oxygen are 100,000 times more abundant
in cosmic rays than their solar values. The
overabundance shows that cosmic rays have
traversed about 10 g/cm2 as they propagate
in the Galaxy, corresponding to trajectories of
millions of light years in length, which is much
larger than the thickness of the galactic disk
of only thousands of light years.
Recent direct studies of cosmic ray
abundances include the balloon payload
projects named CREAM (Cosmic Ray
Energetics And Mass), TIGER (Trans-Iron
Galactic Element Recorder), and TRACER
(Transition Radiation Array for Cosmic
Energetic Radiation). Chief among
these efforts is the PAMELA (Payload for
Antimatter Matter Exploration and Lightnuclei Astrophysics) space mission which
discovered a very interesting excess of
positrons (antielectrons) and an unexpected
change in the behavior of cosmic ray protons
and helium. The positron excess generated
a lot of excitement over the possibility that
the source of these positrons are due to the
mysterious dark matter which comprises 85%
of the matter in the Universe. There are more
mundane explanations for these positrons
based on nearby astrophysical accelerators
such as pulsars and supernovae. The proton
and helium flux behavior is also quite new and
may be due to details of the most energetic
accelerators in the Galaxy.
The latest observatory to be deployed in
space, the Alpha Magnetic Spectrometer
(AMS), is now running at the International
Space Station. AMS (fig. 6) will follow up on
the findings of PAMELA and make precise
measurements of the composition and
spectrum of different types of cosmic rays
over a wide energy scales and is sensitive
enough to find rare unknown components in
these mysterious rays. This major international
effort has the sensitivity to clarify the nature
of galactic cosmic rays and to discover some
previously unknown components of the
cosmic radiation.
Fig. 5 Tycho Supernova
Remnant. (Credit: X-ray: NASA/
CXC/SAO; Infrared: NASA/JPLCaltech; Optical: MPIA, Calar
Alto, O. Krause et al.)
Fig. 6 AMS installed at the
International Space Station
(NASA Image S134E007532).
vol28 / no5-6 / anno2012 >
35
percorsi
3 From galactic to extragalactic cosmic rays
Different observational techniques allow the observation of
cosmic rays over 12 orders of magnitude in energy (from 108
to 1020 eV) as shown in fig. 7. Up to 1014 eV, direct detection
is feasible with balloon and space experiments. Above
this energy, the flux is too low for space-based detectors
and cosmic rays are studied by observing their air-shower
development based on the discovery of Pierre Auger in
1939. He showed that very-high-energy cosmic rays trigger
extensive air showers in the Earth’s atmosphere, distributing
the original cosmic ray energy among billions of lowerenergy particles (called secondaries) that arrive together
on the ground. These secondary particles can be detected
with arrays of particle detectors and trough ultravioletsensitive telescopes that observe the fluorescence of nitrogen
molecules in the air.
Direct detection shows that at low energies the cosmic ray
flux is modulated by the solar cycle through the magnetic
field of the Sun, which shields the solar system from charged
particles below about 108 eV. From 108 eV to about 1015 eV,
the cosmic ray spectrum is well described by a power law, i.e.,
the number of cosmic rays arriving on Earth per unit time,
area, solid angle, and kinetic energy, E, is proportional to a
power of the energy as E –2.7. At higher energies, air shower
observatories have shown that the spectrum steepens to E –3
and the transition region is called the “knee.” At about 1018 eV
the spectrum hardens again, giving rise to a feature named
the “ankle.”
Below the knee cosmic rays are dominated by light
nuclei (protons and helium) while at higher energies the
composition becomes heavier. This transition to heavier
elements is expected because galactic cosmic rays propagate
diffusively in the magnetic field of the galaxy with a
probability of escape that depends on the ratio of energy
to the charge (called rigidity). Within this picture, the knee
would represent the transition from confined trajectories
to trajectories that escape the Galaxy and thus produce
the change in the spectrum. This model fits well with
observations by the Karlsruhe Shower Core Array Detector
(KASCADE) experiment and the KASCADE-Grande extension.
These data provide evidence for a transition from light nuclei
to heavier ones, with the indication of nuclei from carbon to
iron becoming dominant just below the ankle. A transition
back to lighter nuclei at the ankle is also observed, which
is a signal that the extragalactic component has become
dominant at these energies.
Cosmic rays with energies well above the ankle are certainly
extragalactic. At these high energies a galactic component
would give a clear signal in the sky distribution, instead of
the observed isotropic distribution, the image of the galactic
plane should emerge. Cosmic accelerators far away from
the our Galaxy produce these ultrahigh-energy particles.
36 < il nuovo saggiatore
The precise energy above which the galactic component is
overtaken by the extragalactic component is still an open
question. More mysteries remain such as what could be the
source of these ultrahigh energy extragalactic particles. Are
they produced in the super-massive black holes in the center
of distant galaxies? Or perhaps in shocks produced by the
largest structures in the Universe? Or were they accelerated
in more energetic explosive deaths of star that create black
holes or neutron stars? Finally, how high an energy do cosmic
rays reach?
In 1962, the Volcano Ranch array led by John Linsley
observed a cosmic ray event with an energy of tens of joules
or around 1020 eV (about 100 billion mp c 2). This kind of
energy is common among a good serve of a tennis ball, but it
is extreme for a subatomic particle to carry. Four years later,
Kenneth Greisen in the United States and Georgiy T. Zatsepin
and Vadim A. Kuzmin in the USSR predicted the abrupt
steepening of the cosmic ray spectrum around 1020 eV as a
result of cosmic ray interactions with the newly discovered
cosmic microwave background (CMB), the relic radiation
from the Big Bang. In his landmark article of 1966, Greisen
announced that the measurement of such a flux steepening
would clarify the origin of ultrahigh energy cosmic rays by
showing their “cosmologically meaningful termination.”
Ultrahigh-energy cosmic rays are detected by two main
techniques: ground arrays (of scintillators or water Cherenkov
tanks) and fluorescence telescopes. Ground arrays sample
the extensive air shower as the secondary particles reach
the ground. Historic arrays built to explore these extremely
energetic events include Haverah Park (1967 to 1987), Sydney
University Giant Air-Shower Recorder (SUGAR) (1968 to
1979), Yakutsk (1991 to present), and the Akeno Giant AirShower Array (AGASA). The 111 surface detectors of AGASA
covered 100 km2 and operated for just over a decade (1990
to 2004). An alternative technique based on the atmospheric
fluorescence of extensive airshowers was pioneered by the
Fly’s Eye detector, which in 1991 observed an event with
energy of 3 × 1020 eV, the current record holder, challenging
the prediction by Greisen, Zatsepin, and Kuzmin (GZK).
The fluorescence technique was further developed by the
High-Resolution Fly’s Eye (HiRes) experiment, which reached
very large exposures accumulating enough ultrahigh energy
cosmic rays to verify that the GZK prediction was correct.
Fluorescence observatories detect the ultraviolet light
produced by the fluorescence of nitrogen molecules in the
atmosphere as the shower develops above the ground.
Mirrors focus the ultraviolet light onto photomultiplier
tubes that record the fast-moving shower pattern in the
atmosphere. These fast and sensitive cameras can record the
light equivalent to a 40 Watt light bulb moving at the speed
of light tens of kilometers away. This technique can observe
the full development of the shower giving the energy and
A. v. olinto: cosmic rays: a century of mysteries
the likely composition of the primary cosmic
ray. However, it has a low duty cycle since it
works best during clear moonless nights while
ground arrays work 24 hours a day.
Since the prediction of the GZK effect in
1966, the existence of the steepening of the
spectrum was a great open question. The
AGASA observatory found a flux that did not
follow the expected shape, suggesting that
new physical may be at play at these extreme
energies. This discrepancy was settled by
HiRes and the Pierre Auger Observatory.
Located in the Mendoza province
of Argentina, the Pierre Auger Observatory is
the largest detector of cosmic rays ever built.
Covering an area of 3,000 km2 with an array
of water Cherenkov detectors and the four
fluorescence telescope overlooking the site, it
began full operations in 2008 (see fig. 8).
In addition to confirming the shape of the
spectrum at the highest observed energies,
the Auger Observatory has found hints of
anisotropies in the distribution of arrival
directions of cosmic rays with energies above
6 ×1019 eV. These can be the first signs of
the mysterious sources from outside our
Galaxy [2]. The number of events at the
highest energies is not enough yet to sharpen
the image of the real source distribution
but one strong candidate for a source of
anisotropies is Centauros A, a nearby galaxy
with a jet produced by a supermassive black
hole at its center (see fig. 9). The quest for
resolving this mystery continues with future
observatories being designed to gather
many more particles of extreme energies and
sharpen up the picture of these mysterious
and very powerful sources.
In addition to hints of the source
distribution in the sky, the Auger Observatory
has found an interesting behavior of the
shower profiles. They are better explained
by heavier nuclei than protons, a complete
surprise to most astrophysicists. This puzzle
may indicate that particle interactions are
different at these extreme energies or that
astrophysical accelerators inject more heavy
nuclei than what is available thorough
intergalactic space. Another ground array
recently complete, named the Telescope Array
(TA), has not yet confirmed this unexpected
behavior at the highest energies. Covering
Fig. 7 Spectrum of Cosmic Rays
(source: Swordy - U. Chicago).
Fig. 8 Pierre Auger Observatory
covering 3,000 km2 near the city
of Malargue in the Mendoza
province in Argentina. Each
red dot is a water tank detector
(separated by 1.5 km each)
and the green lines represent
the fluorescence telescope
field of view. The schematic
picture shows how particles
are observed jointly by the
water tanks and fluorescence
telescopes at night (courtesy of
Pierre Auger Observatory).
vol28 / no5-6 / anno2012 >
37
Fig. 9 Centaurus A – a nearby galaxy with
a jet produced by the supermassive black
hole at its center. (Credit: X-ray: NASA/CXC/
CfA/R.Kraft et al; Radio: NSF/VLA/Univ.
Hertfordshire/M. Hardcastle; Optical: ESO/
WFI/M.Rejkuba et al.)
700 km2 in Utah, USA, it observes the
highest-energy events arriving in the
Northern Hemisphere complementing the
Southern Auger Observatory. These two
giant arrays will likely continue to unravel
the mysteries behind these extremely
energetic particles during this decade or
more.
A new generation of observatories
is now being planned with the goal of
accumulating enough particle events to
solve the mystery behind the extragalactic
origin of cosmic rays of ultrahigh energies.
A powerful fluorescence telescope
is being designed by an international
collaboration to be installed in the
International Space Station to look down
on Earth, the JEM-EUSO (Extreme Universe
Space Observatory on the Japanese
Experiment Module) project (fig. 10).
It can accumulate ten times more events
than the current ground arrays and
observe showers from upward-going
particles such as high-energy neutrinos.
This first space mission for the highestenergy particles may pioneer the space
exploration of the Earth’s atmosphere as a
giant particle detector. A first step towards
understanding the nature of the more
than a billion particles of extreme energies
that reach the Earth annually.
References
[1] A. deAngelis, P. Carlson, N. Giglietto,
S. Stramaglia, in the “Proceedings of the
32nd International Cosmic Ray Conference,
ICRC 2011”, Beijng, China, 2011.
[2] K. Kotera and A. V. Olinto, Annu. Rev. Astron.
Astrophys., 49 (2011) 119.
Fig. 10 The Extreme Universe Space Observatory
on the Japanese Experiment Module JEM-EUSO
(source: JEM-EUSO website).
38 < il nuovo saggiatore
Angela V. Olinto
Angela V. Olinto is Professor and Chair of the Department of Astronomy
and Astrophysics, and member of the Enrico Fermi Institute and the
Kavli Institute for Cosmological Physics, at the University of Chicago. She
received her Ph.D. in Physics from MIT (1987) for work on the physics of
quark stars. She worked on inflationary theory, cosmic magnetic fields, the
nature of the dark matter, and now leads the effort to understanding the
origin of the highest energy cosmic particles, cosmic rays, gamma-rays
and neutrinos. She is the US PI of JEM-EUSO and a member of the Pierre
Auger Observatory. Olinto is a Fellow of the APS and the Chair-Elect of
the APS DAP. She received the Quantrell Award at Chicago and the Chaire
d’Excellence of the French ANR.
il nostro mondo
CERIMONIA INAUGURALE
XCVIII CONGRESSO nazionale
della Società Italiana di Fisica
napoli, 17 settembre 2012
Cerimonia inaugurale del Congresso nell’Aula Rossa del Complesso Universitario
di Monte Sant’Angelo dell’Università di Napoli “Federico II”. Da sinistra verso destra:
Pasqualino Maddalena, Luisa Cifarelli, Massimo Marrelli, Guido Trombetti.
L. Cifarelli: Buongiorno a tutti, sono ben
lieta di inaugurare il 98° Congresso Nazionale
della Società Italiana di Fisica in questa città.
Il nostro Congresso torna a Napoli dopo
25 anni, un bel lasso di tempo. all’epoca
era Rettore dell’Università il Professor
Carlo Ciliberto, cui è intitolata questa aula
Rossa. Vorrei dare il benvenuto a tutti voi,
colleghi e amici, e ai vari rappresentanti di
società scientifiche come la Società Italiana
di Fisica Medica, l’Unione Matematica
Italiana, l’Associazione per l’Insegnamento
della Fisica, la Società Italiana Aerosol, la
Società Italiana di Gravitazione, la Società
Italiana di Ottica e Fotonica, la Società
Italiana di Elettromagnetismo, l’Associazione
Nazionale per la Fisica e sue Applicazioni, qui
rappresentate da presidenti, vicepresidenti
o consiglieri che ringrazio vivamente per
la loro presenza. Ringrazio anche per la
loro presenza il direttore dell’INFN della
Sezione di Napoli, il direttore dell’Istituto
CNR-SPIN, il presidente dell’Istituto Nazionale
di Oceanografia Fisica Sperimentale.
Il Presidente dell’INFN sarà a Napoli alla fine
del Congresso, in occasione di un evento
correlato presso la Città della Scienza, e il
Presidente del CNR ci ha fatto pervenire il
suo saluto, non potendo essere oggi qui con
noi. Accanto a me, alla mia sinistra, ho l’onore
di avere il Magnifico Rettore dell’Università
di Napoli “Federico II”, il Professor Massimo
Marrelli, che ci ospita in questa bellissima
sede, e accanto a lui il Professor Guido
Trombetti, Assessore della Regione Campania
alla Ricerca e Innovazione. Dall’altro lato
il Professor Pasqualino Maddalena, Presidente
del Comitato Organizzatore Locale e
Direttore del Dipartimento di Scienze Fisiche
dell’Università, che stamattina rappresenta
anche il Sindaco di Napoli. Magnifico Rettore,
a Lei la parola.
M. Marrelli: Grazie mille. Innanzitutto
vi voglio dare il benvenuto qui a Napoli.
Per noi è importante che dopo 25 anni
il Congresso della SIF si svolga di nuovo
presso la “Federico II”, perché è un’Università
di lunghissima tradizione anche nella
fisica, come tutti voi sapete; è quindi un
onore e un piacere avervi qui come ospiti.
Il Preside della Facoltà di Scienze, il fisico
Professor Roberto Pettorino, non può
essere qui stamattina perché è previsto
l’insediamento del nucleo di valutazione,
del quale è il coordinatore. Il punto che
mi preme sottolineare è un problema di
politica universitaria generale. Questi sono
tempi tristi per l’università per tanti motivi:
le ristrettezze economiche, il problema che
abbiamo delle continue cosiddette riforme,
per cui non riusciamo neanche a stabilizzare
un sistema che subito dopo ne viene un altro
e dobbiamo cambiare nuovamente. Questo
però è anche un momento che io credo sia
da cogliere come opportunità. Abbiamo
appena costituito alla “Federico II” i nuovi
dipartimenti, abbiamo approvato il nuovo
statuto, il nuovo codice etico. Il Dipartimento
vol28 / no5-6 / anno2012 >
39
il nostro
mondo
Aula Rossa “Carlo Ciliberto” durante la Cerimonia
Inaugurale del Congresso.
di Fisica sarà composto da 130–140 persone,
e a mio giudizio è un eccellente dipartimento.
Abbiamo ridotto il numero dei dipartimenti
da 76 a 26, per cui sono di dimensione
molto più ampia; se questo sarà un bene o
un male, lo scopriremo nel prossimo futuro.
La cartina di tornasole è in qualche modo
proprio il Dipartimento di Scienze Fisiche,
perché era già un dipartimento ampio. Perciò
abbiamo la possibilità di confrontare quello
che succedeva col vecchio sistema con quello
che succederà col nuovo. La struttura non è
cambiata se non marginalmente, ma con la
nuova organizzazione abbiamo un termine
di paragone rispetto a come funzionava
prima. Una cosa importante è che nell’area
fisica, intesa come Area CUN, il nostro tasso
di inattivi è inferiore di 2 punti rispetto alla
media nazionale. Come avete visto l’ANVUR ha
pubblicato il numero di inattivi o parzialmente
inattivi, e la nostra è un’area buona.
Il Professore Pasqualino Maddalena, che ben
conoscete, ha inondato i colleghi di e-mail
a questo proposito e il risultato è positivo.
In quanto al giudizio sulla qualità, questo
sarà compito dei valutatori. Detto questo
vi auguro buon lavoro. Grazie di essere qui,
grazie alla Presidente e a tutti voi. Divertitevi
anche, perché Napoli è una città che vale la
pena di vedere e di godere, magari con una
bella passeggiata sul lungo mare questa sera.
Grazie mille.
L. Cifarelli: Grazie Magnifico Rettore.
Approfitteremo sicuramente delle accoglienti
strutture universitarie della “Federico II”,
di Napoli e delle sue bellezze. Tra l’altro questa
è la settimana di San Gennaro e non a caso noi
siamo qui! Professor Trombetti, adesso a Lei la
parola.
G. Trombetti: Grazie. Per me è motivo di
compiacimento enorme essere qui stamattina.
Innanzitutto assolvo un compito formale e
da me molto sentito, di portare i saluti del
Presidente e della Giunta Regionale tutta. Io
40 < il nuovo saggiatore
sono stato Preside della Facoltà di Scienze
per 10 anni e ho insegnato, fermandomi da
un anno per la prima volta dopo oltre 40
anni, e ho insegnato analisi matematica ai
fisici per 20 anni. Quindi io mi sento di casa
dal punto di vista umano, insieme a Franco
Buccella, Aldo Covello, Giancarlo Gialanella
e poi gli amici giovani, Marco Napolitano e
tanti altri… Mi sento di casa e devo dire che
insegnare ai fisici è stata, della mia esperienza
professionale dal punto di vista didattico e
umano, l’esperienza più significativa. Infatti io
ho svolto corsi per chimici, biologi, matematici,
ingegneri e anche all’istituto navale, ma il dato
incontrovertibile, poi altri potranno analizzarne
le ragioni socio-culturali, è che la qualità
media degli studenti di fisica non era buona,
ma era semplicemente eccezionale. Io ho
avuto annate di studenti, che oggi sono tutti
ricercatori, professori, moltissimi hanno fatto
la tesi scegliendo argomenti di matematica, in
particolare di analisi, molti anche con me, e si
sono avviati a brillantissime carriere. Ne voglio
citare uno solo, l’ultimo, Marco Cicalese. Marco
Cicalese è un ragazzo che fa parte di un’annata
veramente straordinaria, come il vino. È un
ricercatore a farmacia e mi ha mandato un
bellissimo e-mail, commovente: è figlio di
pensionati, una persona che ha studiato con
molti sacrifici, è diventato professore ordinario
a Bonn. Non gli hanno chiesto la mediana, non
gli hanno chiesto l’H-index, l’impact factor,
nessuna delle amenità di stampo anglosassone
in circolazione. Si sono solo accorti che era un
fior di matematico, forse l’avranno sentito, gli
avranno parlato, gli avranno fatto fare delle
conferenze, avranno – udite udite – letto i suoi
lavori. Questo cervello è fuggito secondo me
con grande prestigio per il nostro paese, ma
con grande dispiacere per me. Quindi il mio
legame con questo ambiente è un legame
fortissimo. Io scherzo, Fantoni è un amico
carissimo, siamo stati rettori insieme, quindi
conosciamo di questa via crucis dell’accademia
tutti i dolori e tutte le sofferenze.
Quando penso alla fisica penso quindi
a un ambito di grande eccellenza. Penso a
Pancini, penso a Caianiello, grandi maestri
che sono passati per questo dipartimento e
che hanno con la loro genialità fatto crescere
questa bella comunità che aveva, credo che
abbia e che spero conservi una caratteristica,
quella di riuscire a ragionare di cultura con la
C maiuscola e non solo di fisica, guardando
la fisica all’interno di una visione più ampia,
così come dovrebbe essere, che è il progresso,
la crescita culturale del paese. Questo è un
aspetto che mi sta particolarmente a cuore
in un mondo che tende a rendere mercantile
anche la scienza. In fondo la domanda che tutti
sempre più spesso ascoltiamo è: “a cosa serve
quello che fai?” ed è inutile rispondere. Quando
Dostoevskij o Thomas Mann scrivevano si
chiedevano “a che serve quello che scrivo”?
No. Ma la stessa Europa secondo me è miope
quando sceglie in via esclusiva di finanziare
linee cosiddette di ricerca applicata, che
poi significa praticamente l’ingegneria, le
biotecnologie e pochi ammennicoli ulteriori.
L’ingegneria, non lo diciamo agli ingegneri, è
un po’ di fisica applicata e un po’ di matematica
applicata. Quello che scelgono di fare in
Europa, significa dimenticare che se l’Europa
è stata l’Europa per grandi fisici applicati e
ingegneri lo è stata anche per Hegel, Fichte,
e per i grandi scrittori mitteleuropei. Ignorare
completamente questa parte residuale della
cultura e demandarla agli stati membri i quali,
nell’attuale periodo di crisi economica, non
sono in condizione di finanziare niente,
a mio avviso è una scelta semplicemente
anticipatrice di un declino che noi dobbiamo
impedire. Quindi mi rivolgo a tutte le autorità,
io faccio la mia parte, ma anche a quelli che
gestiscono e governano i sistemi di valutazione
ai quali va comunque tutta la mia gratitudine
perché valutare significa fare scelte e fare
scelte significa sempre accontentare alcuni
e scontentare altri. Tutti devono capire che
la valutazione oggettiva non esiste, che la
valutazione, poiché sceglie dei parametri e
degli indicatori, ha dei contenuti soggettivi,
l’importante è che si conoscano le regole
del gioco. Però forse proprio in queste sedi è
opportuno un richiamo all’alto valore della
cultura e all’idea che la cultura sale tutta
o scende tutta e non è possibile pensare
di sviluppare o far progredire un territorio
puntando esclusivamente su certi ambiti
lasciandone morire altri. Secondo me questo
è un compito degli intellettuali, per quanto
questa parola sia ormai carica di significati
deteriori, e di tutti quanti come me e come voi,
caro Fantoni, sono preposti al governo della
ricerca scientifica nel paese.
Grazie e buon lavoro.
L. Cifarelli: Grazie. Adesso vorrei dare
la parola al Presidente del Comitato
Organizzatore Locale che si è notevolmente
prodigato per l’organizzazione di questo
Congresso assieme alla sua squadra.
P. Maddalena: Buongiorno a tutti. Do il
benvenuto a nome del Comitato Organizzatore
e di quanti hanno collaborato con noi per
l’organizzazione di questo evento. In qualità
di Direttore del Dipartimento di Scienze
Fisiche colgo l’occasione per dare il benvenuto
a nome di tutta la comunità dei fisici della
“Federico II”, insieme ai ricercatori della
Sezione INFN di Napoli e dell’Unità CNR-SPIN
di Napoli. Come anticipava Luisa Cifarelli ho
avuto l’incarico formale da parte del Sindaco
Dr. Luigi De Magistris di portarvi i saluti della
Giunta Comunale e suoi personali, con le
scuse per la sua assenza, legata a impegni
improvvisi. Questo evento rappresenta per
Napoli un’occasione unica per certi versi,
coinvolgendo in maniera così profonda il
settore della ricerca e, in modo particolare,
la comunità dei fisici su scala non solo cittadina
ma regionale. Napoli, come sapete, è una città
ricca di contraddizioni, il che probabilmente
rappresenta la sua ricchezza principale, ed è
alla ricerca, direi quasi perenne, di occasioni di
rilancio. Le occasioni di rilancio vanno trovate
non solo nel sociale ma anche nell’arte e nella
cultura: da questo punto di vista sicuramente
il 98° Congresso Nazionale della SIF è un
evento culturale di rilievo per la città.
Dal punto di vista personale vi confesso che
sono molto emozionato perché la gestione
di un Congresso così grande è un’occasione
unica e impegnativa. Oltre all’emozione c’è
anche un senso forte di soddisfazione perché,
stando alle stime iniziali, si prevede una larga
partecipazione nell’arco della settimana con
diverse centinaia di partecipanti, indice questo
del successo della manifestazione.
Sono d’altro canto teso perché il ritorno
del Congresso SIF a Napoli avviene dopo ben
25 anni. Qui ci sono alcune delle persone
che hanno contribuito all’organizzazione del
Congresso del 1987; non credo di sbagliare
affermando che, sia dal punto di vista degli
aspetti scientifici che di quelli organizzativi
e dell’ospitalità, il Congresso SIF del 1987 ha
rappresentato uno standard di confronto
molto impegnativo per le edizioni che sono
seguite. Tutti ricordano il lavoro svolto da
Giancarlo Gialanella, Bruno Preziosi, Peppino
Iadonisi e da tutto il Comitato Organizzatore.
È anche vero che i tempi nel 1987 erano un po’
diversi. La legge 382 del 1980, che riformava
l’Università, si avviava a regime. Per il CNR
quello era il periodo dei progetti finalizzati,
che hanno determinato un forte rilancio del
settore della ricerca. Anche l’INFN conduceva
le proprie attività in relativa tranquillità.
Ai tempi odierni la situazione è sicuramente
diversa. Ci avviamo a cogliere i primi risultati
dell’applicazione della legge 240, con tutto
quello che questo può implicare dal punto di
vista della ricerca e della didattica accademica.
Gli Enti di Ricerca sono coinvolti in diverse
vicende, che mirano alla riforma degli enti
stessi. È evidente che, in un tale contesto
di crisi e di incertezze, i tempi che viviamo
sono più duri. Nonostante tutto, però, devo
dire che la comunità nazionale dei fisici ha
saputo portare avanti la ricerca in maniera
egregia con eccellenti risultati anche a livello
internazionale, apportando un contributo
fondamentale, in alcuni casi addirittura
determinante, al successo della stessa. Nel
corso del Congresso, durante questa settimana
andremo a cogliere tutti gli aspetti e i risultati
dell’ultimo anno della ricerca italiana. Essi
saranno illustrati nell’arco delle riunioni delle
varie Sezioni previste dal Congresso. Come
è noto, abbiamo 8 Sezioni in totale. L’intera
manifestazione si svolgerà in questo sito,
i Centri Comuni del Complesso Universitario
di Monte S. Angelo. Abbiamo riservato l’Aula
Rossa e l’Aula Azzurra per le relazioni generali
e le aule E e le aule F, al piano superiore, per
le varie riunioni delle Sezioni. Abbiamo anche
provveduto a garantire un accesso wireless alla
rete per i partecipanti: per i dettagli potete fare
riferimento al banco della Segreteria. Un’ultima
notazione prima di chiudere: il Dipartimento di
Scienze Fisiche è a non più di 200 metri da qui.
Vi invito a visitarlo e a prendere contatto con
i ricercatori per poter eventualmente visitare
i laboratori e le strutture. Chiudo augurandovi
buon lavoro, sperando che esso sia proficuo
e che nello stesso tempo abbiate tempo di
godere della città. Buon lavoro a tutti.
L. Cifarelli: Grazie, grazie davvero. Prima che
il Magnifico Rettore e forse anche l’Assessore
ci lascino a causa dei loro ulteriori impegni
istituzionali, vorrei offrire a ciascuno di loro
un dono simbolico, che è la cravatta della
Società Italiana di Fisica, insieme a un regalo
del Comitato Organizzatore Locale, che è una
simpatica statuetta di Pulcinella. Grazie ancora
per essere venuti.
Adesso proseguiamo secondo tradizione
con la cerimonia di premiazione della Società
Italiana di Fisica. Partiamo dalla nomina dei
Soci Benemeriti della SIF, illustri colleghi i quali
hanno onorato la Società e la Scienza con i loro
contributi.
Il primo Socio Benemerito di quest’anno, in
ordine alfabetico, è:
- Tullio Bressani dell’Università di Torino,
Socio Benemerito per i suoi contributi dati alla
Fisica Nucleare Sperimentale e alla Società
Italiana di Fisica.
T. Bressani: Le cose che fanno piacere sono
quelle che arrivano inaspettate e questa è
stata del tutto inaspettata. Ringrazio Luisa,
il Presidente, e tutti gli altri membri del
Consiglio, per avermi dato questo onore e
spero di continuare a servire la Società Italiana
di Fisica. Grazie a tutti.
L. Cifarelli: Ho il piacere di chiamare adesso:
- Stefano Fantoni della SISSA di Trieste,
Socio Benemerito per i suoi contributi dati
alla Fisica Teorica delle Particelle e alla Società
Italiana di Fisica. Dopo tutto quello che
abbiamo sentito negli ultimi mesi in relazione
alle delicate procedure di valutazione e
all’ANVUR, permettetemi di dire che questo
è anche un simbolo di riconciliazione nei
confronti del suo Presidente.
S. Fantoni: Ringrazio moltissimo di questo
riconoscimento per me molto importante
anche per tutto quello che è stato il mio
trascorso nell’ambito della SIF e per quello
che ho fatto nella mia carriera che adesso
è cambiata. Quindi il riconoscimento è
particolarmente gradito perché mi fa ritornare,
almeno per questo piccolo intervallo, laddove
sono sempre stato e mi piacerebbe stare, a dire
la verità. Parlavi di riconciliazione, io mi auguro
che non si tratti di riconciliazione, ma di un
aiuto che noi come ANVUR chiediamo a tutto il
sistema universitario nell’intraprendere questa
strada della valutazione. Una strada complicata
che ha bisogno di correzioni, di modifiche, un
processo dinamico come immagino noi fisici
capiamo, un po’ meno i rappresentanti di certe
altre aree devo dire. Forse ricollegandomi a ciò
che l’assessore Trombetti ha detto, io credo
che l’aspetto culturale di tutta l’operazione
di valutazione e quindi anche di strategia del
paese, in qualche modo, è molto presente.
Anzi, l’energia massima che noi dell’ANVUR
stiamo spendendo è proprio là, nelle aree
umanistiche che per noi certamente sono
importanti. Però è anche importante che
queste aree umanistiche capiscano che i tempi
prevedono che nei modi di reclutamento
dei giovani, le valutazioni e l’inserimento in
un mondo europeo e internazionale devono
essere sempre presenti. Quindi anche se loro
sentono di soffrire molto questa operazione
che è tradizionalmente lontana da loro,
credo che sia inevitabile e che quindi con un
po’ di “mal di pancia” la debbano accettare;
e siamo convinti di agire per il bene proprio
di questa cultura che Trombetti richiamava,
non per castigare nessuno, ma proprio
perché è importante che questa componente
umanistica sia una componente che a tutto
titolo possa sentirsi europea e internazionale.
Dopodiché io mi sento fisico e sono molto
orgoglioso che l’area della fisica e più in
generale tutta l’area tecnico-scientifica sia
un’area guida nel processo di valutazione,
un processo che quest’area ha imparato a
conoscere da tempo e ha nel suo DNA. Quindi
non parlerei di una riconciliazione. Il nostro è
un tentativo di far vedere ai nostri giovani che
c’è un’apertura in questo momento per loro
così difficile e che un processo di valutazione
sia molto importante per poter dare loro
questa speranza. Grazie.
L. Cifarelli: Grazie e aggiungo che la SIF è
molto contenta che tu sia oggi qui con noi.
Chiamerei ora:
- Gianluigi Fogli dell’Università di Bari,
Socio Benemerito per i suoi contributi dati
alla Fisica Teorica delle Particelle e alla Società
Italiana di Fisica.
G. Fogli: mi fa piacere e devo ringraziare
la Società Italiana di Fisica. Non so se ho
fatto moltissimo, potevo sicuramente fare
molto di più. E poi vorrei un po’ condividere
questo riconoscimento con tutti i miei giovani
collaboratori che sono stati essenziali nella
mia attività scientifica, a cui ho sempre fatto
riferimento e che sono tenuti a continuare
questa attività. Io ripongo in loro molta fiducia
perché sono molto bravi.
L. Cifarelli: Grazie.
Chiamo ancora:
- Giuseppe Iadonisi dell’Università di
Napoli “Federico II”, Socio Benemerito per i suoi
vol28 / no5-6 / anno2012 >
41
il nostro
mondo
contributi dati alla Fisica della Materia Teorica e
alla Società Italiana di Fisica.
G. Iadonisi: Io sono molto grato alla SIF
per questo riconoscimento, credo di non
avere fatto tantissimo, comunque le sono
molto grato anche per avermi permesso di
organizzare ben due corsi a Varenna, il che
per me e per i miei collaboratori è cosa non da
poco. Grazie.
L. Cifarelli: Ti ricordo che al Congresso di
25 anni fa tu fosti presidente della sezione in
cui Alex Müller presentò la superconduttività
calda e che il suo Premio Nobel fu annunciato
durante il Congresso della SIF. All’epoca il
Congresso si svolgeva a fine ottobre, dopo che
il Comitato Nobel si era pronunciato.
Chiamo ancora:
- Sandro Santucci dell’Università
dell’Aquila, Socio Benemerito per i suoi
contributi dati alla Fisica della Materia
Sperimentale e alla Società Italiana di Fisica.
S. Santucci: Grazie di questa onorificenza
molto gradita, ma anche molto sorprendente,
nel senso che era così inaspettata che ho
addirittura perso l’e-mail con cui mi veniva
comunicata. Per fortuna la segreteria
della Società è stata molto efficace nel
ricordarmelo! È un grandissimo onore, come
dicevo inaspettato, per il quale ringrazio la
Presidente professoressa Cifarelli e il Consiglio
della Società per avermi proposto. In questo
momento il mio pensiero va al dipartimento
di Fisica dell’Università dell’Aquila di cui sono
stato direttore per 8 anni e ai colleghi con cui
ho attraversato un periodo di vita piuttosto
difficile ma concreto. Ora il dipartimento,
nell’ottica degli accorpamenti delle strutture,
è diventato Dipartimento di Scienze Fisiche
e Chimiche. Questa nuova struttura conserva
un’attività scientifica di ottimo livello che
ci ha contraddistinto nel tempo. Ciò è
verificato dall’applicazione dei nuovi metodi
di valutazione del personale universitario, le
tanto bistrattate mediane, che vedono molti
nostri giovani ben posizionati e meritevoli
di essere valorizzati per contribuire alla
rivitalizzazione della Fisica italiana. Infine il mio
pensiero va alla mia famiglia, ai miei genitori,
che con loro sacrifici hanno preparato la
strada che mi ha permesso di poter svolgere
il lavoro entusiasmante del fisico, ai miei figli
e in particolare mia moglie che è qui e che
sopporta la fisica da circa 40 anni; hanno
contribuito tutti in modo essenziale. Di nuovo
grazie alla SIF e grazie a tutti.
L. Cifarelli: Grazie mille.
Infine chiamo:
- Giancarlo Setti dell’Università di Bologna,
Socio Benemerito per i suoi contributi dati
all’Astrofisica e all’Astronomia e alla Società
Italiana di Fisica.
42 < il nuovo saggiatore
G. Setti: È stata una gradita sorpresa e
un grande onore essere nominato Socio
Benemerito di una Società secolare come
quella di Fisica. Ciò ha per me un valore
straordinario. Io sono un astrofisico, ma mi
sento semplicemente un fisico cresciuto a
Bologna alla scuola di Giampietro Puppi.
Quello che vorrei qui ricordare è come la
nuova astronomia, quella che si è venuta
affermando negli anni successivi al secondo
conflitto mondiale, ha avuto un grande
impulso dalla fisica. Lo sviluppo della
radioastronomia, dell’astronomia dei raggi X e
gamma, dell’astronomia dell’infrarosso e della
ricerca delle onde gravitazionali, cioè tutto
quello che era astronomia non tradizionale,
è nato e cresciuto in Italia grazie alle iniziative
intraprese dalla grande scuola della fisica di
Amaldi, Occhialini e Puppi, che hanno anche
promosso la ricerca spaziale europea e italiana.
Io mi ritrovo sia da una parte che dall’altra,
come un fisico consapevole che la storia della
fisica e della scienza affonda le sue radici
nell’astronomia, e forse oggi più che mai.
Non è un caso se fra i miei primi lavori i due
che hanno maggiormente tracciato il percorso
della mia ricerca sono stati pubblicati su
Il Nuovo Cimento nel lontano 1967. Vi ringrazio
molto.
L. Cifarelli: Grazie a te.
La Cerimonia continua con i premi istituiti
dal mio predecessore Giuseppe Franco Bassani,
ovvero i premi per le migliori comunicazioni
dei giovani al Congresso dell’anno precedente,
che danno anche diritto alla pubblicazione
sulle riviste della Società Italiana di Fisica.
I Premi per le Migliori Comunicazioni al
Congresso sono congiuntamente offerti da
Il Nuovo Cimento e da The European Physical
Journal (EPJ).
Si riferiscono alle varie Sezioni parallele
del Congresso (nominerò solo i premiati che
avevano comunicato di poter essere presenti
alla Cerimonia odierna):
- Per la Sezione di Fisica Nucleare e
Subnucleare, il Primo Premio va a Laura
FRANCALANZA dell’INFN, Laboratori Nazionali
del Sud, Catania, per la sua comunicazione
“Competizione fra meccanismo di fusioneevaporazione e multiframmentazione in
collisioni centrali 58Ni + 48Ca a 25 AMeV”.
- Per la Sezione di Fisica della Materia,
il Primo premio va a Giovanni Maria VANACORE
del CNISM, Dipartimento di Fisica, Politecnico
di Milano, per la sua comunicazione “Nanoscale
mapping of strain, composition and electronic
structure in SiGe nano-stripes”. Ritira il premio
Raffaella Belvedere.
- Per la Sezione di Fisica Astroparticellare,
Astrofisica e Cosmologia, il Secondo Premio
va a Giovanni BENATO del Dipartimento di
Fisica “G. Galilei”, Università di Padova e INFN,
Sezione di Padova, per la sua comunicazione
“Studio del decadimento doppio beta con due
neutrini nel 76Ge”.
- Per la Sezione di Geofisica e Fisica
dell’Ambiente, il Primo Premio va a Matteo
FURLAN del Dipartimento di Fisica “G. Galilei”,
Università di Padova e INFN, Sezione di
Padova, per la sua comunicazione “Musteel:
un progetto europeo per l’utilizzo della
tomografia muonica per la protezione
ambientale in processi industriali”.
- Per la Sezione di Biofisica e Fisica Medica,
il Primo Premio va a Daniela PETTI del
Dipartimento di Fisica e L-NESS, Politecnico
di Milano, Sede di Como, per la sua
comunicazione “Bead magnetorelaxometry
with on-chip platform based on magnetic
tunnelling junctions”.
- Per la Sezione di Fisica Applicata,
il Primo Premio va a Andrea Mario TORTI
del L-NESS e CNISM, Dipartimento di Fisica,
Politecnico di Milano, Sede di Como, per la
sua comunicazione “Magnetic domain wall
conduits for on chip biological manipulation”.
Il Secondo Premio va a Davor RISTIC del CSMFO
Lab, CNR-IFN, Trento, per la sua comunicazione
“Vetri attivati con ioni di terre rare per
conversione in frequenza della radiazione
solare”.
- Per la Sezione di Fisica per i Beni Culturali,
il Primo Premio va a Michele SECCO di CIRCe,
Università di Padova, per la sua comunicazione
“Restoration of cultural heritage masonry
structures damaged by the 2009 Abruzzo
earthquake: materials and methods”.
- Per la Sezione di Fisica Generale, Didattica
e Storia della Fisica, il Secondo Premio va a
Stefano VERCELLATI dell’Unità di Ricerca in
Didattica della Fisica, Università di Udine, per
la sua comunicazione “Interpretare l’induzione
elettromagnetica nella scuola secondaria: una
sperimentazione di ricerca”.
Tutti questi ragazzi pubblicheranno un
articolo tratto dalla loro comunicazione in un
fascicolo speciale de Il Nuovo Cimento.
Ora passiamo ai premi riservati ai giovani
talenti laureati in Fisica, cui vengono attribuiti
Premi di operosità scientifica, intitolati ai passati
Presidenti della Società Italiana di Fisica.
Cominciamo dai giovanissimi laureati in
Fisica dopo il Maggio 2009. I premi sono stati
sponsorizzati da Physik Instrumente e CAEN.
- Il Premio “Gilberto Bernardini”, che era
presente qui al Congresso di Napoli 25 anni
fa e che inaugurò il Congresso, va a Laura
Cardani, laureata in Fisica presso l’Università
di Milano-Bicocca e attualmente dottoranda
presso l’Università di Roma “La Sapienza”.
- Il Premio “Orso Mario Corbino” va a
Andrea celentano, laureato in Fisica
presso l’Università di Genova e attualmente
dottorando presso la stessa Università.
- Il Premio “Augusto Righi” va a Ninetta
Saviano, laureata in Fisica presso l’Università
di Napoli “Federico II” e attualmente
dottoranda presso il II Institut für Theoretische
Physik, Universität Hamburg, Germany.
- Il Premio “Pietro Blaserna” va a Simone
zanotto, laureato in Fisica presso l’Università
di Pavia e attualmente dottorando la Scuola
Normale Superiore di Pisa.
Il secondo gruppo riguarda i premi riservati
ai dottori in Fisica laureati dopo il Maggio 2005.
- Il Premio “Vito Volterra” va a Francesco
merola, laureato in Fisica presso l’Università
di Napoli “Federico II” e attualmente ricercatore
dell’Istituto Nazionale di Ottica, INO-CNR,
Sezione di Napoli.
- Il Premio “Giovanni Polvani” va a Simone
stracka, laureato in Fisica presso l’Università
di Milano e attualmente post-doc presso
TRIUMF, Vancouver, Canada.
Ora abbiamo dei premi istituiti in ricordo di
vari colleghi che hanno contribuito alla scienza
e alla società.
Iniziamo con il Premio “Giuliano Preparata”
per la Fisica Teorica, assegnato grazie al
contributo dell’Associazione per la Fondazione
“Giuliano Preparata”. Consegna il premio
Emilia Campochiaro Preparata. Il premio
va a Francesco Dimitri Maria Pellegrino,
laureato in Fisica presso l’Università di Catania
e attualmente dottorando in Scienze Fisiche
della Materia presso l’Università di Roma Tre,
“per le sue ricerche teoriche sul grafene,
in particolare sugli effetti di impurezze e
deformazioni sulle proprietà elettroniche e di
trasporto”.
Passo al Premio “Marco Fontana” per la Fisica
della Materia Soffice, assegnato grazie al
contributo dei colleghi e amici dell’Università
di Parma. Consegna il premio Roberto De
Renzi. Il premio va a Simone Belli, laureato
in Fisica presso l’Università di Trieste e
attualmente dottorando presso l’Institute
for Theoretical Physics, Università di Utrecht,
The Netherlands, “per i suoi contributi alla
termodinamica di mesofasi con risultati di
rilievo relativi agli effetti della poli-dispersione
di dimensioni per molecole piatte”.
Ora abbiamo un premio particolarmente
caro a Napoli, intitolato a Antonio Barone,
che tra l’altro era presente al Congresso di
25 anni fa. Il premio è assegnato grazie al
contributo del Comitato Organizzatore Locale
del Congresso SIF di Napoli, consegnano il
premio Ruggero Vaglio e Renato Angelo Ricci. Il
Premio “Antonio Barone” è assegnato ex aequo a:
Alessandro casaburi, laureato in Fisica presso
l’Università di Napoli “Federico II” e attualmente
post-doc presso la School of Engineering
and Physical Science, Heriot–Watt University,
Edinburgh, UK, “per i brillanti contributi
nello sviluppo di dispositivi di rivelazione
superconduttori nano-strutturati per la
spettrometria di massa di macromolecole di
interesse biologico”; e a Angelo cruciani,
laureato in Fisica presso l’Università di Roma
“La Sapienza” e attualmente assegnista di
ricerca della stessa Università, “per i notevoli
risultati ottenuti nell’ottimizzazione di
rivelatori superconduttori per fotoni basati sui
meccanismi di induttanza cinetica delle coppie
di Cooper”.
Un altro premio intitolato a un collega,
questa volta di Firenze, è il Premio “Emiliano
Sali” per la Fisica Atomica, Molecolare o Ottica,
assegnato grazie al contributo dei colleghi e
amici. Il premio va a Lucia caspani, laureata
in Fisica presso l’Università dell’Insubria,
attualmente post-doc all’Insitut National de
la Recherche Scientifique (INRS), Varennes,
Canada, “per i suoi approcci innovativi allo
studio spazio-temporale di aspetti specifici
di entanglement e per il suo contributo
significativo alla proposta di una nuova
tecnica di imaging ad alta sensibilità basata su
correlazioni d’intensità a livello quantistico”.
Lucia Caspani non è potuta venire e
consegniamo il premio al collega Guglielmo
Tino.
La Borsa “Antonio Stanghellini”, tradizionale
borsa della SIF che esiste da molti anni,
va a Matteo rinaldi, laureato in Fisica
presso l’Università di Perugia e attualmente
dottorando presso il Dipartimento di Fisica
dell’Università di Perugia, “per l’originale
proposta di esperimenti di diffusione anelastica
su nuclei di 3He che consentirebbero per la
prima volta di misurare il momento angolare
dei partoni nel neutrone”.
Passo adesso al Premio “Sergio Panizza” per la
Optoelettronica o la Fotonica, assegnato grazie
al contributo della Laser Optronic di Milano,
anche questo uno storico premio della SIF.
Consegna il premio Silvano De Pascalis della
Laser Optronic. Il premio va a Miriam Vitiello,
laureata in Fisica presso l’Università di Bari e
attualmente ricercatrice presso il Laboratorio
NEST dell’Istituto di Nanoscienze del CNR e
della Scuola Normale Superiore di Pisa, “per i
risultati conseguiti nello sviluppo di sorgenti
laser a semiconduttore e di rivelatori nanoelettronici ad alta frequenza che hanno aperto
nuove frontiere nell’innovazione della fotonica
Terahertz”.
La Borsa “Ettore Pancini” per la Fisica Nucleare
e Subnucleare, assegnata grazie al contributo
di Roberto Mazzola del CNR, che consegna
il premio, va a Luciano Libero pappalardo,
laureato in Fisica presso l’Università di
Catania e attualmente assegnista di ricerca al
Dipartimento di Fisica dell’Università di Ferrara,
“per il suo studio sperimentale della struttura
del nucleone tramite misure di deep-inelasticscattering e, in particolare, per il suo contributo
alla comprensione degli effetti di spin e di
impulso trasverso dei quark”.
Il Premio per l’Outreach va a Katia genovali,
dottoranda in Astronomia presso l’Università
di Roma Tor Vergata e studente visitatore
ESO (European Southern Observatory), sede
di Garching, Germany, “per il contributo
qualificato e originale alla realizzazione di due
importanti documentari per la scuola dedicati
alla storia dell’Universo”.
Il Premio per la Didattica o la Storia della Fisica
quest’anno è stato assegnato per la Didattica
a Lino DE SANTIS e Bruno MARCONI, entrambi
insegnanti di fisica attualmente in pensione,
“per la loro più che ventennale attività di
formazione per insegnanti e di orientamento
per studenti di scuole di ogni ordine e grado,
prevalentemente a carattere sperimentale,
presso i Laboratori Nazionali del Gran Sasso
dell’INFN, con l’utilizzo, in particolare, di
apparecchi realizzati con materiali comuni”.
Vengo ora al Premio “Giuseppe (Beppo)
Occhialini”, congiuntamente istituito dalla
società di Fisica del Regno Unito (IOP –
Institute of Physics) e dalla Società Italiana
di Fisica (SIF) nel 2007, in occasione del
centenario della nascita di Occhialini, allo
scopo di commemorare la figura dell’insigne
scienziato e di consolidare le relazioni tra
le due Società. Il premio è annuale e viene
alternativamente conferito da una delle due
Società a un fisico selezionato a partire da una
lista di candidati proposti dall’altra. Il vincitore
del Premio Giuseppe Occhialini 2012 è stato
selezionato dall’“Award Committee” dell’IOP
a partire da una terna di nomi sottoposta dal
Consiglio di Presidenza della SIF. Il premio e
la medaglia verranno consegnati al vincitore
durante la cena ufficiale di premiazione che si
terrà il prossimo 3 ottobre a Londra.
Il premio va a Eugenio COCCIA dell’INFN
e Università di Roma Tor Vergata, per “il suo
fondamentale contributo alla realizzazione
dei primi osservatori continui di onde
gravitazionali tramite rivelatori criogenici
e ultracriogenici, e per il suo ruolo nella
comunità scientifica internazionale delle
onde gravitazionali e nella più vasta comunità
astroparticellare”.
E. Coccia: Sono particolarmente fiero di
avere ricevuto il premio intitolato a Giuseppe
Occhialini poiché per noi questo nome è
quello di uno degli dei del pantheon della
Fisica Astroparticellare. Il mio premio lo
intendo come un premio dato un po’ a tutta la
comunità della ricerca sulle onde gravitazionali.
La rivelazione delle onde gravitazionali è una
delle maggiori sfide della fisica sperimentale
contemporanea. Rivelarle non porterà solo
a una ulteriore conferma della Relatività
Generale di Einstein. Segnerà anche l’inizio
di una nuova astronomia, basata sui segnali
costituiti dalle vibrazioni dello spaziotempo.
Sono segnali generati copiosamente da
movimenti accelerati di sorgenti astronomiche,
come le stelle di neutroni e i buchi neri e
forse da sorgenti ancora sconosciute (sempre
quando si è aperta una nuova finestra
vol28 / no5-6 / anno2012 >
43
il nostro
mondo
Eugenio Coccia, vincitore del premio
“Giuseppe (Beppo) Occhialini” 2012 e Luisa Cifarelli.
Luisa Cifarelli con Roberto Car e Michele Parrinello,
vincitori del premio “Enrico Fermi” 2012.
astronomica, si sono scoperte sorgenti
assolutamente impensate). Né i tradizionali
o nuovi telescopi che osservano fotoni, né i
rivelatori di raggi cosmici o di neutrini possono
fornire un racconto così dettagliato del
movimento della materia cosmica in condizioni
estreme, dove le densità sono elevate e la
gravità molto forte.
Ma non è tutto: significherà anche rivelare
un flusso di gravitoni. Cioè poter indagare per
la prima volta direttamente le caratteristiche
dei bosoni mediatori dell’interazione
gravitazionale, in termini di sezione d’urto con
la materia, spin e massa, grazie all’ampiezza,
alle caratteristiche tensoriali e alla velocità di
propagazione dei segnali rivelati.
Considero il Premio Giuseppe Occhialini un
grande onore e un riconoscimento all’attività
svolta da molti ricercatori per arrivare a
44 < il nuovo saggiatore
compiere una particolare transizione di fase
nella ormai lunga storia della caccia alle onde
gravitazionali: la transizione dal continuo
lavoro di ricerca e sviluppo, con solo brevi runs
scientifici di rivelatori afflitti da disturbi sismici,
acustici ed elettronici non modellabili, alla
realizzazione di rivelatori stabili, con rumore
di fondo atteso, e quindi maturi per lunghi
periodi di osservazione continua. Anche questa
transizione, come tutta questa ricerca, ha visto
l’Italia e l’INFN in primissima fila. È così che i
rivelatori risonanti criogenici, sensibilissimi
diapason, si sono avventurati per primi fin
dagli anni ’80 in regioni inesplorate della fisica
sperimentale. Sono così arrivati, negli anni ’90
i primi significativi limiti superiori a sorgenti
impulsive, alle pulsars, al rumore stocastico di
origina cosmica.
Questo lavoro ha comportato un originale
uso di tecnologie quantistiche, quali la
refrigerazione dovuta alla diluizione di 3He
in 4He, per ridurre il rumore termico, e l’uso
di sensori basati su dcSQUID, per portare il
rumore elettronico vicino al limite quantistico
imposto dal principio di indeterminazione di
Heisenberg.
È una soddisfazione per me il fatto che
varie caratteristiche progettuali del rivelatore
ultracriogenico Nautilus, che detiene il record
di temperatura e che è stato il primo a rivelare
acusticamente i raggi cosmici, siano poi
state adottate nei refrigeratori a diluizione
realizzati dalla Oxford Instruments e dalla
Leiden Cryogenics per successivi esperimenti
scientifici, in particolare per le onde
gravitazionali e per la natura dei neutrini.
Senza soluzione di continuità, gli anni 2000
hanno visto il grande sorpasso nella sensibilità
da parte dei grandi interferometri laser, come
Virgo a Pisa. La comunità gravitazionale italiana
si è da anni in gran parte ricongiunta su questi
straordinari strumenti, potenzialmente sensibili
a molte sorgenti provenienti da migliaia di
galassie. È continuato inoltre il progetto di un
grande interferometro nello spazio, LISA, che
vedrà presto un dimostratore a guida italiana
tracciare la via per rendere possibile la sua
futura realizzazione.
Una preziosa esperienza sperimentale
di decenni si è ora riversata sulla nuova
generazione di interferometri avanzati.
L’appuntamento con la prima rivelazione è
fissato, e stavolta riteniamo a ragion veduta,
entro un lustro con i rivelatori Advanced Virgo
in Italia e Advanced LIGO negli USA. Sarebbe
fantastico se questa arrivasse già nel 2016,
a cento anni esatti dalla predizione teorica di
Einstein.
Ci si è messo troppo tempo? L’attività e i
progressi nella ricerca delle onde gravitazionali
vanno valutati alla luce dell’estrema difficoltà
della loro rivelazione, cioè della estrema
piccolezza degli effetti da misurare. Non per
niente la gravitazione è la più debole delle
interazioni fondamentali. Non è stato facile
arrivare, come siamo arrivati, ad apprezzare
spostamenti dell’ordine di un miliardesimo di
miliardesimo di metro.
Famosa è la frase di Kip Thorne, guru teorico
americano del nostro settore: “Gravitazione:
paradiso per i teorici, inferno per gli
sperimentali”.
Sarà pure un inferno, ma è uno di quelli
appassionanti.
L. Cifarelli: Arriviamo ora al prestigioso
Premio “Enrico Fermi” della Società Italiana
di Fisica. Il Premio è stato istituito nel 2001,
in occasione del centenario della nascita del
grande fisico italiano, per onorarne la memoria
e legare il suo illustre nome alla Società Italiana
di Fisica. Il Premio è assegnato a uno o più
Soci che abbiano particolarmente onorato la
Fisica con le loro scoperte, selezionati da una
Commissione costituita da rappresentanti del
CNR, dell’INAF, dell’INFN, del Centro Fermi
(Museo Storico della Fisica e Centro Studi
e Ricerche “Enrico Fermi”), dell’INGV e del
Consiglio SIF, e presieduta dal Presidente della
SIF.
La medaglia è una riproduzione esatta
del medaglione bronzeo, opera di Giannino
Castiglioni, fatto realizzare da Polvani dopo la
morte di Fermi, e che si trova murato nell’Aula
Fermi di Villa Monastero a Varenna.
Quest’anno il Premio è stato assegnato
congiuntamente a Roberto CAR, del
Dipartimento di Chimica, Università di
Princeton, USA, e Michele PARRINELLO,
del Dipartimento di Chimica e Bioscienze
Applicate, ETH Zurigo, Svizzera , con la
seguente motivazione:
“Per la scoperta del metodo di Dinamica
Molecolare universalmente noto come
metodo di Car-Parrinello, un metodo che
ha rivoluzionato il campo delle simulazioni
numeriche, con grande impatto in numerosi
contesti interdisciplinari, sia teorici sia
sperimentali, che vanno dalla Scienza dei
Materiali, alla Chimica e alla Biologia”.
M. Parrinello: Ringrazio la Società
Italiana di Fisica di questo premio che mi è
particolarmente gradito. Io ho lasciato l’Italia
nel 1989 e mi sono abbastanza contaminato
con altre discipline come la Chimica e la
biologia, ma mi ritengo sempre un fisico
italiano e sono molto grato alla comunità
dei fisici che mi ha formato e di cui apprezzo
moltissimo la ricerca svolta interamente in
Italia. Sono anche grato a questa comunità per
l’alto numero di giovani di talento che riesce
a produrre, alcuni dei quali ho avuto il piacere
di avere come collaboratori. Possiamo ora
cominciare con la discussione, la mia sarà un po’
più generale di quella di Roberto.
(Il resto del discorso di M. Parrinello è in lingua
inglese).
The development of ever more powerful
computers which proceeds at an exponential
pace has fostered the growth of computational
science which has become one of the three
legs on which modern science stands.
Computer simulations complement and guide
experiments, provide precious insight, replace
expensive and dangerous experiments, and
can predict new phenomena. Using computer
graphics the motion of the atoms can be
transformed in images and movies providing
a form of virtual microscopy with a very high
special and temporal resolution. Over the
years the standing of computer simulation in
the scientific community has grown from a
pariah status to a well accept sound discipline
that can be used to support the validity of an
experimental result.
However in spite of the very remarkable
progress which derives from a combination
of increased computer power and clever
algorithms much needs to be done to improve
and extend the method in order to be able
to study larger systems, with more realistic
Hamiltonians and on longer time scales.
Thus allowing computer simulation to describe
the ever more complex systems that are of
the focus of much of contemporary science.
We will focus here on the last problem of time
scale which, among the limits of computer
simulation is the least amenable to a cure
based on an increase in computer power.
To address this problem we have developed
metadynamics which is now a widely used
method.
In metadynamics one identifies appropriate
order parameters or collective variables
and focuses on the free energy surfaces.
The dynamics of the collective variables is
enhanced by a history dependent bias and is
able of reconstructing the free energy surfaces.
Besides accelerating sampling metadynamics
provides a conceptual framework in which
complex phenomena can be analyzed and
described. The metadynamics point of view
has brought copious fruits not only for its many
applications but also for the theoretical insight
it provides. Though metadynamics novel
statistical mechanics ensemble with desirable
properties can be defined and sampled.
Finally the combination of metadynamics and
machine learning algorithms provides a very
useful representation of very complex free
energy surfaces.
R. Car: Ringrazio la Società Italiana di
Fisica per avermi conferito il premio Fermi
e desidero sottolineare che la mia carriera
professionale deve molto all’ottima formazione
in fisica ricevuta in Italia. L’invenzione della
dinamica molecolare ab initio, per cui sono
stato premiato insieme a Michele Parrinello,
è avvenuta presso la Scuola Superiore di Studi
Avanzati e il Dipartimento di Fisica Teorica
dell’Università di Trieste. Il lavoro di Car e
Parrinello, intitolato “Unified Approach for
Molecular Dynamics and Density-Functional
Theory”, pubblicato nel 1985 nelle Physical
Review Letters, è prossimo a superare la soglia
delle 6000 citazioni.
Nella dinamica molecolare ab initio le
forze agenti sugli atomi non derivano da
potenziali empirici, come di norma nelle
simulazioni di dinamica molecolare, ma
sono ricavate dallo stato fondamentale
degli elettroni secondo l’approssimazione
di Born e Oppenheimer. La motivazione mia
e di Parrinello nell’introdurre la dinamica
molecolare ab initio era di predire le proprietà
dei materiali a partire dalle leggi della
meccanica quantistica, un obbiettivo che si
erano già posti gli iniziatori di questa disciplina.
Nel 1929, al termine del decennio che stabilì
le fondazioni della meccanica quantistica,
Dirac dichiarava che le leggi necessarie per
la trattazione matematica di gran parte della
fisica e dell’intera chimica erano note, ma la
difficoltà risiedeva nel fatto che le equazioni
erano troppo complesse per poter essere
risolte nel caso di sistemi di molte particelle.
L’anno successivo Dirac ritornò sull’argomento
perfezionando il modello atomico di Thomas
e Fermi includendovi gli effetti di scambio
tra gli elettroni. Nell’introduzione di questo
lavoro, Dirac osserva che nel caso di atomi
con molti elettroni è necessario usare delle
approssimazioni dato che la soluzione
dell’equazione d’onda di Schrödinger in uno
spazio a molte dimensioni è di gran lunga
troppo complicata. All’epoca, la migliore
approssimazione disponibile, il metodo del
campo autoconsistente di Hartree o di HartreeFock, era ugualmente troppo complicata. Dirac
si concentrò quindi sul più semplice modello di
Thomas e Fermi.
Con l’avvento dei computers è divenuto
possibile risolvere le equazioni del campo
autoconsistente non solo per atomi isolati
ma anche per aggregati atomici come le
molecole e i materiali, sistemi per i quali la
soluzione esatta dell’equazione d’onda ha un
costo proibitivo, esponenziale nel numero di
elettroni. La teoria del funzionale di densità di
Kohn, Hohenberg e Sham, apparsa nel 1965,
segna un progresso importante in questo
campo. Il lavoro che è valso a Kohn il premio
Nobel per la chimica nel 1997, rende esatto
il metodo di Hartree, dimostrando che lo stato
fondamentale di un sistema a molti elettroni
può ottenersi formalmente da equazioni simili
a quelle di Hartree il cui costo computazionale
cresce solo algebricamente col numero degli
elettroni. In pratica tuttavia, il contributo al
potenziale autoconsistente dovuto agli effetti
di scambio e correlazione va approssimato
con approcci simili a quelli usati nel modello
di Thomas, Fermi e Dirac. I primi calcoli per
modelli realistici di materiali usando questa
teoria sono apparsi sul finire degli anni ’70 ad
opera di Cohen e collaboratori all’Università di
Berkeley. Tali calcoli, limitati a strutture statiche,
hanno mostrato che la struttura cristallina di
un materiale si può predire a partire dalle leggi
della meccanica quantistica senza fare ricorso
a parametri empirici, un risultato all’epoca
tutt’altro che scontato.
Con Parrinello abbiamo esteso la teoria del
funzionale di densità a situazioni dinamiche
introducendo una Lagrangiana che dipende sia
dalle coordinate e dalle velocità dei nuclei che
dalle funzioni d’onda di Kohn e Sham e dalle
loro derivate temporali. Le funzioni d’onda
di Kohn e Sham sono i parametri d’ordine
elettronici della teoria. Le equazioni del moto
corrispondenti si integrano numericamente
dando accesso alle traiettorie classiche dei
nuclei generate dalle forze prodotte dagli
elettroni nello stato fondamentale. Dalle
traiettorie si calcolano le proprietà statistiche
di equilibrio classiche di un aggregato
atomico seguendo l’approccio della dinamica
molecolare iniziato da Fermi, Pasta e Ulam, e
successivamente sviluppato da Alder, Rahman
ed altri. Il metodo della dinamica molecolare
ab initio può essere esteso al calcolo delle
proprietà di equilibrio quantistiche utilizzando
gli integrali di cammino di Feynman.
La dinamica molecolare ab initio è
diventata nel corso degli anni uno strumento
importante per simulare il comportamento
microscopico della materia ed è utilizzata da
numerosi gruppi di ricerca in fisica, chimica,
scienza dei materiali e biofisica. A scopo
di illustrazione, menzionerò brevemente
alcuni risultati ottenuti con simulazioni di
dinamica molecolare ab initio: il diagramma
di fase del carbone a pressioni e temperature
estreme, i processi atomistici che portano
alla produzione catalitica di idrogeno
molecolare in prossimità di una superficie
funzionalizzata in contatto con acqua acida,
e infine la funzione di correlazione di coppia
ossigeno-ossigeno e la distribuzione dei
momenti della quantità di moto dei protoni
nell’acqua. Nel caso del diagramma di fase del
carbone il comportamento rientrante della
curva di equilibrio diamante-liquido predetto
dalle simulazioni è stato successivamente
confermato dagli esperimenti. Nel caso
dell’acqua le simulazioni, in ottimo accordo
con gli esperimenti, indicano che la struttura di
questo liquido dalle proprietà insolite è dovuta
alla competizione di diversi effetti: i legami
idrogeno, le forze di van der Waals, e gli effetti
quantistici di punto zero associati ai protoni.
Per finire, ricordo quella che secondo me è
stata l’innovazione concettuale più importante
del mio lavoro con Parrinello: il fatto che un
complesso problema di ottimizzazione, come è
in generale un problema di meccanica statistica
all’equilibrio, si può risolvere simulando
numericamente l’evoluzione temporale di
un opportuno sistema a molti corpi. Questa
comprensione è stata di ispirazione in molte
ricerche successive al lavoro che ha introdotto
la dinamica molecolare ab initio più ancora
del successo di tale metodologia nelle singole
applicazioni.
L. Cifarelli: Ringrazio di cuore i nostri illustri
premiati. Sono grata a tutti voi per la vostra
presenza, agli organizzatori locali per il loro
fondamentale impegno e ai numerosi sponsor
per il loro contributo al successo di questo
evento. Dichiaro quindi ufficialmente aperti
i lavori del 98° Congresso della Società Italiana
di Fisica.
vol28 / no5-6 / anno2012 >
45
il nostro mondo
THE EUROPEAN PROJECT “IMMERSION
IN THE SCIENCE WORLDS THROUGH THE ARTS”
Franco Rustichelli1*, Mario Stefanon2**
1
Sezione Scienze Fisiche, Dipartimento Di.S.C.O.,
Università Politecnica delle Marche, Ancona, Italy
2
ENEA, Bologna, Italy
The aim of the project “Immersion in the Science Worlds through the Arts” (ISWA) is to make
people emotionally involved in scientific subjects by establishing a connection between Science
and the Arts. The main target is the students in the last three years of high school, in order to give
them a more correct idea of what science is and help them in their choice of future university
studies. The project involves 16 partners form 15 European countries (see box) and has a duration
of 24 months expiring on February 28, 2013.
The original idea of the ISWA project comes
from the consideration that, nowadays, in our
society, science is generally presented to young
people without paying enough attention to
the fact that science always originates from
a creative and emotional process. This lack
of a realistic description of how a scientific
discovery or observation is intimately related
to a creative process, is partially to blame
for the reduced interest in science shown by
young people, as evidenced by recent trends
in their educational and career paths. At the
same times adults not commonly involved
in science-related activities are not familiar
with and sometimes reluctant to understand
scientific concepts. A deeper knowledge of the
true meaning of science can make an effective
difference in the way people make life choices.
Unfortunately science is increasingly confused,
especially by children and teen-agers, with
the use of high technology devices such as
play-stations and mobile phones, which are
considered as a sort of natural products to be
found in supermarkets like vegetables and
apples.
This misleading perception can persist into
adulthood and can reduce the interest in
science even in those very gifted children, who
represent the hope for the future of our society.
At the same time adults become reluctant
to understand the role of science, which is
relegated mostly into niche programmes by
our modern means of communications, and
people often look suspiciously at the work of
* Project coordinator
* Retired
46 < il nuovo saggiatore
scientists. Science popularization, TV programs
which seriously inform a wide audience tend to
fail in attracting people who are not interested
in science in the first place, but provide
information only to those who have already
shown a particular interest in scientific issues.
A still more deviating phenomenon is when
science is mixed with magic and paranormal
suggestions by our media, transmitting
misleading information. Furthermore,
children’s videos and youth literature are now
producing series of little guys and monsters
with magic powers, and this kind of story is
going to replace the old science fiction novels
which were very popular until a few decades
ago and at least transmitted the positive
message that the intelligence of man could
succeed in saving the planet.
There is a clear and growing realization of
the importance of bridging the gap between
science and society.
Involving the arts in order to assist young
people in understanding the creative
processes underlying scientific discovery
and technological innovation seems to be
an appropriate tool to stimulate that kind
of emotional interest which is the principal
driving force in the learning process.
It is in fact through everyday experience of
parents and teachers that children are able
to understand what they “like” to learn more
easily than what they “must” learn, and that
emotional involvement can release incredible
capacities in our children. This target can
be easily achieved in the particular case of
music, this art, in fact, seems to be the most
independent of previous knowledge, being
able to stimulate, in musically gifted subjects,
sensitive emotions and intense feelings, even
in one year old babies, suggesting a real
comprehension of the musical message by the
age of two. In the case of science, the task is
much more difficult: discovering talents and
driving young people to feel the beauty of
understanding the mysteries of nature requires
a much longer, unclear pattern of education.
In ancient times, when arts, culture and
schools were accessible to a minority, every
master was highly interested in having very
talented pupils, hence sometimes happened
that he would decide to take care directly of
the education of an exceptionally gifted child.
Individual education is nowadays possible
only in the case of university-graduated
students, with the exception of music, where
the relationship between the teacher and
a gifted pupil remains similar to that of the
ancient times. The standard school finds it very
difficult to discover talents and to encourage
future scientists. There is however a growing
consciousness of the fundamental importance
of scientific education in the earlier learning
stages, leading to a number of good initiatives.
There are many nice books for children which
explain scientific arguments or help to set
up simple physics experiments and there are
well-organized science museums to be visited
by school classes. There are institutions and
science-actor groups working to popularize a
kind of “easy-science”, where simple scientific
observations are made attractive by means
of spectacular, amusing effects. This kind of
initiatives can surely help to make the study
of science less boring for a large number of
Participant no.
Participant organisation name
Country
1 (Coordinator)
UNIVPM - Università Politecnica delle Marche
Italy
2 ESRF
European Synchrotron Radiation Facility
France
3 SIMPLE
Simpleware Company
United
Kingdom
4 HCGS
HCGS, Siauliai University
Lithuania
5 IOB
Institute of Oral Biology, Zurich, Switzerland
Switzerland
6 RSAS
Institute of Materials Research, Slovak Academy of Sciences, (IMR Slovakia
SAS), Košice,
Slovak Republic
7 TESLA
Tesla Union, Pardubice, Czech Republic
Czech
Republic
8 TUW
Institute for Mechanics of Materials and Structures, Wien, Austria
Austria
9 UMINHO
University of Minho (UMINHO),
Portugal
10 UNINA
University of Napoli “Federico II”
Italy
11 UPP
Uppsala University, Uppsala
Sweden
12 IPPT
Institut Podstawowych Problemow Techniki
Poland
13 DOCK
The Dance Studio DOCK11, Berlin, Germany
Germany
14 ARSTIC
Audiovisual Solutions provide innovative solutions
Spain
15 CBRAS
Centre for Bioengineering RAS
Russian Federation
16 IOAN
University of Ioannina
Greece
List of the partners.
students, but it seems that they are unable
to really face the problem of stimulating
the development of new scientists. Playing
with some simple physical laws cannot
compete alone with the charming mysteries
of a magician as offered by the literature and
media to children and teen-agers, exactly at
that time when enthusiasm and dreams for
the future should appear. Interviewing gifted
young people, one realizes that what they like
to know is the answer to very deep and often
unanswerable questions, such as the origin
of life and of the universe, the nature of black
holes, the possibility of extra-galactic or time
travels and so on. The mystery attracts gifted
children, especially those having the talent
to become future scientists, and we must be
able to tell them that the fascination of science
is exactly to face a mystery, solving at least
small pieces of it, by means of intelligence and
a devoted, passionate work. Making physics
easy (if it were possible!) is not enough. But we
believe that European initiatives like the ISWA
project can lead to a further step in attracting
young people to the fascination of science.
There are indeed stronger links between the
arts and science than those that are generally
perceived by the public and by scientists and
artists too, because science and the arts are
nowadays generally developed in separated
environments. There are, in fact, only very few
cases in which an artist has any knowledge
or experience in science or that a scientist is
active in artistic fields. This sort of division
between the “scientific” and the “artistic” part
of an individual is very strange if we remember
the figure of the artist-scientist of the past
times and in particular of the Renaissance (for
instance Leonardo da Vinci).
One of the principal reasons why many
people, in particular students, cannot realize
the emotional features that science shares
with the arts is the false impression that in
science there is little room for going beyond
boundaries and rules, while arts, on the
contrary, do not have any kind of limit. Just
looking at the history, including modern
and present times, it immediately appears
that this assumption is wrong: boundaries
and rules play a fundamental role in order to
allow us to base future progress on previous
experience, and exist in both science and
art. This misunderstanding, widely spread
even in scientific environments, is mainly
due to the different languages we employ to
communicate science and the arts. The rhythm
and harmony of a violin playing Bach, Paganini
or Shostakovich give an immediate impression
of immense freedom, completely ignoring the
incredibly long work necessary to prepare the
performance and the complicated, strict rules
which were employed to compose the pieces.
On the other hand, the language employed
in the communication of Physics, consisting
of words and formulae, will mostly show an
enormous intellectual effort which completely
obscures the fascination of discovering and
understanding.
The aim of the ISWA project is to awake
and stimulate the interest of young people
(in particular European secondary-school
students) in approaching science by making
use of both parts of the brain: the rational
one and the emotional one by discovering
that the creative process is a common feature
of both science and art. In order to achieve
this purpose we have preferred cinema and
ballet to theatre in spite of many excellent
existing theatrical pieces concerning sciencerelated stories. Music and visual expressions
dominate in fact both in cinema and dance,
while theatre is based mostly on words and
can then transfer emotions in an indirect
way (i.e. only through the rational part of us).
Moreover, theatre (in this context) is usually
related to the biography of scientists and
reports on discoveries, whereas dance can
express movements, vibration and librations
like those of atoms and molecules, transmitting
emotions directly, which can be related to
the fascinating phenomena occurring in the
world of the infinitely small which is normally
hidden by formulae and specialist language,
as mentioned before. In addition cinema if it
has the ambition of producing pieces of artistic
value (as it is foreseen in the present project),
besides satisfying science popularization
goals, can exploit a much greater freedom as
compared to theatre, choosing creative means
and techniques. and is much more dynamic
than theatre. The project also proposes a kind
of fantasy-literature based on science-like
suggestions like the famous Cosmicomics of
Italo Calvino. We think, in fact, that the process
of reading this kind of story, written in a sort
of poetical way, i.e. using metaphors and
puzzling images, can bring us into a nearly
visible imaginary world, full of emotions,
easily filtering (as if it were a poem) through
the barrier of rational language. Finally, visual
contemporary arts and photography were
vol28 / no5-6 / anno2012 >
47
il nostro
mondo
also considered when inspired by scientific
subjects.
Summarizing: all the following artistic
disciplines were considered to produce
science-inspired works:
1)
2)
3)
4)
5)
Modern dance,
Cinema,
Contemporary Art,
Imaging,
Literature.
The artworks produced are exploited in two
ways:
1) by presenting them at live events and
showcasing them in appropriate venues
addressing both the targeted audience of
high-school students (in the 15-19 years
age range) and the general public,
2) by organizing a competition among EU
high-school students for each of the 5
considered disciplines.
In the case of “modern dance” and “cinema”,
professional artists realized artworks based
on relevant scientific issues, conceived at
the same time by artists and scientists, who
monitored the artistic level of the final result
and its capacity to highlight the creative and
emotional aspects involved in the chosen
scientific or technological subjects.
In discipline 3, the Project organized
exhibitions of contemporary art able to
transmit a science-related message to the
public. Distribution of illustrative brochures
jointly with the active presence of art and
science experts, and furthermore short
“coffee-break conferences” helped the public
to share the emotional content of a natural
science phenomenon that appears to subtend
artistic expression. The physical presence
of scientists in this kind of events provides
an added value: while professional science
communicators know very well how to divulge
knowledge, only scientists actually involved
in research can communicate a real passion
for science. In discipline 4, a wide database of
videos describing the European Synchrotron
Radiation Facility in Grenoble and the research
that is developed there, was made available
for European secondary-school students using
many different media and communication
strategies. Videos were distributed to students,
who worked with this material by selecting
some interesting photograms which were
then manipulated, superimposed, assembled,
partially painted in order to produce “artworks”
to be submitted to the European competition.
In discipline 5, well-known literary works
bearing relationship to science (such as, for
instance, Italo Calvino’s “Cosmicomics”) were
considered as examples to inspire EU students
to produce their own science-related stories.
The artworks related to the disciplines 1-4
produced by professional artists and scientists
were then performed, shot and disseminated
among the European high schools, which
participate in our initiative. Students were
invited to choose one of the artistic disciplines
and conceive and realize an artwork taking as
an example the works realized by the project
consortium. For each discipline (dance, cinema,
etc.) a commission of experts chooses the
seven best works realized by the students.
Videos of these artworks will be presented in
a final event in Grenoble, near the European
Synchrotron Radiation Facility, where the
Fig. 1 From the choreography “On the way to Immortality “ by Jadi Carboni
and Franco Rustichelli (ISWA Project).
48 < il nuovo saggiatore
coordinator will announce the winners of each
discipline.
A project website was realized to facilitate
the transfer of artistic and scientific materials
between the project management and the
schools as well as to promote the project’s
activities.
Summing up, the project is assumed to
evolve in four phases:
1) Preparation of the artworks related to the
disciplines 1-4 by professional scientists
and artists .
2) Live performances and artwork exhibitions
in the different partners cities and
simultaneous live dissemination in the
local schools by the coordinator and a local
scientist of the project and call for student
competition.
3) Preparation of the artwork by the students
participating in the 5 competitions .
4) Evaluation by the 5 committees of the
artwork produced by the students.
At present we are in phase 4.
A leading idea of ISWA was to give a target
of high educational quality in each phase of
the project. The ambitious objective was that
learning, teaching and artistic aspects would
induce all involved actors (artists, scientists,
students and teachers) to confront the
following two points.
i) A creative fusion of art and science can
help to understand science and cultivate
more general intellectual abilities. The
role of art in ISWA is not only to spread
scientific culture. Art is seen as an active
element influencing scientists and their
research directions and as a powerful
Fig. 2 Vanessa Gravina and Franco Rustichelli in the movie “Let’s save
the Professor”, directed by Italo Moscati.
f. rustichelli, m. stefanon: The european project…
List of events delivered until now
Modern dance (see fig. 1)
1) “On the way to Immortality”
Premier Berlin
DOCK 11
3-4/6/2011
Paris
Theatre Adyar
15/6/2011
Moscow
Artovy Zal
21/6/2011
Rome
Teatro Ruskaja
11/7/2011
Ancona
Mole Vanvitelliana
14/7/2011
Prague
New Stage of National Theatre
23/11/2011, 12/12/2011
Vienna
TU Vienna Cupola Hall
12/06/2012
2) “Night in NanoPOLIS show”
Cinema
The 7 movies “Let’s save the Professor” were presented for the first time in Ancona, Italy, in the main hall of the
Engineering Faculty in the presence of the authors, on January 24th, 2012. Figure 2 presents the poster of the event.
Schools, students, professors, Ancona citizen were invited. Around 350 persons were present.
Short movies projections were organized in the following European cities: Šiauliai and Kaunas (SU), Wien (TUW),
Kosice (IMRSAS), Moscow (CBRAS), Uppsala (UU), Zurich (UZH), Ioannina (IOAN), Porto (UMINHO), Paris (SIMPLE),
Warsaw (IPPT), Malta (MT), Prague (CZ).
Contemporary arts
“After the Crash” exhibition
Rome, Museo Orto Botanico
11-18/06/2011
“Before the Crash” exhibition
Exeter Castle
15-20/10/2011
“ART & SCIENCE “ exhibition
Zaragoza, University of Zaragoza
18/10/2011 to 17/11/20122
Contemporary art exhibition “NanoPOLIS”
New Stage of the National Theatre, Prague 1/11/2011 to 4/1/2012
NanoScope Redux
Pardubice
26/05/2012 - September 2012
UTESLA Festival Spring 2011
Pardubice
26/5/2011
UTESLA Festival Fall 2012
Pardubice
13/10/2011
Imaging
Four young artist spent 1 week at ESRF in July 2011.
opportunity for learners and teachers
to involve all rational and emotional
processes to improve the understanding
of scientific concepts. “The arts are not
just affective and expressive. They are also
deeply cognitive. They develop the tools
of thinking itself: careful observation of
the world, mental representation of what
is observed or imagined, abstraction
from complexity, pattern recognition and
development, symbolic and metaphoric
representation, and qualitative judgment.
We use these same thinking tools in
science, philosophy, math and history.
The advantage of the arts is that they link
cognitive growth to social and emotional
development. Students care more deeply
about what they study, they see the links
between subjects and their lives, their
thinking capacities grow, they work more
diligently, and they learn from each other”
[1].
ii) An education based on the relationship
between art and science can foster
complex understanding of scientific
concepts. Students and teachers that
work together to put on a play or a dance
piece will also learn how to cooperate,
sharing ideas, feelings and enthusiasm
as never happens in a normal lesson. The
cooperation involved in scientific-artistic
work can become a model of interactivity
and productive exchanges that can lead
to a fruitful way of communication in the
classroom.
Reference
[1] Nick Rabkin (Executive Director of the
Centre for Arts Policy, Columbia College
Chicago) and Robin Redmond (Associate
director), The Art of Education Success,
Washington Post, January 8, 2005, p. A19.
vol28 / no5-6 / anno2012 >
49
il nostro mondo
Eugenio Coccia
Gran Sasso Science Institute
Centro di Studi Avanzati dell’INFN, L’Aquila
Rendere L’Aquila una delle capitali europee degli studi universitari e
della ricerca. È l’obiettivo con cui la Scuola di dottorato internazionale
Gran Sasso Science Institute (GSSI) è stata istituita dal Governo nello
scorso mese di aprile.
Fisica, Matematica, Informatica, Gestione dell’Innovazione e dello
Sviluppo Territoriale saranno le materie oggetto di insegnamento
superiore e di ricerca.
Il soggetto attivatore della Scuola è l’INFN, in collaborazione con
prestigiosi istituti di istruzione post-universitaria italiani quali la SISSA,
la Scuola Sant’Anna di Pisa e l’IMT di Lucca. Importanti sinergie con
l’Università dell’Aquila e con il mondo produttivo andranno ad arricchire
l’attrattiva culturale della futura città e del suo territorio.
Il GSSI inizierà le sue attività a ottobre 2013, finanziato con fondi
straordinari per un periodo iniziale di 3 anni (fondi per la ricostruzione
e il rilancio dell’economia aquilana e fondi regionali per lo sviluppo e
la coesione). Il finanziamento successivo è subordinato all’esito di una
valutazione da parte dell’ANVUR. A valle di una valutazione positiva,
il GSSI potrebbe assumere carattere di stabilità.
Tra pochi mesi verrà ufficializzata la sede, nel centro storico dell’Aquila,
e sarà online il sito web con tutte le informazioni riguardanti i docenti,
i corsi e le procedure di iscrizione per gli studenti.
1 Storia
Il 3 luglio e il 10 settembre 2009 il Ministero dell’Economia e
delle Finanze (MEF), in collaborazione con l’Organizzazione per la
Cooperazione e lo Sviluppo Economico (OCSE), organizzò due riunioni
per discutere le politiche e le scelte strategiche necessarie a rilanciare,
dopo il terremoto del 6 aprile 2009, l’economia della città dell’Aquila.
Agli incontri parteciparono soggetti istituzionali, imprese, rappresentanti
del mondo produttivo, accademico e della società civile. Vedi il Report
OECD: Spreading the Eagle’s Wings so It May Fly: Relaunching the
Economy of L’Aquila Region, GOV/TDPC/RD(2009)8 http://www.
oecd.org/dataoecd/0/36/43307733.pdf
Oltre alla necessità di garantire la ricostruzione materiale della città
colpita dal sisma, l’evento catastrofico poneva e pone importanti sfide
inerenti il rilancio economico dell’area aquilana. Per rilanciare l’economia
rinforzandone lo sviluppo futuro furono proposti diversi progetti, che
l’OCSE ha provveduto a scrutinare e ordinare per importanza. Il primo,
denominato “The Nest of the Eagle’s Future”, è stato il GSSI. Collocato a L’Aquila e beneficiando della presenza nel territorio dei
Laboratori Nazionali del Gran Sasso dell’Istituto Nazionale di Fisica
Nucleare (INFN) e dell’Università dell’Aquila, il GSSI è stato inizialmente
proposto come centro di insegnamento post-universitario e di ricerca
a livello internazionale nelle scienze di base e poi esteso anche alle
scienze sociali. I modelli ispiratori sono stati la SISSA di Trieste e la Scuola
Normale Superiore di Pisa.
Nello spirito della proposta, la missione del GSSI è duplice: da un lato
rilanciare L’Aquila come città universitaria e come centro di eccellenza
scientifica, capace di attrarre gli studenti migliori da tutto il mondo,
dall’altro creare un ponte tra ricerca accademica e industria.
50 < il nuovo saggiatore
Un argomento decisivo ai fini della positiva valutazione di questo
progetto da parte dell’OCSE è stata la presenza nell’area aquilana
di un centro di ricerca di riconosciuta eccellenza, quale i Laboratori
Nazionali del Gran Sasso. è stato riconosciuto che la spiccata
vocazione internazionale di questi laboratori e, più in generale,
l’esperienza dell’INFN nel trasferimento delle competenze sviluppate
nell’ambito della proprio attività, rappresentino una risorsa in grado di
sviluppare l’intermediazione tra ricerca e impresa con dirette ricadute
sull’imprenditorialità Abruzzese. Naturalmente verranno coinvolte varie
realtà scientifiche di eccellenza dell’Università dell’Aquila.
Un Comitato Ordinatore, istituito dal Ministro dell’istruzione, università
e ricerca (http://www.istruzione.it/web/ministero/
cs090512), ha elaborato il piano strategico delle attività e l’INFN,
recependo le indicazioni della legge, ha creato nel suo statuto una
nuova tipologia di centro nazionale, il Centro Nazionale di Studi
Avanzati, pensato per dare vita alle attività di una scuola di dottorato
internazionale come il Gran Sasso Science Institute.
2 Le attività
Gli strumenti attraverso i quali il GSSI potrà realizzare la sua missione
sono:
a. Corsi di dottorato triennali secondo la vigente normativa italiana,
rivolti a studenti selezionati in possesso di Laurea specialistica.
b. Corsi integrativi rivolti a studenti selezionati iscritti ai corsi di Laurea
Specialistica della Facoltà di Scienze dell’Università dell’Aquila.
c. Sviluppo di progetti di ricerca coinvolgenti docenti, ricercatori e
studenti del GSSI e manager del settore produttivo.
L’attività del GSSI sarà concentrata nelle seguenti tre aree:
1. Fisica
2. Matematica e Informatica
3. Gestione dell’Innovazione e dello sviluppo territoriale
Ogni area ospiterà un organico di docenti e giovani ricercatori a tempo
determinato in parte reclutati tramite bandi internazionali e assunti con
contratti a tempo determinato, in parte provenienti da università e istituti
di ricerca italiani, secondo quanto previsto dalle disposizioni vigenti.
Le aree gestiranno l’attività didattica post laurea (corsi di dottorato)
di giovani laureati selezionati da tutto il mondo. La lingua ufficiale
dell’istituto sarà l’inglese. Ogni area, oltre all’attività didattica, potrà
sviluppare proprie originali attività di ricerca in collaborazione con
l’industria e il settore produttivo in genere.
Come in molte scuole di dottorato, si prevede di avere dei corsi per
gli studenti di dottorato al primo anno e di lasciare che gli alti due anni
siano completamente dedicati al lavoro di ricerca. L’attività didattica del
GSSI sarà basata non soltanto sugli strumenti tradizionali quali lezioni,
seminari, ecc., ma anche sul modello dell’on-the-job-training, che
prevede di instaurare collaborazioni, su specifiche attività, tra studenti
e ricercatori da un lato, e manager e staff di aziende pubbliche e private
dall’altro.
Circa 35-40 nuovi studenti di dottorato potranno iscriversi ogni anno,
con un centinaio di studenti totali a regime sui tre anni. Gli studenti
di dottorato saranno inquadrati secondo l’attuale normativa italiana,
riceveranno una borsa di studio di dottorato ed avranno accesso gratuito
alle infrastrutture di housing dell’Istituto. Al termine del percorso di studi
triennale il GSSI rilascerà il titolo di Dottore di Ricerca secondo la vigente
normativa italiana, tramite gli istituti di istruzione superiore coinvolti
dall’INFN.
Oltre agli studenti di dottorato, il GSSI potrebbe ospitare anche un
selezionato numero di studenti della Laurea Specialistica dell’Università
dell’Aquila, organizzando attività didattiche integrative ai programmi dei
locali corsi universitari.
Le attività di ogni area punteranno a raggiungere livelli di qualità
confrontabili con quelli delle maggiori scuole dottorali internazionali.
Le attività di ricerca terranno conto delle strutture specialistiche già
esistenti nel territorio. I progetti dovranno esaltare l’attrattività del
territorio per risorse esterne, sviluppando in particolare quei progetti
e quelle attività che vedono a L’Aquila e nel suo territorio possibilità
uniche di sviluppo.
Tra le istituzioni da coinvolgere nell’attività del GSSI, con cui attuare
delle convenzioni per il rilascio congiunto del titolo di PhD, ci sono
gli istituti di alta formazione scientifica a livello dottorale, di carattere
internazionale, situati in Italia: la SISSA di Trieste, la Scuola Normale
Superiore di Pisa, la Scuola Sant’Anna di Pisa, l’IMT di Lucca. In particolare
sono in corso di formulazione accordi con la SISSA per il rilascio dei titoli
di PhD in Fisica e in Matematica, con l’IMT di Lucca per l’Informatica
e con la Scuola Sant’Anna di Pisa per il Gestione dell’Innovazione
e dello sviluppo territoriale. Il coinvolgimento di altre prestigiose
istituzione straniere è un importante obiettivo del GSSI per instaurare
collaborazioni su specifiche attività didattiche e di ricerca.
3 L’ area fisica
L’attività del GSSI nell’area fisica non potrà prescindere
dall’opportunità unica offerta dalla prossimità dei Laboratori del Gran
Sasso dell’INFN, la più grande infrastruttura sotterranea del mondo
dedicata alla ricerca scientifica. Il laboratorio è andato rafforzando
negli anni il ruolo di centro di eccellenza per la fisica delle particelle di
origine cosmica, o fisica astroparticellare, e costituisce un attrattore a
livello internazionale per un migliaio di ricercatori provenienti da 26
paesi diversi. La sua attività comprende linee di ricerca quali lo studio
dei neutrini (natura, massa, oscillazioni) utilizzando sorgenti naturali,
quali il Sole e la Terra, e neutrini generati da acceleratori di particelle o
da decadimenti rari della materia; la rivelazione diretta di materia oscura;
l’astrofisica nucleare; lo studio della radioattività naturale, sia di origine
cosmica che di origine terrestre.
La fisica astroparticellare costituisce un settore in grande espansione,
al confine tra la fisica delle particelle elementari, l’astrofisica e la
cosmologia. Oltre che nei laboratori sotterranei, queste ricerche
sono condotte in altre infrastrutture internazionali, alcune delle quali
situate in Italia. oppure vengono svolte tramite missioni spaziali
che vedono il nostro Paese protagonista sia a livello scientifico che a
livello tecnologico. Fanno parte del primo caso la ricerca delle onde
gravitazionali, svolta all’European Gravitational Observatory presso
Pisa, e la ricerca di neutrini cosmici di alta energia, presso l’osservatorio
sottomarino in corso di sviluppo in Sicilia. Nel caso dello spazio, vanno
citate in particolare le ricerche di antimateria nell’Universo e lo studio
della radiazione di alta energia da sorgenti astrofisiche violente.
Le attività sperimentali qui menzionate devono la loro eccellenza
anche allo sviluppo di strumentazione innovativa e all’impiego di
materiali e dispositivi speciali. Esse si svolgono in ambienti estremi (dalle
profondità marine e terrestri allo spazio) e sono caratterizzate da un alto
grado di interdisciplinarietà e da importanti relazioni con aziende ad alto
contenuto tecnologico. Tutto ciò permette di prefigurare nel GSSI, oltre
ad un curriculum astroparticellare, anche un percorso formativo di fisica
applicata, in sinergia con le competenze accademiche e professionali
esistenti nel territorio. Inoltre le opportunità offerte dalla collocazione
sotterranea dei laboratori del Gran Sasso e le competenze riguardo allo
studio della radioattività ambientale e alle tecnologie spaziali aprono la
strada a naturali sinergie anche con la fisica ambientale, la geofisica e la
climatologia.
Il GSSI può diventare un riferimento internazionale per la formazione
dei giovani ricercatori in questi diversi campi della fisica.
4 Le altre Aree
La seconda area si occuperà di Matematica e Informatica,
giocando per molti versi un ruolo centrale in questo nuovo Istituto. Il
collegamento con l’area fisica ha una tradizione consolidata e rinnovata
oggi dai nuovi metodi computazionali e domini applicativi.
Negli ultimi decenni gli sviluppi dell’ingegneria nei settori delle
telecomunicazioni, dei nuovi materiali, della progettazione strutturale,
della meccanica, dell’analisi e del controllo dei processi, hanno stimolato
lo studio di importantissime questioni matematiche.
D’altro canto il futuro pone enormi sfide per la progettazione, la
gestione e l’utilizzo dei sistemi informatici. Le visioni di Internet of
things, dei cyber physical systems, dei systems of systems sono tutte
declinazioni dello stesso paradigma fisico-virtuale, il cui sviluppo
richiede conoscenze specialistiche multidisciplinari che si fondino su una
solida conoscenza degli strumenti di modellizzazione ed analisi forniti
dalle materie di base matematiche e fisiche.
Un filo che lega tutte le aree è lo studio della complessità. Questo
filo collega in particolare l’area della Matematica e della Computer
Science alla terza area della Gestione dell’Innovazione e dello Sviluppo
Territoriale, in altri termini alle Scienze Sociali.
La conoscenza scientifica generata da attività di ricerca da un lato,
l’insieme complesso dei bisogni emergenti e delle sfide sociali che
caratterizzano il territorio dall’altro, sono i punti di partenza per l’attività
di studio e ricerca della terza area.
In particolare, un dato emerge dagli studi recenti: la scala
metropolitana è il luogo di innovazione del futuro. Al centro della
sfida vi è la costruzione di un nuovo genere di bene comune, una
grande infrastruttura tecnologica ed immateriale che faccia dialogare
persone ed oggetti, integrando informazioni e generando intelligenza,
producendo inclusione e migliorando il vivere quotidiano. Le grandi
sfide sociali ed i grandi living labs ad esse connessi rappresentano
grandi opportunità di rilancio e di crescita per alcuni importanti settori
dell’industria nazionale e del sistema della ricerca.
Alcuni progetti che il GSSI potrebbe sviluppare in un contesto
interdisciplinare, e che corrispondono a riconosciute priorità strategiche
nel nostro Paese e in Europa, sono:
Smart Cities and Communities. L’Aquila sarà nei prossimi anni al
centro di ristrutturazioni e nuove realizzazioni infrastrutturali che
richiederanno progetti di architettura, urbanistica, ICT, inclusione sociale,
etc., costituendo una sorta di laboratorio a cielo aperto per soluzioni
innovative. Il GSSI può diventare un attrattore decisivo di competenze e
risorse a livello internazionale.
Cultural Heritage. L’Aquila è considerata una delle più importanti
città d’arte d’Italia. Tecnologie innovative per l’analisi, il monitoraggio
e la conservazione dei beni culturali, provenienti in particolare dalla
fisica, sono state recentemente sviluppate. Il GSSI può costituire
quell’alveo interdisciplinare per fare dell’Aquila una dei centri mondiali
di formazione e ricerca su questa tematica.
Risk Assesment and Disaster Recovery. L’Aquila deve rilanciare la
propria economia dopo un evento catastrofico e ricostruire un centro
storico in sicurezza rispetto a futuri eventi. L’Organizzazione per la
Cooperazione e lo Sviluppo Economico (OCSE) ha individuato da tempo
il Disaster Recovery come un importante tema di ricerca di impatto
globale. Inoltre, l’OCSE ha giocato nel territorio aquilano un ruolo
importante nella selezione di progetti per il rilancio dell’economia da
raccomandare alle autorità locali e nazionali (il GSSI ne è un esempio).
Il GSSI potrebbe proporsi, in stretta collaborazione con l’OCSE, come
centro di studi internazionale su questo tema.
vol28 / no5-6 / anno2012 >
51
Il nostro mondo
LA FISICA DEGLI ACCELERATORI IN ITALIA
Luigi Palumbo
Università di Roma “La Sapienza” e INFN, Sezione di Roma 1, Roma, Italia
“Misura ciò che è misurabile e rendi misurabile ciò che non lo è”
G. Galilei*
“Nothing tends so much to the advancement of knowledge as the application
of a new instrument “
Sir Humphrey Davy**
Gli acceleratori di particelle sono senza
dubbio gli strumenti che maggiormente
hanno contribuito all’avanzamento della
conoscenza nel XX secolo. Partendo dai
primi tubi a raggi catodici nel 1890, essi
hanno visto una straordinaria evoluzione
come strumentazione scientifica. Dal primo
ciclotrone costruito a Berkeley nel 1930 da
Ernest Lawrence dalle dimensioni di alcuni
centimetri di diametro all’acceleratore di
particelle più potente di oggi, il Large Hadron
Collider (LHC) del CERN lungo 27 chilometri,
sono state costruite macchine sempre più
potenti, precise e innovative in grado di far
progredire il sapere scientifico. Oggi, oltre
al loro ruolo nella ricerca scientifica, fasci
di particelle sono utilizzati in settori che
vanno dalla diagnosi e cura delle malattie ai
processi industriali, e nel futuro opportunità
ancora maggiori saranno possibili nella cura
del cancro, nello sviluppo di nuovi materiali,
nel campo dell’energia nucleare sicura, nel
trattamento dell’aria e dell’acqua [1].
La storia dello sviluppo degli acceleratori
vede la comunità scientifica italiana
protagonista sin dal 1953, quando l’INFN
decise di realizzare a Frascati (nell’allora
laboratorio del CNEN) l’Elettro Sincrotrone, un
acceleratore circolare di elettroni in grado di
raggiungere un’energia massima di 1.1 miliardi
di elettronvolt che andò in funzione nel
1959. Due anni dopo, nel 1961, la costruzione
dell’Anello di Accumulazione AdA aprì la
* Citazione attribuita a Galileo Galilei.
** Sir Humphrey Davy in “Elements of Chemical
Philosophy”, 1812.
52 < il nuovo saggiatore
strada all’era dei collisori elettrone-positrone.
La realizzazione di queste macchine diede il
via alla nascita in Italia di una scuola di fisica
degli acceleratori che continua a gemmare
nuove generazioni pronte ad affrontare le sfide
scientifiche e tecnologiche del futuro.
1 La comunità italiana di fisica e
tecnologia degli acceleratori
La comunità italiana che opera nel settore
è composta da circa 220 tra fisici e ingegneri
distribuiti tra l’INFN, il Sincrotrone Trieste, il
Centro CNAO, l’ENEA e le Università. Si occupa
di progettazione, realizzazione, e gestione di
macchine acceleratrici per la fisica nucleare, per
la fisica della materia, per ricerche biologiche,
per la terapia medica, per l’archeometria,
nonché per lo sviluppo di tecniche nucleari per
l’energia.
Circa 130 fisici di macchina operano
nell’INFN, prevalentemente presso i Laboratori
Nazionali di Frascati (LNF), di Legnaro (LNL) e di
Catania (LNS).
La realizzazione di AdA ai LNF negli anni
’60 diede impulso alla fisica dei fasci negli
anelli di accumulazione che si affermò con i
successivi sviluppi di ADONE, negli anni ’70,
e di DAFNE alla fine degli anni ’90. A Frascati
furono scoperti e studiati gli effetti d’instabilità
dei fasci che limitano la corrente accumulata e
la luminosità nelle collisioni. Gli studi effettuati
su AdA e ADONE hanno contribuito alla
realizzazione dei collisori basati su anelli di
accumulazione in tutto il mondo. Ai LNF furono
realizzate le prime linee di luce di sincrotrone in
Italia (su Adone), e in tempi più recenti è stato
costruito il primo Free Electron Laser su Linac
(SPARC). Oggi ai LNF si sperimentano sorgenti
di radiazione basate su effetto Compton e
nuove tecniche di accelerazione da interazione
Laser Plasma. DAFNE continua a essere una
palestra per la sperimentazione di nuove
idee come il “crab waist” per incrementare
la luminosità dei collisori. Il gruppo di fisici e
ingegneri di Frascati collabora attivamente ai
progetti internazionali come LHC-upgrade,
CLIC, ILC (International Linear Collider), ELI
(Extreme Light Infrastructure), EuroFEL ed ha
fornito un notevole supporto alla realizzazione
del CNAO (Centro Nazionale di Adroterapia
Oncologica).
A Legnaro le ricerche di fisica nucleare
furono avviate nel 1961 quando entrò
in funzione il primo acceleratore
“Van de Graaff - CN“. Era lo strumento più
sofisticato del suo genere disponibile allora
in Italia. Nel 1968 i laboratori passarono alla
gestione dell’INFN e nel tempo i Laboratori
Nazionali di Legnaro si sono affermati come
un centro di eccellenza nella fisica nucleare
con ben quattro acceleratori: Tandem-XTU,
ALPI, AN2000, CN. Fisici e ingegneri
hanno sviluppato tecniche innovative
nella produzione di strutture acceleranti
superconduttive e nella realizzazione dei
quadrupoli a radiofrequenza “RFQ”. Essi
hanno inoltre contribuito allo sviluppo di
Acceleratori Lineari di Protoni ad alta intensità
per la trasmutazione delle scorie radioattive
(TRASCO) e partecipano attivamente ai
progetti europei EURISOLe ENSAR, dedicati
alla ricerca in fisica e astrofisica nucleare
e alle applicazioni della “nuclear science”.
Inoltre i laboratori partecipano al programma
internazionale IFMIF-EVEDA, “test facility” per lo
studio dei materiali nei reattori a fusione.
I Laboratori Nazionali del Sud (LNS), istituiti
nel 1976, costituiscono un polo avanzato di
sviluppo di tecnologie e strumentazione.
Le attività di ricerca sono prevalentemente
Fig. 2 Numero di ricercatori di Fisica e Tecnologia
degli Acceleratori in Europa.
Fig. 1 Localizzazione dei Laboratori Nazionali e delle
Sezioni dell’INFN.
orientate allo studio della struttura e delle
proprietà dei nuclei. Sono dotati di due
acceleratori di particelle: un Tandem Van
de Graaff e un Ciclotrone Superconduttore
realizzato con la collaborazione del Laboratorio
LASA di Milano. Ai LNS sono state sviluppate
le sorgenti di ioni da plasma tipo ECR utilizzate
come iniettori del Ciclotrone. è stato il
primo laboratorio italiano a realizzare una
linea di terapia medica con fasci di protoni/
ioni dedicata al trattamento del melanoma
dell’occhio. I LNS partecipano ai progetti
europei ESS (European Spallation Source) e a
ELI (Extreme Light Infrastructure) con la linea di
ricerca ELI-MED.
Gruppi di Fisica e Tecnologia degli
acceleratori sono presenti presso il Laboratorio
LASA di Milano (dove è stato costruito il primo
ciclotrone superconduttore italiano) e presso
le Sezioni di Milano, Padova, Genova, Pisa,
Ferrara, Roma, Napoli, Bari, Catania. Presso
la Sezione INFN di Firenze è stato realizzato
il laboratorio LABEC dedicato alle tecniche
nucleari per i beni culturali.
Forte dell’attività pioneristica e
dell’esperienza sviluppata presso i LNF con
Adone, in Italia è cresciuta rapidamente una
comunità di utenti di luce di sincrotrone che
ha stimolato la nascita di un centro dedicato.
Il sincrotrone ELETTRA a Trieste è stato
realizzato negli anni ’90 diventando un centro
di eccellenza nella sperimentazione con i fasci
di radiazione di sincrotrone. Sul sincrotrone
è stato installato ed è funzionante uno dei
primi Laser a Elettroni Liberi su anello di
accumulazione (EUFELE) e nel 2011 è andato
in funzione FERMI, sorgente FEL di radiazione
X generata da fasci di elettroni. Il gruppo di
Trieste con circa 50 unità è numericamente la
seconda comunità in Italia. Oltre allo sviluppo e
alla gestione delle sorgenti di radiazione, ST si
coordina con INFN e CNR nella partecipazione
a numerosi programmi europei, X-FEL, ESS,
ELI, EuroFEL.
L’avvio nel 2011 dell’attività clinica del
Centro Nazionale di Adroterapia Oncologica
(CNAO) rappresenta senza dubbio un
successo della comunità scientifica italiana
che ha promosso e realizzato a Pavia un
importante centro per la cura dei tumori.
L’iniziativa ha coagulato gli sforzi di medici
e di esperti di macchine acceleratrici i quali
hanno progettato costruito e messo in
funzione il sincrotrone per protoni, ioni di
carbonio, e altri ioni leggeri come il litio.
Si concentra oggi a Pavia il maggior numero
di esperti (circa 30 tra fisici e ingegneri) di
fisica dei fasci adronici dedicati alla cura dei
tumori.
Una tradizionale e rilevante attività nel
campo della fisica degli acceleratori si svolge
presso l’ENEA di Frascati dove, a seguito dello
scioglimento del CNEN, approdarono alcuni
dei fisici degli acceleratori di Frascati. Oggi
i ricercatori si occupano principalmente di
Laser a Elettroni Liberi (FEL), contribuendo
ai progetti EUFELE e FERMI, e SPARC, di
sorgenti THz, e di componenti innovativi di
acceleratori lineari per applicazioni medicali
per il progetto TOP (Terapia Oncologica con
Protoni).
Vivace per idee e iniziative è l’attività
dei gruppi di ricerca presso le Università:
Milano, Padova, Bologna, Genova, Pisa, Roma,
Napoli, Lecce, Bari, Catania, i quali svolgono
un ruolo di primo piano nella ricerca e nella
formazione. L’Università di Napoli sin dal 1977
ha allestito il Laboratorio Acceleratore con il
primo TANDEM dove si svolgono esperimenti
di fisica atomica, nucleare, biofisica,
datazione e archeometria, spettrometria di
massa ultrasensibile, astrofisica, dosimetria e
radioprotezione. L’Università del Salento ha
realizzato negli anni 2000 il CEDAD, primo
centro italiano per la ricerca e il servizio
datazione con il radiocarbonio mediante
Spettrometria di Massa con Acceleratore (AMS).
Sono in funzione i laboratori TANDETRON,
CLAMS e OPTLAB nei quali si sviluppano
tecniche nucleari, chimiche e ottiche per
applicazioni in Archeometria, Biologia,
Ingegneria, Scienze Ambientali, Geologia,
Scienza dei Materiali, Fisica.
Va inoltre ricordato che nei 165 centri
di radioterapia italiani sono installati 346
acceleratori lineari, alcuni dei quali molto
sofisticati. Anche nell’industria vi sono
numerosi acceleratori soprattutto impiegati
nei controlli non distruttivi (radiografia) e nella
sterilizzazione di alimenti. In ultimo è crescente
il numero di ciclotroni per la produzione di
isotopi (una ventina), soprattutto per i centri
PET che sono oramai diffusi in tutte le regioni
italiane.
La comunità, distribuita su tutto il territorio
nazionale (fig.1), possiede uno straordinario
patrimonio di competenze, è impegnata
a sviluppare strumentazione di ricerca
avanzata e collabora con ruoli primari alle
maggiori iniziative Europee. Un quadro meno
soddisfacente emerge da una recente indagine
riguardante la diffusione della Fisica degli
Acceleratori in Europa [2], in cui risulta che il
numero di ricercatori italiani è pari a circa un
terzo dei ricercatori in Francia e Germania (con
circa 600 unità), due terzi rispetto alla gran
Bretagna ed è di poco superiore a paesi con
una minore tradizione come la Polonia e la
Spagna. La presenza del CERN in Svizzera rende
il dato elvetico non confrontabile (fig. 2).
vol28 / no5-6 / anno2012 >
53
Fig. 3 Diffusione dell’insegnamento della Fisica degli
Acceleratori nelle Università.
2 La formazione universitaria e
post-doc
Lo sviluppo della teoria e delle simulazioni
di “beam physics”, la sperimentazione di
nuove tecnologie, sono attività basilari nella
formazione di giovani ricercatori presso le
università e i centri di ricerca. L’insegnamento
della Fisica degli Acceleratori ha visto nel tempo
una progressiva diffusione nelle università
italiane ma solo in casi rari esso è incluso
tra i corsi curriculari. Complessivamente si
individuano circa 16 corsi nelle varie sedi
universitarie (fig. 3):
• 1 corso per la Laurea Triennale in Fisica (Catania);
• 9 corsi per le Lauree Magistrali in Fisica e Ingegneria (Catania, Napoli, Roma 3, Pisa, Padova, Milano, Genova);
• 1 corso per la Scuola di Specializzazione (Catania)
• 5 corsi per i Dottorati in Fisica e Ingegneria (Catania, Roma 2, Pisa, Pavia);
Particolare rilievo assume la recente
attivazione di un corso di dottorato in “Fisica
degli Acceleratori “ a La Sapienza di Roma, con 6
borse finanziate dall’INFN.
Vale la pena menzionare che docenti italiani
insegnano nelle più prestigiose scuole di
acceleratori internazionali:
• JUAS - Joint Universities Accelerator School,
• CAS (CERN Accelerator School),
• Euroschool on Exotic Ion Beams,
• Helmoltz HGS-HIRe Lecture Week on Accelerator Physics,
• USPAS (US Particle Accelerator School),
• JAS (Joint US-CERN-JAPAN-RUSSIAN
Accelerator School).
54 < il nuovo saggiatore
Il numero complessivo di studenti italiani
che annualmente frequenta un corso di
Fisica degli Acceleratori nei corsi di laurea,
di dottorato e di post-doc, si aggira in
media intorno alle 70 unità, insufficienti
a soddisfare le esigenze di sviluppo di un
paese come l’Italia che ambisce a mantenere
un ruolo di avanguardia nel settore e a
dotarsi di nuove infrastrutture di ricerca.
L’esiguità dell’investimento complessivo
nella formazione risulta ancora più evidente
se raffrontato con il livello degli altri paesi
europei, misurato in unità/milione di abitanti.
Una recente indagine [2] rileva per l’Italia
un valore di circa 1,5 unità/milione e si
riscontra, con non poca sorpresa, che oltre a
Francia, Germania, Gran Bretagna e Spagna,
vi è una maggior livello di formazione “pro
capite” anche in Svezia, Norvegia, Finlandia e
Danimarca, paesi che non hanno la tradizione
italiana né un ampio parco di infrastrutture di
ricerca con acceleratori (fig. 4).
3 Futuro della Fisica degli Acceleratori
Le sfide del futuro sono già all’orizzonte, e
il lavoro dei ricercatori italiani ha già preso il
suo cammino. Per la fisica delle alte energie,
in particolare per i collisori, si studiano nuove
tecniche per accelerare fasci di particelle
in dispositivi a elevatissimo gradiente. In
molti laboratori sono in fase di allestimento
esperimenti di accelerazione a plasma
(“Laser Plasma Wakefields Accelerators”),
volti a dimostrare la fattibilità di moduli di
accelerazione in cascata, affidabili e in grado
di produrre fasci di particelle di elevata
qualità (energia, carica, dimensioni trasverse
e longitudinali). Nella fisica nucleare sta
emergendo la “photonuclear physics” con lo
sviluppo di sorgenti “gamma”, e lo studio di
collisori fotone-fotone.
La ricerca con la luce di sincrotrone si avvia
a investigare fenomeni ultraveloci, e richiede
sorgenti di radiazione capaci di produrre
una radiazione ultrabrillante con durata
degli impulsi dell’ordine dei femtosecondi o
attosecondi.
Nel campo medico la tecnologia della
terapia con fasci di particelle protoni/ioni
è in rapida evoluzione, e maggiori risultati
si attendono nei prossimi anni. Tecniche di
generazione di protoni basate su interazione
Laser a elevata potenza producono fasci di
protoni e ioni con energie di decine di MeV
e possono offrire nel prossimo futuro sorgenti
compatte per la terapia medica.
Sorgenti compatte monocromatiche di
raggi x e sorgenti di raggi gamma basate su
effetto Compton della luce laser con un fascio
di elettroni ad alta qualità consentiranno di
realizzare strumentazione di “imaging” ad alta
risoluzione.
Una sfida fondamentale, infine, riguarda
la riduzione della radiotossicità e del tempo
di decadimento del combustibile nucleare
esaurito. La trasmutazione controllata con
acceleratori di particelle in combinazione
con lo smaltimento geologico può portare
a una soluzione socialmente accettabile al
problema della gestione delle scorie. Inoltre, si
discute della possibilità di utilizzare fasci di ioni
accelerati per il riscaldamento del plasma nei
reattori per la fusione nucleare a confinamento
magnetico.
L. Palumbo: La fisica degli acceleratori in Italia
Fig. 4 Futuro della Fisica degli Acceleratori.
4 Prospettive della comunità di “fisica e tecnologia” degli
acceleratori
In Europa e negli USA le comunità dei Fisici di Acceleratori hanno
costituito l’Accelerator Group [3] affiliato alla European Physical Society,
e il Beam Physics Group [4] affiliato all’American Physical Society.
Organizzazioni nazionali sono nate in Francia [5], Gran Bretagna
[6], Giappone [7] e la comunità è molto attiva in Germania. La comunità
italiana ha recentemente avviato iniziative che mirano alla costituzione
di un coordinamento nazionale con lo scopo di:
• promuovere lo sviluppo della fisica dei fasci di particelle;
• promuovere le applicazioni nel campo della fisica nucleare e subnucleare, nelle sorgenti di fotoni (luce sincrotrone, sorgenti Compton, FEL etc.), nelle applicazioni medicali, industriali, beni culturali;
• incoraggiare una maggior diffusione e pubblicazione di articoli su riviste, trovando adeguati spazi agli sviluppi tecnologici;
• promuovere l’insegnamento della Fisica degli Acceleratori nelle università;
• sostenere l’avanzamento di carriera dei ricercatori presso gli enti di ricerca e università.
L’esperienza della valutazione dei prodotti di ricerca (VQR) e il recente
bando per le abilitazioni nazionali nel ruolo di professori universitari
hanno messo in evidenza criticità del settore sotto vari aspetti:
• Inadeguatezza delle banche dati ISI-WEB e SCOPUS per il calcolo dei parametri bibliometrici relativi al settore della Fisica degli Acceleratori;
• Consuetudine a pubblicare i lavori scientifici prevalentemente sui “proceedings” delle Conferenze Internazionali, come la IPAC (International Particle Acceleratori Conference);
• Rischio di limitate opportunità di carriera e accesso ai fondi per la ricerca.
5 Conclusioni
La straordinaria tradizione della Fisica degli Acceleratori in Italia
continua e i ricercatori italiani contribuiscono con nuove idee,
sviluppano nuove tecnologie e realizzano nuove macchine. Una
comunità di circa 220 ricercatori è coinvolta nei progetti di punta in
Italia e all’estero ed è impegnata nella formazione delle nuove leve.
La scarsa presenza di corsi curriculari presso le università italiane è un
limite alla diffusione della cultura degli acceleratori e rappresenta un
punto di debolezza rispetto agli altri paesi europei. Inoltre, le criticità
causate da inadeguate metodologie di valutazione della ricerca rischiano
di limitare l’accesso ai finanziamenti e la progressione di carriera dei
ricercatori, determinando nel tempo una minore attrattività per le
nuove generazioni. La comunità italiana ha avviato la costituzione di
un coordinamento nazionale che intende collaborare e contribuire alle
attività della SIF.
Ringraziamenti
L’autore ringrazia i colleghi: Caterina Biscari, Giovanni Bisoffi,
Marco Bozzo, Luciano Calabretta, Lucio Calcagnile, Luigi Campajola,
Luciano Catani, Franco Cervelli, Alessandro Cianchi, Giacomo Cuttone,
Gerardo D’Auria, Alessandro Fabris, Graziano Fortuna, Francesca Galluccio,
Santo Gammino, Andrea Ghigo, Giovanni Gigante, Susanna Guiducci,
Iaia Masullo, Renzo Parodi, Paolo Pierini, Luca Serafini, Michele Svandrlik,
Giorgio Turchetti, Vittorio Vaccaro, Alessandro Variola, per il loro aiuto
nella raccolta delle informazioni e dei dati presentati in modo sintetico,
e sicuramente non esaustivo, nel presente articolo.
Bibliografia
[1] Walter Henning, Charles Shank “ Accelerators for America”
(US Department of Energy) June 2010.
[2] F. Kircher et al., Education and Training Survey Report, April 2012.
[3] http://epac.web.cern.ch/EPAC/EPS-AG/Welcome.html
[4] http://www.aps.org/units/dpb/index.cfm
[5] http://www.sfpnet.fr/index.php?page=divisions
[6] http://www.iop.org/activity/groups/subject/pab/
index.html
[7] http://www.jps.or.jp/english/concept.html
vol28 / no5-6 / anno2012 >
55
il nostro mondo
Antefatti. [vedi: N. Robotti “I fisici
e il Risorgimento” XCVII Congresso
Nazionale della Società Italiana di
Fisica. L’Aquila, 2011. http://www.
sif.it/attivita/congresso/
xcvii/conferenza .
1839-1847. Riunioni annuali degli
Scienziati Italiani in sede circolante nei
diversi Stati
1841. Progetto di un “nuovo corso di
studi di Fisica” affiancato da un testo
comune, condivisibile da tutti i fisici
italiani
1843-1847. Si pubblica “Il Cimento”.
1845 Definizione di un sistema di unità
di pesi e misure uniforme per tutti gli
Stati Italiani
28 Luglio 1861. Legge n. 132 “Sui pesi
e sulle misure”: “I pesi e le misure legali
nel Regno d’Italia sono unicamente
quelli del sistema metrico decimale, le
cui unità sono le seguenti: […]”
L’archivio storico de Il Nuovo
Cimento è disponibile per i Soci
all’url: http://members.sif.it
IL NUOVO CIMENTO 150, 100, 50 ANNI FA
150 anni fa
Il Regno d’Italia ha un anno. Il Nuovo Cimento (successore de “Il Cimento”) da sette anni raccoglie le pubblicazioni di
ricercatori da tutta l’Italia. La Società Italiana di Fisica non è ancora nata.
I gabinetti di Fisica non fanno solo ricerca pura, ma anche utili applicazioni.
Da “Di alcune maniere di applicare l’elettricità ad una persona isolata, con avvertenze circa l’uso della bottiglia di
Leida, nello scuotere le persone e relazioni di cure eseguite coll’elettricità somministrata dalla macchina elettrica”
di S. Mariannini, Il Nuovo Cimento 15 (1862) 169.
È noto ai cultori della scienza elettrica che mentre una persona trovasi sullo sgabello isolante e comunica
mediante una striscia metallica col conduttore principale d’una macchina elettrica in azione, può essere
elettrizzata in parecchi altri modi. Credo bene di accennarne alcuni in questa Memoria ad istruzione di chi,
non essendo dell’arte trovasi nel caso di potere amministrare l’elettricità ad un ammalato, al quale sia stato
prescritto questo rimedio […]
I1 Sacerdote, sig. D. Bardoni Parroco di una villa era da molto tempo travagliato da pertinace malinconia che
tenevalo ben spesso mesto, taciturno e piangente; e senza che ne apparisse veruna cagione, né a lui né ad altri.
Nella state del 1853 egli venne un giorno nel Gabinetto fisico di questa Università, non so se per consiglio
d’altri o suo proprio, per farsi elettrizzare. Visto in lui un soggetto di buon colore, ben nutrito, vantaggiato
della persona, e, per quanto appariva, sano robusto e forte, cominciai ad elettrizzarlo a bagno e, mentre stava
sullo sgabello isolante, io traeva molto scintille, da principio corte, poscia lunghe dai cinque ai dieci centimetri
dalle braccia, dalle spalle, e più dalla schiena lungo la spina dorsale dell’individuo […] La seduta durò un’ora e
mezzo e il sig. D. Bardoni partì ben contento del rimedio adoperato. Io non lo vidi più; ma dopo otto mesi mi ha
fatto sapere che da quel giorno egli si trovò guarito e stava benissimo.
100 anni fa
La Società Italiana di Fisica ha quindici anni.
Da “Sulla scarica a scintilla in un gas rarefatto e sulla sua trasformazione in fascio di raggi magnetici” del
Prof. Sen. A. Righi, Il Nuovo Cimento, 26 (1912) 159.
Non occorre descrivere minutamente la macchina elettrica. Mi basta dire che è una Holtz a quattro dischi, di
cui i due mobili sono messi in rotazione da un motore elettrico. Essa fornisce una corrente assai più intensa di
quella che sogliono dare macchine di uguali dimensioni, e questo in ragione della notevole velocità angolare dei
dischi giranti, che fanno circa 12 giri al secondo. Nel caso attuale non sarebbe indispensabile una tale rapidità
d’azione; è però utile perché, naturalmente, le scariche risultano assai più frequenti.
Il condensatore, caricato dalla macchina e le cui scariche vengono utilizzate è quello altra volta descritto,
formato con 108 grandissime bottiglie di Leyda riunite in 6 batterie di 18 bottiglie ciascuna. La disposizione
dell’apparecchio è tale che con facilità si possono avere sei batterie in serie (o cascata) ognuna con 1 a 18
bottiglie oppure due batterie di 54 bottiglie poste in cascata, oppure infine le 108 bottiglie in batteria unica.
È così possibile variare la capacità entro estesi limiti, e cioè da circa 1000 unità elettrostatiche sino a 680 000
unità.
50 anni fa
La fisica italiana è matura. Il Nuovo Cimento è una delle principali riviste di fisica mondiali.
Le teorie relativistiche di campo sono in crisi. Si studiano le proprietà analitiche della matrice di scattering e si
sviluppano modelli fenomenologici nel suo ambito. Grande importanza avrà il modello multiperiferico.
Da “Theory of high-energy scattering and multiple production” di D. Amati, S. Fubini, A. Stanghellini,
Il Nuovo Cimento, 26 (1962) 896.
a cura di Alessandro Bettini
56 < il nuovo saggiatore
[…] We shall discuss in this paper a theoretical model for study of high-energy collisions (above the GeV
region). The experimental information in this field − provided by big accelerators and − for even higher
energies, by cosmic rays − is rich and many features are rather independent of the nature of the colliding
particles (we restrict the discussion to strong interactions). Let us point out some characteristic behaviours:
a) total cross-sections seem to be energy-independent or, at least, to vary slowly with it;
b) multiplicities of secondaries increase slowly with the energy;
c) the major part of secondaries are pions (K-mesons, hyperons and antibaryons are in small number compared
with pions);
d) the mean transverse momenta of secondaries seem to be small (~ 300 MeV) and rather energy-independent;
e) the only important diffractive channel is the elastic one: the shape of the diffraction peak depends weakly on
the energy. It shows perhaps a slight shrinking at increasing energies.
[…] The multiperiferal model. The basic idea of the peripheral model is that the one-pion exchange amplitudes
dominate the high-energy processes.
[…] Therefore any subdivision of an amplitude, using the one-pion exchange for it, degrades the energy of each
group of particles in the final state, repeating the same procedure for all the high-energy amplitudes, we shall
arrive at a situation in which we have a chain of low-energy amplitudes linked by virtual pions, as shown in
Fig. 2.
News
The Italian Physical Society
“Enrico Fermi” Prize and Medal 2012
The “Enrico Fermi” prize of the Italian Physical Society has been awarded starting from 2001,
to commemorate the great scientist on the occasion of the centenary of his birth. The prize and
medal are yearly awarded to Members of the Society who particularly honoured physics with their
discoveries. A commission made of experts appointed by SIF, CNR, INAF, INFN, INGV and Centro
Fermi selected the winners in a list of candidates proposed by the community. The proposal was
submitted to the Council of the SIF for final approval.
The Enrico Fermi Prize and Medal has been awarded for 2012 for condensed matter physics to
Roberto Car of the Princeton University and Michele Parrinello of the Eidgenössische Technische
Hochschule (ETH) of Zürich, “for the discovery of a Molecular Dynamics method known the
world over as the Car-Parrinello method. This method has been a breakthrough in the field of
numerical simulations, with great impact in many interdisciplinary contexts both theoretical and
experimental, ranging from Material Science to Chemistry and Biology”.
The award ceremony has been part of the opening session of the XCVIII SIF National Congress in
Naples on 17 September 2012.
Roberto Car (left) and Michele Parrinello (right) delivering their respective “Fermi Lectures” at the award ceremony
of the XCVIII SIF National Congress in Naples.
Roberto Car and Michele Parrinello started
working together in the early 1980s at SISSA,
the International School of Advanced Studies,
in Trieste. With a stroke of genius they created
in 1985 the “first-principle molecular dynamics”,
better known as Car-Parinnello method, in an
article on Physical Review Letters titled “Unified
Approach for Molecular Dynamics and DensityFunctional Theory” . Indeed, the authors had
recognized that the unification of two existing
computational methods, called Density
Functional Theory and Molecular Dynamics,
could allow a fantastic innovation in the field of
numerical simulations for the description and
prediction of the behaviour of individual atoms
in solids, liquids and molecules, under different
external conditions.
The aim of Car and Parrinello was to predict
the properties of condensed matter starting,
ab initio, from the laws of quantum mechanics,
namely the Schrödinger equation. This has
been a dream in physics since the beginning
vol28 / no5-6 / anno2012 >
57
Fig. 1 The protonation of the distal iron site of the
[FeFe]H cluster. The calculation used constrained
first-principles (Car-Parrinello) molecular dynamics
(FPMD). Panels (a)-(e) correspond to snapshots
of a constrained FPMD trajectory at T=330 K.
(Reprinted with permission from F. Zipoli et al.,
J. Am. Chem. Soc., 132 (2010) 8593-8601,
©2010 American Chemical Society.)
of quantum theory. Already in 1930
P. A. M. Dirac wrote: “For dealing with atoms
involving many electrons the accurate
quantum theory, involving solution of the
wave equation in many-dimensional space,
is far too complicated to be practicable.
One must therefore resort to approximate
methods.” He continued quoting the Hartree
methods, in which the electrons are treated
as if they were non-interacting, as the best
available ones, but at the time even these
methods were too complicated.
A very important step forward was
made in 1965 with the density-functional
theory of Kohn (Nobel prize for chemistry in
1998), Hohenberg and Sham. The authors
demonstrated that the ground-state energy
of a system of interacting electrons in the
static field of the atomic nuclei could be
calculated from equations formally similar
to those of the Hartree method. With the
availability of computers of increasing CPU
power the breakthrough made it possible
to calculate the crystalline structure of a
material, starting from the basic equations,
58 < il nuovo saggiatore
without the use of empirical parameters.
Car and Parrinello extended the densityfunctional theory to dynamic situations
by introducing a Lagrangian depending
on the coordinates and velocities of the
atomic nuclei, the Kohn-Sham wave
functions and their temporal derivatives.
The resulting equations of motion are
integrated numerically and finally, knowing
the trajectories, the statistical equilibrium
properties of the complex system under
study are calculated.
Since its introduction, the Car-Parrinello
Molecular Dynamics method was adopted in
a wealth of interdisciplinary contexts ranging
from materials science to chemistry and
biology. It represents a beautiful joint effort
of theoretical and computational physics to
understand both the properties of matter
and the dynamics of chemical and materials
transformations .
In the next years, having left Trieste,
Roberto Car and Michele Parrinello followed
different career paths in the most prestigious
world institutions, continuing in high-profile
research activities, teaching and inspiration
to the younger generations.
As an example, in a recent paper R. Car and
collaborators (F. Zipoli, R. Car, M. H. Cohen
and A. Selloni. “Simulation of Electrocatalytic
Hydrogen Production by a Bioinspired
Catalyst Anchored to a Pyrite Electrode”
J. Am. Chem. Soc (2010) 132, 8593–8601)
start stating in the abstract: “The possibility
of using the active site, the [FeFe]H cluster,
of the bacterial di-iron hydrogenases as a
catalyst for hydrogen production from water
by electro- or photocatalysis is of current
scientific and technological interest.”
Figure 1 taken from this article shows the
“protonation” of the distal iron site (Fed) of the
[FeFe]H cluster exposed to water with an extra
proton.
A. Bettini
Università di Padova
and INFN Laboratorio Subterráneo
de Canfranc
News
SIF-iop “Giuseppe (beppo) Occhialini” Prize
and Medal 2012
The Giuseppe Occhialini prize and medal has been promoted jointly by the Italian
Physical Society (SIF) and the British Institute of Physics (IOP) in 2007 on occasion
of the Centenary of the birth of Giuseppe Occhialini, with the aim to commemorate
the eminent scientist, who worked in England and Italy, as well as to strengthen the
relationship between the two societies. The award is made alternately by the Councils
of one of the two societies to a physicist selected from a list of nominees submitted
by the other. The award is made for distinguished work carried out within the 10 years
preceding the award. The award is to be made to physicists in alternating years who
work in Italy or the UK or Ireland.
This year the Occhialini prize
and medal has been awarded
at the official award dinner of
the IoP in London on the 3rd
October to Eugenio Coccia of
Rome “Tor Vergata” University,
with the following motivation:
“For his major contribution to the
realization of the first long term
observatories with cryogenic
and ultra-cryogenic detectors
of gravitational waves, and for
his international role in the
gravitational wave community
and in the broader community of
astroparticle physics”. The award
had been announced during the
inauguration ceremony of the
XCVIII SIF Congress in Naples.
The gravitational interaction
between two massive bodies does
not take place instantaneously,
as all the other interactions.
It propagates with a definite
velocity, equal to that of light,
under the form of gravitational
waves, as an immediate
consequence of the special
relativity stated by Poincaré in
1905. However, only the general
relativity of Einstein foresees the
specific character of gravitational
waves, how they are produced by
their sources and how they act
on the instruments built to detect
them. A first type of sources are
the implosions of the stars that,
at the end of their life, suddenly
collapse in a supernova. A second
type of sources are the coalescing
binaries, namely binary stars that
after having slowly approached
each other end up by quickly
coalescing. Both phenomena are,
in a given galaxy, very rare.
Nobody succeeded in detecting
a gravitational wave yet, but
enormous progresses have been
made since when J. Weber in
the late 1960s gave birth to this
research. Italy is the leading
Country of the field, since when
E. Amaldi, with G. Pizzella and
M. Cerdonio, started the R&D of
the “cryogenic antennas” in Rome
in 1971. These are big cylindrical
bars, which resonate, but very
weakly, when hit by a gravitational
wave, emitted by a supernova
collapse. To be successful the
antenna should be sensitive to
a volume of the Universe large
enough to contain a sufficiently
frequent collapse. However, the
first antennas were very far from
that.
Substantial progress was
obtained in Italy in the frame
of the INFN. The ROG (Ricerca
di Onde Gravitazionali) group
of Rome, under the leadership
of Pizzella built EXPLORER, an
antenna that became operational
in 1983 at CERN. ROG succeeded,
Sir Peter Knight (IOP President) and
Eugenio Coccia at the IOP official award
dinner, London.
in particular, in substantially
enhancing the efficiency of the
transfer of the very tiny vibration
energy of the bar to the system
dedicated to its read-out. After
Pizzella, the leadership of ROG
passed to Coccia.
Two, even more sensitive
antennas, where developed and
built in two National Laboratories
of the INFN: NAUTILUS at Frascati
and AURIGA at Legnaro, under
the leaderships of E. Coccia and
M. Cerdonio, respectively.
To be complete, we recall a
second type of antennas, the large
Michelson LASER interferometers,
with their two perpendicular
arms a few kilometres long. They
are, in particular, sensitive to the
coalescing binaries. The most
sensitive antennas are LIGO
in the USA and VIRGO in Italy.
Operational since 2007, VIRGO
was built by a French-Italian
collaboration in the country near
Cascina, with two 3 km long arms,
based on the design principles
developed by A. Giazzotto at Pisa.
Coming back to cryogenic
and ultra-cryogenic antennas,
Eugenio Coccia was the first to
cool a bar weighting more than
a ton to millikelvin temperatures.
These antennas are extremely
sophisticated, requiring a very high
level of isolation from the vibrations
of the 3He-4He dilution refrigerator
and from the external seismic and
acoustic noises. To achieve this,
Coccia developed a series of original
ideas, several of which have been
used by other groups.
Later on, from 1997 to 2003,
E. Coccia was the director of the
INFN Gran Sasso laboratory.
A. Bettini
Università di Padova
and INFN Laboratorio Subterráneo
de Canfranc
vol28 / no5-6 / anno2012 >
59
News
Il premio Nobel per la fisica 2012
Il premio Nobel per la Fisica del 2012 è
stato assegnato a Serge Haroche (École
Normale Supérieure e Collège de France,
Parigi) e David J. Wineland (NIST, Boulder,
USA) “per avere inventato delle tecniche
sperimentali rivoluzionarie che permettono
la misura e la manipolazione di sistemi
quantistici individuali”. La chiave per
comprendere la portata di questa motivazione
è proprio nell’ultima parola: “individuali”.
Molti effetti fondamentali previsti dalla
meccanica quantistica, come la creazione
di stati di sovrapposizione o la generazione
di entanglement, si basano sul concetto
di coerenza quantistica e possono essere
osservati soltanto quando si considerano
singoli sistemi quantistici o un numero
molto limitato di essi. A questo proposito,
E. Schrödinger scriveva [1]:
“We never experiment with just one
electron or atom or (small) molecule. In
thought-experiments we sometimes assume
that we do; this invariably entails ridiculous
consequences...”
Nella loro attività di ricerca, Haroche
e Wineland sono riusciti ad intrappolare
singoli atomi e singoli fotoni, e ad osservare
quelle “ridicole” conseguenze che si riteneva
potessero essere dedotte soltanto da
esperimenti mentali, impossibili da mettere in
pratica. Gli esperimenti di Haroche e Wineland,
portati avanti in maniera indipendente e
in gran parte complementare, hanno una
duplice portata: da un lato hanno permesso
di indagare aspetti-chiave della meccanica
quantistica e di osservarne i principi fondativi,
dall’altro hanno gettato le basi per una nuova
tecnologia intrinsecamente quantistica, che
si basa su una manipolazione coerente dello
stato di sistemi quantistici individuali.
Le ricerche di Serge Haroche e David
Wineland partono da molto lontano. Si tratta
di esperimenti realizzati su banchi ottici in
laboratori di pochi metri quadrati, ma al tempo
stesso molto complessi poiché basati su
tecniche molto sofisticate, concepite a partire
dagli anni ‘70 e pienamente sviluppate nei
decenni successivi. Entrambi gli esperimenti
si basano su applicazioni molto avanzate
delle leggi della fisica atomica che regolano
l’interazione fra la radiazione e la materia.
L’utilizzo che fanno di luce e di atomi è
60 < il nuovo saggiatore
però in gran parte
complementare: negli
esperimenti di Haroche i
fotoni vengono osservati
e manipolati grazie alla
David J. Wineland
Serge Haroche
loro interazione con
Photo: © CNRS Photothèque/
Photo: © NIST
un fascio di atomi, in
Christophe Lebedinsky
quelli di Wineland sono
gli atomi ad essere
indagati attraverso la
loro interazione con fasci laser. E, nonostante
trappola armonica fortemente confinante
abbiano portato avanti le loro ricerche in
il moto è quantizzato in stati di oscillatore
maniera indipendente, in più occasioni i due
armonico quantistico, che possono essere
fisici si sono trovati ad affrontare problemi
risolti spettroscopicamente attraverso
analoghi e a fare scoperte simili, spesso
l’eccitazione di transizioni elettroniche proibite:
pubblicate a poca distanza le une dalle altre, se
oltre alla transizione tra stati con lo stesso
non negli stessi numeri delle stesse riviste.
numero vibrazionale v, possono essere eccitate
transizioni verso stati vibrazionali v ’ diversi.
Ioni intrappolati. David Wineland è uno dei
Nella tecnica di sideband cooling, inventata
pionieri delle tecniche di raffreddamento laser,
da Wineland alla fine degli anni ‘80, gli ioni
che consentono di rallentare il moto degli
vengono raffreddati attraverso un’eccitazione
atomi fino a temperature di pochi miliardesimi
dallo stato vibrazionale v a uno stato v−1
di grado sopra lo zero assoluto. Nel 1975 è
(quindi su una sideband a energia più bassa
stato autore insieme a H. Dehmelt (premio
rispetto all’energia di transizione dello ione
Nobel per la Fisica 1989) di un articolo in
libero), dal quale decadono verso stati con
cui proponeva di utilizzare la luce laser per
numero vibrazionale medio più basso: in
raffreddare singoli ioni intrappolati, nello
questo modo, è possibile raffreddare gli ioni
stesso anno in cui una proposta simile veniva
fino allo stato fondamentale della trappola,
formulata da T. W. Hänsch e A. Schawlow
dove il loro moto è congelato all’energia di
(premi Nobel per la Fisica 2005 e 1981) per
punto zero. In queste trappole, operanti in
atomi neutri. Wineland è stato il primo, insieme condizioni di ultra-alto vuoto al fine di isolare
a P. Toschek, a dimostrare la possibilità di
gli ioni dall’ambiente esterno, possono essere
intrappolare singoli ioni carichi positivamente
confinati per tempi molto lunghi (anche
in trappole elettro-magnetiche (trappole di
svariati giorni o settimane) ioni singoli o
Penning) o trappole elettrodinamiche, in cui
catene formate da un numero piccolo di ioni,
una differenza di potenziale rapidamente
che interagiscono fortemente tra di loro a
oscillante applicata agli elettrodi della
causa della repulsione elettrostatica e vanno
trappola produce un potenziale medio di
a posizionarsi in punti diversi della trappola,
confinamento (trappole di Paul) come quella
il che li rende osservabili e controllabili in
raffigurata schematicamente nel pannello di
maniera indipendente. Questa capacità di
sinistra di fig. 1. Insieme a Toschek e Dehmelt,
controllo sullo stato interno ed esterno degli
Wineland ha dimostrato la possibilità di
ioni e sulle loro interazioni ha consentito
fare spettroscopia su una singola particella
sviluppi estremamente importanti nel campo
intrappolata, inducendo transizioni proibite fra
della spettroscopia e dell’ottica quantistica,
due livelli elettronici dello ione e misurando
come descriveremo più avanti.
la probabilità di eccitazione attraverso
l’osservazione diretta dei quantum jumps fra i
Fotoni e cavità. Serge Haroche è sempre
due stati.
stato molto legato alla fisica atomica italiana,
Uno dei meriti di Wineland è stato l’avere
che ha con la scuola francese una lunga
sviluppato nuove tecniche di raffreddamento
storia di collaborazioni iniziata con A. Gozzini
che permettono un controllo totale sullo stato
e A. Kastler, ed è tra l’altro membro del
di moto dello ione nella trappola [2]. In una
consiglio scientifico del Laboratorio Europeo
Fig. 1 A sinistra sono raffigurati degli ioni confinati in una trappola elettrodinamica di Paul, come negli esperimenti di Wineland:
gli ioni vengono raffreddati, rivelati e manipolati utilizzando la loro interazione con fasci laser. A destra sono rappresentati fotoni
intrappolati all’interno di una cavità a microonde realizzata con due specchi affacciati, come negli esperimenti di Haroche: lo stato
del campo elettromagnetico nella cavità viene rivelato in maniera non distruttiva e manipolato attraverso la sua interazione con
atomi di Rydberg che attraversano la cavità.
di Spettroscopie Nonlineari (LENS) di Firenze.
L’oggetto di indagine delle ricerche di Haroche
che lo hanno portato al premio Nobel sono
singoli fotoni intrappolati. In quanto privi
di massa, i fotoni sono molto più difficili da
catturare: possono essere intrappolati in cavità
ottiche risonanti formate da due specchi
ad altissima riflettività posti l’uno di fronte
all’altro, in modo che il fotone rimbalzi per un
numero molto elevato di volte prima di essere
assorbito o perso da uno dei due specchi.
Insieme a D. Kleppner, H. Walther, J. Kimble e
al nostro F. De Martini, negli anni ‘80 Haroche
è stato uno dei fondatori dell’elettrodinamica
in cavità (cavity QED), quel campo dell’ottica
quantistica che studia l’interazione fra gli
atomi e i fotoni del campo elettromagnetico
all’interno di una cavità ottica [3]. Nei primi
anni 2000 Haroche è riuscito a sviluppare delle
cavità superconduttrici in cui la riflettività
degli specchi è talmente alta da far sì che
in media un singolo fotone rimbalzi fra i
due specchi per miliardi di volte prima di
abbandonare la cavità, garantendo tempi di
intrappolamento maggiori di 100 ms. Nei suoi
esperimenti Haroche è riuscito a dimostrare
come lo stato del campo elettromagnetico
nel modo fondamentale della cavità possa
essere controllato grazie all’interazione dei
fotoni con un fascio di atomi che attraversa la
cavità stessa, come raffigurato nel pannello di
destra di fig. 1. In questo di tipo di sistema lo
stato degli atomi è fortemente accoppiato al
modo fondamentale della cavità e l’interazione
radiazione-materia, descritta da un modello
completamente quantistico (detto di JaynesCummings), fa sì che lo stato atomico possa
essere convertito in maniera coerente nello
stato del campo in cavità e viceversa. Nelle sue
ricerche Haroche utilizza fotoni a microonda
e atomi di Rydberg, cioè atomi in stati
elettronici altamente eccitati con un tempo
di vita molto lungo (fino a decine di ms), che
possono passare da un livello all’altro proprio
assorbendo o emettendo fotoni a microonda.
In una serie di esperimenti fondamentali
Haroche, insieme ai suoi colleghi M. Brune
and J.-M. Raymond, ha dimostrato che l’analisi
dello stato atomico permette di effettuare una
ricostruzione completa e non distruttiva dello
stato quantistico del campo elettromagnetico
all’interno della cavità, “contando” i singoli
fotoni senza distruggerli. Questo tipo di
misura, detta quantum non-demolition
measurement (QND) nel linguaggio dell’ottica
quantistica, rappresenta la realizzazione
sperimentale della misura ideale proiettiva
della meccanica quantistica, in cui l’evento di
misura fa “collassare” lo stato quantistico sullo
stato esito della misura, senza “distruggere” il
sistema (come invece accade, per esempio, in
un fotomoltiplicatore, dove la rivelazione di
singoli fotoni comporta la loro distruzione).
In particolare, Haroche è riuscito a osservare,
attraverso una successione di misure
non distruttive, come lo stato del campo
elettromagnetico evolve durante la misura
portando a un collasso progressivo del numero
di fotoni nella cavità [4], in accordo con i
postulati della meccanica quantistica.
Gatti di Schrödinger ed entanglement.
Come dicevamo, tra i principi fondanti della
meccanica quantistica vi sono due concetti
chiave, che sono collegati alla realizzazione
di stati nonclassici della luce o della materia.
Il primo è il concetto di sovrapposizione
quantistica, le cui conseguenze paradossali, se
trasportate al mondo macroscopico, furono
esemplificate da Erwin Schrödinger con il
celebre paradosso del gatto, vivo e morto al
tempo stesso. Se un sistema quantistico ha
due possibili stati |0〉 e |1〉, allora una qualsiasi
combinazione lineare dei due a |0〉 + b |1〉 ,
con a e b coefficienti complessi (quindi con
una fase ben definita della sovrapposizione), è
ancora uno stato ammissibile per il sistema. In
una serie di esperimenti fondamentali realizzati
con le sue cavità a microonde, Haroche è
riuscito a ricostruire lo stato quantistico del
campo elettromagnetico e a distinguere stati
di Fock |n〉, caratterizzati da un numero esatto
n di fotoni inn cavità, da stati coerenti
2
a
e-|a| /2 ∑n √n!
|n〉 in cui il numero di fotoni
non è ben definito e segue una statistica
poissoniana data dalla sovrapposizione di
stati con numero di fotoni diverso. Questa
ricostruzione dello stato quantistico del
campo (effettuata misurandone in maniera
non distruttiva la funzione di Wigner) è resa
possibile dal regime di forte interazione
fra atomo e campo elettromagnetico, che
consente di trasferire lo stato del campo
nello stato atomico. Non solo, utilizzando
degli atomi inizialmente in uno stato di
sovrapposizione (creato con impulsi p/2 a
microonda), Haroche è riuscito a creare gatti
di Schrödinger fatti con fotoni e a studiarne
l’evoluzione nel tempo, mettendo in evidenza
come lo stato nonclassico dopo tempi lunghi
decade in una sovrapposizione classica.
Si tratta di studi fondamentali sull’evoluzione
dello stato quantistico, la cui estensione a un
numero grande di fotoni può illuminare un
problema ancora irrisolto della meccanica
quantistica, quello della transizione tra mondo
microscopico e macroscopico, dove gli effetti
di coerenza sono rapidamente persi e si assiste
alla transizione dalla descrizione quantistica
alle leggi deterministiche della fisica classica
[5, 6].
Il secondo concetto chiave è quello di
entanglement, che caratterizza il possibile
stato quantistico di sistemi composti da più
particelle. Se consideriamo due particelle a e b,
ciascuna caratterizzata da due possibili stati
vol28 / no5-6 / anno2012 >
61
news
|0〉 e |1〉, uno stato ammissibile per il sistema
a due corpi è lo stato entangled a |0〉a |1〉b +
b |1〉a |0〉b , che è uno stato non separabile,
cioè non può essere scritto come il prodotto
tensoriale di due stati nei rispettivi spazi di
Hilbert. Nonostante lo stato della singola
particella non sia definito, la non separabilità
dello stato porta a delle forti correlazioni
quantistiche. Si consideri una tipica operazione
quantistica di misura, capace di discriminare
fra lo stato |0〉 e lo stato |1〉 : per lo stato
entangled scritto sopra, una misura proiettiva
fatta sulla particella a che dà come esito lo
stato |0〉 ha come conseguenza il collasso
della particella b nello stato |1〉 e viceversa.
Le correlazioni quantistiche in uno stato
entangled si manifestano indipendentemente
dalla posizione delle due particelle, anche se
queste si trovano a distanze talmente grandi
da non ammettere nessuna possibilità di
“interferenza” classica tra di esse. Il concetto di
entanglement è quindi strettamente connesso
a una natura non locale della meccanica
quantistica, contro la quale si sono scontrati
molti scienziati, tra i quali si annoverano
A. Einstein, B. Podolsky e N. Rosen, autori del
celebre articolo “EPR” [7] in cui si proponeva
un gedanken experiment – allora considerato
come tale, ma oggi realizzabile in laboratorio
– che mostrava le conseguenze paradossali
della nonseparabilità degli stati dal punto di
vista della relatività e del principio di località.
Haroche e Wineland non soltanto sono riusciti
a creare stati entangled, ma anche ad utilizzare
l’entanglement in maniera controllata come
un potente strumento di rivelazione e di
manipolazione. Negli esperimenti di Haroche,
grazie al regime di forte accoppiamento fra
atomi di Rydberg e cavità a microonde, si
ha un entanglement fra lo stato del campo
elettromagnetico e lo stato degli atomi
accoppiati alla cavità, e proprio grazie a questo
entanglement è possibile realizzare la misura
delle proprietà quantistiche del campo e a
“modificarne” lo stato attraverso l’interazione
con atomi opportunamente preparati. Negli
esperimenti con gli ioni intrappolati, come
quelli di Wineland, si ha un entanglement
tra lo stato interno degli ioni e l’eccitazione
coerente di modi di vibrazione all’interno della
trappola: in presenza di più ioni intrappolati
in una catena, questa stessa tecnica consente
di creare un entanglement controllato fra gli
ioni [8], con conseguenze importanti che sono
descritte nel seguito.
Orologi atomici. Gli esperimenti di Wineland
nascono negli anni ‘70 dall’intuizione di
sfruttare le proprietà di singoli ioni intrappolati
per la realizzazione di orologi atomici
estremamente accurati. Il vantaggio di usare
atomi intrappolati, piuttosto che gas in cella o
fasci atomici, sta nel fatto che in questo modo è
possibile eliminare ogni perturbazione dovuta
al loro moto: il forte confinamento fa sì che
62 < il nuovo saggiatore
sia possibile accedere spettroscopicamente
ai diversi stati vibrazionali dello ione nella
trappola, con la conseguente possibilità di
raffreddarlo fino allo stato fondamentale e di
poterlo interrogare, per tempi molto lunghi,
in un regime dove lo spostamento Doppler
e gli effetti legati al rinculo atomico sono
completamente eliminati.
Nella storia della misura del tempo, la
precisione è andata sempre crescendo mano
a mano che si sono presi come riferimento
fenomeni fisici caratterizzati da oscillazioni
con frequenza sempre maggiore (dagli
orologi a pendolo, agli orologi a quarzo,
agli orologi atomici). Alla fine degli anni
‘90, grazie allo sviluppo di sorgenti laser
altamente monocromatiche e all’invenzione
del frequency comb, premiata con il Nobel per
la Fisica a T. W. Hänsch e J. L. Hall nel 2005,
si è resa concreta la possibilità di utilizzare
transizioni ottiche (con una frequenza di circa
1015 Hz) per la realizzazione di standard di
tempo e di frequenza, invece della transizione
a microonde utilizzata negli orologi al cesio
(con una frequenza di circa 1010 Hz), sulla
quale è basata l’attuale definizione del
secondo. Wineland ha fornito un contributo
fondamentale alla realizzazione di standard
di frequenza basati su transizioni ottiche
in ioni intrappolati. Il funzionamento degli
orologi più precisi di Wineland si fonda
proprio sul concetto di entanglement di cui
si parlava prima. Il riferimento di frequenza
è costituito da un singolo ione di Al+, che ha
proprietà metrologiche ideali, possedendo
transizioni molto strette e caratterizzate da
effetti sistematici limitati e ben controllabili
(ad esempio, la sua insensibilità alla radiazione
di corpo nero dovuta alla temperatura finita
del setup sperimentale). Tuttavia la sua
manipolazione (sia il suo raffreddamento che
la rivelazione del suo stato) pone dei problemi
di natura tecnica dovuti alla mancanza di
transizioni elettroniche facilmente accessibili.
La soluzione ideata da Wineland è quella di
mettere nella stessa trappola uno ione diverso,
il Be+, che è invece molto più semplice da
raffreddare e da rivelare, ma non è un buon
“orologio” come l’Al+. Sfruttando le interazioni
tra i due ioni, soprattutto la possibilità di creare
uno stato entangled, quindi una correlazione
quantistica perfetta tra lo stato interno
dello ione Al+ e quello del Be+, Wineland ha
dimostrato la possibilità di usare il secondo
ione per interrogare il primo, raggiungendo
così delle precisioni relative migliori di una
parte su 1017 [9]. Una precisione di questo tipo,
superiore a quella degli attuali orologi atomici
al cesio, significa che un orologio che avesse
iniziato a contare il tempo al momento del
Big Bang adesso avrebbe perso o guadagnato
soltanto pochi secondi.
Perché misurare il tempo con questa
precisione? Nella storia della Fisica, ogni
volta che si è trovato un modo più preciso
di misurare il tempo, si sono sempre fatte
scoperte fondamentali. Questa estrema
precisione nella misura del tempo dimostrata
negli esperimenti di Wineland consente test
di fisica fondamentale, legati ad esempio alla
misura di una possibile variazione temporale
delle costanti fondamentali o all’osservazione
di effetti di relatività generale, come il redshift
gravitazionale, su scale spaziali estremamente
piccole: negli orologi di Wineland una
variazione significativa della frequenza di
transizione può essere apprezzata quando lo
ione è spostato in altezza di appena poche
decine di centimetri in presenza del campo
gravitazionale terrestre [10]. Oltre a queste
implicazioni nella ricerca di base, ci sono
applicazioni importanti in cui una misura più
accurata del tempo può avere una notevole
rilevanza, soprattutto nel campo della
navigazione (si ricorda che il funzionamento
del sistema di posizionamento GPS si basa sulla
sincronizzazione fra gli orologi atomici montati
a bordo di satelliti diversi).
è molto probabile che esperimenti come
quelli di Wineland, o esperimenti simili
realizzati con atomi neutri intrappolati,
porteranno nei prossimi anni a una
ridefinizione del secondo basata su un nuovo
standard ottico di frequenza. Anche in Italia
si lavora intensamente in questo campo, con
esperimenti di primo piano in funzione a Torino
presso l’INRIM (con atomi neutri di itterbio) e a
Firenze (con atomi neutri di stronzio) [11].
Computer quantistici. La possibilità di
manipolare sistemi quantistici individuali in
maniera coerente e non distruttiva ha aperto
la possibilità di usare lo stato quantistico per
immagazzinare e processare informazione
in modo intrinsecamente diverso da quello
classico. A differenza della logica classica
binaria, in cui l’unità di informazione è
codificata nello stato 0 o 1 di un bit classico,
nella logica quantistica ogni bit quantistico, o
qubit, può trovarsi in una sovrapposizione di
stati, e bit diversi possono formare tra loro stati
entangled. Queste proprietà fanno sì che, su
specifiche operazioni, un computer basato su
una logica quantistica potrebbe portare a una
velocità di calcolo esponenzialmente più alta
di quella di un calcolatore classico. Proprio D.
Wineland è riuscito nel 1995 a utilizzare i suoi
ioni intrappolati per la prima dimostrazione del
funzionamento di una porta logica quantistica
“controlled-NOT” [12], la versione quantistica
di uno dei circuiti logici elementari che sono
alla base del funzionamento di un calcolatore.
In esperimenti più recenti, è stata dimostrata
la possibilità di controllare un numero sempre
maggiore di ioni intrappolati e di realizzare
stati entangled comprendenti fino a 14 qubits
[13].
La realizzazione di computer quantistici
per applicazioni pratiche è ancora un sogno
remoto, ma sono in molti a pensare che,
L. Fallani, M. Inguscio, G. M. Tino: Il premio nobel per la fisica 2012
nonostante la strada sia lunga e in salita,
l’obiettivo possa essere alla portata. Se da un
lato computer molto più “potenti” di quelli
attuali potrebbero sembrare inutili per un
utilizzo di massa, dall’altra ci sono applicazioni
in cui un aumento significativo della potenza di
calcolo potrebbe essere decisivo. Uno di questi
problemi è proprio la simulazione di sistemi
quantistici, che è un compito estremamente
difficile per un qualsiasi computer classico,
a causa della crescita esponenziale degli stati
possibili per il sistema all’aumentare delle
dimensioni dello spazio di Hilbert che lo
descrive. Come congetturato da R. Feynman
nel 1982 [14], un problema quantistico può
essere efficientemente “risolto” soltanto da
un simulatore quantistico, cioè un sistema
composto di tante particelle quantistiche delle
quali si è in grado di controllare le interazioni,
in modo da produrre in laboratorio una
realizzazione di specifici modelli hamiltoniani
dei quali si possono misurare le proprietà.
Questa possibilità è stata dimostrata con atomi
ultrafreddi intrappolati in reticoli ottici, che,
riproducendo il comportamento degli elettroni
nello stato solido, hanno già permesso di
studiare molti effetti fondamentali di fisica
della materia condensata, come dimostrato in
esperimenti realizzati al LENS di Firenze [15].
Nei prossimi anni l’evoluzione di questo campo
di ricerca potrebbe fornire una soluzione ad
alcuni problemi irrisolti della Fisica, come ad
esempio quello riguardante l’origine della
superconduttività ad alta temperatura.
Verso una nuova tecnologia? Nei loro
esperimenti Haroche e Wineland non soltanto
hanno osservato in modo diretto i principi base
della meccanica quantistica. Hanno compiuto
dei passi fondamentali affinché questi principi
possano essere utilizzati per fondare una
nuova tecnologia basata sulla possibilità di
inizializzare, controllare e rivelare in maniera
coerente e non distruttiva lo stato di un
sistema quantistico.
William D. Phillips, premio Nobel per la
Fisica nel 1997 (per i suoi contributi allo
sviluppo delle tecniche di raffreddamento
laser), in occasione di una sua visita a Firenze
organizzata per il suo 60° compleanno,
affermava che il XXI secolo sarà il secolo di una
“seconda rivoluzione quantistica”. Una nuova
tecnologia quantistica, basata sull’applicazione
della meccanica quantistica alle tecnologie
dell’informazione e della comunicazione, è già
in pieno sviluppo e, riprendendo un esempio
di Phillips, potrebbe rappresentare un cambio
di paradigma più radicale di quello che ha
portato l’uomo dall’abaco all’uso dei computer.
Questa tecnologia quantistica in alcuni campi è
già matura (si pensi alla crittografia quantistica)
ed è facile prevedere che molti saranno i suoi
sviluppi negli anni futuri. Haroche e Wineland
con i loro esperimenti hanno contribuito a
gettarne le basi.
Il nobel e la fisica italiana. Concludiamo
sottolineando come la fisica italiana sia
particolarmente legata al premio Nobel 2012,
non soltanto per gli importanti contributi
di ricerca nel campo della fisica atomica e
dell’ottica quantistica, ma anche per l’attività
della Società Italiana di Fisica (che già nel 1987
invitò Serge Haroche al Congresso Nazionale
di Napoli per una conferenza plenaria sui suoi
esperimenti di CQED). Le tappe fondamentali
del lungo percorso che ha portato alle scoperte
di Haroche e Wineland sono state testimoniate
e stimolate dall’attività di alta formazione
svolta dalla SIF con la scuola internazionale
“Enrico Fermi” di Varenna, che nel 2013
compierà 60 anni. Dopo il corso “Topics of
radiofrequency spectroscopy” diretto nel
1960 da A. Gozzini, che comprendeva il nuovo
campo della spettroscopia maser, molti corsi
fondamentali sono stati diretti o co-diretti
da vincitori di premi Nobel per la fisica
atomica e per l’ottica quantistica: C. H. Townes
(“Quantum electronics and coherent light”,
1963), R. J. Glauber (“Quantum optics”, 1967),
N. Bloembergen (“Nonlinear spectroscopy”,
1975), W. D. Phillips (“Laser manipulation of
atoms and ions”, 1991), C. E. Wieman (“BoseEinstein condensation in atomic gases”, 1998),
W. Ketterle (“Ultra-cold Fermi gases”, 2006),
T. W. Hänsch (“Metrology and fundamental
constants”, 2006). Emblematico è il corso
“Frontiers in Laser Spectroscopy” del 1992
[16], che all’epoca aveva tra i propri docenti
soltanto un premio Nobel, A. L. Schawlow,
che con Townes aveva dato inizio alla lunga
avventura del laser. Sfogliando oggi gli atti
di quella scuola, si contano i contributi di
altri 6 vincitori di premi Nobel (J. L. Hall,
C. E. Wieman, T. W. Hänsch, S. Chu, e i vincitori
di quest’anno D. J. Wineland e S. Haroche), un
buon viatico per i tanti giovani che continuano
ad appassionarsi alla fisica atomica. Quali
nuove scoperte possiamo aspettarci nel
futuro? Riprendendo le parole di Hänsch dalla
prefazione di [17]:
“What can we expect from atomic physics in
the future? We can safely predict more Nobel
Prizes for surprising discoveries. However, we
cannot predict the evolution of atomic physics.
As in the past, the most important research
results will be those that make all planning
obsolete...”
L. Fallani., M. Inguscio, G. M. Tino
Dipartimento di Fisica ed Astronomia e
Laboratorio Europeo di Spettroscopie
Nonlineari (LENS), Università di Firenze
Bibliografia
[1] E. Schrödinger, “Are there quantum jumps?”,
Philos. Sci., 3 (11), (1952) 233.
[2] D. Leibfried, R. Blatt, C. Monroe e
D. Wineland, “Quantum dynamics of single
trapped ions”, Rev. Mod. Phys., 75 (2003) 281.
[3] S. Haroche e J.-M. Raymond, “Exploring
the Quantum: Atoms, Cavities and Photons”
(Oxford University Press) 2006.
[4] C. Guerlin, J. Bernu, S. Deléglise, C. Sayrin,
S. Gleyzes, S. Kuhr, M. Brune, J.-M. Raimond,
e S. Haroche, “Progressive field-state collapse
and quantum non-demolition photon
counting”, Nature, 448 (2007) 889.
[5] W. H. Zurek, “Decoherence and the Transition
from Quantum to Classical”, Phys. Today, 44
(1991) 36.
[6] S. Haroche, “Entanglement, Decoherence
and the Quantum/Classical Boundary”,
Phys. Today, 51 (7), (1998) 36.
[7] A. Einstein, B. Podolsky e N. Rosen, “Can
Quantum-Mechanical Description of Physical
Reality Be Considered Complete?”, Phys, Rev.,
47 (1935) 777.
[8] R. Blatt e D. Wineland, “Entangled states of
trapped atomic ions”, Nature, 453 (2008)
1008.
[9] C. W. Chou, D. B. Hume, J. C. J. Koelemeij,
D. J. Wineland e T. Rosenband, “Frequency
Comparison of Two High-Accuracy Al +
Optical Clocks”, Phys. Rev. Lett. 104 (2010)
070802.
[10] C. W. Chou, D. B. Hume, T. Rosenband
e D. J. Wineland, “Optical Clocks and
Relativity”, Science, 329 (2010) 1630.
[11] G. Ferrari, P. Cancio, R. Drullinger,
G. Giusfredi, N. Poli, M. Prevedelli,
C. Toninelli e G. M. Tino, “Precision frequency
measurement of visible intercombination
lines of strontium”, Phys. Rev. Lett., 91 (2003)
243002; N. Poli, M. G. Tarallo, M. Schioppo,
C. W. Oates e G. M. Tino, “A simplified optical
lattice clock”, Appl. Phys. B, 97 (2009) 27.
[12] C. Monroe, D. M. Meekhof, B. E. King,
W. M. Itano e D. J. Wineland, “Demonstration
of a Fundamental Quantum Logic Gate”,
Phys. Rev. Lett., 75 (1995) 4714.
[13] T. Monz, P. Schindler, J. T. Barreiro,
M. Chwalla, D. Nigg, W. A. Coish,
M. Harlander, W. Hänsel e M. Hennrich,
R. Blatt, “14-Qubit Entanglement: Creation
and Coherence”, Phys. Rev. Lett., 106 (2011)
130506.
[14] R. P. Feynman, “Simulating Physics with
Computers”, Int. Theor. Phys., 21 (1982) 467.
[15] G. Roati, C. D’Errico, L. Fallani, M. Fattori,
C. Fort, M. Zaccanti, G. Modugno,
M. Modugno e M. Inguscio, “Anderson
localization of a non-interacting BoseEinstein condensate”, Nature, 453 (2008) 895.
[16] T. W. Hänsch e M. Inguscio (a cura di),
“Frontiers in Laser Spectroscopy”,
Proceedings of the International School of
Physics “Enrico Fermi”, Corso CXX (North
Holland, Società Italiana di Fisica) 1994.
[17] M. Inguscio e L. Fallani, “Atomic Physics:
Precise Measurements and Ultracold Matter”
(Oxford University Press) 2013.
vol28 / no5-6 / anno2012 >
63
News
Il “compleanno” dell’A.I.F.
e il XIII Convegno Orlandini
Il 25 maggio 1962, a Torino, veniva fondata l’A.I.F. (allora “Associazione Insegnanti di Fisica” e poi,
dal 1967, “Associazione per l’Insegnamento della Fisica”).
Per festeggiare il 50esimo anniversario di quella data, il Direttivo dell’A.I.F. – di concerto con la
SIF – ha organizzato una edizione speciale del Convegno Ettore Orlandini che si è tenuta a Torino
presso l’ITIS “Avogadro”, prima sede dell’Associazione, il 26 e 27 maggio di quest’anno.
Come tutte le precedenti edizioni, anche il XIII Convegno Orlandini è stato dedicato a un tema
disciplinare specifico, che questa volta è stato “L’insegnamento della meccanica”.
In apertura, dopo i saluti delle Autorità e un breve intervento di Alessandro Bettini,
vicepresidente della SIF, una relazione di Carla Romagnino (già presidente dell’A.I.F. , premio SIF per
la didattica nel 2009) ha ripercorso i 50 anni dell’A.I.F. dalla sua fondazione.
Alla costituzione dell’A.I.F. si giungeva dopo una discussione nata in seno alla SIF, principalmente
tra gli insegnanti di scuola secondaria. Nell’ottobre del 1960 la Società aveva organizzato a
Napoli, in concomitanza con il proprio Congresso, il Corso internazionale di aggiornamento
e sperimentazione didattica per l’insegnamento della fisica nelle scuole secondarie dove il
prof. Bruno Rossi del MIT aveva presentato il progetto PSSC. Durante quel corso, per iniziativa
di Maria Ferretti, gli insegnanti indirizzavano una petizione al presidente della SIF, Giovanni
Polvani, per la costituzione di un “gruppo” che si occupasse dell’insegnamento della fisica nelle
scuole. Polvani aveva contribuito, durante tutta la sua presidenza, a far crescere l’attenzione
della SIF verso la scuola e considerava cruciale la questione della didattica della fisica nelle
scuole; già nel suo discorso per il cinquantenario della SIF (1947) aveva sottolineato il problema:
“E innanzitutto la scuola: meglio …l’insegnamento della stessa disciplina nelle nostre scuole,
sia medie che superiori”[1].
La proposta di costituire un “gruppo” fu ripresentata al Congresso successivo (Como, 1961) ma,
intanto, incominciava a farsi strada l’idea di costituire un’associazione autonoma. Questa, in
effetti, formavano di lì a poco gli insegnanti degli Istituti tecnici industriali che, nel gennaio
1962, avevano partecipato ad un corso di sperimentazione didattica al Museo della Scienza
e della Tecnica di Milano. Il Consiglio di Presidenza della SIF propose allora che si costituisse
anche un’associazione per raccogliere i docenti dei Licei, affiliata alla SIF; la Società avrebbe
garantito appoggio economico e la presenza di due rappresentanti nel proprio Consiglio di
Presidenza.
Dopo uno fitto scambio di contatti tra i promotori delle varie iniziative, si giunse alla costituzione
dell’A.I.F. – alla quale la SIF garantì da subito un ampio appoggio, in particolare ospitando i
congressi annuali della nuova associazione all’interno del proprio, cosa che continuò fino al
congresso di Como del 1977. Dal 1978 l’A.I.F., ormai cresciuta e consolidata, decise di organizzare
autonomamente i propri congressi annuali; da allora i rapporti tra SIF e A.I.F., pur con vicende
alterne e, talora, con qualche divergenza, sono sempre stati coltivati attraverso commissioni di
lavoro, iniziative, studi e attività comuni. Tra queste iniziative ricorre l’organizzazione periodica
del Convegno Ettore Orlandini [2].
64 < il nuovo saggiatore
Torino, 26 maggio 2012 – Un gruppo di partecipanti all’uscita dal Convegno.
Sono poi seguite due relazioni sui temi specifici del Convegno.
M. Michelini ha presentato “Proposte esplorative sui nodi di
apprendimento della meccanica, in prospettiva verticale”, fornendo
una panoramica dei risultati della ricerca didattica su queste tematiche;
C. E. Agnes e A. Merletti hanno presentato “La Quantità di Moto: una
occasione per insegnare la Forza”, argomento discusso nel quadro delle
proposte della Fisica di Karlsruhe.
Il giorno seguente vi sono state altre interessanti relazioni. P. Cerreta
con “F = m a, ma che cosa è F, cosa è m e cosa è a?” ha discusso la
questione dei principi di Newton; A. Dodero, A. Iscra e M. Pippo con
“L’insegnamento della meccanica e la sicurezza: due esperienze di
percorsi interdisciplinari” hanno parlato di come si possano presentare
cinematica e dinamica in relazione alla sicurezza personale nella
guida; M. Recchi con “Un esempio di utilizzo di riprese foto/video per
analizzare un fenomeno” ha illustrato le molte possibilità oggi utilizzabili
nella scuola per studiare moti partendo da videoriprese. E. Fabri,
infine, ha tracciato un quadro complessivo dei problemi connessi con
l’insegnamento della meccanica nella relazione “Obiettivi culturali e
formativi dell’insegnamento della meccanica”.
A conclusione del convegno, G. Haeusermann ha presentato la
lezione/spettacolo “Insegnamento della meccanica... inizia così!”,
accompagnata da esperimenti e dimostrazioni svolti con l’ausilio di
giocattoli.
Tutte le relazioni sono pubblicate sul sito web dell’A.I.F. dove è in
preparazione la messa in rete anche dei filmati [3].
Ai partecipanti al convegno è stata distribuita una riproduzione
anastatica del primo numero del “Bollettino della Associazione
Insegnanti di Fisica”, uscito nel 1963 (nel 1968 questa pubblicazione
si sarebbe trasformata nella rivista “La Fisica Nella Scuola”). In questo
fascicolo è presente un resoconto della giornata del 1962 quando
i soci fondatori dell’A.I.F. si recano dal notaio, “dopo di che, con la
persuasione di aver compiuto qualcosa di buono, ognuno se ne torna
a casa propria mentre intorno calano le ombre della sera.” E così pure,
“con la persuasione di aver compiuto qualcosa di buono” si sono lasciati
cinquanta anni dopo i partecipanti al XIII Convegno Orlandini, dedicato
a tutti coloro che “hanno creduto in questa Associazione dedicandovi
molte delle loro energie; festeggiare il compleanno” ha voluto essere
“anche un modesto omaggio a tutte queste persone, il cui elenco
sarebbe troppo lungo, ma del cui ricordo abbiamo alimentato la nostra
memoria” [4].
Ettore Orlandini (1921-1985) fu una figura fondamentale nell’A.I.F. –
membro del Consiglio Direttivo per 19 anni, due volte vice presidente,
presidente dal 1968 al 1972 – con grande intelligenza e iniziativa
seppe stimolare l’Associazione nella ricerca didattica, nell’organizzare
proposte di aggiornamento per gli insegnanti e nell’elaborare posizioni
e suggerimenti nei confronti del Ministero dove, nel 1977, fu nominato
Ispettore centrale. In precedenza era stato insegnante, preside, ispettore
tecnico ed aveva a lungo curato il Centro di Fisica presso il Museo
della Scienza e della Tecnica di Milano. Socio della SIF, si adoperò con
autorevolezza per promuovere la più ampia collaborazione sui temi della
didattica.
È stata a lui intitolata la Scuola Superiore per Interpreti e Traduttori di
Reggio Calabria. Il Ministero della Pubblica Istruzione ha conferito alla sua
memoria la Medaglia d’oro per i Benemeriti della Scuola, della Cultura e
dell’Arte. La SIF, nel 1985, gli ha conferito un premio della didattica alla
memoria. Dopo la sua improvvisa scomparsa, a partire dal 1986, in suo
onore sono stati periodicamente promossi dall’A.I.F. i Convegni Ettore
Orlandini, tematici e dedicati all’elaborazione di proposte didattiche
direttamente utili al lavoro nelle classi; dal 1988 (con C. Marchi Trevisi e
S. Focardi) i Convegni Orlandini sono organizzati unitamente dalla SIF e
dall’A.I.F. [5].
Bibliografia
[1] Citato in: R. A. Ricci. “I cento anni della Società Italiana di Fisica”, La
Fisica nella Scuola, XXXII, 3 (1999) 174.
[2] Per questa ricostruzione vedere anche: C. Romagnino. I quarant’anni
dell’AIF, La storia dell’Associazione per l’Insegnamento della Fisica, AIF
2004 (supplemento a La Fisica nella Scuola XXXVII, 4 (2004).
[3] http://www.aif.it/ATTIVITA/TO50.htm
[4] R. Serafini. “Editoriale”, La Fisica Nella Scuola, XLV, 2 (2012) 53.
[5] Vedere anche il sito: http://www.ettoreorlandini.
altervista.org
S. Sgrignoli
Associazione per l’Insegnamento della Fisica
vol28 / no5-6 / anno2012 >
65
news
European Gender Summit 2012
a call for enhancing full realization of the research
and innovation potential in Europe
The European Gender Summit under the
theme “Aligning Agendas for Excellence” took
place on 29 -30 Nov 2012 at the European
Parliament in Brussels, http://www.
gender-summit.eu/.
The meeting brought together top-level
researchers, science leaders, and policy makers
to examine gender issues that impact on the
implementation of the upcoming HORIZON
2020, European Research Area, and Innovation
Union. The participants discussed during
eight plenary sessions and four thematic Cafés
Scientifiques opportunities for advancing
excellence through greater awareness of the
role of gender as a dimension of research
content.
The aim of the Cafés Scientifiques was
to facilitate open discussion on selected
gender equality topics of current and future
importance, namely those that impact on
current policy initiatives and help promote
quality of research and innovation at
institutional, national and European levels.
The topics were: “The leaky pipeline and
age discrimination “, “Gender as a ‘Big Ticket’
item in R&D&I”, “From manifesto to Gender
Equality Standard for projects and institutions”,
“GenderSTE: Networking the way to gender
equality in science and technology”.
Image from the video-contest
“Science: it’s your thing!”
66 < il nuovo saggiatore
I attended the Café “From manifesto …”,
which was led by Prof. Marja Makarow –
Vice-President, Academy of Finland, Dr. Peter
Fisch – Head of Unit for Ex-post evaluation
and evaluation, DG Research and Innovation,
and Dr. Shirin Heidari – Chair of the European
Association of Science Editors’ Gender Policy
Committee and Executive Editor of Journal
of the International AIDS Society, who
represented the views of research funders,
research producers and research publishers.
The main focus of the discussion was on
the feasibility of adopting a cross-European
standard for gender equality in science for
projects and institutions. Three key case studies
were highlighted during the Café.
The American colleague shared two useful
measures taken by the NSF-US. Firstly, if the
principal investigator has a female post-doc,
the NSF would put extra money on the top
of the grant to elaborate a mentoring plan to
help the female researcher in combining the
efforts for family (baby) care and acquiring new
scientific skills. Secondly, the NSF supports
special schools for women at associate
professorship level where the participants are
thought how to build international recognition
that is a necessary step for becoming a full
professor.
The enthusiasm of the audience about
gender perspectives was slightly reduced by
the EU representative, Dr. Fisch, who informed
us that there was no specific temptation to
involve gender aspects in the HORIZON 2020.
The proposals will be judged on their scientific
excellence only as it has been during the FP7.
The reaction was bitter and we underlined that
it had been unfair to oppose excellence and
gender aspect of research.
One important role of gender in research is
that it brings diversity. Let me give only two
examples of recent contributions to advancing
evidence for addressing gender issues in
research – biomarkers: women and men differ
significantly in their metabolite profile; drilling
in space was made possible with the help of
female wood wasp.
The winners of the video-contest “Science:
it’s your thing!”, organized before the summit,
were announced on the 29th of November and
videos can be watched on http://www.
gender-summit.eu/index.php/videocontest
The video contest was successful in creating
discussion and engagement, triggering an
animated debate on how to promote science
to young women – a crucial element in
bringing the campaign to life.
My presentation “Unconventional thinking
– a road less travelled” was included in the
poster presentation, which was showcased
online in the virtual Gender Summit
Exhibition and onsite through the Poster
Cards Exchange. The core of my presentation
can be summarized with the following lines:
Courage and risk are major requirements for
unconventional and creative thinkers. They are
not afraid to take chances and try new things.
They stretch the boundaries of what is known
and acceptable. They understand that new
frontiers have dangers.
As a final comment I would like to stress that
the gender is not a problematic issue. In my
view, it is an opportunity.
A. Proykova
Ana Proykova, Full Professor of the Atomic
Physics Department of Sofia University,
Bulgaria, is Member of the Equal Opportunity
Committee (EOC) of the European Physical
Society. The EOC looks at the barriers that
contribute to the under representation of
women in Physics in order to assure a more
equitable gender balance.
Una donna ai vertici della comunità dei fisici italiani delle alte energie
Lo scorso ottobre Speranza Falciano, è stata eletta vicepresidente dell’Istituto
Nazionale di Fisica Nucleare dal Consiglio direttivo dell’Istituto. è la prima volta
che una donna ricopre questa carica istituzionale. La sua nomina è avvenuta dopo
quella a membro della giunta esecutiva dell’INFN nel dicembre 2011, anche in
quell’occasione tale carica era stata assegnata a una donna per la prima volta.
Speranza Falciano, dirigente di ricerca dell’INFN, ha diretto la sezione INFN di
Roma 1, presso l’Università “La Sapienza”. fisico sperimentale, ha lavorato al CERN
di Ginevra in numerosi esperimenti. Attualmente è membro della collaborazione
ATLAS dell’acceleratore LHC del CERN nella quale ha numerosi incarichi di
coordinamento in particolare per quanto riguarda il trigger e lo spettrometro dei
muoni.
Speranza Falciano è anche membro del comitato scientifico de Il Nuovo Saggiatore
per cui le congratulazioni sono davvero speciali:
Auguri di buon lavoro da parte di tutta la redazione!
Società Italiana
Storia della Scienza
Società Italiana
di Fisica
PRESENTAZIONE DEL VOLUME
a cura di
edited by
Luisa Cifarelli
Raffaella Simili
Lo scorso 9 novembre ha avuto
luogo presso l’Accademia delle
Scienze dell’Istituto di Bologna
la presentazione ufficiale del
volume “Laura Bassi - Emblema
e primato nella scienza del
settecento/Emblem and primacy
in Settencento science”.
La bellissima Sala Ulisse era
Presentazione del volume in onore di Laura Bassi
affollata e tra il publico spiccava la
presenza di un gruppo di giovani
invitati in rappresentanza di
alcuni licei cittadini. Dopo i saluti
del Presidente dell’Accademia
delle Scienze, Francesco Antonio
Manzoli, del Magnifico Rettore
dell’Università di Bologna,
Ivano Dionigi, e delle curatrici
La Sala Ulisse durante la presentazione del volume.
del volume, rispettivamente
Presidenti delle due Società di
Fisica e di Storia della Scienza,
Luisa Cifarelli e Raffaella Simili,
si sono alternati gli oratori Carla
Faralli (Università di Bologna),
Nadia Robotti (Università di
Genova) e Lucio Fregonese
(Università di Pavia).
Ha concluso con un significativo
intervento il Sottosegretario
del MIUR, Elena Ugolini, che ha
voluto onorare l’evento con la sua
presenza.
Delle relazioni sarà dato ampio
resoconto in un prossimo fascicolo
dei Quaderni di Storia della Fisica,
pubblicato dalla SIF.
L’evento durante il saluto del Presidente dell’Accademia:
da sinistra L. Cifarelli, E. Ugolini, F. A. Manzoli, I. Dionigi e R. Simili.
vol28 / no5-6 / anno2012 >
67
intervista A
benedetto vigna
Da Pietrapertosa (Potenza) Benedetto Vigna,
nato nel 1969, si sposta presso l’Università di
Pisa per laurearsi in Fisica Subnucleare.
Nel 1995 Vigna entra a far parte del Laboratorio
di Ricerca e Sviluppo della STMicroelectronics
a Castelletto (Milano). Sei anni più tardi,
diventa direttore della Business Unit MEMS
della STMicroelectronics e responsabile per
la progettazione, produzione e marketing dei
prodotti MEMS della ST. Questi ultimi sono
stati scelti da grandi produttori di apparati di
elettronica di consumo, fra i quali Nintendo
che li ha inseriti nella sua innovativa interfaccia
utente per la console di videogiochi Wii, e da
molti produttori di telefoni cellulari. Nel 2007,
l’organizzazione di Vigna è stata trasformata
in una Divisione di Prodotto e le sue
responsabilità comprendono la gestione di
Sensori, RF, Analogici ad Alte Prestazioni e a
Segnale Misto, prodotti di Interfaccia, Audio
per Sistemi portatili, Prodotti analogici
generici.
Vigna è titolare, ad oggi, di oltre 130
domande di brevetto sul micro-machining
ed è autore di numerose pubblicazioni in
questo campo. È stato invitato a tenere
diverse relazioni in occasione di importanti
convegni internazionali. Vigna è anche
consulente industriale del Presidente del
CNR (Consiglio Nazionale delle Ricerche).
Attualmente è Executive Vice President,
Direttore Generale della Divisione Analogici,
MEMS e Sensori, posizione che ricopre dal
settembre 2011.
l’avventura dei dispositivi mems
Benedetto, dopo le scuole a Potenza
lei ha scelto di andare a studiare Fisica
subnucleare all’Università di Pisa. Cosa
voleva fare da grande?
Ero attratto dalle materie scientifiche, e Pisa
aveva una buona fama. Nel mio caso come in
molti altri ha avuto influenza la personalità
dell’insegnante di matematica e fisica del
liceo e poi un incontro con il professor Carlo
Bernardini (a Cortona nell’estate del 1987).
Sognavo di fare il ricercatore e in effetti dopo
la laurea ho lavorato prima al CERN a Ginevra,
dove mi sono occupato di cromodinamica
quantistica, poi all’European Synchrotron
Facility a Grenoble e infine al Max Planck
Institut di Monaco di Baviera a lavorare al
laser ai raggi X per decifrare la struttura
tridimensionale delle proteine. Ma la fisica
teorica ha tempi lunghissimi. Così mi sono
accorto di voler vedere dei risultati in tempi
più brevi, di amare il confronto delle mie idee
con quelle del mercato, di unire la riflessione
all’azione.
Ed è entrato in azienda…
Stavo pensando di cambiare lavoro e tipo
68 < il nuovo saggiatore
di carriera quando mi hanno chiamato per
il servizio militare. Appena congedato sono
entrato in STMicroelectronics, in uno dei centri
di Ricerca e Sviluppo dell’azienda, quello
che faceva capo a Bruno Murari e la cui sede
principale era vicino Milano, a Cornaredo.
Bruno aveva tante attività in corso ma anche
tante idee nel cassetto, e mi propose di
esplorare un campo nuovo, quello del micromachining. All’epoca, fine 1995, esistevano già
i sensori di accelerazione che fanno scattare
gli airbag delle auto. Bruno pensava alle
caratteristiche meccaniche del silicio e alle
capacità di lavorarlo che la ST aveva sviluppato
negli anni. E poi c’erano gli impianti della ST
da sfruttare. Così appena assunto mi assegnò
l’incarico di esplorare questo mondo della
fabbricazione di sensori mettendomi in mano
l’unico articolo pubblicato in materia, peraltro
da un esperto di Analog Devices. Da lì sono
partito a studiare, a leggere, a viaggiare per
conferenze scientifiche e per un anno ho
studiato a Berkeley, in California.
Dalla fisica alla microelettronica. Comincia
cosi l’avventura dei MEMS?
Non so se definirla avventura, certo in ST
c’erano solide basi di partenza in termini
industriali come know-how e come impianti.
Sul piano personale è stata sicuramente una
magnifica avventura sia perché il settore era
veramente agli inizi, il mio team era piccolo e
formato da giovanissimi, sia perché abbiamo
perseguito strade nuove rispetto alle altre
aziende e come insegnano i migliori studiosi
di marketing abbiamo creato un nuovo
settore di attività in cui ancora oggi siamo
i leader e controlliamo più del 50 per cento
del mercato. Di un mercato, oltretutto, che
cresce a due cifre nonostante l’impatto che la
crisi ha avuto dal 2008 in poi sulla domanda
di beni di elettronica di consumo.
Come avete fatto?
Abbiamo imparato molto strada facendo,
anche dai nostri stessi insuccessi. Ma all’inizio
abbiamo avuto due importanti stimoli. Da
una parte la capacità di innovazione che era
un punto fermo delle strategie di ST e quindi
era incentivata e supportata anche quando
i risultati non arrivavano immediatamente.
Dall’altra un’intuizione: i MEMS dell’epoca
erano grossi e costosi come gioielli
importanti. Questo limitava necessariamente
il loro utilizzo. Ma la ST produceva miliardi
di chip l’anno e la sua grande infrastruttura
manifatturiera si muoveva efficientemente
solo per grandi volumi. L’elettronica di
consumo era all’epoca il solo settore che
potesse assorbire grandi numeri di prodotti
ma che dovevano necessariamente avere
caratteristiche completamente diverse dai
sensori degli airbag. I nostri MEMS dovevano
essere piccoli, consumare poca energia,
svolgere molte funzioni e costare poco.
Niente gioielleria, in una parola, piuttosto
grande magazzino.
Ci siamo messi al lavoro e abbiamo
cominciato subito a correre perché
dovevamo sviluppare allo stesso tempo
il prodotto, ma anche le tecnologie per
produrlo, le macchine per testarlo, e così
via. Nuove procedure, nuove specifiche,
centinaia di brevetti (600 per la precisione),
tanti prodotti diversi sviluppati per clienti e
applicazioni diverse. Per vari motivi però non
siamo mai entrati in produzione in volumi.
Finché non abbiamo preso una decisione
radicale: abbandonare tutti gli sviluppi in
corso per affrontare una sola grande sfida a
cui nessuno si era ancora applicato. Dare cioè
ai nostri accelerometri miniaturizzati la terza
dimensione. In effetti il nostro mondo ha tre
dimensioni. Così ci siamo impegnati a costruire
un terzo asse su una piastrina di silicio di meno
di un millimetro. La sfida era enorme anche
perché dovevamo tenere bassi i consumi,
studiare un package adeguato e tenere bassi i
prezzi, come ci eravamo proposti. Ma alla fine
del 2002 avevamo il primo accelerometro a tre
assi al mondo capace cioè di percepire ogni
dimensione di movimento lineare.
è stato questo accelerometro la chiave del
successo?
Non immediatamente. Abbiamo avuto
molti contatti e molti clienti ma non grandi
volumi. Per questo è stato importante avere
alle spalle un’azienda con grande esperienza
di innovazione che ha continuato a darci
fiducia anche se il fatturato non c’era. Anzi il
management ha preso una decisione cruciale
in un momento cruciale: nonostante non
avessimo grandi ordini, è stato deciso di
avviare alla produzione di MEMS una linea
ad otto pollici, quando tutti i concorrenti ne
avevano una a sei pollici. Si è investito per
garantire al nuovo prodotto quello che gli
altri non potevano avere: grandissimi volumi,
grande affidabilità, prezzi molto contenuti.
E come ha fatto a convincerli?
L’idea di partenza nasceva dall’esperienza
di chi ha visto per anni crescere l’industria
elettronica. Abbiamo apparati sempre più
sofisticati e multifunzione. Ma se il loro uso non
resta semplice se ne limita la diffusione. Pensi
ai telecomandi dei televisori. O alle tastiere dei
telefonini. Noi pensavamo che il movimento
o meglio il gesto potesse semplificare
l’interfaccia uomo macchina. Anche per
alleggerire il peso dei dispositivi portatili.
Viene in mente il paragone con l’entrata del
mouse o delle icone sulla scena del personal
computing. Poter passare dalle raggelanti ed
ostiche istruzioni scritte alla semplicità intuitiva
della selezione con i movimenti del polso e
delle dita ha avvicinato milioni di nuovi utenti
al computer. Lo stesso tipo di rivoluzione è
stato reso possibile dall’affacciarsi dei MEMS sul
mercato di massa. C’era chi puntava sulla voce
come interfaccia che tuttavia richiede grande
dispendio di energia. Noi abbiamo avuto
successo, anche perché ci siamo attrezzati “just
in time”.
E poi, dall’altra parte del mondo qualcun
altro pensava a come mettere in pratica
l’insegnamento di P. Drucker: creare un
mercato invece di trovare un cliente.
Nintendo aveva perso la posizione di leader
nel mercato dei videogiochi rispetto a Sony
e Microsoft. Era necessario un colpo di
reni: questo è stato possibile proprio grazie
all’incontro di due innovazioni. Nintendo
ha compiuto un’innovazione radicale
trasformando il concetto di gaming con la
console Wii. D’altra parte c’è l’innovazione
radicale nella tecnologia e nella sua
applicazione all’industria rappresentata dal
nostro accelerometro a 3 assi.
Come siete arrivati a questo incontro?
Questa è una storia ormai scritta. Ma vale la
pena di ricordarla.
Sino all’arrivo sul mercato della Wii,
i videogiochi – come qualunque altra
apparecchiatura elettronica – venivano
controllati attraverso la pressione di tasti, lo
spostamento di selettori o al massimo con il
movimento di un joystick. L’interfaccia uomomacchina era tutt’altro che amichevole. Per
chi aveva superato l’adolescenza e non aveva
saputo conquistarsi un’adeguata mobilità dei
pollici, l’impatto con il gioco era addirittura
ostile. Il controllore della Wii, costruito attorno
all’accelerometro, cambia radicalmente le
regole e si propone come nuovo paradigma
nei videogiochi, trasformandosi in estensione
naturale delle braccia come racchetta da tennis,
pistola da tiro a segno, mazza da baseball o
addirittura in bacchetta di direttore d’orchestra.
Partendo da questo primo impiego di massa,
i MEMS si posizionano per creare una nuova
interfaccia, più naturale di mouse, joystick e
tasti sempre più piccoli, fra noi e le tecnologie
elettroniche della vita quotidiana. Quanto
è meglio poter comandare gli oggetti
dell’elettronica quotidiana con un semplice
gesto, una cosa che a noi mediterranei viene
peraltro facilissimo. La forza del gesto imprime
a una piccola massa all’interno del dispositivo
un’accelerazione, come spiegato 300 anni fa
dal grande Newton. Quest’accelerazione può
essere rilevata e trasformata in un segnale
elettrico. E Nintendo conquista un mercato
nuovo, il mercato di tutti coloro che mai si
erano o si sarebbero cimentati con un joystick
e che invece trovano naturale maneggiare una
racchetta o un guantone da boxe.
La console Wii è stato un successo senza
precedenti. Cosa è successo dopo?
Immagino una strada in discesa?
Niente affatto. Anzi, abbiamo cominciato
a correre ancora più veloci e affrontato
scommesse sempre più grandi. è vero che
dal 2008 siamo ufficialmente leader di un
mercato che prima non esisteva, quello dei
MEMS per applicazioni portatili e di elettronica
di consumo e da allora ci attribuiscono quote
del mercato che vanno dal 70 al 50 %. Ma
noi guardiamo a quello che non abbiamo
ancora realizzato. Dall’accelerometro a 3 assi
siamo passati al giroscopio a 3 assi, perché
l’accelerazione è importante ma il movimento
angolare è preciso. Quando abbiamo
cominciato sul mercato li trovavi in cubi di
una decina di centimetri di lato. In 100 giorni
abbiamo progettato un giroscopio di 4 mm
compreso il package per Apple. E anche questo
risultato ha aperto un mercato nuovo e molto
ampio.
Ma non c’è solo il movimento. Così costruiamo
e vendiamo sensori di pressione per poter
localizzare un oggetto in movimento anche
come altitudine. Fra l’altro questo ci ha aperto
il settore della navigazione personale in
luoghi chiusi, come aeroporti, musei o centri
commerciali dove è fondamentale sapere a
che piano mi trovo e il segnale del satellite
non arriva. Poi ci sono i microfoni MEMS,
piccolissimi anch’essi, che permettono di
cancellare il rumore e di migliorare l’audio
anche a partire da un telefono cellulare.
In effetti, guardando indietro più che il fascino
della tecnologia con cui realizziamo queste
minuscole sensibili macchine, mi colpiscono le
trasformazioni che si rendono via via possibili.
Le applicazioni sono davvero infinite e siamo
ancora solo all’inizio. Penso a quelle intorno al
nostro corpo, che ci aiuteranno a stare bene,
a migliorare la diagnosi e a curarci. Una nota
azienda di attrezzi sportivi usa i nostri sensori
per sollecitare i più pigri al movimento: registra
ogni movimento di carattere “sportivo” o
salutistico e ci mette in competizione con
noi stessi, con quanto ci siamo mossi o non
ci siamo mossi rispetto ai nostri obbiettivi.
Penso ai sensori MEMS e non che progettiamo
per gli ambienti, che processeranno dati e
manderanno informazioni ma anche istruzioni
ad altre macchine. Passiamo dall’interfaccia
uomo-macchina basata sul movimento a
macchine che interfacciano altre macchine
raccogliendo ed elaborando informazioni
dall’ambiente in cui vivono e magari anche
catturando energia per autoalimentarsi. Sono
nuovi settori che si spalancano quasi ogni
giorno.
Dal punto di vista industriale cosa ha
comportato il vostro successo?
Potremmo dire che è nata una nuova industria,
complementare a quella dei semiconduttori,
quasi un pollone nuovo da una pianta molto
radicata. Abbiamo fatto investimenti, creato
posti di lavoro, salvaguardato posti che la
crisi della domanda post 2008 aveva messo
in gioco, avviato una catena di fornitura
complementare. L’impianto produttivo di
Agrate Brianza è stato ampliato più volte per
far fronte alla domanda di MEMS, mentre a
Malta si assembla il prodotto finale e in uno
stabilimento francese si produce il chip che
legge i segnali del sensore. Calcoliamo in 1500
i posti di lavoro ST legati ai MEMS, di cui un
migliaio in Italia.
Ma soprattutto il cuore della ricerca, dello
sviluppo e del marketing resta vicino a Milano,
dove i MEMS sono nati, a Cornaredo.
S. Centro
Università di Padova
vol28 / no5-6 / anno2012 >
69
opinioni
DAMA E XENON ANCORA UNA VOLTA A
CONFRONTO
Gentile Direttore,
le scrivo in merito all’articolo “Dark Ladies”
uscito sul Nuovo Saggiatore vol. 28, n. 3-4 a
pag. 77.
Premetto che:
1) come noto anche all’autrice dell’articolo,
sono professore ordinario di Fisica
Nucleare e Subnucleare presso l’Università
di Roma Tor Vergata e non professore di
Fisica all’Università di Roma Tre, come lì
riportato.
2) avevo compreso dall’autrice che ella
fosse una giovane ricercatrice che doveva
preparare una presentazione per il
congresso SIF di Napoli nell’ambito di
un progetto europeo sulle situazioni di
genere – e su ciò si era principalmente
basata la nostra breve conversazione – e
non un articolo per il Nuovo Saggiatore.
3) il mio pensiero sull’argomento della
presunta specificità del settore in
anomalia di genere – unico punto di
interesse nel nostro breve colloquio
non è stato riportato. Avevo, infatti,
posto all’attenzione dell’autrice che tale
anomalia di fatto non esiste, essendo
– oggi e almeno nel recente passato –
presenti in molti campi di ricerca più
donne in posizione di responsabilità, un
esempio attuale per tutti: LHC.
Accludo di seguito pochi dei chiarimenti
necessari sul contenuto del testo per corretta
informazione dei lettori del Nuovo Saggiatore
e a tutela del lavoro della nostra collaborazione
internazionale.
La collaborazione DAMA – pioniere nel
settore – ha pubblicato il primo risultato
positivo indipendente da modelli nel 1998,
lo ha confermato nelle pubblicazioni del 1999,
del 2000 e del 2003, sempre con aumentata
esposizione. Successivamente il nuovo
apparato DAMA/LIBRA di seconda generazione
ha ancora confermato e pubblicato i suoi
risultati nel 2008 e nel 2010. DAMA/LIBRA è
stato potenziato recentemente ed è in presa
dati. L’evidenza – indipendente da modelli
– per la presenza di particelle di Materia
Oscura nell’alone galattico è a circa 9 sigma
di livello di confidenza e l’esposizione è ordini
di grandezza maggiore di quelle tipicamente
rilasciate nel campo. Una ampia letteratura
70 < il nuovo saggiatore
di DAMA e di altri si è resa disponibile negli
anni su analisi corollarie in termini di varie
delle molte possibili particelle candidate come
Materia Oscura dell’Universo in vari dei molti
scenari possibili di astrofisica, di fisica nucleare
e delle particelle.
Tali risultati non sono affatto in disputa con
la recente attività Xenon, cui fa riferimento
l’autrice. Infatti, DAMA persegue un approccio
diverso e indipendente da modelli, utilizza un
materiale bersaglio diverso, e – al contrario
di altri – è di per sè sensibile a molti e diversi
scenari e candidati di Materia Oscura, oltre
alla classe delle WIMPs (cui afferiscono in
realtà candidati con fenomenologie anche
molto diverse da quella assunta a priori per
il singolo risultato, dipendente da modello,
presentato da Xenon). In particolare, non c’è
possibilità di confronto diretto indipendente
da modelli tra gli osservabili misurati dalle
due attività: ampiezza di modulazione del
tasso di conteggio in NaI(Tl) per DAMA e
numero di candidati recoil-like in Xenon, che
sopravvivono a vari tipi di data handling, per
Xenon.
Per ristabilire anche un po’ di chiarezza
scientifica, noto che le implicazioni poi
dichiarate da Xenon (come da alcuni altri) si
basano tra l’altro sull’assunzione a priori –
largamente arbitraria – di un numero rilevante
di aspetti sperimentali e teorici (natura e
interazioni del candidato, leggi di scala, fattori
di forma, modello di alone, ecc. e valori dei
relativi parametri), senza dar conto inoltre
nemmeno delle incertezze esistenti in tale
particolare cucina. Le implicazioni di DAMA
non sono correttamente riportate. Ci sono poi
aspetti sperimentali nelle procedure adottate
da Xenon – come evidenziato variamente nel
campo e come ricordato dalla stessa autrice
dell’articolo – che rendono questionabili
i limiti presentati perfino per la singola cucina
assunta. è stato mostrato in letteratura ad
esempio come Xenon non abbia in realtà
sensibilità per WIMPs di bassa massa – non solo
nella sua cucina, ma in generale – considerata
sia l’energia di rinculo coinvolta che il fatto che
la pretesa soglia energetica (ed, e.g., efficienze
correlate) è estrapolata da calibrazioni a
energie molto più elevate nonostante i pochi
fotoelettroni/keV disponibili, la risposta del
rivelatore grandemente disuniforme, la luce
emessa nell’estremo UV, ecc.
Quindi, l’assioma proclamato in tale articolo
che “Xenon esclude WIMPs dove DAMA dice
che sono” è destituito di fondamento in
senso generale per tutte le ragioni indicate
e per molte altre sperimentali e teoriche.
Inoltre, DAMA è sensibile anche a candidati e
scenari cui Xenon non è. Simili affermazioni
apodittiche non erano vere in passato per
altri e non sono vere per Xenon; certo è
singolare che stavolta siano fuori virgolettato
e sul bollettino della nostra Società a
carattere scientifico invece che lasciate alla
responsabilità di quella collaborazione.
Infine, come già mostrato in letteratura, i
possibili risultati positivi di CRESST – così
come quelli di CoGeNT – sono largamente
compatibili con quelli di DAMA in vari scenari
teorici al contrario di quanto affermato in tale
articolo.
Sono certa che concorderà sull’opportunità di
pubblicare questa mia lettera a rettifica, nel
sito del Nuovo Saggiatore e nel suo prossimo
numero.
Cordialmente,
Rita Bernabei
Dipartimento di Fisica
Università di Roma Tor Vergata
Opinioni Online First
10 ottobre 2012
La ricerca della materia oscura è una sfida
affascinante. Ne è la prova la lettera di Rita
Bernabei concernente l’articolo “Dark Ladies” di
Ilenia Picardi, comparso nell’ultimo numero de
Il Nuovo Saggiatore.
Ci scusiamo innanzi tutto con Rita Bernabei per
l’imprecisione circa la sua sede universitaria.
L’affermazione incriminata, “XENON esclude
WIMPs dove DAMA dice che sono”, è però
imprecisamente riportata da Rita Bernabei.
Infatti la frase originale pubblicata nell’articolo
di Ilenia Picardi è: “DAMA vede le WIMP proprio
dove secondo XENON non ce ne dovrebbero
essere”. Il condizionale usato dall’autrice sembra
volere attenuare, a mio avviso, il carattere
apodittico attribuito a questa frase.
Ad ogni modo la disputa scientifica esiste ed è
ben nota. Nulla di male che sia stata menzionata
nelle colonne de Il Nuovo Saggiatore in un
contesto diverso dal solito.
Luisa Cifarelli
Scienza, etica e responsabilità sociale
dello scienziato
La sentenza del Tribunale dell’Aquila che ha
condannato i membri della Commissione
Grandi Rischi impone una riflessione sulla
responsabilità sociale dello scienziato scevra
da qualunque posizione preconcetta. Il punto
che qui ci interessa, non è se la sentenza – di
cui ancora non si conoscono le motivazioni –
sia stata giusta o sbagliata. Il punto è invece
costituito dal fatto che, diversamente da
quanto asserito da più parti, non c’è stato
alcun “processo alla scienza”, ma, piuttosto, una
imputazione che riconduce ad una possibile
violazione della salvaguardia dell’autonomia
della scienza: gli scienziati si sarebbero
piegati a pressioni esterne nell’esprimere le
loro valutazioni sui rischi cui la popolazione
aquilana era sottoposta [1].
In Italia, la consapevolezza dell’importanza
dei problemi etici connessi alla professione
dello scienziato è scarsa: i dibattiti ricorrenti
sull’uso delle tecniche biologiche (staminali,
procreazione assistita, OGM) non debbono
trarre in inganno. Questi dibattiti, infatti,
sono per lo più innescati per ragioni di
polemica politica o per la difesa di credenze
religiose: essi non hanno mai portato al centro
dell’attenzione la questione dell’etica della
scienza nella sua complessa articolazione.
Nel mondo anglosassone, invece, l’attenzione
rivolta ai problemi etici della scienza è stata
stimolata nei primi anni Quaranta del secolo
scorso dalle opere di Robert Merton (19102003). Seguendo la traccia di Merton, possiamo
affermare che la scienza, non è eticamente
neutra: il suo sviluppo è stato infatti favorito
dalla applicazione di alcune norme e
dall’adozione di alcuni valori il cui insieme può
essere considerato come costitutivo di un’etica
della scienza. Alcune di queste norme sono
di natura epistemologica; altre derivano dal
fatto che la scienza è un fenomeno sociale (le
norme che seguono sono una articolazione/
estensione di quelle individuate da Merton
[2, p. 267-278], qui indicate da un asterisco):
• L’indipendenza di giudizio. Per usare una
felice espressione di Percy Bridgman (18821961): “[Lo scienziato] ha scoperto che non
è sufficiente credere alle parole del suo
vicino, ma che, se vuole essere sicuro, deve
essere in grado di verificare un risultato egli
stesso”.
• Lo scetticismo organizzato: ogni asserzione
deve essere valutata dal punto di vista
•
•
•
•
•
•
logico (coerenza del contesto in cui è
inserita), da quello empirico, da quello della
plausibilità*.
Il rifiuto di dogmi e, quindi, la possibilità di
dissenso.
La parità: le opinioni devono essere
valutate indipendentemente dalla persona
che le sostiene.
Il disinteresse: gli interessi personali dello
scienziato non debbono influenzare le sue
asserzioni scientifiche*.
La comunione dei beni, cioè dei risultati
della scienza*.
L’universalismo: nessuna barriera o
connotazione nazionale, etnica, ideologica,
religiosa, politica*.
L’autonomia: le asserzioni della scienza non
debbono essere condizionate da istituzioni
o organizzazioni pubbliche o private.
La storia ha mostrato che quando qualcuna
di queste norme è stata violata da individui,
da stati, da organizzazioni civili o religiose,
il procedere della scienza ne è stato, in misura
più o meno grave, ostacolato.
L’esistenza di norme di comportamento
all’interno della comunità scientifica non
significa che esse siano universalmente
rispettate o che la loro applicazione non sia
contrastata. Le violazioni delle norme della
scienza di maggiore rilevanza non sono
quelle individuali (la manipolazione dei dati,
per esempio), ma quelle oggi favorite dal
radicamento sociale della scienza e dal suo
intreccio con la tecnologia. La progressiva
specializzazione ha favorito, per quanto
riguarda la formazione degli scienziati,
il prevalere di criteri di efficienza e rapidità
rispetto all’esigenza di sviluppare un approccio
critico allo studio delle discipline; come
conseguenza, si va indebolendo l’indipendenza
di giudizio e la capacità di valutare senza
pregiudizi posizioni non ortodosse.
La possibilità di applicazioni militari e civili
tende a limitare o ad impedire la condivisione
delle nuove conoscenze. Il richiamo a valori
etici integrativi o sostitutivi di quelli della
scienza può condurre alla richiesta di impedire
lo sviluppo della conoscenza in alcuni
settori; organizzazioni religiose perseverano
nell’attacco ad alcuni valori fondanti della
scienza quali la ricerca non condizionata
della conoscenza, l’indipendenza di giudizio,
lo scetticismo, il rifiuto di dogmi.
Tuttavia, l’attacco forse più insidioso all’etica
della scienza è, oggi, quello rivolto alla sua
autonomia. L’intreccio tra scienza e tecnologia
e il diffuso uso sociale delle conoscenze
scientifiche ha potenziato il ruolo dello
scienziato, ma ne ha anche accresciuto le
responsabilità in relazione al rispetto ed alla
salvaguardia dei valori etici della scienza.
Per esempio, uno scienziato in quanto
componente di un gruppo di esperti in difesa
di una parte attiva in un processo penale o
civile, abdica, a priori, alla sua autonomia
e pone le sue conoscenze scientifiche al
servizio di tesi precostituite. Queste forme di
consulenza sono inevitabili nelle dinamiche
delle società moderne: tuttavia, deve essere
chiara e consapevole la torsione cui è
sottoposta l’etica della scienza in questi casi di
“gioco delle parti”. Completamente diverso è
il caso di gruppi di esperti chiamati a svolgere
una funzione pubblica di consulenza su temi
di grande rilevanza sociale quali l’impatto
delle tecnologie sull’ecosistema o sulla salute
dei cittadini o la valutazione di rischi connessi
a fenomeni naturali. In questi casi, la strenua
difesa, da parte dello scienziato, della sua
autonomia da interferenze o pressioni esterne,
non risponde solo al richiamo di uno dei
fondamentali valori dell’etica della scienza, ma
è anche una sua efficace tutela dal punto di
vista penale.
Oggi, a livello mondiale, il dibattito sui temi
etici posti dalla pratica scientifica è assai vivace
e numerose sono le organizzazioni che se ne
occupano. è necessario aprire anche nel nostro
paese una seria riflessione su questi temi e
sull’opportunità di inserirli strutturalmente nei
corsi di laurea (discipline scientifiche, storia
e filosofia) e nei corsi di formazione degli
insegnanti.
Giuseppe Giuliani
Dipartimento di Fisica, Università di Pavia
Bibliografia
[1] Requisitoria dei pubblici ministeri
del 25/09/2012, in rete alla pagina:
http://www.inabruzzo.com/
REQUISITORIA.pdf
[2] R. Merton, The normative Structure of
Science, in “The Sociology of Science:
Theoretical and Empirical Investigations”
(University of Chicago Press) 1973.
Opinioni Online First
21 novembre 2012
vol28 / no5-6 / anno2012 >
71
recensioni
R. P. Huebener and H. Lüebbig
S. Komura and T. Ohta (Editors)
A Focus of Discoveries­
Non-Equilibrium Soft Matter Physics
Series in Soft Condensed Matter
Vol. 4
World Scientific, Singapore, 2012
pp. XII + 422, $108.00
Second Edition
World Scientific, Singapore, 2008
pp. X + 185; $98.00
Recensione di
Amand A. Lucas
Recensione di
R. Piazza
Pubblicata online
13 settembre 2012
Pubblicata online
10 agosto 2012
M. Bastoni
A. W. Chao and W. Chou
Eclissi !
Reviews of Accelerator Science and
Technology
cielo
Accelerator Applications in Industry
and the Environment
Vol. 4
World Scientific, Singapore, 2011
pp. VIII + 291; $168.00
Quando Sole e Luna danno spettacolo in
Springer-Verlag Milano, 2012
pp. IX + 131; € 20.00
Recensione di
F. Bònoli
Pubblicata online
11 settembre 2012
Pubblicata online
27 settembre 2012
S. Turchetti
S. Ossicini
The Pontecorvo Affair
L’Universo è fatto di storie non solo
The University of Chicago Press,
London, 2012
pp. 292, $45.00
Breve storia delle truffe scientifiche
A Cold War Defection and Nuclear Physics
di atomi
I Colibrì. Neri Pozza, Vicenza, 2012
pp. 286, € 18.00
Recensione di
L. Belloni
Recensione di
L. Belloni
Pubblicata online
28 settembre 2012
Pubblicata online
6 novembre 2012
D. S. Ginley and D. Cahen (Editors)
D. Hoffmann and M. Walker (Editors)
Fundamentals of Materials for Energy
and Environmental Sustainability
The German Physical Society in the
Third Reich
Physicists between Autonomy and
Accommodation
Cambridge University Press,
Cambridge, 2012
pp. 772, £. 135,00, US$ 122,73
Cambridge University Press,
New York, 2012;
pp. XXIII + 458, $110.00
Recensione di
A. Terrasi
Pubblicata online
5 dicembre 2012
Recensione di
D. Rifuggiato
How to get into the fascinating and
multidisciplinary world of renewable and
sustainable energies
72 < il nuovo saggiatore
Pubblicata online
5 dicembre 2012
Recensione di
Amand A. Lucas
S. Braibant, G. Giacomelli and M. Spurio
G. Caprara
Particelle e interazioni fondamentali
Storia italiana dello spazio
Visionari, scienziati e conquiste dal XIV secolo
Springer-Verlag Italia S.r.l., Milano,
2012
2a edizione
pp. XVI + 520, € 31,95
alla stazione spaziale
Saggi, Bompiani, 2012
pp. 496, € 19
ISBN 45271106
Recensione di
G. Benedek
Recensione di
L. Belloni
Pubblicata online
5 dicembre 2012
Pubblicata online
5 dicembre 2012
F. V. De Blasio
Aria, acqua, terra e fuoco
Vol. I: Terremoti, frane ed eruzioni vulcaniche
Springer-Verlag Italia S.r.l., Milano, 2012
pp. XIV + 233, € 24,00
ISBN 978-88-470-2546-2
Vol. II: Uragani, alluvioni, tsunami e asteroidi
Pubblicata online
11 dicembre 2012
Springer-Verlag Italia S.r.l., Milano, 2012
pp. XIV + 302, € 26,00
ISBN 978-88-470-2543-1
Recensione di
G. Ottonello
a cura di Giorgio Benedek
in ricordo di
Gloria Campos Venuti
Giordano Diambrini Palazzi
Marcello Cini
Gabriele Francesco Giuliani
Photograph by C. Mercadini
Roma, 25 dicembre 1928 Roma, 5 giugno 2012
Fano, 17 maggio 1926 Roma, 4 settembre 2012
Firenze, 29 luglio 1923 Roma, 22 ottobre 2012
P. Salvadori
G. Barbiellini
G. Jona-Lasinio
Pubblicato online
6 agosto 2012
Pubblicato online
27 settembre 2012
Pubblicato online
7 dicembre 2012
Ascoli Piceno, 13 aprile 1953 West Lafayette, IN, USA,
22 novembre 2012
G. Vignale
Pubblicato online
7 dicembre 2012
vol28 / no5-6 / anno2012 >
73
in evidenza
La torre degli Asinelli. Un laboratorio
di fisica
C. M. Graney; Anatomy of a fall: Giovanni
Battista Riccioli and the story of g.
Physics Today., 65 (2012) 36
Il manifesto del 96˚ congresso della SIF, Bologna
2010, ricordava l’esperimento di Giovanni Battista
Guglielmini, che, nel 1791, riuscì per primo a
misurare lo spostamento dei gravi verso Est,
facendo cadere sfere pesanti dalla torre degli
Asinelli. L’esistenza dell’effetto, come prova della
rotazione o meno della Terra, era stata avanzata
un secolo e mezzo prima dal gesuita e scienziato
Giovanni Battista Riccioli (molto prima di Coriolis)
nel suo Almagestum Novum del 1651. Egli aveva
preceduto Guglielmini nello sperimentare con
sfere lasciate cadere dagli Asinelli. L’effetto, che
sarà calcolato solo da Newton nel 1679, è molto
piccolo (17 mm nel caso specifico) e Riccioli
non riuscì ad osservarlo, ma alcuni notevoli
suoi risultati sperimentali sono stai ora portati
all’attenzione di un vasto pubblico da Physics
Today.
Illustrazione degli
esperimenti degli Asinelli
dall’Almagestum Novum.
Graney, che ha studiato l’Almagestum Novum,
racconta come Riccioli fosse rimasto scettico
leggendo, col permesso dei superiori, nel Dialogo
di Galilei, che era all’indice, l’affermazione che
un grave impiega 5 s per cadere da fermo da 100
braccia (circa 48 m). Infatti aveva misurato tempi
minori per percorsi di caduta maggiori. Aveva
ragione Riccioli, anche i grandi sbagliano a volte.
Decise quindi di misurare accuratamente i tempi
di caduta. Fabbricò pendoli di diversi periodi
che calibrò accuratamente in secondi siderali
rispetto ai moti celesti (due passaggi successivi
di una stella al meridiano). Si fece aiutare da
confratelli, con qualche difficoltà nell’ultimo caso,
nel conteggio delle oscillazioni per 24, 48 e sino
a 72 ore.
Per misurare i brevi intervalli di tempo delle
cadute libere utilizzò un pendolo di semiperiodo
di 1/6 di secondo. Nell’Almagestum Novum si
trovano riportati i risultati di tre esperimenti, nei
quali si misurano gli intervalli di tempo impiegati
dal grave (una sfera di argilla di 8 once di massa)
a percorrere successive distanze nella caduta (5
distanze nei primi due esperimenti, 4 nell’ultimo).
La resistenza dell’aria risulta di fatto trascurabile,
a meno degli ultimi tratti, e Riccioli confermò
con la precisione di qualche per cento la legge di
Galilei che gli spazi sono proporzionali ai quadrati
dei tempi impiegati dall’inizio (o proporzionali ai
numeri “oddi” negli intervalli successivi). Si noti
che Galilei aveva trovato la legge sperimentando
di proposito con accelerazioni ridotte, nei suoi
74 < il nuovo saggiatore
esperimenti di discesa con rotolamento sul piano
inclinato.
Graney conclude riportando i dati di Riccioli
in un grafico dei tempi (in secondi) contro le
distanze (in piedi romani) e mostrando come i
punti cadano su di una parabola. Il fit dà g = 9.36
± 0.22 m/s2, dove rimane un’incertezza dovuta
al rapporto tra piedi e metri. Riccioli non calcolò
l’accelerazione di gravità, ma, se l’avesse fatto,
avrebbe trovato un valore corretto entro il 5%.
Per altre informazioni sull’Almagestum Novum
vedi di C. M. Graney arXiv 1103.2057; 1204.3267 e
1205.4663
Una sorgente di fotoni singoli
sintonizzabile nella banda delle
telecomunicazioni su fibra ottica
S. Zaske et al., Visible to telecom frequency
conversion of light from a single quantum
emitter.
Physical Review Letters, 109 (2012) 147404
I quantum dots sono insiemi di atomi di
dimensioni nanometriche che possiedono
collettivamente stati elettronici eccitati. Essi
possono emettere, diseccitandosi, un singolo
fotone. Il loro utilizzo pratico come emettitori di
segnale in una rete di comunicazione a fibra ottica
deve risolvere il problema che i quantum dots
emettono nel visibile o vicino infrarosso, mentre le
fibre ottiche lavorano nell’infrarosso medio.
Gli autori sono riusciti a dimostrare un processo
efficiente (>30%) di conversione quantitstica di
frequenza di fotoni singoli, “quantum frequency
down conversion (QFDC)”, convertendo fotoni
singoli emessi da un quantum dot nel visibile
(711 nm) ad una frequenza da telecomunicazioni
(1313 nm). Un forte filtraggio spettrale permette
di operare con elevato rapporto segnale/
rumore. L’analisi della coerenza del primo e del
secondo ordine, prima e dopo la conversione di
frequenza, mostra che le proprietà rilevanti della
radiazione, il tempo di coerenza e l’antibunching,
sono completamente conservate dal processo
di conversione. I fotoni singoli convertiti sono
accoppiati via fibra e la lunghezza d’onda
di pompa è a 1550 nm (banda C telecom),
rendendo lo schema, completamente a stato
solido, del tutto compatibile con le strutture
esistenti di telecomunicazioni. Gli autori
concludono affermando di aver provato come
la combinazione di un brillante emettitore
quantistico con la tecnica QFDC fornisca un
elegante e flessibile approccio alla realizzazione di
sorgenti di fotone singolo sintonizzabili in banda
da telecomunicazioni.
primaria entrando nell’atmosfera dà origine ad
uno sciame di particelle cariche e neutre che
si sviluppa via via nell’atmosfera. Auger copre
un’area di 3000 km2 con una tecnica di rivelazione
ibrida composta da un insieme di rivelatori di
particelle cariche al suolo e di telescopi che
osservano (di notte) la fluorescenza dell’azoto
atmosferico prodotta dallo sciame.
L’osservatorio è così in grado di “fotografare”
la forma dello sciame e di determinare, in
particolare, Xmax , la posizione alla quale lo
sciame deposita la massima energia. Più grande
è la sezione d’urto primario-aria più piccolo è
Xmax . La composizione dei raggi cosmici, cioè
le frazioni, dipendenti dall’energia, di protoni e
nuclei di diversa massa è solo parzialmente nota.
Auger sfrutta quindi il fatto che la “coda” della
distribuzione di Xmax è sensibile alla sezione d’urto
dei protoni. La composizione rimane comunque
la maggior sorgente di incertezze sistematiche e
Auger limita l’analisi ad energie tra 1018 e 1018.5 eV
dove i dati suggeriscono che la composizione sia
per la maggior parte di protoni. La corrispondente
energia media nel centro di massa è 57 TeV.
Dopo aver ricavato la sezione d’urto protonenucleo di aria medio, gli autori estraggono la
sezione d’urto protone-protone e la confrontano
con le estrapolazioni, guidate da diversi modelli,
dai valori misurati a LHC.
I laboratori sotterranei del mondo
Un “focus point on Deep underground science
laboratories and projects”.
EPJ Plus, 127, N. 9 (2012)
Il modello standard delle particelle elementari
e delle interazioni fondamentali è stato testato
con precisione agli acceleratori, sino alla recente
scoperta a LHC dell’ultimo elemento mancante,
il bosone di Higgs. Sappiamo però che esso
non è completo e che la scala alla quale le forze
debole, elettromagnetica e forte si unificano non
è raggiungibile con acceleratori, meno ancora
quella di Planck.
Fenomeni caratterizzati da altissime energie
possono essere indagati indirettamente
ricercando eventi naturali estremamente rari.
Per farlo bisogna anzitutto proteggere gli
esperimenti dalla radiazione cosmica, lavorando
in laboratori sotterranei appositamente progettati
ed attrezzati. Quello del Gran Sasso è il più
grande al mondo, sia come dimensioni sia come
utenza, ma ce ne sono parecchi altri in Europa, in
Giappone e in Canadà e in progetto negli USA,
Argentina, Cina ed India. Il focus point contiene la
loro descrizione fatta da ciascuno dei direttori.
Misura di sezione d’urto di protoni ad
energia più alta di LHC
P. Abreu et al. Measurement of the proton-air
cross section at √s=57 TeV with Pierre Auger
Observatory
Physical Review Letters, 109 (2012) 062002
L’osservatorio Pierre Auger studia le particelle
più energiche dell’Universo, i raggi cosmici
di altissime energie, nella Pampa Amarilla
dell’Argentina. La regione energetica di interesse,
ancora poco nota, è ad energie maggiori di
1019 eV, dove il flusso è di una particella per
chilometro quadrato per secolo. La particella
a cura di Alessandro Bettini
annunci
Time and Matter
4 - 8 March 2013, Venice, Italy
http://tam.ung.si/
email: [email protected] web: http://www.ntu.edu.sg/ias/QCD
vol28 / no5-6 / anno2012 >
75
University of Sharjah, Sharjah - UAE
http://metaconferences.org/
Sharjah - Central Souq
http://www.inpc2013.it/
76 < il nuovo saggiatore
MECO38
38th Conference of the Middle European Cooperation in Statistical Physics
25 - 27 March 2013
(ICTP, Trieste, Italy)
ISAPP Schools in 2013
ISAPP, the International
School of AstroParticle
Physics, is a network,
including 33 Institutions
from France, Germany,
Israel, Italy, Norway, Russia,
Slovenia, Sweden, Spain
and the U.K. It organizes
two European Doctorate
Schools every summer
since 2003.
Next July, the two schools
will be held in Canfranc
Estacion in the Spanish
Pyrenees, hosted by the
Underground Laboratory,
and at Diurönäset near
Stocholm organized by
Alessandro Bettini and Lars
Bergström, respectively.
Further details at the web
sites.
http://www.lsc-canfranc.es/isapp2013/
http://okc.albinova.se/isapp2013stockholm
vol28 / no5-6 / anno2012 >
77
indici del volume 28
INDICE PER FASCICOLI
Numero 1/2, 2012
Editoriale/Editorial
L. Cifarelli 3
La nanofotonica in silicio e la fotonica con il nanosilicio
A. Anopchenko, F. J. Aparicio Rebollo, P. Bettotti, F. Bianco, P. Bellutti,
M. Cazzanelli, K. Fedus, E. Froner, D. Gandolfi, M. Ghulinyan, N. Kumar,
Y. Jestin, P. Ingenhoven, S. Larcheri, L. Lunelli, M. Mancinelli, A. Marconi,
E. Moser, L. Pasquardini, C. Pederzolli, C. Potrich, N. Prtljaga, G. Pucker,
F. Ramiro Manzano, E. Rigo, M. Scarpa, F. Sgrignuoli, A. Tengattini,
L. Pavesi 5
The proton in 3D
a. bacchetta, m. contalbrigo 16
energia dalla differenza di salinità
D. Brogioli 28
The policryps holographic structure
C. P. Umeton 39
Cent’anni di superconduttività
A. Varlamov, M. Putti, P. Fabbricatore, L. Rossi, G. Grasso, R. Vaglio,
P. Carelli 53
Programma della Scuola estiva “Enrico Fermi” di Varenna 67
Joint EPS-SIF International School on Energy 72
XCVIII Congresso Nazionale della Società Italiana di Fisica:
Informazioni generali 73
Bandi dei concorsi a premi della SIF
77
Il Nuovo Cimento 150, 100, 50 anni fa
A. Bettini 82
Una petizione europea affronta la questione del genere per rafforzare
ricerca e innovazione
S. Croci 83
Intervista a Angela Bracco
E. Nappi 85
Opinioni (F. Guerra, N. Robotti)
86
Recensioni (*)
87
In ricordo di (*)
Fernando Pacciani (E. Iarocci)
88
Alberto Gigli Berzolari (A. Piazzoli)
88
Alessandro Alberigi Quaranta (C. Jacoboni, A. Taroni)
88
Massimo Ugo Palma (A. Messina, F. Persico)
88
In evidenza (A. Bettini)
89
Annunci
90
Numero 3/4, 2012
Editoriale/Editorial
L. Cifarelli
3
Il bosone di Higgs: la sua esistenza, la nostra esistenza
A. Masiero
5
A quantum digital universe
G. M. D’Ariano
13
Applicazione di nanofili di ossidi metallici nel campo prevenzione/sicurezza
E. Comini, G. Faglia, M. Ferroni, A. Ponzoni, D. Zappa, G. Sberveglieri 23
Occhio specchio dell’anima: il sistema visivo umano visto dalla fisica
A. Farini 35
i 50 anni dei laboratori di legnaro: un pezzo di storia della Fisica dei
Nuclei in Italia
R. A. Ricci 45
(*) Il testo completo delle recensioni e dei necrologi è pubblicato
solo nella versione online (http://www.sif.it/attivita/
saggiatore/econtents)
78 < il nuovo saggiatore
XCVIII Congresso Nazionale della Società Italiana di Fisica
Programma Generale SISSA: una realtà italiana nel panorama internazionale
G. Martinelli Il Nuovo Cimento 150, 100, 50 anni fa
A. Bettini
Progetto STEPSTWO (2009-2011): attività, risultati e raccomandazioni
E. Sassi Cento anni di diffrazione dei raggi X
N. Robotti Il progetto HadronPhysics3
C. Guaraldo
Dark ladies
I. Picardi
Opinioni (E. Lodi Rizzini) Recensioni (*)
In evidenza (A. Bettini)
Annunci
61
64
68
69
73
75
77
79
79
80
81
Numero 5/6, 2012
Editoriale/Editorial
L. Cifarelli
3
Disordered systems
A. Ottochian, C. De Michele, F. Puosi, D. Leporini 5
The super flavor factory SuperB
M. a. giorgi, m. rama10
Dalle basse dosi al “Silenzio cosmico”
e. fratini, d. capece 23
Cosmic rays: a century of mysteries
A. v. olinto31
Cerimonia Inaugurale XCVIII Congresso Nazionale della Società Italiana
di Fisica
39
The European Project “Immersion in the science worlds through the arts”
F. Rustichelli, M. Stefanon 46
Gran Sasso Science Institute
E. Coccia
50
La fisica degli acceleratori in Italia
L. Palumbo
52
Il Nuovo Cimento 150, 100, 50 anni fa
A. Bettini
56
The Italian Physical Society “Enrico Fermi” Prize and Medal 2012
A. Bettini
57
SIF-IOP “Giuseppe (Beppo) Occhialini” Prize and Medal 2012
A. Bettini
59
Il Premio Nobel per la Fisica 2012
L. Fallani, M. Inguscio, G. M. Tino
60
Il “compleanno” dell’A.I.F. e il XIII Convegno Orlandini
S. Sgrignoli
64
European Gender Summit 2012
A. Proykova
66
Intervista a Benedetto Vigna
S. Centro
68
Opinioni (R. Bernabei); (G. Giuliani)
70
Recensioni (*)72
In ricordo di (*)
Gloria Campos Venuti (P. Salvadori)
Giordano Diambrini Palazzi (G. Barbiellini)
Marcello Cini (G. Jona-Lasinio)
Gabriele Francesco Giuliani (G. Vignale)
73
In evidenza (A. Bettini)
74
Annunci
75
indice del vol. 28
78
INDICE PER AUTORI
Froner E. (vedi Anopchenko A.)
A
Anopchenko A., Aparicio Rebollo F. J., Bettotti P., Bianco F.,
Bellutti P., Cazzanelli M., Fedus K., Froner E., Gandolfi D.,
Ghulinyan M., Kumar N., Jestin Y., Ingenhoven P., Larcheri S.,
Lunelli L., Mancinelli M., Marconi A., Moser E., Pasquardini L.,
Pederzolli C., Potrich C., Prtljaga N., Pucker G., Ramiro Manzano F.,
Rigo E., Scarpa M., Sgrignuoli F., Tengattini A., Pavesi L.
La nanofotonica in silicio e la fotonica con il nanosilicio
28:1/2, 5
Aparicio Rebollo F. J. (vedi Anopchenko A.)
G
Gandolfi D. (vedi Anopchenko A.)
Ghulinyan M. (vedi Anopchenko A.)
giorgi M. a., rama m.
The super flavor factory SuperB
Giuliani G.
Scienza, etica e responsabilità sociale dello scienziato
Grasso G. (vedi Varlamov A.)
Guaraldo C.
Il progetto HadronPhysics3
Guerra F., Robotti N.
La borsa di studio della rivista “Missioni”: un punto fermo sulla
vicenda di Ettore Majorana
B
bacchetta a., contalbrigo m.
The proton in 3D
Barbiellini G.
In ricordo di (*) Giordano Diambrini Palazzi Bellutti P. (vedi Anopchenko A.)
Bernabei R.
DAMA e XENON ancora una volta a confronto Bettini A.
The Italian Physical Society “Enrico Fermi” Prize and Medal 2012 Bettini A.
SIF-IOP “Giuseppe (Beppo) Occhialini” Prize and Medal 2012
Bettotti P. (vedi Anopchenko A.)
Bianco F. (vedi Anopchenko A.)
Brogioli D.
energia dalla differenza di salinità
C
capece d. (vedi fratini e.)
Carelli P. (vedi Varlamov A.)
Cazzanelli M.(vedi Anopchenko A.)
Centro S.
Intervista a Benedetto Vigna
Coccia E.
Gran Sasso Science Institute
Comini E., Faglia G. , Ferroni M., Ponzoni A., Zappa D.,
Sberveglieri G.
Applicazione di nanofili di ossidi metallici nel campo
prevenzione/sicurezza
contalbrigo m. (vedi bacchetta a.)
Croci S.
Una petizione europea affronta la questione del genere per
rafforzare ricerca e innovazione
D
D’Ariano G. M.
A quantum digital universe
De Michele C. (vedi Ottochian A.)
F
Fabbricatore P. (vedi Varlamov A.)
Fallani L., Inguscio M., Tino G. M.
Il Premio Nobel per la Fisica 2012
Faglia G. (vedi Comini E.)
Farini A.
Occhio specchio dell’anima: il sistema visivo umano visto
dalla fisica
Fedus K. (vedi Anopchenko A.)
Ferroni M. (vedi Comini E.)
fratini e., capece d.
Dalle basse dosi al “Silenzio cosmico” 28:1/2, 16
28:5/6, 73
28:5/6, 70
28:5/6, 57
28:5/6, 59
28:1/2, 28
I
Iarocci E.
In ricordo di (*) Fernando Pacciani
Ingenhoven P. (vedi Anopchenko A.)
Inguscio M. (vedi Fallani L.)
28:5/6, 10
28:5/6, 71
28:3/4, 75
28:1/2, 86
28:1/2, 88
J
Jacoboni C. , Taroni A.
In ricordo di (*) Alessandro Alberigi Quaranta
Jestin Y. (vedi Anopchenko A.)
Jona-Lasinio G.
In ricordo di (*) Marcello Cini 28:1/2, 88
28:5/6, 73
K
Kumar N.(vedi Anopchenko A.)
28:5/6, 68
28:5/6, 50
28:3/4, 23
28:1/2, 83
28:3/4, 13
L
Larcheri S. (vedi Anopchenko A.)
Leporini D. (vedi Ottochian A.)
Lodi Rizzini E.
Riflessioni sui parametri ANVUR Lunelli L. (vedi Anopchenko A.)
28:3/4, 79
M
Mancinelli M. (vedi Anopchenko A.)
Marconi A. (vedi Anopchenko A.)
Martinelli G.
SISSA: una realtà italiana nel panorama internazionale
Masiero A.
Il bosone di Higgs: la sua esistenza, la nostra esistenza Messina A., Persico F.
In ricordo di (*) Massimo Ugo Palma
Moser E. (vedi Anopchenko A.)
N
Nappi E.
Intervista a Angela Bracco
28:5/6, 60
28:3/4, 64
28:3/4, 5
28:1/2, 88
28:1/2, 85
28:3/4, 35
O
olinto A. v.
Cosmic rays: a century of mysteries
Ottochian A., De Michele C. , Puosi F., Leporini D.
Disordered systems 28:5/6, 23
P
Palumbo L.
La fisica degli acceleratori in Italia
28:5/6, 31
28:5/6, 5
28:5/6, 52
vol28 / no5-6 / anno2012 >
79
Pasquardini L. (vedi Anopchenko A.)
Pavesi L. (vedi Anopchenko A.)
Pederzolli C. (vedi Anopchenko A.)
Persico F. (vedi Messina A.)
Piazzoli A.
In ricordo di (*) Alberto Gigli Berzolari
Picardi I.
Dark ladies
Ponzoni A. (vedi Comini E.)
Potrich C. (vedi Anopchenko A.)
Prtljaga N. (vedi Anopchenko A.)
Proykova A.
European Gender Summit 2012 Pucker G. (vedi Anopchenko A.)
Puosi F. (vedi Ottochian A.)
Putti M. (vedi Varlamov A.)
INDICE PER RUBRICHE
SCIENZA IN PRIMO PIANO
28:1/2, 88
28:3/4, 77
28:5/6, 66
R
rama m. (vedi giorgi M. a.)
Ramiro Manzano F. (vedi Anopchenko A.)
Ricci R. A.
i 50 anni dei laboratori di legnaro: un pezzo di storia della Fisica
dei Nuclei in Italia
28:3/4, 45
Rigo E. (vedi Anopchenko A.)
Robotti N. (vedi Guerra F.)
Robotti N.
Cento anni di diffrazione dei raggi X
28:3/4, 73
Rossi L. (vedi Varlamov A.)
Rustichelli F., Stefanon M.
The European Project “Immersion in the science worlds through
the arts”
28:5/6, 46
S
Salvadori P.
In ricordo di (*) Gloria Campos Venuti
Sassi E.
Progetto STEPSTWO (2009-2011): attività, risultati e
raccomandazioni
Sberveglieri G. (vedi Comini E.)
Scarpa M. (vedi Anopchenko A.)
Sgrignoli S.
Il “compleanno” dell’A.I.F. e il XIII Convegno Orlandini
Sgrignuoli F. (vedi Anopchenko A.)
Stefanon M. (vedi Rustichelli F.)
28:5/6, 73
28:3/4, 69
V
Varlamov A., Putti M., Fabbricatore P., Rossi L., Grasso G.,
Vaglio R., Carelli P.
Cent’anni di superconduttività
Vaglio R. (vedi Varlamov A.)
Vignale G.
In ricordo di (*) Gabriele Francesco Giuliani
Z
Zappa D. (vedi Comini E.)
80 < il nuovo saggiatore
FISICA E...
Applicazione di nanofili di ossidi metallici nel campo
prevenzione/sicurezza
E. Comini, G. Faglia, M. Ferroni, A. Ponzoni, D. Zappa,
G. Sberveglieri Dalle basse dosi al “Silenzio cosmico”
e. fratini, d. capece energia dalla differenza di salinità
D. Brogioli Occhio specchio dell’anima: il sistema visivo umano visto dalla
fisica
A. Farini The policryps holographic structure
C. P. Umeton 28:3/4, 23
28:5/6, 23
28:1/2, 28
28:3/4, 35
28:1/2, 39
PERCORSI
28:5/6, 64
T
Taroni A. (vedi Jacoboni C. )
Tengattini A. (vedi Anopchenko A.)
Tino G. M. (vedi Fallani L.)
U
Umeton C. P.
The policryps holographic structure
A quantum digital universe
G. M. D’Ariano
28:3/4, 13
Disordered systems
A. Ottochian, C. De Michele, F. Puosi, D. Leporini 28:5/6, 5
Il bosone di Higgs: la sua esistenza, la nostra esistenza
A. Masiero
28:3/4, 5
La nanofotonica in silicio e la fotonica con il nanosilicio
A. Anopchenko, F. J. Aparicio Rebollo, P. Bettotti, F. Bianco,
P. Bellutti, M. Cazzanelli, K. Fedus, E. Froner, D. Gandolfi,
M. Ghulinyan, N. Kumar, Y. Jestin, P. Ingenhoven, S. Larcheri,
L. Lunelli, M. Mancinelli, A. Marconi, E. Moser, L. Pasquardini,
C. Pederzolli, C. Potrich, N. Prtljaga, G. Pucker, F. Ramiro Manzano,
E. Rigo, M. Scarpa, F. Sgrignuoli, A. Tengattini, L. Pavesi 28:1/2, 5
The proton in 3D
a. bacchetta, m. contalbrigo 28:1/2, 16
The super flavor factory SuperB
M. a. giorgi, m. rama
28:5/6, 10
Cent’anni di superconduttività
A. Varlamov, M. Putti, P. Fabbricatore, L. Rossi, G. Grasso,
R. Vaglio, P. Carelli 28:1/2, 53
Cosmic rays: a century of mysteries
A. v. olinto
28:5/6, 31
i 50 anni dei laboratori di legnaro: un pezzo di storia della Fisica
dei Nuclei in Italia
R. A. Ricci 28:3/4, 45
IL NOSTRO MONDO
28:1/2, 39
28:1/2, 53
28:5/6, 73
Gran Sasso Science Institute
E. Coccia
La fisica degli acceleratori in Italia
L. Palumbo
SISSA: una realtà italiana nel panorama internazionale
G. Martinelli The European Project “Immersion in the science worlds
through the arts”
F. Rustichelli, M. Stefanon Scuole e Congressi SIF
Programma della Scuola estiva “Enrico Fermi” di
Varenna XCVIII Congresso Nazionale della Società Italiana di Fisica:
Informazioni generali
28:5/6, 50
28:5/6, 52
28:3/4, 64
28:5/6, 46
28:1/2, 67
28:1/2, 73
Bandi dei concorsi a premi della SIF
XCVIII Congresso Nazionale della Società Italiana di Fisica
Programma Generale Cerimonia Inaugurale XCVIII Congresso Nazionale della
Società Italiana di Fisica
Joint EPS-SIF International School on Energy 28:5/6, 39
28:1/2, 72
Il Nuovo Cimento 150, 100, 50 anni fa
A. Bettini 28:1/2, 82
28:3/4, 68
28:5/6, 56
News
Cento anni di diffrazione dei raggi X
N. Robotti Dark ladies
I. Picardi
European Gender Summit 2012
A. Proykova
Il “compleanno” dell’A.I.F. e il XIII Convegno Orlandini
S. Sgrignoli
Il Premio Nobel per la Fisica 2012
L. Fallani, M. Inguscio, G. M. Tino
Il progetto HadronPhysics3
C. Guaraldo
Progetto STEPSTWO (2009-2011): attività, risultati e
raccomandazioni
E. Sassi SIF-IOP “Giuseppe (Beppo) Occhialini” Prize and Medal 2012
A. Bettini
The Italian Physical Society “Enrico Fermi” Prize and
Medal 2012
A. Bettini
Una petizione europea affronta la questione del genere per
rafforzare ricerca e innovazione
S. Croci Intervista a
Angela Bracco
E. Nappi Benedetto Vigna
S. Centro
In ricordo di (*)
Fernando Pacciani
E. Iarocci
Alberto Gigli Berzolari
A. Piazzoli
Alessandro Alberigi Quaranta
C. Jacoboni, A. Taroni
Massimo Ugo Palma
A. Messina, F. Persico
Gloria Campos Venuti
P. Salvadori
Giordano Diambrini Palazzi
G. Barbiellini
Marcello Cini
G. Jona-Lasinio
Gabriele Francesco Giuliani
G. Vignale
28:1/2, 77
28:3/4, 61
28:3/4, 73
28:3/4, 77
28:5/6, 66
28:5/6, 64
28:5/6, 60
28:3/4, 75
28:3/4, 69
28:5/6, 59
28:5/6, 57
28:1/2, 83
28:1/2, 85
28:5/6, 68
28:1/2, 88
28:1/2, 88
28:1/2, 88
28:1/2, 88
28:5/6, 73
28:5/6, 73
28:5/6, 73
28:5/6, 73
OPINIONI
La borsa di studio della rivista “Missioni”: un punto fermo
sulla vicenda di Ettore Majorana
F. Guerra, N. Robotti 28:1/2, 86
Riflessioni sui parametri ANVUR
E. Lodi Rizzini DAMA e XENON ancora una volta a confronto
R. Bernabei
Scienza, etica e responsabilità dello scienziato
G. Giuliani
28:3/4, 79
28:5/6, 70
28:5/6, 71
RECENSIONI (*)
Accelerator Physics, S. Y. Lee
recensito da G. Bellomo
A Focus of Discoveries, R.P. Huebener and H. Lübbig
recensito da Amand A. Lucas
Analisi dei dati per il data mining, M. Fraire e A. Rizzi
recensito da R. Habel, M. Pallotta
Aria, acqua, terra e fuoco, F.V. De Blasio
recensito da G. Ottonello
Fundamentals of Materials for Energy and Environmental
Sustainability, David S. Ginley and David Cahen (Editors)
recensito da A. Terrasi
Eclissi! Quando Sole e Luna danno spettacolo in cielo, M. Bastoni
recensito da F. Bònoli
Il rumore elettrico, G. V. Pallottino
recensito da F. Marchesoni
I marziani siamo noi, G. F. Bignami
recensito da G. Benedek
Judging Edward Teller, I. Hargittai
recensito da G. Kauffman, L. Belloni
Il Papa e l’Inquisitore, G. Maltese
recensito da L. Belloni
Léon Rosenfeld, A. S. Jacobsen
recensito da Amand A. Lucas
L’Universo è fatto di storie non solo di atomi, S. Ossicini
recensito da L. Belloni
Mass and Motion in General Relativity, L. Blanchet, A. Spallicci and
B. Whiting (Editors)
recensito da Luca Lusanna
Modern Perspectives in Lattice QCD, L. Lellouch, R. Sommer,
B. Svetitsky, A. Vladikas and L. F. Cugliandolo (Editors)
recensito da G. Marchesini Non-Equilibrium Soft Matter Physics, S. Komura and T. Ohta (Editors)
recensito da R. Piazza
Odissea nello zeptospazio, G. F. Giudice
recensito da G. Isidori
Particelle e interazioni fondamentali, S. Braibant, G. Giacomelli and
M. Spurio
recensito da G. Benedek
Physics Around Us. How and Why Things Work, E. M. Henley and
J. G. Dash
recensito da A. Rigamonti
Quadrivium, M. Lundy, D. Sutton, A. Ashton, J. Martineau,
J. Martineau
recensito da G. Benedek
Reviews of Accelerator Science and Technology, A. W. Chao and
W. Chou
recensito da D. Rifuggiato
Storia italiana dello spazio, G. Caprara
recensito da L. Belloni
The German Physical Society in the Third Reich, D. Hoffmann and
M. Walker (Editors)
recensito da Amand A. Lucas
The Mathematics and Topology of Fullerenes, F. Cataldo,
A. Graovac, O. Ori (Editors), Tores et Torsades, J. Charvolin et
J.-F. Sadoc, Nanomolecules and Nanostructures, M. V. Diudea
recensito da G. Benedek (recensione unica)
28:3/4, 79
28:5/6, 72
28:3/4, 79
28:5/6, 73
28:5/6, 72
28:5/6, 72
28:1/2, 87
28:1/2, 87
28:1/2, 87
28:1/2, 87
28:3/4, 79
28:5/6, 72
28:3/4, 79
28:1/2, 87
28:5/6, 72
28:1/2, 87
28:5/6, 73
28:1/2, 87
28:5/6, 72
28:5/6, 73
28:5/6, 72
28:1/2, 88
vol28 / no5-6 / anno2012 >
81
The Pontecorvo Affair. A Cold War Defection and Nuclear Physics,
S. Turchetti
recensito da L. Belloni
28:5/6, 72
Transiting Exoplanets, C. A. Haswell
recensito da R. Gratton
28:1/2, 87
IN EVIDENZA
Il salto di Bidone - L’energi a nel Sole - La tela del ragno Oscillazioni quantistiche di punto zero di un regolo L’ombra della terra sui positroni
82 < il nuovo saggiatore
28:1/2, 89
Brillanti prospettive per la fisica dei neutrini - Icecube non
vede neutrini da lampi gamma - La scoperta di una
quasi-particella, spinore di Majorana - Come scuotere un
elettrone fuori da un atomo 28:3/4, 80
La torre degli Asinelli. Un laboratorio di fisica - Una sorgente
di fotoni singoli sintonizzabile nella banda delle
telecomunicazioni su fibra ottica - Misura di sezione d’urto di
protoni ad energia più alta di LHC - I laboratori sotterranei del
mondo
28:5/6, 74
2013
DOMANDA DI ISCRIZIONE alla SOCIETÀ ITALIANA DI FISICA
ITALIAN PHYSICAL SOCIETY MEMBERSHIP APPLICATION FORM
Nome
Name
Cognome
Surname
Luogo e data di nascita
Place and date of birth
Nazionalità
Nationality
a
Istituto o Ente di appartenenza
Affiliation
b
Indirizzo privato
Home address
Indirizzo e-mail
E-mail
Breve curriculum (titolo di studio, attività didattica e scientifica):
Brief scientific curriculum:
a
Indirizzo a cui inviare il Bollettino della Società e la corrispondenza:
Address where Bullettin and Society communications are to be sent:
Firme leggibili dei Soci Presentatori (*)
Signatures of two introducing Members (*)
b
Nomi in stampatello e indirizzi e-mail
Names in block letters and e-mail addresses
1)
2)
Socio INDIVIDUALE
INDIVIDUAL Member
€ 45,00
Socio JUNIOR al di sotto dei 30 anni
JUNIOR Member under 30
€ 25,00
Socio INDIVIDUALE anche membro di altre associazioni scientifiche relative alla fisica (**)
INDIVIDUAL Member also member of other scientific associations (**)
€ 35,00
Socio COLLETTIVO
COLLECTIVE Member
€ 260,00
Socio SOSTENITORE (a partire da)
SPONSORING Member (starting from)
€ 310,00
La quota di iscrizione dovrà essere pagata dopo aver ricevuto comunicazione dell’accettazione della domanda. (*)
Applicants will have to pay the membership dues only AFTER having been informed by the Society of the acceptance of their application. (*)
(*) Eccetto per i Soci INVITATI (neolaureati triennali in Fisica) che usufruiscono di pre-associazione gratuita per due anni.
(*) Except for INVITED Members (newly graduated bachelors in Physics) who are granted free pre-membership for two years.
(**) Informazioni: http://www.sif.it/associazione
(**) Information: http://en.sif.it/association
Data
Date
Firma
Signature
Autorizzo il trattamento dei miei dati personali ai sensi del D.Lgs. 196/2003
I hereby authorize the treatment of my personal data according to the privacy law D.Lgs. 196/2003
sì /yes
no
Società Italiana di Fisica
Via Saragozza 12 - 40123 Bologna
Tel. 051331554 - Fax 051581340 - e-mail: [email protected] - internet: http: //www.sif.it
SOCIETÀ ITALIANA DI FISICA
Per diventare Socio SIF:
Informazioni: http://www.sif.it/associazione
Quote sociali 2013 della Società Italiana di Fisica
Socio Individuale
Socio Junior al di sotto dei 30 anni
Socio Individuale anche membro di altra associazione scientifica relativa alla fisica (*)
Socio Collettivo
Socio Sostenitore (a partire da)
€ 45,00
€ 25,00
€ 35,00
€ 260,00
€ 310,00
(*) Informazioni: http://www.sif.it/associazione
Per diventare Socio EPS:
Informazioni: http://www.eps.org/subscribe
Quote sociali 2013 della Società Europea di Fisica per “Individual membership”
Socio
Socio al di sotto dei 30 anni
Socio in pensione
Studente
Insegnante (pre-universitario)
€ 22,00
€ 16,50
€ 16,50
€ 16,50
€ 16,50
Modalità di pagamento della quota sociale alla SIF:
online a mezzo carta di credito, tramite collegamento diretto e sicuro (POS) con la banca BNL, attraverso l’Area Soci del
sito web della Società Italiana di Fisica
a mezzo assegno bancario
a mezzo bonifico postale:
BancoPosta, IBAN IT14 G076 0102 4000 0001 9197 409
intestato a: Il Nuovo Cimento - Società Italiana di Fisica S.I.F.
a mezzo versamento sul c/c postale n. 19197409
intestato a: Il Nuovo Cimento - Società Italiana di Fisica S.I.F.
a mezzo carta di credito, tramite la Società Italiana di Fisica, compilando e spedendo il modulo sottostante (**)
(**) In questo caso sono escluse le carte Diners e American Express.
✃
Compilare e spedire a :
Società Italiana di Fisica – Via Saragozza 12 – 40123 Bologna – fax 051 581340
Il sottoscritto:
Nato a:
Residente a:
Via:
Documento di riconoscimento:
Rilasciato da:
Titolare carta di credito VISA n.
Scadenza
Titolare carta di credito MASTERCARD n.
Scadenza
il
n.
n.
il
AUTORIZZA
La Società Italiana di Fisica
A prelevare dalla carta di credito sopra descritta
L’importo di €
,
(importo in cifre)
(
)
(importo in lettere)
Data
Autorizzo il trattamento dei miei dati personali ai sensi del D.Lgs. 196/2003
sì
no
Firma
vol28 / no5-6 / anno2012 >
85
86 < il nuovo saggiatore
vol28 / no5-6 / anno2012 >
87
2013
DOMANDA DI ISCRIZIONE alla SOCIETÀ ITALIANA DI FISICA
ITALIAN PHYSICAL SOCIETY MEMBERSHIP APPLICATION FORM
Nome
Name
Cognome
Surname
Luogo e data di nascita
Place and date of birth
Nazionalità
Nationality
a
Istituto o Ente di appartenenza
Affiliation
b
Indirizzo privato
Home address
Indirizzo e-mail
E-mail
Breve curriculum (titolo di studio, attività didattica e scientifica):
Brief scientific curriculum:
a
Indirizzo a cui inviare il Bollettino della Società e la corrispondenza:
Address where Bullettin and Society communications are to be sent:
Firme leggibili dei Soci Presentatori (*)
Signatures of two introducing Members (*)
b
Nomi in stampatello e indirizzi e-mail
Names in block letters and e-mail addresses
1)
2)
Socio INDIVIDUALE
INDIVIDUAL Member
€ 45,00
Socio JUNIOR al di sotto dei 30 anni
JUNIOR Member under 30
€ 25,00
Socio INDIVIDUALE anche membro di altre associazioni scientifiche relative alla fisica (**)
INDIVIDUAL Member also member of other scientific associations (**)
€ 35,00
Socio COLLETTIVO
COLLECTIVE Member
€ 260,00
Socio SOSTENITORE (a partire da)
SPONSORING Member (starting from)
€ 310,00
La quota di iscrizione dovrà essere pagata dopo aver ricevuto comunicazione dell’accettazione della domanda. (*)
Applicants will have to pay the membership dues only AFTER having been informed by the Society of the acceptance of their application. (*)
(*) Eccetto per i Soci INVITATI (neolaureati triennali in Fisica) che usufruiscono di pre-associazione gratuita per due anni.
(*) Except for INVITED Members (newly graduated bachelors in Physics) who are granted free pre-membership for two years.
(**) Informazioni: http://www.sif.it/associazione
(**) Information: http://en.sif.it/association
Data
Date
Firma
Signature
Autorizzo il trattamento dei miei dati personali ai sensi del D.Lgs. 196/2003
I hereby authorize the treatment of my personal data according to the privacy law D.Lgs. 196/2003
sì /yes
no
Società Italiana di Fisica
Via Saragozza 12 - 40123 Bologna
Tel. 051331554 - Fax 051581340 - e-mail: [email protected] - internet: http: //www.sif.it
SOCIETÀ ITALIANA DI FISICA
Per diventare Socio SIF:
Informazioni: http://www.sif.it/associazione
Quote sociali 2013 della Società Italiana di Fisica
Socio Individuale
Socio Junior al di sotto dei 30 anni
Socio Individuale anche membro di altra associazione scientifica relativa alla fisica (*)
Socio Collettivo
Socio Sostenitore (a partire da)
€ 45,00
€ 25,00
€ 35,00
€ 260,00
€ 310,00
(*) Informazioni: http://www.sif.it/associazione
Per diventare Socio EPS:
Informazioni: http://www.eps.org/subscribe
Quote sociali 2013 della Società Europea di Fisica per “Individual membership”
Socio
Socio al di sotto dei 30 anni
Socio in pensione
Studente
Insegnante (pre-universitario)
€ 22,00
€ 16,50
€ 16,50
€ 16,50
€ 16,50
Modalità di pagamento della quota sociale alla SIF:
online a mezzo carta di credito, tramite collegamento diretto e sicuro (POS) con la banca BNL, attraverso l’Area Soci del
sito web della Società Italiana di Fisica
a mezzo assegno bancario
a mezzo bonifico postale:
BancoPosta, IBAN IT14 G076 0102 4000 0001 9197 409
intestato a: Il Nuovo Cimento - Società Italiana di Fisica S.I.F.
a mezzo versamento sul c/c postale n. 19197409
intestato a: Il Nuovo Cimento - Società Italiana di Fisica S.I.F.
a mezzo carta di credito, tramite la Società Italiana di Fisica, compilando e spedendo il modulo sottostante (**)
(**) In questo caso sono escluse le carte Diners e American Express.
✃
Compilare e spedire a :
Società Italiana di Fisica – Via Saragozza 12 – 40123 Bologna – fax 051 581340
Il sottoscritto:
Nato a:
Residente a:
Via:
Documento di riconoscimento:
Rilasciato da:
Titolare carta di credito VISA n.
Scadenza
Titolare carta di credito MASTERCARD n.
Scadenza
il
n.
n.
il
AUTORIZZA
La Società Italiana di Fisica
A prelevare dalla carta di credito sopra descritta
L’importo di €
,
(importo in cifre)
(
)
(importo in lettere)
Data
Autorizzo il trattamento dei miei dati personali ai sensi del D.Lgs. 196/2003
sì
no
Firma
vol28 / no5-6 / anno2012 >
85
86 < il nuovo saggiatore
vol28 / no5-6 / anno2012 >
87
Scarica

il nuovo saggiatore - Lista dei numeri