Aspetti generali della Fisica Atomica e della Fisica Nucleare collegati ai metodi di datazione e alle analisi non distruttive. Premessa. La maggior parte dei metodi di datazione utilizzati nell'Archeologia e nella Storia dell’Arte, principalmente il metodo del C14, che é direttamente basato sulla legge di decadimento della radioattività di questo isotopo, e il metodo di datazione della termoluminescenza (TL), che si basa sulla dose di radiazioni dovuta ai radioisotopi naturali (U235,U238,Th232,K40) assorbita dal campione in esame, fanno ricorso al fenomeno della radioattività. Inoltre, per comprendere appieno il significato dell’attributo non distruttivo assegnato ai metodi atomici o nucleari impiegati per l’analisi dei Beni Culturali é necessario avere chiari, più in generale, alcuni elementi di base della Fisica Atomica della Fisica Nucleare. La tavola periodica degli elementi chimici. Per introdurre il fenomeno della radioattività possiamo prendere le mosse dalla situazione delle conoscenze di Fisica Atomica a riguardo delle caratteristiche degli elementi chimici esistente al momento della scoperta della radioattività, attribuita a Becquerel, nel 1996. Ricordiamo che a quell’epoca era già sviluppata, su base prevalentemente empirica, la chimica oggi definita inorganica e la maggior parte degli elementi chimici oggi noti era stata già identificata. Era nota, in particolare, la ricorrenza periodica di specifiche proprietà chimiche e fisiche degli elementi che consentono di suddividere gli elementi in diverse classi. Per esempio: la classe degli alogenuri ( Fl, Cl, Br,I ..), degli alcalini ( Li, Na, K,... ) , dei gas nobili ( He, Ne, Ar ...) La tavola periodica degli elementi, o di Mendelyev dal nome del chimico russo ( 1834-1907 ) suo estensore, fornisce una rappresentazione evidente della ricorrenza delle proprietà degli elementi che, infatti, appaiono nella tavola ordinati secondo colonne contenenti gli elementi di una stessa classe con proprietà analoghe. Si consideri, come caso particolarmente evidente, la colonna alla estrema destra costituita dalla classe, già citata, dei gas nobili, che hanno in comune le proprietà di avere la molecola monoatomica, di essere in forma gassosa alla temperatura ambiente, di non dare luogo ad alcun composto con altri elementi. Un altro caso evidente é rappresentato dalla classe degli alogenuri, nella quale uno degli elementi, ad essa appartenente, può combinarsi con uno degli elementi alcalini per formare i più comuni sali, come il cloruro di sodio, o sale da tavola, ( NaCl )o con uno degli alcalini terrosi per formare, per esempio,il fluoruro di calcio ( CaFl ). Ancora a proposito della classe dei gas nobili, si noti che l’atomo di elio (He ), che, in base alla attuali conoscenze, sappiamo che ha numero atomico, Z, = 2 e, quindi, é attiguo a l’idrogeno (H) che ha Z= 1, non si trova accanto all’idrogeno ma, sorprendentemente, alla estrema destra nella prima riga della tavola nel primo posto in alto nella colonna dei gas nobili. La grande intelligenza e perspicacia di Mendelyev é stata di avere trovato la collocazione corretta di tutti gli elementi noti al suo tempo e di avere addirittura previsto che dovessero esistere caselle della tabella, allora ancora vuote, per elementi che furono, in effetti, scoperti in seguito come, per esempio, il germanio (Ge). Ciò solamente sulla base della osservazione empirica della ricorrenza delle proprietà chimiche e fisiche dei diversi elementi. Al giorno d’oggi, basandoci sui risultati della meccanica quantistica, di molti anni posteriore alla tavola di Mendeleyev, é semplice interpretare la periodicità delle proprietà atomiche in base alla descrizione della sequenza degli orbitali (o stati) atomici occupati dagli elettroni che sono contenuti in un atomo di numero atomico via, via crescente. (Ricordiamo che il numero di elettroni – di carica negativa - é esattamente lo stesso di quello dei protoni – che hanno carica positiva –: cioé, Z e la carica del protone e dell’elettrone é la stessa in valore assoluto cosiché l’atomo é neutro elettricamente). La meccanica quantistica prevede, in contrapposizione con la meccanica classica: a) che i diversi orbitali stabili per i Z elettroni dell’atomo sono ordinati in una sequenza definita, b) che ciascun orbitale contiene un determinato numero massimo di elettroni, c) che ciascuno orbitale ha una caratteristica energia di legame. E’ dovuto a queste regole quantistiche per il riempimento progressivo da parte degli elettroni di questa serie discreta di stati legati dell’atomo fino a raggiungere il numero Z che si determina corrispondentemente l’energia di legame di ciascuno stato e, inoltre, che si giustificano, in base alla sequenza degli stati elettronici esterni.le leggi di ricorrenza di alcune proprietà chimiche e fisiche delle diverse classi atomiche. La sequenza degli orbitali stabili, può essere ottenuta a partire da quella dalle shell elettroniche (in Inglese shell=guscio), o livelli nella quale sono preliminarmente ripartiti gli elettroni atomici secondo i possibili valori di energia di legame. Le shelles sono contrassegnate con le lettere K, L, M.,N,O a partire dalla più interna verso l’esterno. A ognuna di esse è associato il numero quantico principale, n, che varia da 1 a 5.. Nel caso dell’atomo di Idrogeno, esiste un solo elettrone nella shell K. L’orbitale è di tipo S e denominato: 1S l’energia di legame dello stato 1S è di circa 13 elettron Volt. L’atomo di elio contiene 2 elettroni. Perciò esso contiene un secondo elettrone nello stato 1S. Il numero massimo di elettroni di uno stato S, indipendentemente da quale sia la shell alla quale appartiene è 2. Ciò comporta che, passando al Litio (Z=3), l’aggiunta di un terzo elettrone, corrisponde al formarsi del secondo livello (L shell) con numero quantico principale n=2. Lo stato quantico del primo elettrone nella shell L é ancora di tipo S ed é chiamato 2S. Se si aggiunge un ulteriore elettrone per formare il boro (Z=4), lo stato 2S é, a sua volta, completo e i seguenti elettroni degli atomi via,via più pesanti vanno a occupare il secondo stato, denominato 2P, previsto per il livello L. Ciascuno stato P si completa con 6 elettroni (Si noti che non esiste lo stato 1P nella shell K, ma il primo stato P appare nella shell L ). Dopo avere aggiunto la condizione di chiusura con 6 elettroni, abbiamo un totale di 10 elettroni in corrispondenza. per Z= 10, del gas nobile Neon. Ricordiamo che Elio e Neon , entrambi gas nobili, hanno proprietà analoghe. Ciò corrisponde con il fatto che in entrambi i casi l’orbitabile più esterno (che é lo stato 2S nel caso dell’Elio) é chiuso. In questa condizione l’atomo non possiede elettrone esterni che rendano possibile il formarsi di un legame con un altro atomo e ciò spiega qualitativamente le caratteristiche già citate dei gas nobili. In generale, le caratteristiche di un atomo, dipendono dalle proprietà dello stato elettronico più esterno. I casi più evidenti, oltre a quello che lo stato sia chiuso, sono che all’atomo manchi solo un elettrone per aversi la chiusura dello stato esterno (caso degli alogenuri) o, invece, esso abbia un elettrone in esubero subito dopo la chiusura dello stato dell’atomo precedente, cioé con numero atomico pari a Z-1 (caso degli alcalini). Allora, il formarsi dei sali per combinazione alcalinoalogenuro, già menzionato, si spiega qualitativamente, immaginando che l’elettrone dell’atomo alcalino sia un gancio sporgente che si aggancia all’asola costituita dal posto vuoto nell’orbitale dell’alogenuro. Come già detto, a ciascuno degli orbitali elettronici dell’atomo é associato un valore, caratteristico di energia di legame per l’elettrone che dipende in modo più che proporzionale da Z e ha il valore massimo per lo stato più interno, 1S , e decresce progressivamente spostandosi sugli stati via,via più esterni. Iniziamo con il notare, allora, che occorre irraggiare un atomo, per esempio con radiazione elettromagnetica, di energia fortemente crescente con il valore del numero atomico Z per provocare l’espulsione di un elettrone (fenomeno della ionizzazione). In uno stesso atomo, questa energia é molto maggiore per la shell K e ,immediatamente a seguire, per la shell L, di quella necessaria per ionizzare uno stato elettronico esterno. La shell K, e poi la shell L, hanno dunque la massima energia di legame. Corrispondentemente, quando un elettrone di uno stato esterno cade nella vacanza lasciata libera nella shell K per effetto della ionizzazione, l’energia della radiazione X emessa dall’atomo é massima. Se l’elettrone proviene da uno degli stati 2P della shell L ( una regola di selezione della meccanica quantistica proibisce la transizione 2S – 1S ), si ha l’emissione di una delle righe di fluorescenza X caratteristica, Kα1 o Κα2, a seconda dello stato di partenza. Se l’elettrone che rimpiazza l’elettrone mancante alla shell K proviene da uno degli stati della shell M, si ha una delle righe X della serie Kβ che hanno energia maggiore. In generale, l’energia della radiazione X emessa è pari alla differenza delle energie di legame fra stato elettronico interno di arrivo e stato esterno di partenza. Quindi, l’energia delle righe Kβ è maggiore poiché l’energia di legame degli stati della shell, di partenza, M è minore di quella degli stati della shell L. L’analisi della composizione di un dato campione basata sulla misura della energia delle righe X dovute a transizioni agli stati elettronici delle shell K e L é denominata analisi XRF (X-ray fluorescence = fluorescenza X.). L’energia della radiazione di fluorescenza X aumenta più che linearmente con il valore di Z dell’atomo emettitore. Per esempio la riga Kα1 ha un’energia di 7.5 Kev per il rame (Z= 29), di 22 Kev per l’argento (Z= 47 ), di 75 Kev per il piombo (Z=82). Lo spettro di emissione X prodotto dai diversi elementi chimici nel campione in analisi é detto a righe (o a linee) poiché le energie dei raggi X caratteristici emessi dagli atomi hanno un valore determinato con estrema precisione (o definizione) corrispondente alla differenza delle energie di legame fra 2 stati atomici. I valori dell’energia delle righe Kα e Kβ e delle righe L caratteristici dei singoli atomi, sono stati misurati per tutti gli atomi. Ciò consente di individuare qualitativamente la composizione elementare (da elemento chimico) del campione in analisi, in pratica, senza ambiguità. Infatti, non esistono sovrapposizioni dei valori di energia fra le righe Kα di due atomi diversi. Si verificano, invece, alcuni casi di sovrapposizione per l’energia di una delle righe L emessa da un elemento pesante e l’energia di una riga Kα ο Κβ emessa da un elemento leggero, ma le informazioni aggiuntive che si hanno sulla natura del campione permettono di solito di identificare di quali elementi si tratti. Se, in generale, i fenomeni di transizione elettronica riguardano gli stati elettronici esterni che , come già notato, hanno bassi valori di energia di legame, essi sono caratterizzati da assorbimento e emissione di radiazione a bassa energia. Questo é il caso del metodo di analisi, largamente utilizzato nei laboratori, denominato di spettroscopia atomica ottica, che può essere di emissione o di assorbimento a seconda che l’analisi sia basata sulla misura delle energie (o delle lunghezze d’onda) della radiazione emessa dagli atomi o della radiazione assorbita. La radiazione elettromagnetica dello spettro visibile o della zone immediatamente vicine ha energia dell’ordine dell’elettron-volt.. La spettroscopia ottica rappresenta un metodo di analisi distruttiva poiché si richiede il prelievo di un piccolo campione dall’oggetto in analisi., eventualmente la sua diluizione o un opportuno trattamento chimico e, di solito, la sua evaporazione. Precisazioni sul significato dell’attributo non distruttiva assegnato alla analisi XRF. Si consideri anzi tutto che non distruttiva nel caso delle analisi di Beni Culturali deve essere inteso in una accezione fortemente restrittiva. Cioè: che l’analisi non arrechi alcun tipo di danneggiamento. Un danneggiamento del campione dovuto al metodo di analisi deve essere inteso come una possibile modifica della composizione chimica e dipende dal fatto che nell’analisi siano coinvolti gli stati elettronici più esterni dell’atomo che, infatti, sono quelli che partecipano alla formazione del legame chimico fra diversi atomi. Questo effetto é escluso quando l’analisi è eseguita con radiazione di energia sufficientemente alta perché sia possibile ionizzare gli stati elettronici interni dell’atomo che non hanno alcun ruolo nel formare il legame chimico. Da ciò traiamo la fondamentale giustificazione per il fatto che l’analisi XRF é non distruttiva .Inoltre, questo argomento è valido, a maggior ragione, se l’analisi è basata su reazioni nucleari poiché non vi è alcuna correlazione fra i livelli energetici del nucleo è gli orbitali elettronici. Il motivo ulteriore per il quale le analisi XRF e quelle nucleari sono da considerarsi non distruttive (o non invasive ) è che il segnale elettrico prodotto nel rivelatore dal quanto di radiazione di elevata energia emesso da un singolo atomo, o nucleo, possiede un’ampiezza sufficiente perché si abbia un segnale effettivamente rivelabile. Ciò corrisponde a eseguire una misura,“un atomo per volta”,su un numero di atomi sufficientemente grande per raggiungere una adeguata consistenza statistica. Considerando il numero grandissimo di atomi presenti in un campione, anche se microscopico, il numero di atomi ionizzati nell’analisi costituisce una minima percentuale.Ma è importante notare che questo numero è statisticamente significativo anche se si adoperano valori di intensità per la radiazione incidente di alta energia così bassi da rendere trascurabili gli effetti, in linea di principio dannosi, dovuti agli effetti di ionizzazione degli orbitali a bassa energia di legame prodotta nella stessa analisi,. Nel caso della spettroscopia ottica, già citata, l’intensità luminosa dovuta alla emissione di un singolo atomo è troppo flebile e, quindi, é necessario misurare le emissioni emesse contemporaneamente da un gran numero di atomi del campione. Ciò è ottenibile utilizzando elevate intensità per la radiazione incidente e lavorando su un campione precedentemente vaporizzato per minimizzare gli effetti di auto-assorbimento che impediscono alla radiazione luminosa di propagarsi in un mezzo denso. A proposito dell’auto-assorbimento, si consideri che le radiazioni X possono penetrare in profondità nel campione in analisi, ( per un metallo lo spessore analizzabile vale circa 10 micron come valore medio). A loro volta, le radiazioni X emesse, di alta energia, possono fuoriuscire dal campione da uno spessore dello stesso ordine senza che sia necessaria alcuna preparazione del campione stesso. Si noti, infine che,in generale, le analisi XRF sono eseguibili in loco con apparecchiatura portatile. Nozioni generali sulla radioattività L’anno della scoperta della radioattività (1896) può a buona ragione essere considerato quello della nascita della Fisica Nucleare. Senza dubbio si é trattato, infatti, della prima evidenza sperimentale di un fenomeno nucleare, identificato negli anni seguenti come dovuto al decadimento dei nuclei atomici instabili. Più correttamente, l’anno di nascita della Fisica Nucleare dovrebbe essere considerato il 1911, anno nel quale Rutherford eseguì l’esperienza cruciale che ha provato l’esistenza del nucleo atomico. Come é ben noto, l’esperienza di Rutherford consistette nella misura sperimentale del fenomeno della deviazione subita nell’attraversare un sottile foglio d’oro dalle particelle α emesse dal Radio 226 (isolato dal minerale uranifero da madame Curie) . La grandezza osservata sperimentalmente della deviazione della traiettoria di questi proiettili si spiega solo con l’ipotesi che al centro dell’atomo esista un nucleo positivo, di dimensioni trascurabili rispetto al volume atomico, che racchiude l’intera carica positiva, che oggi sappiamo essere quella costituita da Z protoni. L’atomo é circondato dalla nube di Z elettroni, a distanza grandissima rispetto il raggio del nucleo. L’atomo ha carica totale nulla, ma la disposizione delle cariche corrispondente alla configurazione di un volume puntiforme positivo fortemente repulsivo per le particelle α, anche esse positive, spiega correttamente la deviazione da esse subita. Si noti che l’altro modello alternativo dell’atomo, proposto da Thomson, era basato su una distribuzione di cariche positive e negative uniformemente mescolata all’interno del volume dell’atomo. Questo modello non sarebbe compatibile con il fenomeno della deviazione delle α misurato da Rutherford. Anche per illustrare le nozioni generali riferite alla radioattività, possiamo prendere le mosse dalla tabella di Mendeleyev e ricercare in essa la posizione occupata dagli atomi radioattivi naturali. Notiamo subito, però,che per ottenere la trasformazione da questa nella attuale tabella dei nuclei che contiene gli atomi stabili e quelli instabili- cioè, quelli radioattivi naturali e artificiali- dovremo introdurre la nozione di isotopo. Gli isotopi furono scoperti nel 1934 da Soddy e, forse, definitivamente questa potrebbe essere considerata la data di nascita della Fisica Nucleare,nel senso che la scoperta degli isotopi ha reso possibile la sistemazione nella nuova tavola di tutti i nuclei esistenti (non più detta degli elementi) molto più numerosi degli atomi conosciuti al tempo di Mendeleyev. Partiamo dalla osservazione della tavola degli elementi, esistente nel 1896, per ricercare che posizione vi occupano gli atomi radioattivi naturali, includendo fra essi quelli identificati negli anni seguenti la scoperta della radioattività, ma prima della scoperta fondamentale del neutrone, che ha reso possibile la produzione dei nuclei radioattivi artificiali. La ricerca dà come risultato che non esistono in natura elementi stabili con numero atomico Z maggiore di 83, corrispondente al bismuto (Bi).L’unica eccezione di elemento naturale instabile con numero atomico minore di 83 é il tecnezio ( Z = 43). Per gli elementi naturali il valore massimo di Z é 92 (Uranio: U), per Z maggiore di 83, si hanno solo elementi radioattivi. Ricordiamo che la radioattività coincide con il fenomeno della instabilità nucleare cioé con il fenomeno per cui alcuni atomi, per il momento limitandoci a quelli naturali, sono instabili e tendono a trasformarsi ,o a decadere, in un atomo con il nucleo stabile, dando luogo a un processo di decadimento nel quale ,a seconda dei casi, si ha l’emissione di un particella α, di un elettrone positivo, di un elettrone negativo, (decadimenti β ) o, infine, caso meno noto, nel processo di decadimento nel quale si ha la cattura di un elettrone dell’atomo stesso ( e.c. = electron capture). Tutti i processi di decadimento hanno in comune che lo stato finale – nucleo residuo + particella emessa- ha massa totale inferiore a quella del nucleo instabile emettitore. Questa condizione é necessaria ma non sufficiente per dar luogo a un nucleo radioattivo e porta immediatamente a ricavare l’energia che si libera nel decadimento dalla formula famosa E = ∆mc2 nella quale la variazione ∆m rappresenta la differenza fra massa iniziale del nucleo e somma delle masse del sistema finale. Si noti che nella maggior parte dei casi il nucleo residuo prodotto dal decadimento ( nucleo finale )si forma in uno stato eccitato e che la diseccitazione avviene mediante emissione di raggi γ con ulteriore diminuzione della massa del nucleo finale. Il fenomeno della instabilità nucleare si spiega facendo ricorso alla descrizione della struttura del nucleo, così come determinata dopo la scoperta del neutrone. Un nucleo é composto da Z protoni e N neutroni. Le proprietà chimiche dell’atomo dipendono solo da Z al quale corrisponde il simbolo chimico ( H, He, Li, ecc. ) in corrispondenza dei diversi numeri N per ciascun elemento con lo stesso Z si hanno gli isotopi . Il nome deriva dal Greco (stesso posto ) e fa riferimento al fatto che tutti gli isotopi con lo stesso Z figurerebbero nella stessa posizione nella tavola di Mendeleyev in quanto hanno le stesse proprietà chimiche. Il simbolo dell’isotopo è quello chimico, che corrisponde al valore di Z dell’elemento, associato al numero di massa A, Per es,: C14, Pb 208, U235. L’esistenza dei neutroni nel nucleo si spiega qualitativamente con l’attribuire a essi la funzione di tenere insieme il nucleo controbilanciando la repulsione elettrica esercitata reciprocamente dai protoni. L’effetto totale di tale repulsione, che é la causa della instabilità, aumenta come Z2 , la conseguenza é che il numero di neutroni per ottenere un nucleo stabile aumenta progressivamente con Z in maniera più che proporzionale. Per gli elementi leggeri , cioé per Z ≤∼20, gli isotopi stabili hanno un valore di N praticamente eguale a Z; poi il numero di neutroni in eccesso diviene sempre maggiore. Per l’elemento stabile più pesante esistente in natura, il bismuto, si ha: Z = 83, N= 126 (!). Se Z aumenta oltre 83, non esiste più la possibilità di ottenere un nucleo stabile , cioé non si realizza la possibilità che l’attrazione dovuta alle forze nucleari fra i nucleoni, aumentata dall’eccesso di neutroni, compensi stabilmente la repulsione Coulombiana dovuta ai protoni. L’ elemento con Z = 92 (Uranio) ha due isotopi con tempo di dimezzamento confrontabile con l’età della terra. Essi sono U235 che ha N= 143 e U 238 ,che ha N=146. Inoltre, l’elemento con Z=90 (Torio) ha l’isotopo,con N= 142 (Th232 ), con un tempo di dimezzamento dell’ordine di 10 10 anni. Th232 , U235 e U238 sono gli isotopi capostipite delle serie radioattive naturali 4n, 4n+3, 4n+2 . Tutti gli isotopi radioattivi naturali fanno parte di una delle 3 serie che terminano, rispettivamente, con gli isotopi stabili Pb 208, Pb207,Pb206 . L’unico isotopo radioattivo naturale che non appartiene a una delle serie radioattive ed é presente in natura perché ha un tempo di dimezzamento maggiore di 109 anni é il K40. Avendo introdotto nella descrizione degli atomi gli isotopi, possiamo descrivere la tavola dei nuclei che sostituisce quella di Mendeleyev nella quale non esistono gli isotopi. In questa carta per ciascun valore di Z, riportato sulla coordinata Y, figurano gli isotopi in corrispondenza dei diversi valori di N, riportati sulla coordinata X. Gli isotopi stabili per gli elementi leggeri hanno valore di N prossimo a quello di Z, mentre per gli elementi progressivamente più pesanti ,come già detto, il valore di N degli isotopi stabili aumenta rispetto a quello di Z, Quindi se rappresentiamo nel piano N-Z i punti rappresentativi degli elementi stabili naturali otteniamo che essi si dispongono su una curva che ha un andamento secondo la diagonale ( cioé, con Z=N) all’inizio, per seguire una curva progressivamente più bassa (cioè: con N>Z ) fino i punti finali rappresentativi degli isotopi stabili del piombo. Possiamo aggiungere agli isotopi naturali stabili e a quelli, poco numerosi, instabili la grande quantità di isotopi instabili artificiali che si generano nelle reazioni nucleari artificiali ottenute con acceleratori di ioni o con reattori nucleari che producono neutroni.Gli isotopi instabili si allineano in alla quota determinata del valore di Z dell’elemento: a sinistra del valore, o dei valori, di N che corrispondono a nuclei stabili; gli isotopi caratterizzati da un difetto di neutroni. a destra quelli caratterizzati da un eccesso di neutroni. I primi decadono con emissione β + nella quale un protone si trasforma in un neutrone o, molto più frequentemente, si ha il fenomeno della cattura elettronica nel quale avviene la stessa trasformazione. Gli isotopi di destra, cioè con eccesso di neutroni, danno luogo al decadimento β − nel quale un neutrone si trasforma in un protone. Si noti che in entrambi i casi, il decadimento avviene fra due isotopi isobari, cioè con lo stesso numero di massa A. Infatti in un decadimento β il numero di nuleoni- protoni+neutroni – resta invariato. Il decadimento α, invece, dà luogo a una diminuzione di Z pari a 2 e di A pari a 4. Il numero di isotopi artificiali prodotti negli ultimi 50 anni raggiunge quasi 3000 (!) cioé supera di gran lunga quello dei naturali stabili e instabili. Notiamo, infine, che due isotopi dello stesso elemento hanno delle piccole differenze nell’emissione ottica dei quali non trattiamo. Inoltre, l’equivalenza di comportamento chimico per due diversi isotopi é verificata a meno di effetti del secondo ordine che non sempre sono trascurabili. Per esempio, nel processo di sintesi clorofiliana nel quale si formano i vegetali utilizzando la CO2 dell’atmosfera si ha una riduzione percentuale di C13 e C14 e questo fenomeno non può essere trascurato senza commettere un grande errore nel metodo di datazione con C14 Elementi di Statistica Vogliamo in ultimo occuparci dell’aspetto molto importante delle misure di conteggio: cioè dell’errore statistico che é contenuto inevitabilmente nel risultato che con un opportuno contatore si ottiene per la misura del numero di radiazioni emesse da un isotopo radioattivo in un determinato intervallo di tempo. Notiamo immediatamente che qualsiasi misura sperimentale contiene sempre un errore e che, in genere, il valore dell’errore dipende sia dalla imprecisione dello strumento di misura o del metodo di misura, sia dal fatto che la quantità che misuriamo ha una sua intrinseca dispersione di valori (Immaginiamo, per esempio, di misurare l’altezza di un gran numero di individui. La dispersione dei valori misurati dipende certamente dalla variazione dell’altezza nella popolazione e, di solito secondariamente in questo caso, dalla possibile imprecisione del metodo di misura). Per renderci conto di come si tratti il problema dell’errore in una misura di conteggio, prendiamo per confronto una misura che si riferisca al numero, n, di monete che danno testa nel lancio di 100 monete sul tavolo. La stretta analogia fra decadimento nucleare e lancio delle monete risiede nel fatta che in entrambi i casi abbiamo una situazione che si definisce binaria per gli eventi in misura: cioèsi ha, rispettivamente, che un atomo decade o non decade nel tempo di misura e che il lancio di una moneta dà testa o croce. E la misura consiste semplicemente nel misurare il numero di eventi. Sappiamo che ogni volta sarà approssimativamente n=50, se ripetiamo,infatti, il lancio un numero elevato di volte, ci aspettiamo che il suo valore medio in effetti sia molto prossimo a 50. Ma ci è evidente che la variazione nel numero di teste, ottenuto in ogni lancio non dipende da un errore nel modo di eseguire il lancio, ma é intrinsecamente dipendente dal fatto che l’evento (testa) ha di ripetibile in ogni lancio la probabilità di verificarsi che, ovviamente se le monete non sono truccate, é costante e del 50 % . Si può dimostrare che, indicando con m il valore medio di n, per il valore medio della differenza, n–m, (che in seguito chiameremo deviazione standard, σ ) teoricamente si ha : σ = m * (1 − P ) m, nel caso di 100 monete, é 50, P é la probabilità che si verifichi l’evento testa, cioé, ancora nel caso delle monete non truccate, 50%. Quindi la dispersione teorica del numero di teste, espressa come valore di σ , é: σ = 25 = 5 Si noti che i nuclei di un isotopo radioattivo hanno una probabilità –costante!- di decadere durante il tempo di misura, ∆t, che é dato dal prodotto ∆t x P. P, questa volta, é la probabilità di decadimento per unità di tempo, cioé: P=1/τ dove τ é la vita media dell’isotopo considerato. Essendo normalmente il tempo di misura molto più piccolo della vita media, si può porre di solito P≅ 0. Allora si ha: σ = m che può essere in pratica approssimato in: σ ≅ n . Si noti attentamente che n non é il numero di decadimenti che sono effettivamente avvenuti nel tempo ∆t ma il numero da noi misurato che é di solito moto più piccolo perché l’efficienza di conteggio é di solito molto minore di 1. In analogia con le monete abbiamo, infatti, che ciò che conta, dal punto di vista dell’errore statistico, non é il numero di monete che abbiamo lanciato ma, quello delle monete che eventualmente, se il tavolo é piccolo, é rimasto sul tavolo ed é quello effettivamente contato. La regola della radice quadrata, così facilmente memorizzabile ha come fondamentale conseguenza che l’errore relativo di origine statistica nella misura di n é semplicemente: σ /n = 1 / n . Ciò fornisce immediatamente che se abbiamo nella misura di conteggio, per esempio, n = 100, l’errore statistico relativo è del 10%, se n = 1000, esso è ≅ 3.3%, ecc. Si noti attentamente che ciò rappresenta il limite minimo invalicabile per l’errore della misura di conteggio e che ad esso vanno aggiunti gli eventuali errori sperimentali. Come regola generale, si ha che gli errori indipendenti di una misura si sommano quadraticamente; cioè il valore finale dell’errore, espresso ancora come deviazione standard σ, vale σ = ∑ σ i2 dove la somma è estesa a tutti i contributi, σi ,all’errore finale imputabili a ogni possibile causa, ognuno dei quali deve essere valutato separatamente. Quindi, se, per esempio, esiste una causa che produce un errore del 10% ,anche estendendo il tempo di misura in modo che n sia molto maggiore di 100, non si otterrà, in pratica, alcun miglioramento della precisione proprio a causa della regola della somma quadratica per gli errori. Ricordiamo, infine, che nel linguaggio comune i termini precisione e accuratezza sono considerati sinonimi. Nella teoria degli errori, invece, la precisione indica la dispersione dei dati ,ed é misurata dal valore di σ , mentre l’accuratezza é misurata dalla differenza dal valore vero ( supposto noto ) del valore medio ottenuto nella misura e, di solito, dipende da un errore sistematico nel metodo di misura. Si noti attentamente che quando, come nel caso di un decadimento nucleare o del lancio delle monete, si misura il numero di ripetizioni di un evento che ha probabilità di accadere costante e nota, si può calcolare a priori il valore di σ tenendo conto della natura statistica del fenomeno. In tutti gli altri casi, in generale, occorre conoscere la legge di distribuzione specifica della misura considerata che permetta di prevedere a priori il valore della deviazione standard. Se ciò non é possibile, la deviazione standard é ricavabile, a posteriori, dall’insieme stesso delle misure ottenute. Questi argomenti sono piuttosto complicati. Nel tentativo di renderli un poco più semplici,svolgiamo l’esempio di applicazione di una trattazione statistica in termini elementari ma rigorosi alla produzione di un albero di mele. Vogliamo,cioè,ricavare i parametri che caratterizzino la produzione di mele al fine ,per esempio, di un confronto significativo fra diverse piante. Ovviamente, il primo dato significativo da ottenere é la produzione totale di mele ottenuta; cioè semplicemente il peso totale, P, della produzione. Subito dopo, contando il numero n di mele, otteniamo il valore medio, Pm = P/n , per il peso delle mele. Questa media, così ottenuta, é detta media aritmetica, essa si ottiene dalla somma dei singoli valori attribuendo a ciascuno di essi lo stesso peso statistico. Per misurare,ora, la dispersione nel peso delle mele, conviene fare riferimento allo scarto, Pi - Pm , fra il peso Pi della generica iesima mela e il peso medio. Se però adesso vogliamo valutare quale é la dispersione media in termini di scarto medio = ∑i Pi -Pm/n Si ottiene: (∑i Pi − Pm ) / n = 0. Questo risultato, intuitivo, dipende direttamente dal fatto che abbiamo scelto la media aritmetica per il peso medio, pertanto non possiamo fare riferimento a questa procedura per avere una misura della dispersione del peso delle mele. Dobbiamo fare invece ricorso allo scarto quadratico medio detto anche varianza che é definito come la media del quadrato dello scarto, cioè: varianza =Σi (Pi – Pm)2/n. Infine, poniamo per la deviazione standard: σ= ∑i Pi− - Pm)2/n che rappresenta,come si potrebbe dimostrare, l’espressione utilizzabile per la deviazione standard precedentemente definita genericamente come scarto medio, nell’approssimazione che n >> 1. A questo punto per potere proseguire nella descrizione statistica rigorosa della produzione di mele, dobbiamo confrontare la distribuzione dei pesi delle mele con una distribuzione normale . E’ al di là degli scopi di questi appunti, trattare con esattezza ciò che si intende per distribuzione normale – detta anche Gaussiana o curva a campana -. Ci limitiamo a ricordare che la dispersione dei valori ottenuti per una misura ( nel caso nostro: il peso delle mele del nostro albero) è nel caso più frequente ,perciò detto anche normale, é governata da una legge di distribuzione, che ha la forma già detta a campana e della quale non diamo la formula matematica, che ha come unico parametro la deviazione standard. Questa curva assume una forma universale se la distribuzione delle misure é espressa in funzione del rapporto dello scarto della misura dal valore medio, o centrale, con il valore di σ . La proprietà della distribuzione di Gauss in pratica si può ricavare dividendo l’insieme dei valori dello scarto dal valore medio, espressi in unità di σ , in un numero finito di classi di larghezza costante- per esempio, σ/2 o σ/4 − e ricavando da un’ apposita tabella numerica pubblicata in tutti i libri di statistica quale sia la percentuale di misure dell’insieme che devono cadere, seguendo la legge di distribuzione, all’interno di ogni classe. In questo modo la legge é espressa sotto forma di un istogramma composto da elementi rettangolari che hanno per base la larghezza, in unità di σ ,prescelta per le classi ( per es.: σ/2 ) e per altezza il valore che corrisponde al fatto che l’area del rettangolo – base x altezza- indica la frazione di misure contenute nella classe stessa. In questo modo si ottiene che l’area totale dell’istogramma, considerando in teoria tutte le classi di misure incluse anche quelle infinitamente lontane dal valore centrale, vale 1. Con ciò intendendosi che la probabilità che una misura fornisca un valore qualsiasi, comprendendo anche quelli più improbabili, é evidentemente 1. In particolare,la distribuzione di Gauss ha come risultato che circa il 70% delle misure é compreso fra i valori relativi di scarto + σ e –σ e il 97% delle misure con scarto incluso fra ± 2σ. In pratica, per completare il nostro esercizio sulle mele, é sufficiente scegliere 8 classi ciascuna di larghezza σ/2 corrispondenti a un intervallo di scarti dal valore medio centrale da -2σ a + 2σ , che include in pratica tutti i valori di scarto per i pesi possibili; successivamente si contano le mele contenute in ogni classe e si divide ciascun numero di contenuto per il valore del numero totale di mele prodotte dall’albero. Se il nostro melo ha una distribuzione di pesi delle mele normale, questi numeri così ottenuti debbono adattarsi ragionevolmente bene alle probabilità di occorrenza per ciascuna classe descritte dalla distribuzione di Gauss. Si ricorda che noi abbiamo applicato queste considerazioni statistiche alle misure con il C14. E’ fondamentale tenere presente che in quel caso, ricorrendo il caso di una misura di decadimento radioattivo, il valore di σ può essere noto a priori dalle considerazioni statistiche sul numero di conteggi e da eventuali cause di errore del metodo di misura, anche esse note a priori. Pertanto, non é necessario ripeter una misura un elevato numero di volte, come invece é necessario nel caso della pesata delle mele. Non esiste,infatti, una teoria che dia la possibilità di prevedere il valore di σ per il nostro albero; tuttavia, come abbiamo visto, é necessario conoscere il valore di σ per eseguire il confronto con la curva di distribuzione normale, pertanto il valore di σ deve essere determinato sperimentalmente.