LE MISURE CONCETTI PRELIMINARI: MISURA, ATTENDIBILITÀ, PRECISIONE, ACCURATEZZA Il modo corretto di fornire il risultato di una qualunque misura è quello di dare la migliore stima della quantità in questione (x) e l’intervallo all’interno del quale si è confidenti che la misura si trovi (δx): infatti non sarà mai possibile misurare con assoluta certezza una qualsiasi grandezza che quindi assume un valore vero (X), sempre ignoto. ATTENDIBILITÀ La differenza tra la misura generica misura (chiamata in questo caso xi) ed il valore vero della grandezza prende il nome di attendibilità della misura: attendibilità = xi - X L’attendibilità viene anche indicata come l’errore totale che inevitabilmente si commette in un’operazione di misura. 1 ERRORI SISTEMATICI ED ERRORI CASUALI Gli errori di misura possono essere classificati in: - errori sistematici - errori casuali Gli errori sistematici si manifestano nella tendenza deterministica di uno strumento a sovrastimare (ovvero sottostimare) il valore vero della grandezza in esame. Quindi, anche se si eseguono un certo numero di misure della grandezza in esame, si ottiene un valore medio delle misure che sarà diverso dal valore vero della grandezza. Chiamando valore medio di N misure (x1, x2, …xN) la seguente quantità, indicata con x ,: N ∑ xi x1 + x 2 + ... + x N i =1 = x= N N si definisce errore sistematico la differenza tra il valore medio delle N misure realizzate ed il valore vero della grandezza; l’errore sistematico è anche definito come accuratezza: accuratezza = x − X Misure ripetute, in condizioni simili (per quanto possibile), portano a valori xi diversi in quanto non si riesce mai a ripetere le misurazioni in modo identico. Quindi, se si eseguono un certo numero di misure della grandezza in esame, si ottengono una serie di valori (x1, x2, …xN) che si discostano dal valore x di una certa entità imputabile all’errore casuale. Si definisce quindi errore casuale la differenza tra il valore della singola misura ed il valore medio delle N misure realizzate; l’errore casuale è anche definito come precisione: precisione = xi − x L’errore totale di una generica misura, xi, può quindi essere espresso come somma di una componente casuale ed una componente sistematica: 2 xi – X = attendibilità errore totale x X xi − x + x−X = precisione + = errore casuale + x X x X accuratezza errore sistematico x X 3 ANALISI STATISTICA DEGLI ERRORI CASUALI LA MEDIA E LA DEVIAZIONE STANDARD N media = xbest ∑ xi x1 + x 2 + ... + x N i =1 =x = = N N Ogni singola misura si discosta poi dal valor medio di una quantità che definiamo deviazione e che esprimiamo come: deviazione = di = xi − x La deviazione è dunque una valutazione di quanto la misura i-esima si discosta dalla media. Si definisce deviazione standard, σx, la seguente quantità: 1 N 2 ⋅ ( di ) N i =1 ∑ σx = ovvero la deviazione quadratica media delle N misure effettuate. σx caratterizza l’incertezza media delle N misure effettuate. La deviazione standard viene anche talvolta definita come: σx = N 1 2 ⋅ ( di ) N − 1 i =1 ∑ 4 LA DISTRIBUZIONE NORMALE E LE SUE PROPRIETÀ Una distribuzione limite, che può essere praticamente rappresentata da un curva continua, come la curva in rosso, definisce una funzione f ( x ) ; la frazione di misure che cadono in un qualunque piccolo intervallo compreso tra x e x + dx sarà pari all’area f ( x ) ⋅ dx . 5 Più in generale il numero di misure che cadono tra due qualsivoglia valori a e b è l’area totale sotto il grafico tra x =b: x =a e b frazioni di misure che cadono tra x =a e x =b = ∫ f ( x ) ⋅ dx a In altri termini, f ( x ) ⋅ dx rappresenta la probabilità che una misura di x dia un risultato compreso tra x e x + dx Se pertanto si conosce la distribuzione limite f ( x ) per la misura di una data grandezza strumentazione, allora si conosce la probabilità di ottenere un risultato in una qualsiasi intervallo Dal momento che la probabilità di ottenere un risultato in un qualunque punto tra distribuzione limite deve soddisfare: −∞ e +∞ x con un data a ≤ x ≤b. deve essere pari ad uno, la +∞ ∫ f ( x ) ⋅ dx = 1 −∞ Tale relazione è perfettamente equivalente alla condizione di normalizzazione precedentemente introdotta ∑F k =1 ; una k funzione che soddisfi tale relazione viene detta normalizzata. 6 +∞ media: x= ∫ x ⋅ f ( x ) ⋅ dx −∞ +∞ deviazione standard: σ 2 x = ∫ (x − x ) 2 ⋅ f ( x ) ⋅ dx −∞ rappresenta lo scostamento medio delle innumerevole misure effettuate rispetto alla media x . distribuzione normale o funzione di Gauss. fX ,σ ( x ) = 1 σ ⋅ 2π 2 − x −X ⋅e ( ) 2σ 2 in cui i pedici X e σ indicano il centro e la larghezza della distribuzione. Tale funzione descrive pertanto la distribuzione dei risultati in una misura di una generica grandezza x, caratterizzata soltanto da errori casuali ed il cui valore vero è X. Tutte le misure, la cui distribuzione limite è data dalla funzione di Gauss, sono distribuite normalmente. 7 Intervallo di confidenza X +t ⋅σ ∫ fX ,σ ( x ) ⋅ dx X −t ⋅σ fornisce la probabilità di trovare un risultato della misura entro t ⋅σ di X (Fig.13) Tale integrale è chiamato funzione degli errori o integrale normale degli errori. Non può essere risolto analiticamente, ma può essere calcolato numericamente ottenendo la curva che segue. Se assumiamo la deviazione standard σ x come incertezza in una misura: x = x ± δ x = x ± σx allora il valore vero della grandezza misurata ricade entro l’intervallo individuato con una probabilità del 68% circa. Analogamente se si assume: x = x ± 2 ⋅σx allora il valore vero della grandezza misurata ricade entro l’intervallo individuato con una probabilità di oltre il 95%. 8 9 LA PROPAGAZIONE DEGLI ERRORI Il problema della propagazione degli errori sorge quando si misurano più grandezze ( x , ..., z ) , tutte con incertezze (δ x , ..., δ z ) e poi si utilizzano i valori misurati per calcolare una qualsiasi grandezza q ( x , ..., z ) . A partire da tali informazioni è necessario valutare l’incertezza nel risultato, δ q . Incertezza max assoluta Quando le incertezze non sono indipendenti tra di loro, si può procedere alla valutazione dell’errore cosiddetto massimo., che per somme e differenze si esprime come: δ q = δ x + ... + δ z mentre per prodotti e quozienti come: δq q = δx x + ... + δz z Quando si somma o si sottrae un qualsiasi numero di grandezze, allora l’errore nel valore calcolato q è la somma degli errori delle singole grandezze. 10 Incertezza nelle somme e nelle differenze Se le grandezze x, z, u, …, w sono misurate con incertezze δx, …,δw, ed i valori misurati sono utilizzati per calcolare: q=x+…+z-(u+…+w) allora l’errore nel valore calcolato di q è la somma δq=δx+…+δz+δu+…+δw di tutti gli errori originali. Incertezza nei prodotti e nei quozienti Se le grandezze x, z, u, …, w sono misurate con piccoli errori δx, δz, δu …, δw, ed i valori misurati sono utilizzati per calcolare: q=(x*…*z)/(u*…*w) allora l’errore relativo nel valore calcolato di q è la somma: δq/q=δx/x+…+δz/z+δu/u+…+δw/w di tutti gli errori relativi originali. Prodotto di una grandezza misurata per un numero esatto Se la grandezza x è misurata con un errore δx ed è utilizzata per calcolare il prodotto: q=B*x dove B non ha errore, allora l’errore in q è B volte quello in x: δq=⎢B⎢*δx Incertezza in una potenza Se la grandezza x è misurata con un errore δx ed è utilizzata per calcolare la potenza potenza: q=xn allora l’errore relativo in q è n volte quello in x: δq/q=n*(δx/x) 11 LA PROPAGAZIONE DEGLI ERRORI CON MISURE DISTRIBUITE NORMALMENTE Le incertezze calcolate in base alle regole sopra indicate possono essere più grandi del necessario. Se, infatti, gli errori sono indipendenti e casuali è abbastanza improbabile che, ad esempio in una somma, la massima sovrastima di x sia accompagnata da una massima sovrastima di y. INCERTEZZA MAX PROBABILE (95%) Avendo a che fare con tutte misure distribuite normalmente, il valore calcolato sarà ancora distribuito normalmente e la sua deviazione standard è calcolabile in base alle regole precedentemente esposte. Se l’intervallo di confidenza richiesta è il 95%, la deviazione standard deve essere moltiplicata per un fattore di copertura pari a 2 e si giunge quindi all’errore sulla grandezza calcolata. Se le grandezze misurate sono soggette soltanto ad errori casuali, allora saranno distribuite normalmente con parametri di larghezza (σ x , ..., σ z ) che sono correlate alle incertezze associate ad ogni singola misura delle grandezze corrispondenti. Un ulteriore esempio di propagazione degli errori è rappresentato dalla somma di due grandezze indipendenti sono distribuite normalmente attorno ai loro valori X e Y con larghezze σ x e σ y . Si dimostra che i valori di x e y che q=x+y sono normalmente distribuiti; si dimostra altresì che il valore vero di q è pari a : q = X +Y e la larghezza di distribuzione dei valori q è pari a: σ q = σ x2 + σ y2 ovvero, come già ricavato nella trattazione precedente, se x e y sono soggetti soltanto ad incertezze indipendenti casuali, allora l’incertezza in q = x + y è la somma quadratica delle incertezze separate x e y . 12 Incertezza nelle somme e nelle differenze Supponiamo che le grandezze x, z, u, …, w sono misurate con incertezze δx, δz, δu …,δw, ed i valori misurati sono utilizzati per calcolare: q=x+…+z-(u+…+w) Se gli errori nelle grandezze di partenza sono indipendenti e causali allora l’errore in q è la somma in quadratura delle singole incertezze: δq = (δ x ) 2 + ... + (δ z ) + (δ u ) + ... + (δ w ) 2 2 2 In ogni caso δq non sarà mai più grande della loro somma: δq≤δx+…+δz+δu+…+δw Incertezza nei prodotti e nei quozienti Supponiamo che le grandezze x, z, u, …, w sono misurate con incertezze δx, δz, δu …,δw, ed i valori misurati sono utilizzati per calcolare: q=x*…*z/(u*…*w) Se gli errori nelle grandezze di partenza sono indipendenti e causali allora l’errore relativo in q è la somma in quadratura dei singoli errori relativi originali: 2 2 2 ⎛δx ⎞ ⎛ δ z ⎞ ⎛ δu ⎞ ⎛ δw ⎞ = ⎜ ⎟⎟ + ... + ⎜⎜ ⎟⎟ + ⎜⎜ ⎟⎟ + ... + ⎜⎜ ⎟⎟ ⎜ q ⎝ x ⎠ ⎝ z ⎠ ⎝ u ⎠ ⎝ w ⎠ δq 2 In ogni caso δq/q non sarà mai più grande della loro somma: ⎛δx ⎞ ⎛ δ z ⎞ ⎛ δu ⎞ ⎛ δw ⎞ ≤⎜ + ... + ⎜ ⎟ + ⎜ + ... + ⎜ ⎟ ⎟ ⎜ z ⎟ ⎜ u ⎟ ⎜ w ⎟⎟ q ⎜⎝ x ⎟⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ δq 13 Incertezza in una qualunque funzione di una variabile Supponiamo che la grandezza x sia misurata con un’incertezza δx, ed il suo valore misurato venga utilizzato per calcolare una generica funzione: q(x) Allora l’errore in q si esprime come: δq = dq ⋅δ x dx A questo punto, un qualsiasi problema di propagazione degli errori si può risolvere per passi successivi, combinando gli errori di singole operazioni separate. 14 Si può concludere fornendo una regola generale dalla quale tutte le altre possono essere derivate e grazie alla quale un qualunque problema di propagazione degli errori può essere risolto. Tale procedimento si dimostra particolarmente utile quando la funzione in oggetto involve una stessa variabile più volte. In questi casi, infatti, alcuni errori possono cancellarsi tra loro, mentre un calcolo dell’errore passo-passo potrebbe condurci ad un errore finale sovrastimato. La regola generale può essere così espressa: Incertezza in una funzione di più variabili Supponiamo che le grandezze x,… ,z sono misurate con incertezze δx,… δz, ed i valori misurati sono utilizzati per calcolare: q=q(x, …z) Se gli errori nelle grandezze di partenza sono indipendenti e causali allora l’errore in q può essere espresso come: ⎛ ∂q ⎞ 2 ⎛ ∂q ⎞ 2 δ q = ⎜ ⋅ δ x ⎟ + ... + ⎜ ⋅ δ z ⎟ ⎝ ∂x ⎠ ⎝ ∂z ⎠ In ogni caso δq non sarà mai più grande di: δq ≤ ∂q ∂q ⋅ δ x + ... + ⋅δz ∂x ∂z Da tale regola generale, possono essere ricavate come regole particolari tutte quelle introdotte precedentemente. 15