Capitolo 2 – Errori di misura: definizioni e trattamento 1)Generalità I concetti di media, varianza e deviazione standard si utilizzano normalmente per ottenere informazioni sulla bontà di una misura. In generale, si assume come misura m della grandezza M espressa in unità U il numero m= M / U In realtà, una misura può essere ottenuta in due “modi” diversi: 1) misura diretta (visiva o strumentale) 2) misura indiretta [y = f(x1, …., xn)] 1.a) Errori nelle misure dirette a) definizione di scarto, ξ, della misura i-esima Si definisce scarto, ξi, della misura i-esima la differenza tra il risultato della misura e la media della quantità misurata (determinata con i criteri statistici visti al capitolo precedente) ξ i = mi − < m > i = 1, …, N b) definizione di errore (ε) Differenza tra il valore misurato e il valore “vero” (in realtà inconoscibile, poiché perturbato dalla misura stessa). Se il valore vero della grandezza è µ, nella misura i-esima l’errore commesso è εi εi = mi − µ c) definizione di errore relativo (rm) rm = ε m ×100 (%) Ricordando la definizione di media, si verifica immediatamente che valgono i seguenti risultati 1 N < ξ >= ∑ ξ i = 0 N i =1 1 N < ε >= ∑ ε i =< m > − µ N i =1 (già visto al capitolo 1) 2) Classificazione degli errori Se il valore vero di una grandezza è µ, nella misura i-esima commettiamo l’errore εi= mi − µ Tale errore può dipendere sia dallo strumento che dal processo di misura, ossia dalla interazione tra oggetto, strumento e ambiente. In generale, classifichiamo gli errori in casuali e sistematici. a) Errore casuale • Errore di valutazione (divisioni della scala dello strumento di misura) • Fluttuazione di parametri sperimentali (temperatura, pressione…) • Disturbi (oscillazioni meccaniche, segnali radio spuri…) N.B. Sono a media nulla! b) Errore sistematico • Imperfetta taratura degli strumenti • Imperfetta descrizione fisica del fenomeno (Es.: h = ½ gt2) N.B. Gli errori sistematici possono essere corretti quando se ne conosce l’origine, altrimenti non se ne può tenere conto. La soluzione, in questo caso, consiste nel cercare di ottenere la stessa informazioni con misure di tipo differente. 3) Parametri che definiscono le caratteristiche degli strumenti Sensibilità o risoluzione Variazione δ nel valore della grandezza da misurare che provoca il minimo spostamento “avvertibile” nell’indice dello strumento (meglio analogico o digitale?). Un medesimo strumento (es.: multimetro) ha spesso la possibilità di scegliere tra diverse scale di sensibilità. N.B. In generale, il risultato di una misura fornisce un valore m ∈ (m-δ, m+δ). Ripetendo n volte la stessa misura si ottengono m1,…,mn risultati appartenenti a n intervalli, in generale non coincidenti. Se m1 = m2 =… = m, lo strumento ha sensibilità troppo bassa. Precisione Valore “tipico” dello scostamento dal valore medio che caratterizza serie numerose di misure. Nei buoni strumenti, in condizioni di misura ideali, precisione e sensibilità coincidono. Accuratezza Quantità legata allo scostamento tra la media (su molte misure) dei valori misurati e il valore vero. Dipende di solito da errori di taratura (es.: termocoppia). Nei buoni strumenti tale scostamento è minore o uguale alla sensibilità. Prontezza Inverso del tempo richiesto per una misura (una volta raggiunta la posizione di equilibrio!!!). 4) Relazioni tra i parametri strumentali e le varie tipologie di errore • • • La sensibilità limitata introduce un errore di arrotondamento, o di lettura, che possiamo generalmente considerare errore casuale, cioè avente media nulla. La precisione limitata genera fluttuazioni di tipo casuale che vengono messe in evidenza da strumenti molto sensibili ma poco precisi. L’accuratezza limitata genera errori sistematici a media diversa da zero. Se questi ultimi errori sono preponderanti, l’accuratezza dello strumento viene stimata tramite la media su N>>1 misure degli errori commessi misurando una grandezza nota µ. 1 N 1 N < ε >= ∑ (mi − µ ) = ∑ ε i N i =1 N i =1 L’accuratezza relativa, espressa in percentuale, vale <ε > µ × 100 5) Trattamento degli errori casuali Anche se lo strumento è ben tarato, non conosciamo l’errore casuale che abbiamo compiuto in una certa misura. Supponendo che gli errori sistematici siano trascurabili, possiamo utilizzare i concetti della statistica. La media <m> costituirà una stima del valore vero n m < m >= ∑ i ≅ µ i =1 n Mentre l’errore quadratico medio vero, definito come <ε 2 n ε2 n (m − µ )2 >= ∑ i = ∑ i n i =1 n i =1 viene stimato mediante la deviazione standard della misura n ∑ (mi − < m > ) σ n −1 (m) = i =1 2 n −1 = <ε2 > Per il caso di misure indipendenti si possono ripetere i principali teoremi enunciati per medie e varianze: 1) se eseguiamo su una grandezza costante nel tempo n misure con errore sistematico trascurabile, la legge dei grandi numeri ci assicura che n →∞ < m > n ⎯⎯ ⎯→ µ 2) la deviazione standard è una stima “corretta” della radice quadrata della varianza della misura n→∞ σ n2−1 (m ) ⎯⎯ ⎯→ σ 2 3) la varianza delle medie su n misure ha come valore stimato (< m > n − µ )2 = σ2 n ≅ σ2 n −1 Quando si fornisce il valore medio di una misura è consuetudine rappresentarlo come < m >n ± σ n −1 n La deviazione standard ottenuta da n misure di una grandezza costante avente valore vero µ caratterizza la precisione della misura. In assenza di errori sistematici questa deviazione standard ci fornisce una stima di quanto una singola misura differisca da µ. N.B. La grandezza σ n −1 n prende il nome di “deviazione standard della media” o “errore della media” e può essere indicata con σ . 6) Relazione tra parametri strumentali e propagazione degli errori Sia Y una qualsiasi grandezza fisica per la quale non è disponibile un Y-metro. In ogni caso, si può ancora determinare Y e calcolare la precisione della misura se è nota la dipendenza funzionale Y = f(X1, …, Xn) di Y da altre grandezze fisiche Xi che possono essere misurate direttamente. Occorre anche che la funzione f sia continua con tutte le sue derivate prime parziali. Il risultato della misura diretta di ogni grandezza Xi può essere espresso nella forma generale xi = xi ± σ i dove il significato delle variabili dipende da tipo di misura effettuata. Misure a bassa sensibilità 1) xi 2) σ i rappresenta la sensibilità dello strumento utilizzato. è il valore della singola misura (al limite, una sola) riproducibile; In questo caso, l’intervallo [ xi − σ i ; xi + σ i ] contiene con certezza il valore “vero” della grandezza in esame e tutti i punti all’interno dell’intervallo sono equiprobabili. Misure ad alta sensibilità 1) Caso di una sola misura xi è il valore della singola misura; σ i rappresenta l’errore della misura, che deve essere noto a priori (ed esempio mediante una valutazione ragionata) 2) Caso di più misure xi è il valore della media, <x>i; σ irappresenta l’errore della media. In questo caso, se la distribuzione degli errori è normale (vedi Capitolo del calcolo delle probabilità), l’intervallo [ xi−3 σ i; xi+3 σ i ] contiene con certezza il valore “vero” della grandezza in esame e il punto xi ne rappresenta il valore più probabile. 6.1 Calcolo della media e dell’errore della media nel caso di misura indiretta Il calcolo della media non comporta in generale alcuna difficoltà; si ha Y = f( x1 ,…, x n ) Viceversa, esistono sostanziali differenze nel calcolo della precisione σ i del valore Y e sul significato dell’intervallo [ Y ± σ i] a seconda che i dati sperimentali provengano tutti da misure ad alta sensibilità, a bassa sensibilità o da una combinazione qualunque dei due casi. N.B. Si tratta di una generalizzazione di quanto visto al capitolo precedente a proposito delle leggi di propagazione degli errori, nel senso che ora stiamo collegando l’incertezza sulla misura alle caratteristiche dello strumento di misura stesso. In generale, definita δxi una piccola variazione di xi con ⎜δxi⎜ << ⎜xi⎜ possiamo sviluppare la dipendenza funzionale di Y in serie di Taylor attorno al punto x n ⎛ ∂f ⎞ ⎟⎟ δxi δ Y = ∑ ⎜⎜ i =1⎝ ∂xi ⎠{x } Se le variazioni δxi rappresentano gli errori εi, allora δY rappresenta l’errore εY nella misura indiretta di Y: n ⎛ ∂f ⎞ ⎟⎟ ε i ε Y = ∑ ⎜⎜ i =1⎝ ∂xi ⎠{x } Nel caso in cui la dipendenza funzionale della Y sia esprimibile attraverso un prodotto di potenze αi Y = A ∏ in X i dove A è una costante moltiplicativa e gli esponenti αi sono numeri razionali, si ottiene per lo sviluppo in serie α α −1 ⎞ ⎟ε ε Y = ⎛⎜ Aα1x1α1 −1x2α 2 ...xn n ⎞⎟ε1 + ... + ⎛⎜ Aα1x1α1 x2α 2 ...α n xn n ⎝ ⎠ ⎝ ⎠ n da cui, dividendo membro a membro per Y si ottiene l’errore relativo, rY, per la misura indiretta di Y in funzione degli errori relativi ri delle misure dirette n rY = ∑α i ri i =1 a) Misure a bassa sensibilità La precisione σ Y del valore Y si calcola sostituendo agli errori εi la sensibilità σ i dello strumento impiegato e prendendo il modulo delle derivate parziali (condizione più sfavorevole) n ⎛ ∂f ⎞ ⎟⎟ σ i σ Y = ∑ ⎜⎜ i =1 ⎝ ∂xi ⎠{x } In questo caso, come già visto, l’intervallo contiene il valore vero e tutti i punti dell’intervallo [Y − σ Y , Y + σ Y ] sono equiprobabili. Se la dipendenza funzionale di Y è data da un prodotto di potenze, la precisione relativa SY della misura indiretta è data da n SY = ∑ α i Si i =1 dove le S i sono le precisioni relative delle misure dirette. b) Misure ad alta sensibilità In questo caso, gli errori εi sono variabili casuali (distribuite normalmente, vedi capitolo delle distribuzioni di probabilità) e così pure si può dire per εY che è una loro combinazione lineare. Allora, se σ i è l’errore della media di xi , l’errore della media σ Y di Y risulta n ⎛ ∂f ⎞ 2 ⎟⎟ σ i2 σ Y2 = ∑ ⎜⎜ i =1⎝ ∂xi ⎠{x } Riguardo al significato dell’intervallo [Y − σ Y , Y + σ Y ] , si può affermare che la distribuzione dei valori attorno al valor medio è normale (=gaussiana) se sono normali le distribuzioni degli errori εi attorno alle variabili indipendenti Xi. Nel caso di un prodotto di potenze si ottiene S G2 = n 2 2 ∑α i Si i =1 A parità di funzione f e dei valori xi e σ i , si nota che gli errori forniti dalle leggi di propagazione delle misure a bassa sensibilità sono sistematicamente maggiori rispetto a quelli forniti per le misure ad alta sensibilità. 6.2 Combinazione di misure aventi diversa precisione Tutti i risultati delle misure, ripetute nelle stesse condizioni, di una grandezza fisica devono essere considerati a priori egualmente precisi. Consideriamo ora il caso in cui si devono combinare assieme misure delle stessa grandezza fisica affette da diversa precisione. Si assume come valore più attendibile il valore medio della serie caratterizzata da maggiore precisione, ma evidentemente l’insieme di tutti i dati a disposizione contiene una quantità di informazione maggiore rispetto a quello di una singola serie di misure. Misure di differente precisione si combinano con l’operazione di media pesata. Si consideri il caso particolare in cui x1,…, xm+n siano i risultati di m+n misure ripetute nelle medesime condizioni sperimentali e sia σ2 la varianza della distribuzione. Da quanto visto in precedenza si ha 1 m+n x= ∑ xi m + n i =1 σ = σ m+n Se dalla serie di misure estraiamo le due sottoserie x1,…, xm e xm+1,…, xm+n possiamo calcolare le relative medie e precisioni 1 m x = ∑ xi m i =1 ' σ = ' σ m 1 m+n x = ∑ xi n i = m +1 " σ = " σ n L’espressione generale della media può essere riscritta nel modo seguente 1 m 1 m+n x= ∑ xi + ∑ xi m + n i =1 m + n i = m +1 che può essere espressa in termini della media delle sottoserie x= n m x" x' + m+n m+n e ancora, in termini delle varianze x= (σ ) ' −2 (σ ) + (σ ) ' −2 " −2 x' + (σ ) " −2 (σ ) + (σ ) ' −2 " −2 x" La varianza complessiva viene espressa, in termini delle varianze delle sottoserie, come 1 σ2 = ' −2 " −2 σ +σ ( ) ( ) Quindi il valore più attendibile della misura viene calcolato senza utilizzare tutti gli m+n risultati, ma solo le medie e le relative precisioni. Le medie vengono combinate linearmente attraverso coefficienti inversamente proporzionali al quadrato delle relative precisioni. Più in generale, se yi ± σ i con i = 1,…, N sono i risultati di misure di una stessa grandezza fisica ottenute con diversa precisione (anche da differenti sperimentatori o in epoche differenti), il valore più attendibile della grandezza in esame è la media pesata dei valori, definita come N ∑ pi yi y p = i =1 N ∑ pi i =1 −2 dove il peso pi della i-esima vale pi = σ i e la precisione complessiva della misura è data da ⎛ N −2 ⎞ σ = ⎜⎜ ∑ σ i ⎟⎟ ⎝ i =1 ⎠ −1 / 2