ERRORE SPERIMENTALE D.C. Harris, Chimica Analitica Quantitativa, Zanichelli Editore 1 Cifre significative ed errore sperimentale Il numero di cifre significative di una misura è il numero di cifre necessario per scrivere un dato valore in NOTAZIONE SCIENTIFICA, SENZA COMPROMETTERNE LA PRECISIONE Es: 142.7 1.427x102 4 cifre significative 142.70 1.4270x102 5 cifre significative 9.27x104 3 cifre significative 9.270x104 4 cifre significative 9.2700x104 5 cifre significative Gli zeri sono significativi quando si trovano in mezzo a un numero o alla fine di un numero a destra della virgola decimale All’ultima cifra significativa di una quantità misurata è sempre associata un’incertezza (almeno ±1) Tale incertezza sull’ultima cifra rimane sia se lo strumento mostra una lettura su scala graduata, sia se mostra una lettura digitale che non fluttua 2 Cifre significative: Addizione e sottrazione -Se i numeri da sommare o sottrarre hanno lo stesso numero di cifre significative, allora il risultato dovrà essere espresso con lo stesso numero di cifre decimali dei singoli numeri 1.362 10 4 2.657 10 4 4.019 10 4 4.678 + 6.435 = 11.113 5.235 10 3 4.874 10 3 0.361 10 3 -Se i numeri da sommare o sottrarre non hanno lo stesso numero di cifre significative, allora il risultato sarà limitato da quello con meno cifre significative Es.: calcolo della massa molare di KrF2 Dalla tavola periodica (F) (F) (Kr) KrF2 18.9984032 + 18.9984032 + 83.80 = 121.7968064 3 -Quando si usano numeri espressi in notazione scientifica, attenzione ad esprimere tutti i numeri con lo stesso esponente 1.362 10 4 1.362 ×10-4 + 0.657 10 3 6.57 3.796 10 5 0.3796 ×10-4 = 8.31 ×10-4 + ×10-4 Cifre significative: Moltiplicazione e divisione -Il risultato sarà limitato dal valore con meno cifre significative 3.26×10-5 × 1.78 = 5.80×10-5 34.60 2.46287 = 14.05 4 Determinazione del titolo esatto di una soluzione 0.1 N Gruppo 1 Gruppo 2 Gruppo 3 Gruppo 4 0.098831986 0.0909 0.0997 0.0991 0.099782293 0.0905 0.0999 0.0982 0.099851043 0.0904 0.1001 0.0975 0.100029949 0.0901 0.0998 0.0964 0.100249652 0.0900 0.1001 0.0992 0.100665478 0.0898 0.1000 0.0993 Qual è il risultato di ogni gruppo ? Qual è il risultato migliore ? EFFETTO DEL NUMERO DI CIFRE SIGNIFICATIVE Gruppo 1 Gruppo 2 Gruppo 3 Gruppo 4 Gruppo 1 Gruppo 2 Gruppo 3 Gruppo 4 0.1 0.1 0.1 0.1 0.10 0.09 0.10 0.10 0.1 0.1 0.1 0.1 0.10 0.09 0.10 0.10 0.1 0.1 0.1 0.1 0.10 0.09 0.10 0.10 0.1 0.1 0.1 0.1 0.10 0.09 0.10 0.10 0.1 0.1 0.1 0.1 0.10 0.09 0.10 0.10 0.1 0.1 0.1 0.1 0.10 0.09 0.10 0.10 Gruppo 1 Gruppo 2 Gruppo 3 Gruppo 4 Gruppo 1 Gruppo 2 Gruppo 3 Gruppo 4 0.099 0.091 0.100 0.099 0.0988 0.0909 0.0997 0.0991 0.100 0.091 0.100 0.098 0.0998 0.0905 0.0999 0.0982 0.100 0.090 0.100 0.098 0.0999 0.0904 0.1001 0.0975 0.100 0.090 0.100 0.096 0.1000 0.0901 0.0998 0.0964 0.100 0.090 0.100 0.099 0.1002 0.0900 0.1001 0.0992 0.101 0.090 0.100 0.099 0.1007 0.0898 0.1000 0.0993 Gruppo 1 Gruppo 2 Gruppo 3 Gruppo 4 0.09883 0.09090 0.09970 0.09910 0.09978 0.09050 0.09990 0.09820 0.09985 0.09040 0.10010 0.09750 0.10003 0.09010 0.09980 0.09640 0.10025 0.09000 0.10010 0.09920 0.10067 0.08980 0.10000 0.09930 Gruppo 1 Gruppo 2 Gruppo 3 Gruppo 4 0.0988 0.0909 0.0997 0.0991 0.0998 0.0905 0.0999 0.0982 0.0999 0.0904 0.1001 0.0975 0.1000 0.0901 0.0998 0.0964 0.1002 0.0900 0.1001 0.0992 0.1007 0.0898 0.1000 0.0993 4 Gruppo 3 2 1 0.090 0.092 0.094 0.096 0.098 Conc. /mol l 0.100 0.102 0.104 -1 QUALI EFFETTI INCIDONO SULLA DISTRIBUZIONE DEI RISULTATI ? Errore sistematico ed errore casuale OGNI MISURA SPERIMENTALE PRESENTA UN GRADO DI INCERTEZZA è accompagnata da un ERRORE L’errore sperimentale può essere: SPERIMENTALE - sistematico - casuale -L’errore sistematico (determinato) deriva da un difetto nell’esecuzione di un esperimento (strumentazione difettosa, operatore inappropriato, ecc.). Può essere - riprodotto - ridotto od eliminato se è noto e non si modificano le condizioni es.: tara in una pesata se si riesce a modificare opportunamente le condizioni -L’errore casuale (indeterminato) deriva dall’effetto prodotto da variabili incontrollate nelle misure. Può essere positivo o negativo. Ha natura statistica ed è sempre presente. Es.: errore di lettura, rumore elettrico, ecc. NON PUO’ ESSERE ELIMINATO 9 Anche quando l’errore sistematico è eliminato, il risultato della misura rimane sempre affetto dall’errore casuale Ad ogni misura è associata una INCERTEZZA (sempre presente quella di natura casuale, possibilmente da eliminare quella di natura sistematica) Il risultato della misura sarà quindi UN INTERVALLO x±d Errore ASSOLUTO = differenza tra il valore MISURATO x e il valore REALE µ di una misura e=µ-x Detto anche incertezza ASSOLUTA = margine di incertezza associato ad una misura - ad es. ±2 ml margine di errore sistematico nella lettura di una buretta) Errore RELATIVO = rapporto (anche come percentuale) dell’errore rispetto al valore reale (o a quello misurato se quello reale non è disponibile) Erel e % Erel e 100 Detto anche incertezza RELATIVA = percentuale dell’incertezza rispetto al valore reale - ad es. nel caso precedente, se la misura effettuata con la buretta è di 22.25 ml: incertezza relativa = (2/22.25)x100 = 10.1% 10 Accuratezza e precisione Risultato di una serie di misure: µ ± d Si esprime il risultato come un INTERVALLO. Il primo termine è legato all’accuratezza, il secondo alla precisione L’accuratezza è riferita all’accordo di una misura rispetto al valore vero o accettato della quantità misurata. Indica quindi quanto il valore misurato si avvicina al valore vero. L’accuratezza non può essere stabilita con certezza se un valore vero o accettato (come un campione standard) non è noto. In questo caso, si deve ricorrere a test statistici che indicano l’accuratezza di un risultato in termini di probabilità La precisione è riferita alla riproducibilità di un risultato. È quindi legata alla possibilità di riprodurre più volte gli stessi valori ripetendo una misura n volte. È una misura della VARIABILITA’ dei risultati. Si può parlare di precisione sia all’interno di un set di misure, sia tra più set diversi di misure. Anche in questo caso, la precisione può essere stimata ed espressa ricorrendo a 14 variabili statistiche (deviazione standard) Una serie di misure può quindi essere: (A) Non precisa e non accurata (B) Non accurata ma precisa (C) Precisa ed accurata (D) Accurata ma non precisa (A) (B) Low accuracy, high precision Low accuracy, low precision (C) (D) High accuracy, low precision High accuracy, high precision µ±d accuratezza precisione 15 4 Gruppo 3 2 1 0.090 0.092 0.094 0.096 0.098 Conc. /mol l 0.100 -1 0.102 0.104 Trattazione statistica dei risultati Le misure sperimentali sono TUTTE affette da una certa variabilità è IMPOSSIBILE TRARRE CONCLUSIONI CERTE tramite la statistica (misure MULTIPLE) si possono trarre informazioni di natura probabilistica accettare conclusioni che hanno ELEVATA PROBABILITA’ di essere corrette rigettare conclusioni che hanno SCARSA PROBABILITA’ di essere corrette Si possono quindi calcolare: -Il valore MISURATO che è un’approssimazione del valore vero -Il grado di INCERTEZZA che indica la dispersione dei risultati -L’INTERVALLO DI FIDUCIA che esprime l’intervallo intorno al valore misurato all’interno del quale c’è una certa probabilità (LIVELLO DI PROBABILITA’) che si trovi il valore vero Esempio di un risultato analitico: il contenuto di cloro di un campione di acqua 18 è 350 ± 14 ppm ad un livello di probabilità del 95% Distance (cm) Distance (cm) Distance (cm) I risultati tendono a distribuirsi attorno ad un VALORE MEDIO All’aumentare di n la DISTRIBUZIONE dei risultati tende ad avvicinarsi ad una 19 CURVA IDEALE DISTRIBUZIONE GAUSSIANA DELL’ERRORE 21 0.0 20 9.6 20 9.2 20 8.8 20 8.4 20 8.0 20 7.6 20 7.2 20 6.8 20 6.4 20 6.0 N = 500 20 5.6 21 0.0 20 9.6 20 9.2 20 8.8 20 8.4 20 8.0 20 7.6 20 7.2 20 6.8 20 6.4 20 6.0 20 5.6 20 5.2 20 4.8 20 4.4 20 4.0 20 3.6 20 3.2 20 2.8 20 2.4 N = 200 20 5.2 20 4.8 20 4.4 Distance (cm) 20 4.0 20 3.6 20 3.2 20 2.0 20 1.6 20 1.2 20 0.8 20 0.4 20 0.0 Distribution of distance measurements for projectile 20 2.8 Distribution of distance measurements for projectile 20 2.4 20 2.0 0 20 1.6 10 20 1.2 35 20 0.8 0 19 9.6 1 20 0.4 3 19 9.2 6 20 0.0 9 19 8.8 7 19 9.6 7 Frequency 60 19 8.4 13 19 9.2 5 19 8.0 65 14 19 8.8 Frequency 15 19 8.4 21 0.0 20 9.6 20 9.2 20 8.8 20 8.4 20 8.0 20 7.6 20 7.2 20 6.8 20 6.4 20 6.0 20 5.6 8 19 8.0 21 0.0 20 9.6 20 9.2 20 8.8 20 8.4 20 8.0 20 7.6 20 7.2 20 6.8 N = 100 20 6.4 20 5.2 20 4.8 20 4.4 20 4.0 20 3.6 20 3.2 20 2.8 20 2.4 N = 40 20 6.0 20 5.6 20 5.2 20 4.8 20 4.4 Distance (cm) 20 4.0 20 3.6 20 3.2 Distribution of distance measurements for projectile 20 2.8 20 2.0 20 1.6 20 1.2 20 0.8 20 0.4 20 0.0 19 9.6 19 9.2 Frequency Distribution of distance measurements for projectile 20 2.4 20 2.0 0 20 1.6 2 20 1.2 4 20 0.8 11 20 0.4 13 20 0.0 15 19 8.8 0 19 9.6 2 19 9.2 4 19 8.4 5 19 8.0 Frequency 6 19 8.8 7 Frequency 8 21 0.0 20 9.6 20 9.2 20 8.8 20 8.4 20 8.0 20 7.6 20 7.2 20 6.8 20 6.4 20 6.0 20 5.6 20 5.2 20 4.8 20 4.4 20 4.0 20 3.6 20 3.2 20 2.8 20 2.4 20 2.0 20 1.6 20 1.2 20 0.8 20 0.4 20 0.0 19 9.6 19 9.2 19 8.8 19 8.4 19 8.0 8 19 8.4 Frequency 10 19 8.0 21 0.0 20 9.6 20 9.2 20 8.8 20 8.4 20 8.0 20 7.6 20 7.2 20 6.8 20 6.4 20 6.0 20 5.6 20 5.2 20 4.8 20 4.4 20 4.0 20 3.6 20 3.2 20 2.8 20 2.4 20 2.0 20 1.6 20 1.2 20 0.8 20 0.4 20 0.0 19 9.6 19 9.2 19 8.8 19 8.4 19 8.0 La DISTRIBUZIONE GAUSSIANA DELL’ERRORE n ripetizioni di una misura; condizione di errori puramente casuali Distribution of distance measurements for projectile N = 1000 9 12 11 55 10 50 45 40 35 30 5 4 25 3 20 1 2 15 10 5 0 Distance (cm) N = 5000 300 Distribution of distance measurements for projectile 14 12 30 25 250 9 20 200 6 15 150 10 100 3 1 5 50 0 CURVA IDEALE DISTRIBUZIONE GAUSSIANA DELL’ERRORE Distribution of distance measurements for projectile 600 550 500 N=5000 450 400 300 250 200 150 100 50 21 0. 0 20 8. 8 20 9. 2 20 9. 6 20 7. 6 20 8. 0 20 8. 4 20 6. 0 20 6. 4 20 6. 8 20 7. 2 20 4. 8 20 5. 2 20 5. 6 20 3. 6 20 4. 0 20 4. 4 20 2. 4 20 2. 8 20 3. 2 20 0. 8 20 1. 2 20 1. 6 20 2. 0 19 9. 6 20 0. 0 20 0. 4 19 8. 4 19 8. 8 19 9. 2 0 19 8. 0 Frequency 350 Distance (cm) La curva gaussiana è definita da MEDIA e DEVIAZIONE STANDARD Il massimo nella gaussiana corrisponde alla MEDIA DELLA POPOLAZIONE µ La semiampiezza della curva nel punto di flesso rappresenta invece la DEVIAZIONE STANDARD DELLA POPOLAZIONE σ σ è legata alla precisione della misura: è un indice della dispersione dei risultati. Quindi al diminuire di σ aumenta la precisione 20 Esempio: durata di una serie di lampadine elettriche Stessi valori medi ma diverse deviazioni standard 21 La formula della curva gaussiana è data da y 1 e 2 2 x 2 2 xi con 2 i n e la corrispondente distribuzione (detta anche DISTRIBUZIONE NORMALE) ha alcune interessanti proprietà (1) Il massimo di y si trova per x = µ (2) La curva è simmetrica rispetto ad x = µ (3) L’area dell’intera curva da - a + è unitaria ydx 1 e 2 2 x 2 2 dx 1 (4) Possiamo esprimere le deviazioni dal valore medio come multipli z della deviazione standard x z (5) La probabilità di ottenere un valore di z (o di x) compreso in un certo intervallo equivale all’area sottesa alla curva in quell’intervallo Una curva gaussiana la cui area è unitaria è detta curva normale dell’errore 22 DISTRIBUZIONE NORMALE STANDARD – DISTRIBUZIONE Z La distribuzione normale standard ha media = 0 e deviazione standard = 1 Ordinate: numero di ripetizioni associate al valore dell’ascissa y x z z Ascisse: distanza dal valore medio espresso in unità di deviazione standard 23 Quindi, indipendentemente dai valori di µ e σ, l’area sottesa entro determinati limiti di z è una frazione costante dell’area totale. A due limiti fissati z1= (x1-µ)/σ e z2= (x2-µ)/σ corrisponderà quindi una frazione di area costante rispetto all’area totale, indipendentemente dai valori di µ e σ Esprimendo l’area sottesa come percentuale dell’area totale, ciò indica che UNA PARTICOLARE PERCENTUALE DELLA POPOLAZIONE SARA’ TROVATA ENTRO QUESTI LIMITI z 24 Deviazione standard ed area sottesa alla curva normale Per ogni curva normale con media µ e deviazione standard σ, esiste una relazione biunivoca tra i multipli z della deviazione standard e la frazione di area totale sottesa alla curva normale A valori stabiliti di z valori fissi di probabilità - 68.2% delle osservazioni totali entro ± 1 deviazioni standard - 95.5% delle osservazioni totali entro ± 2 deviazioni standard - 99.7% delle osservazioni totali entro ± 3 deviazioni standard 25 A valori desiderati di probabilità valori fissi di z • range di ± 1.29 deviazioni standard intorno alla media per avere probabilità 80% • range di ± 1.64 deviazioni standard intorno alla media per avere probabilità 90% • range di ± 1.96 deviazioni standard intorno alla media per avere probabilità 95% • range di ± 2.58 deviazioni standard intorno alla media per avere probabilità 99% 26 z1 -1 z2 +1 Limiti di confidenza x1 x2 µ-σ µ+σ -1.29 -1.64 +1.29 +1.64 µ - 1.29σ µ - 1.64σ µ + 1.29σ µ + 1.64σ 80% 90% -1.96 -2 -2.58 -3 +1.96 +2 +2.58 +3 µ - 1.96σ µ - 2σ µ - 2.58σ µ - 3σ µ + 1.96σ µ + 2σ µ + 2.58σ µ + 3σ - + µ- µ+ 95% 95.5% 99% 99.7% 100% probabilità 68.2% 27 Errori e curva Gaussiana Errore casuale: risulta in una dispersione casuale dei risultati intorno al valore vero (o al valore medio stimato) determina la deviazione standard σ Errore sistematico: influenza tutte le misure allo stesso modo, risultando in una differenza significativa dal valore vero determina il valore medio µ Random Error Systematic Error 28 Valore medio e deviazione standard STIMATI In pratica, i veri valori di µ e σ non possono essere conosciuti, perché si riferiscono ad una POPOLAZIONE INFINITA, mentre una misura sperimentale può essere ripetuta solo un numero limitato n di volte CAMPIONE Sostituiamo quindi µ con il valore medio sperimentale x, che rappresenta una stima della vera media della popolazione µ, e σ con s, che è una stima della vera deviazione standard Media aritmetica x : somma dei valori misurati divisa per il numero n delle misure, è una media STIMATA xi x i n Deviazione standard stimata s misura la tendenza dei dati misurati a raccogliersi attorno al valore medio stimato x ed s si riferiscono ai valori sperimentali 2 xi x ottenuti da una serie finita di singole i misure. n-1 sono i GRADI DI LIBERTA’ s n 1 del sistema (n misure – 1 valore medio) Per n molto elevato (n>50), x µ e s σ s2 = VARIANZA 31 Calcolo di x ed s Pag. 65 Harris Calcolo probabilità associata ad un intervallo Pag. 65 Harris Quante lampadine si romperanno in un intervallo di tempo compreso tra 900 e 1000 ore? 32 Intervalli di fiducia Il valore vero o accettato di una serie di misure è quindi generalmente sconosciuto, a meno che non si disponga di un campione di riferimento certificato. Per utilizzare al suo posto la media stimata x è quindi necessario effettuarne una stima dell’accuratezza, ricorrendo al concetto di intervallo di fiducia Un intervallo di fiducia è un range di valori, basato sulla deviazione standard e che si estende ai lati del valore medio stimato x, all’interno del quale ci si aspetta che il valore vero (vera media) µ ricada con un certo livello di probabilità Per poter definire un intervallo di fiducia abbiamo quindi bisogno di conoscere: 1) Il valore medio stimato x 2) La deviazione standard stimata s (o nota σ, se si conosce da misurazioni precedenti o se si dispone di un elevato numero di misurazioni) 3) Il numero di misurazioni n effettuate 4) Il livello di probabilità richiesto t è la t di Student, parametro legato al livello di probabilità e ai gradi di libertà x ts n 33 x ts n All’aumentare del livello di probabilità desiderato il valore della t di Student aumenta All’aumentare dei gradi di libertà ( delle misurazioni) il valore della t di Student diminuisce 34 Esempio: determinazione del contenuto di carboidrati di una glicoproteina Valori ottenuti per n=5 misurazioni (g di carboidrati / g di proteina) 12.6 11.9 13.0 12.7 12.5 - Calcolare degli intervalli di fiducia al 50%, al 90% e al 95% (1) Calcolare x x = 12.5 (2) Calcolare s s = 0.40 (3) Ricavare i tre valori di t dalla tabella (per 4=n-1 gradi di libertà) (3a) al livello di probabilità 50% t = 0.741 (3b) al livello di probabilità 90% t = 2.132 (3c) al livello di probabilità 95% t = 2.776 (4) Applicare l’equazione x ts n nei tre casi (4a) al 50% di probabilità µ = 12.5 ± 0.1 (4b) al 90% di probabilità µ = 12.5 ± 0.3 (4c) al 95% di probabilità Aumento del livello di probabilità µ = 12.5 ± 0.5 Allargamento dell’intervallo di fiducia Al 100% di probabilità µ = 12.5 ± !!!! 35 Data la stessa serie di misure ripetute: µ cade all’interno dell’intervallo di fiducia 45 volte µ cade all’interno dell’intervallo di fiducia 89 volte 36 Gruppo 1 Gruppo 2 Gruppo 3 Gruppo 4 4 0.0909 0.0997 0.0991 0.0998 0.0905 0.0999 0.0982 0.0999 0.0904 0.1001 0.0975 0.1000 0.0901 0.0998 0.0964 0.1002 0.0900 0.1001 0.0992 0.1007 0.0898 0.1000 0.0993 Gruppo 3 0.0988 2 1 0.090 0.092 0.094 0.096 0.098 Conc. /mol l 0.100 0.102 0.104 -1 CALCOLARE GLI INTERVALLI DI FIDUCIA AL 95% x 4 ts n 3 0.0909 0.0905 0.0904 0.0901 0.0900 0.0898 0.0997 0.0999 0.1001 0.0998 0.1001 0.1000 0.0991 0.0982 0.0975 0.0964 0.0992 0.0993 0.0999 0.0003566 95% 2.571 0.000374327 0.0995 0.1003 0.0903 0.0002881 95% 2.571 0.000302389 0.0900 0.0906 0.0999 0.0001304 95% 2.571 0.000136852 0.0998 0.1001 0.0983 0.0012153 95% 2.571 0.001275606 0.0970 0.0996 Gruppo 0.0988 0.0998 0.0999 0.1000 0.1002 0.1007 2 media dev. St. CL t t*s/(n^0.5) Cimin Cimax 1 0.090 0.092 0.094 0.096 0.098 Conc. /mol l 0.100 -1 0.102 0.104 Test di significatività I test di significatività effettuano un confronto tra un fattore calcolato dai dati sperimentali ed un valore tabulato (valore critico) determinato da: (1) Numero di misure effettuato (2) Livello di probabilità prestabilito I test di significatività si basano sulla verifica dell’ipotesi nulla: “Ogni differenza, discrepanza o valore sospetto è dovuto unicamente ad errori sperimentali casuali e non sistematici” Se il fattore calcolato sperimentalmente è inferiore al corrispondente valore critico, l’ipotesi nulla è verificata: non c’è differenza significativa tra i valori paragonati Se il fattore calcolato sperimentalmente è superiore al corrispondente valore critico, l’ipotesi nulla è rifiutata: c’è differenza significativa tra i valori paragonati Alla verifica o al rifiuto dell’ipotesi nulla va sempre accompagnato un livello di probabilità. Generalmente si utilizzano i valori 90%, 95%, 99%. Ciò significa che alla verifica o al rifiuto dell’ipotesi nulla rimane sempre accompagnata una probabilità di errore del 10%, del 5% o dell’1% 39 Confronto di medie tramite t di Student Per CONFRONTARE 2 MISURE al fine di decidere se sono in accordo Si stabilisce una stima della probabilità che la differenza osservata tra due misure derivi semplicemente da errori casuali di misurazione Dobbiamo innanzitutto stabilire arbitrariamente un livello di probabilità richiesto (generalmente 90%, 95%, o 99%) Ciò ci indica che c’è una probabilità (ad es.) del 95% che le relative conclusioni siano corrette, non esclude comunque una probabilità del 5% che le conclusioni siano errate Dopodiché ci si chiede: le due misure differiscono significativamente al livello di probabilità richiesto? verifica dell’IPOTESI NULLA Il test di t si può applicare in 3 casi: (1) Confronto di una serie di misure (caratterizzate da valore medio e deviazione standard) con un valore noto ed accettato (ad es. un campione di riferimento) (2) Confronto tra i risultati ottenuti su uno stesso campione con due metodi diversi (3) Confronto tra i risultati ottenuti su più campioni con due metodi diversi validazione del metodo 40 (1) Confronto di un risultato misurato con un valore noto Valore noto µ (da std di riferimento) Valori misurati (n ripetizioni) 3.19% (m/m) di zolfo nel carbone 3.29 % 3.22% Risultato stimato x = 3.26% s = 0.04% 3.30% 3.23% Il valore misurato differisce in modo significativo dal valore noto, al livello di probabilità del 95% ? IPOTESI NULLA = i due risultati non differiscono Per verificare l’ipotesi nulla (misura e valore noto non differiscono) si confronta il valore di t tabulato (livello di probabilità 95%, 3 gradi di libertà) con quello calcolato mediante la formula tcalc ttab 3.182 tcalc ttab tcalc x 3.26 3.19 4 0.04 s n 3.41 IPOTESI NULLA NON VERIFICATA Il risultato ottenuto è diverso dal valore noto ad un livello di probabilità del 95% (c’è sempre un 5% di 41 probabilità che il risultato non sia diverso dal valore noto!) (2) Confronto di serie di misure ripetute Per decidere se due serie di misure danno risultati differenti o se la differenza è dovuta solo all’errore sperimentale casuale Es.: Scoperta del gas Ar (Lord Rayleigh – premio Nobel 1904) Misurazione di N2 proveniente da due campioni diversi: (1) Azoto proveniente dall’aria: al tempo di Rayleigh si riteneva che l’aria secca fosse composta esclusivamente da N2 (4/5) e O2 (1/5) rimozione di O2 da una quantità nota di aria mediante reazione con Cu (Cu + ½ O2 CuO) e poi misura della densità del gas – n1 misurazioni (2) Azoto preparato chimicamente per decomposizione di N2O, NO, o NH4+ NO2- n2 misurazioni campione 1 campione 2 Le due serie di dati differiscono in modo (aria) /g (chimico) /g significativo al livello di probabilità del 2.31017 2.30143 95% ? IPOTESI NULLA = le due serie 2.30986 2.29890 2.31010 2.29816 di dati non differiscono Media Dev. Std 2.31001 2.31024 2.31010 2.31028 2.30182 2.29869 2.29940 2.29849 2.29889 2.31011 0.00014 2.29947 0.00138 42 Per verificare l’ipotesi nulla (le due misure non differiscono) si confronta il valore di t tabulato (livello di prob. 95%, n1 + n2 – 2 gradi di libertà) con quello calcolato mediante la formula, applicata a due serie di dati che consistono di n1 e n2 misure tcalc xi con scomune x1 x2 scomune x1 n1n2 n1 n2 2 xj serie1 x2 2 serie 2 n1 n2 2 s12 ( n1 1) s22 ( n2 1) n1 n2 2 Quindi: x1 2.31011 x2 2.29947 (1) Calcolo di x1, x2, s1, s2 s1 0.0014 s2 0.0138 (2) Calcolo di scomune (3) Calcolo di tcalc (4) Confronto di tcalc con ttab scomune tcalc 0.00014 2 (7 1) 0.001382 (8 1) 7 8 2 2.31011 2.29947 7 8 20.2 0.00102 7 8 0.00102 43 tcalc = 20.155 2.228 < ttab < 2.131 tcalc ttab (anche al livello di prob. del 99.9%) IPOTESI NULLA NON VERIFICATA I due risultati sono significativamente differenti al livello di prob. richiesto differenza tra i due gas presenza di un costituente “pesante” nell’aria 44 (3) Confronto di singole differenze validazione del metodo analitico Per verificare se due metodi, applicati a più campioni, danno gli stessi risultati Si effettuano singole misurazioni su numerosi campioni mediante due metodi diversi Es.: determinazione del colesterolo nel sangue campione 1 2 3 4 5 6 6 campioni x 1 misurazione x 2 metodi Il metodo B è significativamente diverso dal metodo A al livello di prob. del 95% ? IPOTESI NULLA: i due metodi non dono diversi contenuto di colesterolo (g/l) metodo A metodo B differenza 1.46 1.42 0.04 2.22 2.38 -0.16 2.84 2.67 0.17 1.97 1.80 0.17 1.13 1.09 0.04 2.35 2.25 0.10 diff. Media 0.06 Per verificare l’ipotesi nulla (i due metodi non differiscono) si esegue il test t sulle singole differenze fra i risultati ottenuti per ciascun campione tcalc d sd con n di sd 2 d n 1 n è il numero di differenze, quindi i gradi di libertà sono n-1=5 sd 0.04 0.06 2 0.16 0.06 2 0.17 0.06 2 0.17 0.06 2 0.04 0.06 2 0.10 0.06 2 6 1 tcalc 0.06 6 1.20 0.12 45 tcalc ttab 0.06 6 1.20 0.12 2.571 tcalc ttab IPOTESI NULLA VERIFICATA I due metodi NON sono significativamente diversi ad un livello di prob. del 95% 46 L’equazione tcalc x1 x2 scomune applicata al caso 2 (confronto di due serie di misure ripetute), è valida se le due deviazioni standard non sono significativamente differenti n1n2 n1 n2 Se invece le due deviazioni standard sono significativamente diverse, si devono applicare le seguenti correzioni: tcalc x1 x2 s12 / n1 s22 / n2 gradi di libertà = s12 / n1 s22 / n2 2 1 s / n1 n1 1 2 Nell’esempio precedente si otterrebbero 2 2 2 s / n2 2 2 tcalc = 21.7 gradi di libertà = 7.22 (!) n2 1 Anche in questo caso l’ipotesi nulla NON sarebbe verificata tcalc ttab I due risultati sono significativamente differenti al livello di prob. richiesto 47 Come si confrontano le deviazioni standard? mediante il test F Test F per il confronto di deviazioni standard Si basa sul confronto tra un parametro F calcolato e valori critici tabulati, per n1 – 1 gradi di libertà di s1 e n2 – 1 gradi di libertà di s2 Generalmente si intende un livello di fiducia del 95% Se Fcalc > Ftab le deviazioni standard sono significativamente diverse Nel caso precedente, le due deviazioni standard sono significativamente diverse? (CL 95%) Fcalc Fcalc s12 s22 con s1 > s2 s12 s22 0.001382 0.00014 2 93.1 n1 = 8, n2 = 7 DOF1 = 7, DOF2 = 6 Fcalc > Ftab IPOTESI NULLA (le due deviazioni std non sono diverse) NON VERIFICATA 48 Le due deviazioni std sono significativamente diverse al livello di prob. richiesto Test Q per i dati sospetti (test di Dixon) Alcuni dati possono apparire sospetti (outliers) non consistenti con gli altri all’interno di una dispersione Il test di Dixon permette di stabilire, SEMPRE AD UN DETERMINATO LIVELLO DI PROBABILITA’, se un outlier può essere eliminato, tramite confronto con valori critici tabulati (1) Disporre i dati in ordine crescente (2) Calcolare l’intervallo (= distanza tra il valore min e il valore max) (3) Calcolare il divario (= distanza tra l’outlier e il valore più vicino) (4) Calcolare il valore di Qexp divario Qexp = intervallo (5) Verifica dell’ipotesi nulla: confronto di Qexp con Qtab al livello di prob. prestabilito IPOTESI NULLA associata al Q-test: “Non c’è una differenza significativa tra il valore sospetto ed i rimanenti, ogni differenza deve essere attribuita esclusivamente ad errori casuali". 49 Quindi, dato un set di dati tale che x1 < x2 < . . . < xN, possiamo applicare il test sia a x1 che a xN Qtab (Qcrit.) N x 2 x1 Per x1: Qexp xN Per xN: Qexp CL: 90% CL: 95% CL: 99% 3 0.941 0.970 0.994 4 0.765 0.829 0.926 5 0.642 0.710 0.821 6 0.560 0.625 0.740 7 0.507 0.568 0.680 ? 8 0.468 0.526 0.634 12.67 9 0.437 0.493 0.598 10 0.412 0.466 0.568 x1 x N xN 1 xN x1 Esempio: Set di 5 dati 12.47 12.48 12.53 12.56 Il valore 12.67 è da scartare? (al livello di probabilità 95%) Intervallo = 12.67-12.47 = 0.20 Divario = 12.67-12.56 = 0.11 Qexp = 0.11/0.20 = 0.55 Qtab = 0.710 Qexp < Qtab Il valore 12.67 non è da scartare al livello di probabilità richiesto 50 PROPAGAZIONE DEGLI ERRORI Se una grandezza è funzione di variabili affette da errore, allora anche il valore che essa assume sarà affetto da errore L’effetto dell’errore delle variabili sull’errore della funzione è detto PROPAGAZIONE DEGLI ERRORI Ad esempio, se vogliamo misurare una concentrazione c=m/V A massa e volume sono associati degli errori Δm e ΔV Quale sarà il valore dell’errore sulla concentrazione Δc ? Possiamo porci questa domanda per: SOMME DIFFERENZE PRODOTTI QUOZIENTI Sia x = a+b. Il più alto valore probabile di a è a+ Δa, mentre di b è b+ Δb, quindi il più alto valore probabile per x sarà: x + Δx = (a + Δa) + (b + Δb) = (a + b) + (Δa + Δ b) Mentre il più basso sarà: x - Δx = (a - Δa) + (b - Δb) = (a + b) - (Δa + Δ b) da cui ricaviamo che: Δx = Δa + Δb Analogamente, nel caso x = a−b, il più alto valore probabile per x sarà: x + Δx = (a + Δa) − (b − Δb) = (a − b) + (Δa + Δb) Mentre il più basso sarà: x − Δx = (a − Δa) − (b + Δb) = (a − b) − (Δa + Δb) da cui ricaviamo ancora che: Δx = Δa + Δb Quindi, generalizzando possiamo dire che: l’errore massimo associato a una grandezza fisica che è il risultato della somma, o della differenza o di una combinazione di esse, fra due o più grandezze, ciascuna misurata con la propria incertezza, si ottiene sommando gli errori delle singole grandezze. x = a + b − c + .... Δx = Δa + Δb + Δc + .... Sia x = a b Come prima, il più alto valore probabile di a è a + Δa, mentre di b è b + Δb, quindi il più alto valore probabile per x sarà: x + Δx = (a + Δa) (b + Δb) = a b + Δa b + b Δa + Δa Δb Nell’ipotesi che Δa ≪ a e Δb ≪ b, possiamo ragionevolmente assumere che Δa Δb si possa trascurare. Da cui ricaviamo che: Δx = a Δb + b Δa x x a a b b N.B. l’errore relativo è sempre positivo, quindi x x a a Se dividiamo tutto per x = a b si ottiene Si sommano gli errori relativi b b Nel caso in cui x = a/b, il più alto valore probabile per x sarà: Mettendo in evidenza il rapporto a/b si ha: Moltiplicando numeratore e denominatore per 1 + Δb/|b|, e trascurando i termini (Δb/|b|)2 e (Δa/|a|)(Δb/|b|), si ottiene: Dividendo tutto per |x| si ricava: E quindi: Quindi, generalizzando possiamo dire che: l’errore relativo associato a una grandezza fisica che è il risultato del prodotto, o del quoziente o di una combinazione di essi, fra due o più grandezze, ciascuna misurata con la propria incertezza, si ottiene sommando gli errori relativi delle singole grandezze. Riassumendo - Somma o differenza - Prodotto o quoziente si sommano gli errori assoluti si sommano gli errori relativi 1) Una procedura analitica per la determinazione del contenuto di Mg in un dato minerale fornisce valori di 0.129, 0.133, 0.136, 0.130, 0.128 e 0.131%. (a) Verificare la presenza di outlier. (b) Calcolare il valore medio e la deviazione standard della serie di misure. (c) Calcolare l’intervallo di fiducia al 95%. (d) Verificare se il nuovo risultato differisce significativamente dal valore noto di 0.137% 2) Date le due distribuzioni: i) 1.02, 1.03, 1.05, 1.07, 1.08 ii) 0.99, 1.01, 1.03, 1.04, 1.06 (a) Calcolare la media e la deviazione standard per ognuna delle due distribuzioni (b) Verificare se i due valori medi differiscono in maniera significativa (CL=95%) 3) Data la distribuzione di valori: 1.05, 1.07, 1.08, 1.01, 0.98 Calcolare l’intervallo di fiducia e verificare se il valore medio differisce in misura significativa da un valore noto pari a 1.10 (CL=95%). 4) Il contenuto di calcio in un minerale (% in peso) è stato analizzato 5 volte con due metodi. I valori medi ottenuti sono significativamente diversi al livello di fiducia del 95% ? Metodo 1: Metodo 2: 0.0271 0.0271 0.0282 0.0268 0.0279 0.0263 0.0271 0.0274 0.0275 0.0269 5) Verificare con il test Q se la seguente serie di risultati contiene dati sospetti (CL = 95%); calcolare l’intervallo di fiducia (al 95%) per la misura. Risultati: 0.217, 0.224, 0.195, 0.221, 0.221, 0.223.