Presentazione standard di PowerPoint

annuncio pubblicitario
ERRORE
SPERIMENTALE
D.C. Harris, Chimica Analitica Quantitativa, Zanichelli Editore
1
Cifre significative ed errore sperimentale
Il numero di cifre significative di una misura è il numero di cifre necessario per
scrivere un dato valore in NOTAZIONE SCIENTIFICA, SENZA
COMPROMETTERNE LA PRECISIONE
Es:
142.7
1.427x102
4 cifre significative
142.70
1.4270x102
5 cifre significative
9.27x104
3 cifre significative
9.270x104
4 cifre significative
9.2700x104
5 cifre significative
Gli zeri sono significativi quando si trovano in mezzo a un numero o alla fine di un
numero a destra della virgola decimale
All’ultima cifra significativa di una quantità misurata è sempre associata
un’incertezza (almeno ±1)
Tale incertezza sull’ultima cifra rimane
sia se lo strumento mostra una lettura
su scala graduata, sia se mostra una
lettura digitale che non fluttua
2
Cifre significative: Addizione e sottrazione
-Se i numeri da sommare o sottrarre hanno lo stesso numero di cifre
significative, allora il risultato dovrà essere espresso con lo stesso numero di
cifre decimali dei singoli numeri
1.362 10
4
2.657 10
4
4.019 10
4
4.678 +
6.435 =
11.113
5.235 10
3
4.874 10
3
0.361 10
3
-Se i numeri da sommare o sottrarre non hanno lo stesso numero di cifre
significative, allora il risultato sarà limitato da quello con meno cifre
significative
Es.: calcolo della massa molare di KrF2
Dalla tavola periodica
(F)
(F)
(Kr)
KrF2
18.9984032 +
18.9984032 +
83.80
=
121.7968064
3
-Quando si usano numeri espressi in notazione scientifica, attenzione ad esprimere
tutti i numeri con lo stesso esponente
1.362 10
4
1.362 ×10-4 +
0.657 10
3
6.57
3.796 10
5
0.3796 ×10-4 =
8.31
×10-4 +
×10-4
Cifre significative: Moltiplicazione e divisione
-Il risultato sarà limitato dal valore con meno cifre significative
3.26×10-5 ×
1.78
=
5.80×10-5
34.60
2.46287 =
14.05
4
Determinazione del titolo esatto di una soluzione 0.1 N
Gruppo 1
Gruppo 2
Gruppo 3
Gruppo 4
0.098831986
0.0909
0.0997
0.0991
0.099782293
0.0905
0.0999
0.0982
0.099851043
0.0904
0.1001
0.0975
0.100029949
0.0901
0.0998
0.0964
0.100249652
0.0900
0.1001
0.0992
0.100665478
0.0898
0.1000
0.0993
Qual è il risultato di ogni gruppo ?
Qual è il risultato migliore ?
EFFETTO DEL NUMERO DI CIFRE SIGNIFICATIVE
Gruppo
1
Gruppo
2
Gruppo
3
Gruppo
4
Gruppo
1
Gruppo
2
Gruppo
3
Gruppo
4
0.1
0.1
0.1
0.1
0.10
0.09
0.10
0.10
0.1
0.1
0.1
0.1
0.10
0.09
0.10
0.10
0.1
0.1
0.1
0.1
0.10
0.09
0.10
0.10
0.1
0.1
0.1
0.1
0.10
0.09
0.10
0.10
0.1
0.1
0.1
0.1
0.10
0.09
0.10
0.10
0.1
0.1
0.1
0.1
0.10
0.09
0.10
0.10
Gruppo
1
Gruppo
2
Gruppo
3
Gruppo
4
Gruppo
1
Gruppo
2
Gruppo
3
Gruppo
4
0.099
0.091
0.100
0.099
0.0988
0.0909
0.0997
0.0991
0.100
0.091
0.100
0.098
0.0998
0.0905
0.0999
0.0982
0.100
0.090
0.100
0.098
0.0999
0.0904
0.1001
0.0975
0.100
0.090
0.100
0.096
0.1000
0.0901
0.0998
0.0964
0.100
0.090
0.100
0.099
0.1002
0.0900
0.1001
0.0992
0.101
0.090
0.100
0.099
0.1007
0.0898
0.1000
0.0993
Gruppo
1
Gruppo
2
Gruppo
3
Gruppo
4
0.09883
0.09090
0.09970
0.09910
0.09978
0.09050
0.09990
0.09820
0.09985
0.09040
0.10010
0.09750
0.10003
0.09010
0.09980
0.09640
0.10025
0.09000
0.10010
0.09920
0.10067
0.08980
0.10000
0.09930
Gruppo 1
Gruppo 2
Gruppo 3
Gruppo 4
0.0988
0.0909
0.0997
0.0991
0.0998
0.0905
0.0999
0.0982
0.0999
0.0904
0.1001
0.0975
0.1000
0.0901
0.0998
0.0964
0.1002
0.0900
0.1001
0.0992
0.1007
0.0898
0.1000
0.0993
4
Gruppo
3
2
1
0.090
0.092
0.094
0.096
0.098
Conc. /mol l
0.100
0.102
0.104
-1
QUALI EFFETTI INCIDONO SULLA DISTRIBUZIONE DEI RISULTATI ?
Errore sistematico ed errore casuale
OGNI MISURA SPERIMENTALE PRESENTA UN GRADO DI INCERTEZZA
 è accompagnata da un ERRORE
L’errore sperimentale può essere:
SPERIMENTALE
- sistematico
- casuale
-L’errore sistematico (determinato) deriva da un difetto nell’esecuzione di un
esperimento (strumentazione difettosa, operatore inappropriato, ecc.).
Può essere - riprodotto
- ridotto od eliminato
se è noto e non si modificano le
condizioni  es.: tara in una pesata
se si riesce a modificare
opportunamente le condizioni
-L’errore casuale (indeterminato) deriva dall’effetto prodotto da variabili incontrollate
nelle misure. Può essere positivo o negativo. Ha natura statistica ed è sempre
presente. Es.: errore di lettura, rumore elettrico, ecc.
NON PUO’ ESSERE ELIMINATO
9
Anche quando l’errore sistematico è eliminato, il risultato della misura rimane sempre
affetto dall’errore casuale
Ad ogni misura è associata una INCERTEZZA (sempre presente quella di natura
casuale, possibilmente da eliminare quella di natura sistematica)
Il risultato della misura sarà quindi UN INTERVALLO
x±d
Errore ASSOLUTO = differenza tra il valore MISURATO x e il valore REALE µ di una
misura
e=µ-x
Detto anche incertezza ASSOLUTA = margine di incertezza associato ad una misura
- ad es. ±2 ml margine di errore sistematico nella lettura di una buretta)
Errore RELATIVO = rapporto (anche come percentuale) dell’errore rispetto al valore
reale (o a quello misurato se quello reale non è disponibile)
Erel
e
% Erel
e
100
Detto anche incertezza RELATIVA = percentuale dell’incertezza rispetto al valore reale
- ad es. nel caso precedente, se la misura effettuata con la buretta è di 22.25 ml:
incertezza relativa = (2/22.25)x100 = 10.1%
10
Accuratezza e precisione
Risultato di una serie di misure: µ ± d
Si esprime il risultato come un INTERVALLO. Il primo termine è legato
all’accuratezza, il secondo alla precisione
L’accuratezza è riferita all’accordo di una misura rispetto al valore vero o
accettato della quantità misurata.
Indica quindi quanto il valore misurato si avvicina al valore vero.
L’accuratezza non può essere stabilita con certezza se un valore vero o accettato
(come un campione standard) non è noto.
In questo caso, si deve ricorrere a test statistici che indicano l’accuratezza di un
risultato in termini di probabilità
La precisione è riferita alla riproducibilità di un risultato. È quindi legata alla
possibilità di riprodurre più volte gli stessi valori ripetendo una misura n volte. È una
misura della VARIABILITA’ dei risultati.
Si può parlare di precisione sia all’interno di un set di misure, sia tra più set
diversi di misure.
Anche in questo caso, la precisione può essere stimata ed espressa ricorrendo a 14
variabili statistiche (deviazione standard)
Una serie di misure può quindi essere:
(A) Non precisa e non accurata
(B) Non accurata ma precisa
(C) Precisa ed accurata
(D) Accurata ma non precisa
(A)
(B)
Low accuracy, high precision
Low accuracy, low precision
(C)
(D)
High accuracy, low precision
High accuracy, high precision
µ±d
accuratezza
precisione
15
4
Gruppo
3
2
1
0.090
0.092
0.094
0.096
0.098
Conc. /mol l
0.100
-1
0.102
0.104
Trattazione statistica dei risultati
Le misure sperimentali sono TUTTE affette da una certa variabilità
 è IMPOSSIBILE TRARRE CONCLUSIONI CERTE
 tramite la statistica (misure MULTIPLE) si possono trarre
informazioni di natura probabilistica
 accettare conclusioni che hanno ELEVATA
PROBABILITA’ di essere corrette
 rigettare conclusioni che hanno SCARSA
PROBABILITA’ di essere corrette
Si possono quindi calcolare:
-Il valore MISURATO che è
un’approssimazione del valore vero
-Il grado di INCERTEZZA che indica la
dispersione dei risultati
-L’INTERVALLO DI FIDUCIA che
esprime l’intervallo intorno al valore
misurato all’interno del quale c’è una
certa probabilità (LIVELLO DI
PROBABILITA’) che si trovi il valore
vero
Esempio di un risultato analitico: il contenuto di cloro di un campione di acqua
18
è 350 ± 14 ppm ad un livello di probabilità del 95%
Distance (cm)
Distance (cm)
Distance (cm)
 I risultati tendono a distribuirsi attorno ad un VALORE MEDIO
 All’aumentare di n la DISTRIBUZIONE dei risultati tende ad avvicinarsi ad una
19
CURVA IDEALE  DISTRIBUZIONE GAUSSIANA DELL’ERRORE
21
0.0
20
9.6
20
9.2
20
8.8
20
8.4
20
8.0
20
7.6
20
7.2
20
6.8
20
6.4
20
6.0
N = 500
20
5.6
21
0.0
20
9.6
20
9.2
20
8.8
20
8.4
20
8.0
20
7.6
20
7.2
20
6.8
20
6.4
20
6.0
20
5.6
20
5.2
20
4.8
20
4.4
20
4.0
20
3.6
20
3.2
20
2.8
20
2.4
N = 200
20
5.2
20
4.8
20
4.4
Distance (cm)
20
4.0
20
3.6
20
3.2
20
2.0
20
1.6
20
1.2
20
0.8
20
0.4
20
0.0
Distribution of distance measurements for projectile
20
2.8
Distribution of distance measurements for projectile
20
2.4
20
2.0
0
20
1.6
10
20
1.2
35
20
0.8
0
19
9.6
1
20
0.4
3
19
9.2
6
20
0.0
9
19
8.8
7
19
9.6
7
Frequency
60
19
8.4
13
19
9.2
5
19
8.0
65
14
19
8.8
Frequency
15
19
8.4
21
0.0
20
9.6
20
9.2
20
8.8
20
8.4
20
8.0
20
7.6
20
7.2
20
6.8
20
6.4
20
6.0
20
5.6
8
19
8.0
21
0.0
20
9.6
20
9.2
20
8.8
20
8.4
20
8.0
20
7.6
20
7.2
20
6.8
N = 100
20
6.4
20
5.2
20
4.8
20
4.4
20
4.0
20
3.6
20
3.2
20
2.8
20
2.4
N = 40
20
6.0
20
5.6
20
5.2
20
4.8
20
4.4
Distance (cm)
20
4.0
20
3.6
20
3.2
Distribution of distance measurements for projectile
20
2.8
20
2.0
20
1.6
20
1.2
20
0.8
20
0.4
20
0.0
19
9.6
19
9.2
Frequency
Distribution of distance measurements for projectile
20
2.4
20
2.0
0
20
1.6
2
20
1.2
4
20
0.8
11
20
0.4
13
20
0.0
15
19
8.8
0
19
9.6
2
19
9.2
4
19
8.4
5
19
8.0
Frequency
6
19
8.8
7
Frequency
8
21
0.0
20
9.6
20
9.2
20
8.8
20
8.4
20
8.0
20
7.6
20
7.2
20
6.8
20
6.4
20
6.0
20
5.6
20
5.2
20
4.8
20
4.4
20
4.0
20
3.6
20
3.2
20
2.8
20
2.4
20
2.0
20
1.6
20
1.2
20
0.8
20
0.4
20
0.0
19
9.6
19
9.2
19
8.8
19
8.4
19
8.0
8
19
8.4
Frequency
10
19
8.0
21
0.0
20
9.6
20
9.2
20
8.8
20
8.4
20
8.0
20
7.6
20
7.2
20
6.8
20
6.4
20
6.0
20
5.6
20
5.2
20
4.8
20
4.4
20
4.0
20
3.6
20
3.2
20
2.8
20
2.4
20
2.0
20
1.6
20
1.2
20
0.8
20
0.4
20
0.0
19
9.6
19
9.2
19
8.8
19
8.4
19
8.0
La DISTRIBUZIONE GAUSSIANA DELL’ERRORE
n ripetizioni di una misura; condizione di errori puramente casuali
Distribution of distance measurements for projectile
N = 1000
9
12
11
55
10
50
45
40
35
30
5
4
25
3
20
1
2
15
10
5
0
Distance (cm)
N = 5000
300
Distribution of distance measurements for projectile
14
12
30
25
250
9
20
200
6
15
150
10
100
3
1
5
50
0
CURVA IDEALE  DISTRIBUZIONE GAUSSIANA DELL’ERRORE
Distribution of distance measurements for projectile
600
550
500
N=5000
450
400
300
250
200
150
100
50
21
0.
0
20
8.
8
20
9.
2
20
9.
6
20
7.
6
20
8.
0
20
8.
4
20
6.
0
20
6.
4
20
6.
8
20
7.
2
20
4.
8
20
5.
2
20
5.
6
20
3.
6
20
4.
0
20
4.
4
20
2.
4
20
2.
8
20
3.
2
20
0.
8
20
1.
2
20
1.
6
20
2.
0
19
9.
6
20
0.
0
20
0.
4
19
8.
4
19
8.
8
19
9.
2
0
19
8.
0
Frequency
350
Distance (cm)
La curva gaussiana è definita da MEDIA e DEVIAZIONE STANDARD
Il massimo nella gaussiana corrisponde alla MEDIA DELLA POPOLAZIONE µ
La semiampiezza della curva nel punto di flesso rappresenta invece la
DEVIAZIONE STANDARD DELLA POPOLAZIONE σ
σ è legata alla precisione della misura: è un indice della dispersione dei
risultati. Quindi al diminuire di σ aumenta la precisione
20
Esempio: durata di una serie di lampadine elettriche
Stessi valori medi ma
diverse deviazioni standard
21
La formula della curva gaussiana è data da
y
1
e
2
2
x
2
2
xi
con
2
i
n
e la corrispondente distribuzione (detta anche DISTRIBUZIONE NORMALE) ha
alcune interessanti proprietà
(1) Il massimo di y si trova per x = µ
(2) La curva è simmetrica rispetto ad x = µ
(3) L’area dell’intera curva da - a + è unitaria
ydx
1
e
2
2
x
2
2
dx 1
(4) Possiamo esprimere le deviazioni dal valore medio come multipli z della
deviazione standard
x
z
(5) La probabilità di ottenere un valore di z (o di x) compreso in un certo intervallo
equivale all’area sottesa alla curva in quell’intervallo
Una curva gaussiana la cui area è unitaria è detta curva normale dell’errore
22
DISTRIBUZIONE NORMALE STANDARD – DISTRIBUZIONE Z
La distribuzione normale standard ha media = 0 e deviazione standard = 1
Ordinate: numero di ripetizioni
associate al valore dell’ascissa
y
x
z
z
Ascisse: distanza dal valore medio espresso in unità di deviazione standard
23
Quindi, indipendentemente dai valori di µ e σ, l’area sottesa entro determinati
limiti di z è una frazione costante dell’area totale.
A due limiti fissati z1= (x1-µ)/σ e z2= (x2-µ)/σ corrisponderà quindi una frazione di area
costante rispetto all’area totale, indipendentemente dai valori di µ e σ
Esprimendo l’area sottesa come percentuale dell’area totale, ciò indica che UNA
PARTICOLARE PERCENTUALE DELLA POPOLAZIONE SARA’ TROVATA
ENTRO QUESTI LIMITI
z
24
Deviazione standard ed area sottesa alla curva normale
Per ogni curva normale con media µ e deviazione standard σ, esiste una
relazione biunivoca tra i multipli z della deviazione standard e la frazione di
area totale sottesa alla curva normale
A valori stabiliti di z  valori fissi di
probabilità
- 68.2% delle osservazioni totali
entro ± 1 deviazioni standard
- 95.5% delle osservazioni totali
entro ± 2 deviazioni standard
- 99.7% delle osservazioni totali
entro ± 3 deviazioni standard
25
A valori desiderati di probabilità  valori fissi di z
• range di ± 1.29 deviazioni standard intorno alla media per avere probabilità 80%
• range di ± 1.64 deviazioni standard intorno alla media per avere probabilità 90%
• range di ± 1.96 deviazioni standard intorno alla media per avere probabilità 95%
• range di ± 2.58 deviazioni standard intorno alla media per avere probabilità 99%
26
z1
-1
z2
+1
Limiti di confidenza
x1
x2
µ-σ
µ+σ
-1.29
-1.64
+1.29
+1.64
µ - 1.29σ
µ - 1.64σ
µ + 1.29σ
µ + 1.64σ
80%
90%
-1.96
-2
-2.58
-3
+1.96
+2
+2.58
+3
µ - 1.96σ
µ - 2σ
µ - 2.58σ
µ - 3σ
µ + 1.96σ
µ + 2σ
µ + 2.58σ
µ + 3σ
-
+
µ-
µ+
95%
95.5%
99%
99.7%
100%
probabilità
68.2%
27
Errori e curva Gaussiana
Errore casuale: risulta in una dispersione casuale dei risultati intorno al valore
vero (o al valore medio stimato)  determina la deviazione standard σ
Errore sistematico: influenza tutte le misure allo stesso modo, risultando in una
differenza significativa dal valore vero  determina il valore medio µ
Random Error
Systematic Error
28
Valore medio e deviazione standard STIMATI
In pratica, i veri valori di µ e σ non possono essere conosciuti, perché si riferiscono
ad una POPOLAZIONE INFINITA, mentre una misura sperimentale può essere
ripetuta solo un numero limitato n di volte  CAMPIONE
Sostituiamo quindi µ con il valore medio sperimentale x, che rappresenta una
stima della vera media della popolazione µ, e σ con s, che è una stima della
vera deviazione standard
Media aritmetica x : somma dei valori
misurati divisa per il numero n delle misure,
è una media STIMATA
xi
x
i
n
Deviazione standard stimata s misura la tendenza dei dati misurati a raccogliersi
attorno al valore medio stimato
x ed s si riferiscono ai valori sperimentali
2
xi x
ottenuti da una serie finita di singole
i
misure. n-1 sono i GRADI DI LIBERTA’
s
n 1
del sistema (n misure – 1 valore medio)
Per n molto elevato (n>50), x  µ e s  σ
s2 = VARIANZA
31
Calcolo di x ed s 
Pag. 65 Harris
Calcolo probabilità associata
ad un intervallo 
Pag. 65 Harris
Quante lampadine si romperanno in un intervallo
di tempo compreso tra 900 e 1000 ore?
32
Intervalli di fiducia
Il valore vero o accettato di una serie di misure è quindi generalmente sconosciuto,
a meno che non si disponga di un campione di riferimento certificato.
Per utilizzare al suo posto la media stimata x è quindi necessario effettuarne una
stima dell’accuratezza, ricorrendo al concetto di intervallo di fiducia
Un intervallo di fiducia è un range di valori, basato sulla deviazione standard e
che si estende ai lati del valore medio stimato x, all’interno del quale ci si
aspetta che il valore vero (vera media) µ ricada con un certo livello di
probabilità
Per poter definire un intervallo di fiducia abbiamo quindi bisogno di conoscere:
1) Il valore medio stimato x
2) La deviazione standard stimata s (o nota σ, se si conosce da misurazioni
precedenti o se si dispone di un elevato numero di misurazioni)
3) Il numero di misurazioni n effettuate
4) Il livello
di probabilità richiesto
t è la t di Student, parametro legato al livello di
probabilità e ai gradi di libertà
x
ts
n
33
x
ts
n
All’aumentare del livello di probabilità
desiderato il valore della t di Student aumenta
All’aumentare dei
gradi di libertà
( delle
misurazioni) il
valore della t di
Student diminuisce
34
Esempio: determinazione del contenuto di carboidrati di una glicoproteina
Valori ottenuti per n=5 misurazioni (g di carboidrati / g di proteina)
12.6
11.9
13.0
12.7
12.5
- Calcolare degli intervalli di fiducia al 50%, al 90% e al 95%
(1) Calcolare x
x = 12.5
(2) Calcolare s
s = 0.40
(3) Ricavare i tre valori di t dalla tabella (per 4=n-1 gradi di libertà)
(3a) al livello di probabilità 50% t = 0.741
(3b) al livello di probabilità 90% t = 2.132
(3c) al livello di probabilità 95% t = 2.776
(4) Applicare l’equazione
x
ts
n
nei tre casi
(4a) al 50% di probabilità µ = 12.5 ± 0.1
(4b) al 90% di probabilità µ = 12.5 ± 0.3
(4c) al 95% di probabilità
Aumento del livello di probabilità
µ = 12.5 ± 0.5
Allargamento dell’intervallo di fiducia
Al 100% di probabilità µ = 12.5 ±
!!!!
35
Data la stessa serie di misure ripetute:
µ cade all’interno dell’intervallo di fiducia 45 volte
µ cade all’interno dell’intervallo di fiducia 89 volte
36
Gruppo 1
Gruppo 2
Gruppo 3
Gruppo 4
4
0.0909
0.0997
0.0991
0.0998
0.0905
0.0999
0.0982
0.0999
0.0904
0.1001
0.0975
0.1000
0.0901
0.0998
0.0964
0.1002
0.0900
0.1001
0.0992
0.1007
0.0898
0.1000
0.0993
Gruppo
3
0.0988
2
1
0.090
0.092
0.094
0.096
0.098
Conc. /mol l
0.100
0.102
0.104
-1
CALCOLARE GLI INTERVALLI DI FIDUCIA AL 95%
x
4
ts
n
3
0.0909
0.0905
0.0904
0.0901
0.0900
0.0898
0.0997
0.0999
0.1001
0.0998
0.1001
0.1000
0.0991
0.0982
0.0975
0.0964
0.0992
0.0993
0.0999
0.0003566
95%
2.571
0.000374327
0.0995
0.1003
0.0903
0.0002881
95%
2.571
0.000302389
0.0900
0.0906
0.0999
0.0001304
95%
2.571
0.000136852
0.0998
0.1001
0.0983
0.0012153
95%
2.571
0.001275606
0.0970
0.0996
Gruppo
0.0988
0.0998
0.0999
0.1000
0.1002
0.1007
2
media
dev. St.
CL
t
t*s/(n^0.5)
Cimin
Cimax
1
0.090
0.092
0.094
0.096
0.098
Conc. /mol l
0.100
-1
0.102
0.104
Test di significatività
I test di significatività effettuano un confronto tra un fattore calcolato dai dati
sperimentali ed un valore tabulato (valore critico) determinato da:
(1) Numero di misure effettuato
(2) Livello di probabilità prestabilito
I test di significatività si basano sulla verifica dell’ipotesi nulla:
“Ogni differenza, discrepanza o valore sospetto è dovuto unicamente ad
errori sperimentali casuali e non sistematici”
Se il fattore calcolato sperimentalmente è inferiore al corrispondente
valore critico, l’ipotesi nulla è verificata: non c’è differenza significativa
tra i valori paragonati
Se il fattore calcolato sperimentalmente è superiore al corrispondente
valore critico, l’ipotesi nulla è rifiutata: c’è differenza significativa tra i
valori paragonati
Alla verifica o al rifiuto dell’ipotesi nulla va sempre accompagnato un livello di
probabilità. Generalmente si utilizzano i valori 90%, 95%, 99%.
Ciò significa che alla verifica o al rifiuto dell’ipotesi nulla rimane sempre
accompagnata una probabilità di errore del 10%, del 5% o dell’1%
39
Confronto di medie tramite t di Student
Per CONFRONTARE 2 MISURE al fine di decidere se sono in accordo
Si stabilisce una stima della probabilità che la differenza osservata tra due
misure derivi semplicemente da errori casuali di misurazione
Dobbiamo innanzitutto stabilire arbitrariamente un livello di probabilità richiesto
(generalmente 90%, 95%, o 99%)
Ciò ci indica che c’è una probabilità (ad es.) del 95% che le relative conclusioni
siano corrette, non esclude comunque una probabilità del 5% che le conclusioni
siano errate
Dopodiché ci si chiede: le due misure differiscono significativamente al
livello di probabilità richiesto?  verifica dell’IPOTESI NULLA
Il test di t si può applicare in 3 casi:
(1) Confronto di una serie di misure (caratterizzate da valore medio e deviazione
standard) con un valore noto ed accettato (ad es. un campione di riferimento)
(2) Confronto tra i risultati ottenuti su uno stesso campione con due metodi
diversi
(3) Confronto tra i risultati ottenuti su più campioni con due metodi diversi
 validazione del metodo
40
(1) Confronto di un risultato misurato con un valore noto
Valore noto µ (da
std di riferimento)
Valori misurati (n
ripetizioni)
3.19% (m/m) di
zolfo nel carbone
3.29 %
3.22%
Risultato stimato
x = 3.26%
s = 0.04%
3.30%
3.23%
Il valore misurato differisce in modo significativo dal valore noto, al livello di
probabilità del 95% ?  IPOTESI NULLA = i due risultati non differiscono
Per verificare l’ipotesi nulla (misura e valore noto non differiscono)
si confronta il valore di t tabulato (livello di probabilità 95%, 3 gradi
di libertà) con quello calcolato mediante la formula
tcalc
ttab
3.182
tcalc
ttab
tcalc
x
3.26 3.19
4
0.04
s
n
3.41
IPOTESI NULLA NON VERIFICATA  Il risultato ottenuto è diverso
dal valore noto ad un livello di probabilità del 95% (c’è sempre un 5% di
41
probabilità che il risultato non sia diverso dal valore noto!)
(2) Confronto di serie di misure ripetute
Per decidere se due serie di misure danno risultati differenti o se la differenza è
dovuta solo all’errore sperimentale casuale
Es.: Scoperta del gas Ar (Lord Rayleigh – premio Nobel 1904)
Misurazione di N2 proveniente da due campioni diversi:
(1) Azoto proveniente dall’aria: al tempo di Rayleigh si riteneva che l’aria secca fosse
composta esclusivamente da N2 (4/5) e O2 (1/5)  rimozione di O2 da una quantità
nota di aria mediante reazione con Cu (Cu + ½ O2  CuO) e poi misura della
densità del gas – n1 misurazioni
(2) Azoto preparato chimicamente per decomposizione di N2O, NO, o NH4+ NO2- n2 misurazioni
campione 1 campione 2
Le due serie di dati differiscono in modo
(aria) /g (chimico) /g
significativo al livello di probabilità del
2.31017
2.30143
95% ?  IPOTESI NULLA = le due serie
2.30986
2.29890
2.31010
2.29816
di dati non differiscono
Media
Dev. Std
2.31001
2.31024
2.31010
2.31028
2.30182
2.29869
2.29940
2.29849
2.29889
2.31011
0.00014
2.29947
0.00138
42
Per verificare l’ipotesi nulla (le due misure non differiscono) si confronta il valore
di t tabulato (livello di prob. 95%, n1 + n2 – 2 gradi di libertà) con quello calcolato
mediante la formula, applicata a due serie di dati che consistono di n1 e n2 misure
tcalc
xi
con
scomune
x1 x2
scomune
x1
n1n2
n1 n2
2
xj
serie1
x2
2
serie 2
n1 n2
2
s12 ( n1 1) s22 ( n2 1)
n1 n2 2
Quindi:
x1
2.31011
x2
2.29947
(1) Calcolo di x1, x2, s1, s2
s1
0.0014
s2
0.0138
(2) Calcolo di scomune
(3) Calcolo di tcalc
(4) Confronto di tcalc con ttab
scomune
tcalc
0.00014 2 (7 1) 0.001382 (8 1)
7 8 2
2.31011 2.29947 7 8
20.2
0.00102
7 8
0.00102
43
tcalc = 20.155
2.228 < ttab < 2.131
tcalc
ttab
(anche al livello di prob. del 99.9%)
IPOTESI NULLA NON VERIFICATA  I due risultati sono significativamente
differenti al livello di prob. richiesto  differenza tra i due gas  presenza di un
costituente “pesante” nell’aria
44
(3) Confronto di singole differenze  validazione del metodo analitico
Per verificare se due metodi, applicati a più campioni, danno gli stessi risultati
Si effettuano singole misurazioni su numerosi campioni mediante due metodi diversi
Es.: determinazione del colesterolo nel sangue
campione
1
2
3
4
5
6
6 campioni x 1 misurazione x 2 metodi
Il metodo B è significativamente diverso
dal metodo A al livello di prob. del 95% ?
 IPOTESI NULLA: i due metodi non dono
diversi
contenuto di colesterolo (g/l)
metodo A metodo B differenza
1.46
1.42
0.04
2.22
2.38
-0.16
2.84
2.67
0.17
1.97
1.80
0.17
1.13
1.09
0.04
2.35
2.25
0.10
diff. Media
0.06
Per verificare l’ipotesi nulla (i due metodi non differiscono) si esegue il test t sulle
singole differenze fra i risultati ottenuti per ciascun campione
tcalc
d
sd
con
n
di
sd
2
d
n 1
n è il numero di differenze, quindi i gradi di libertà sono n-1=5
sd
0.04 0.06
2
0.16 0.06
2
0.17 0.06
2
0.17 0.06
2
0.04 0.06
2
0.10 0.06
2
6 1
tcalc
0.06
6 1.20
0.12
45
tcalc
ttab
0.06
6 1.20
0.12
2.571
tcalc
ttab
IPOTESI NULLA VERIFICATA  I due metodi NON sono significativamente
diversi ad un livello di prob. del 95%
46
L’equazione
tcalc
x1 x2
scomune
applicata al caso 2 (confronto di due
serie di misure ripetute), è valida se le
due deviazioni standard non sono
significativamente differenti
n1n2
n1 n2
Se invece le due deviazioni standard sono significativamente diverse, si devono
applicare le seguenti correzioni:
tcalc
x1
x2
s12 / n1 s22 / n2
gradi di libertà =
s12 / n1 s22 / n2
2
1
s / n1
n1 1
2
Nell’esempio precedente si
otterrebbero
2
2
2
s / n2
2
2
tcalc = 21.7
gradi di libertà = 7.22 (!)
n2 1
Anche in questo caso l’ipotesi nulla NON sarebbe verificata
tcalc
ttab
I due risultati sono significativamente differenti al livello di prob. richiesto
47
Come si confrontano le deviazioni standard?  mediante il test F
Test F per il confronto di deviazioni standard
Si basa sul confronto tra un parametro F calcolato e valori critici tabulati, per n1 – 1
gradi di libertà di s1 e n2 – 1 gradi di libertà di s2
Generalmente si intende un livello di fiducia del 95%
Se Fcalc > Ftab le deviazioni standard sono significativamente diverse
Nel caso precedente,
le due deviazioni
standard sono
significativamente
diverse? (CL 95%)
Fcalc
Fcalc
s12
s22
con s1 > s2
s12
s22
0.001382
0.00014 2
93.1
n1 = 8, n2 = 7
DOF1 = 7, DOF2 = 6
Fcalc > Ftab
IPOTESI NULLA (le due deviazioni std non sono diverse) NON VERIFICATA
48
Le due deviazioni std sono significativamente diverse al livello di prob. richiesto
Test Q per i dati sospetti (test di Dixon)
Alcuni dati possono apparire sospetti (outliers)  non consistenti con gli altri
all’interno di una dispersione
Il test di Dixon permette di stabilire, SEMPRE AD UN DETERMINATO LIVELLO
DI PROBABILITA’, se un outlier può essere eliminato, tramite confronto con
valori critici tabulati
(1) Disporre i dati in ordine crescente
(2) Calcolare l’intervallo (= distanza tra il valore min e il valore max)
(3) Calcolare il divario (= distanza tra l’outlier e il valore più vicino)
(4) Calcolare il valore di Qexp
divario
Qexp =
intervallo
(5) Verifica dell’ipotesi nulla: confronto di Qexp con Qtab al livello di prob. prestabilito
IPOTESI NULLA associata al Q-test: “Non c’è una differenza significativa tra il
valore sospetto ed i rimanenti, ogni differenza deve essere attribuita
esclusivamente ad errori casuali".
49
Quindi, dato un set di dati tale che x1 < x2 < . . . < xN, possiamo applicare il test sia
a x1 che a xN
Qtab (Qcrit.)
N
x 2 x1
Per x1: Qexp
xN
Per xN: Qexp
CL:
90%
CL:
95%
CL:
99%
3
0.941
0.970
0.994
4
0.765
0.829
0.926
5
0.642
0.710
0.821
6
0.560
0.625
0.740
7
0.507
0.568
0.680
?
8
0.468
0.526
0.634
12.67
9
0.437
0.493
0.598
10
0.412
0.466
0.568
x1
x N xN 1
xN x1
Esempio:
Set di 5 dati
12.47
12.48
12.53
12.56
Il valore 12.67 è da scartare? (al livello di
probabilità 95%)
Intervallo = 12.67-12.47 = 0.20
Divario = 12.67-12.56 = 0.11
Qexp = 0.11/0.20 = 0.55
Qtab = 0.710
Qexp < Qtab
Il valore 12.67 non è da
scartare al livello di
probabilità richiesto
50
PROPAGAZIONE DEGLI ERRORI
Se una grandezza è funzione di variabili affette da errore, allora anche il valore che essa
assume sarà affetto da errore
L’effetto dell’errore delle variabili sull’errore della funzione è detto PROPAGAZIONE DEGLI
ERRORI
Ad esempio, se vogliamo misurare una concentrazione
c=m/V
A massa e volume sono associati degli errori
Δm e ΔV
Quale sarà il valore dell’errore sulla concentrazione
Δc ?
Possiamo porci questa domanda per:
SOMME
DIFFERENZE
PRODOTTI
QUOZIENTI
Sia x = a+b. Il più alto valore probabile di a è a+ Δa, mentre di b è b+ Δb,
quindi il più alto valore probabile per x sarà:
x + Δx = (a + Δa) + (b + Δb) = (a + b) + (Δa + Δ b)
Mentre il più basso sarà:
x - Δx = (a - Δa) + (b - Δb) = (a + b) - (Δa + Δ b)
da cui ricaviamo che:
Δx = Δa + Δb
Analogamente, nel caso x = a−b, il più alto valore probabile per x sarà:
x + Δx = (a + Δa) − (b − Δb) = (a − b) + (Δa + Δb)
Mentre il più basso sarà:
x − Δx = (a − Δa) − (b + Δb) = (a − b) − (Δa + Δb)
da cui ricaviamo ancora che:
Δx = Δa + Δb
Quindi, generalizzando possiamo dire che: l’errore massimo associato a una grandezza
fisica che è il risultato della somma, o della differenza o di una combinazione di esse, fra
due o più grandezze, ciascuna misurata con la propria incertezza, si ottiene sommando gli
errori delle singole grandezze.
x = a + b − c + ....
Δx = Δa + Δb + Δc + ....
Sia x = a b
Come prima, il più alto valore probabile di a è a + Δa, mentre di b è b + Δb, quindi il più alto
valore probabile per x sarà:
x + Δx = (a + Δa) (b + Δb) = a b + Δa b + b Δa + Δa Δb
Nell’ipotesi che Δa ≪ a e Δb ≪ b, possiamo ragionevolmente assumere che Δa Δb si possa
trascurare.
Da cui ricaviamo che:
Δx = a Δb + b Δa
x
x
a
a
b
b
N.B. l’errore relativo è sempre positivo, quindi
x
x
a
a
Se dividiamo tutto per x = a b si ottiene
Si sommano gli errori relativi
b
b
Nel caso in cui x = a/b, il più alto valore probabile per x sarà:
Mettendo in evidenza il rapporto a/b si ha:
Moltiplicando numeratore e denominatore per 1 + Δb/|b|, e trascurando i termini
(Δb/|b|)2 e (Δa/|a|)(Δb/|b|), si ottiene:
Dividendo tutto per |x| si ricava:
E quindi:
Quindi, generalizzando possiamo dire che:
l’errore relativo associato a una grandezza fisica che è il risultato del prodotto, o del
quoziente o di una combinazione di essi, fra due o più grandezze, ciascuna misurata con
la propria incertezza, si ottiene sommando gli errori relativi delle singole grandezze.
Riassumendo
- Somma o differenza
- Prodotto o quoziente
 si sommano gli errori assoluti
 si sommano gli errori relativi
1) Una procedura analitica per la determinazione del contenuto di Mg in un dato
minerale fornisce valori di 0.129, 0.133, 0.136, 0.130, 0.128 e 0.131%.
(a) Verificare la presenza di outlier.
(b) Calcolare il valore medio e la deviazione standard della serie di misure.
(c) Calcolare l’intervallo di fiducia al 95%.
(d) Verificare se il nuovo risultato differisce significativamente dal valore noto di 0.137%
2) Date le due distribuzioni:
i) 1.02, 1.03, 1.05, 1.07, 1.08
ii) 0.99, 1.01, 1.03, 1.04, 1.06
(a)
Calcolare la media e la deviazione standard per ognuna delle due distribuzioni
(b)
Verificare se i due valori medi differiscono in maniera significativa (CL=95%)
3) Data la distribuzione di valori:
1.05, 1.07, 1.08, 1.01, 0.98
Calcolare l’intervallo di fiducia e verificare se il valore medio differisce in misura
significativa da un valore noto pari a 1.10 (CL=95%).
4) Il contenuto di calcio in un minerale (% in peso) è stato analizzato 5 volte con due
metodi. I valori medi ottenuti sono significativamente diversi al livello di fiducia del
95% ?
Metodo 1:
Metodo 2:
0.0271
0.0271
0.0282
0.0268
0.0279
0.0263
0.0271
0.0274
0.0275
0.0269
5) Verificare con il test Q se la seguente serie di risultati contiene dati sospetti
(CL = 95%); calcolare l’intervallo di fiducia (al 95%) per la misura.
Risultati: 0.217, 0.224, 0.195, 0.221, 0.221, 0.223.
Scarica