compatibilty.nb
1
Verifica della compatibilità di due misure
T.Chiarusi, 05/03/2009
La grandezza X viene misurata in due modi indipendenti; si hanno le seguenti misure sperimentali:
X1 = x1 + d x1
X2 =x2 + d x2
IMPORTANTE: x1 e x2 sono variabili aleatorie, ovvero soggette a fluttuazioni casuali: è per questo che esse sono
prive di significato se non sono accompagnate ciascuna dalla rispettiva incertezza d x1 e d x2 .
Stabilire che x1 e x2 sono compatibili significa stabilire che, entro gli errori sperimentali, le differenze che le distingono,
sono dovute a mere fluttuazioni statistiche.
METODO A: DIFFERENZA
Il metodo va diviso in due parti:
(A.1)
Sia Z = » x1 - x2 » il valore assoluto della differenza delle due misure. In pratica Z rappresenta la distanza tra le
misure.
IMPORTANTE: Z , essendo una funzione di x1 e x2 (variabili aleatorie), è essa stessa una variabile aleatoria, e per
questo soggetta anch'essa a fluttuazioni casuali. Perciò, è possibile assegnarle un'incertezza d Z, che ovviamente
dipenderà dalle d x. (vedremo dopo come si calcola...)!
È ovvio che se le due misure sono identiche Hx1 = x2 L, allora Z = 0; In questo caso ovviamente le misure sono banalmente compatibili.
Se invece Z ¹≠ 0, allora ha senso chiedersi: quanto sono distanti tali misure? Il nocciolo della discussione sta nello
scegliere l'unità di misura con cui esprimere tale distanza. Bene: l'unità di misura che cerchiamo è proprio l'errore su
Z, ovvero d Z. E quindi cercheremo di esprimere la distanza tra x1 e x2 in termini di multipli di d Z.
è!!!!!!!!!!!!!!!!
!!!!!!!!
d x1 2 + d x2 2 .
Se le misure sono indipendenti, la Teoria della Propagazione degli Errori (TPE) ci dice che
dZ=
IMPORTANTE: cercare la compatibilità tra le misure x1 e x2 entro gli errori significa assumere per ipotesi il seguente
punto di vista: a noi piacerebbe ricavare che le misure siano compatibili, ovvero che x1 = x2 (entro gli errori), e
quindi Z= 0. Per questo, stimare quanto x1 disti da x2 è del tutto equivalente a stimare quanto la Z disti da 0.
| 0 - Z | = | 0 - » x1 - x2 » » = » x1 - x2 »,
Insomma, il nostro ragionamento ci spingerà a cercare quante volte d Z stia in
ovvero:
» 0-Z »
»x1 -x2 »
Nvolte = ÅÅÅÅÅÅÅÅ
Å
ÅÅÅÅ
Å
=
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ
ÅÅÅÅÅÅÅÅ
Å2ÅÅÅ! .
è!!!!!!!!!!!!!!!!
!!!!!!
dZ
2
d x1 +d x2
Si dice quindi che x1 dista da x2 (ovvero Z da 0) un valore pari a Nvolte d Z.
___________________________
| 0 - Z | = | 0 - » x1 - x2 » » = » x1 - x2 »,
ovvero:
compatibilty.nb
Nvolte =
» 0-Z »
ÅÅÅÅÅÅÅÅ
ÅÅÅÅÅÅ
dZ
=
»x1 -x2 »
ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ
ÅÅÅÅÅÅÅÅ
ÅÅÅÅ! .
è!!!!!!!!!!!!!!!!
!!!!!!
d x1 2 +d x2 2
2
Si dice quindi che x1 dista da x2 (ovvero Z da 0) un valore pari a Nvolte d Z.
___________________________
DIGRESSIONE IMPORTANTE
Non basta trovare Nvolte : occorre dargli un senso. Bisogna capire quando Nvolte indica una compatibilità tra due misure e
quando no! Occorre capire quando Nvolte è troppo grande!
IMPORTANTE: per i ragionamenti seguenti si assume che Z segua la distribuzione Gaussiana di probabilità (in
generale, se le x sono distribuite secondo una Gaussiana - e le vostre misure con le pecore lo sono - anche Z lo è!).
Quindi la legge matematica che descrive la distribuzione di probabilità della Z è la seguente:
f(Z)=
1 Å
ÅÅÅÅÅÅÅÅÅÅÅÅÅ
è!!!!!!!!!!!!
!
2 p s2
Z-mZ
1
s ÅL
E- ÅÅÅ2 H ÅÅÅÅÅÅÅÅ
2
,
con mZ il valore vero per la grandezza rappresentata dalla variabile Z, e con s = dZ, l'errore sulla grandezza Z.
IMPORTANTE: ricordiamo che abbiamo assunto per ipotesi che x1 = x2 ; quindi il valore vero mZ deve necessariamente essere nullo, ovvero mZ = 0.
Una volta ricordato questo, il nostro problema si riconduce a capire quanto il nostro Z, calcolato tramite x1 e x2 , sia
compatibile con il suo valor vero, cioè con mZ =0!
Andiamo avanti: la distribuzione probabilistica della variabile Z attorno al valore vero mZ = 0 è quindi
1 Å e- ÅÅÅ
2
f(Z)= ÅÅÅÅÅÅÅÅÅÅÅÅÅ
è!!!!!!!!!!!!
2!
1
2ps
Z
H ÅÅÅ
s L
2
Ok, contando che il valore vero aspettato per Z sia proprio 0 (zero, lo ripeto: è importante!!!!), facciamoci questa
domanda:
qual'e' la probabilità di avere una misura di Z che mi cade dentro l'intervallo - dZ ≤ Z ≤ dZ (notate che
quest'intervallo è centrato in Z=0, cioè è centrato su mZ che per ipotesi vale 0)?
Banale:
P±dZ =
dZ
1
ÅÅÅÅÅÅÅÅ
è!!!!!!!!
!!!!!ÅÅ
Ÿ-dZ ÅÅÅÅÅÅÅÅ
2 p s2
1
Z
e- ÅÅÅÅ2 H ÅÅÅÅsÅ L
2
„ Z > 0.68
ï Ovvero il 68 %.
Cosa vuol dire questo risultato?
Esso vuol dire che su un totale di volte che misuro Z con un'incertezza dZ, la misura fatta mi cade dentro
l'intervallo [- dZ , dZ] il 68% delle volte ( fino allo sfinimento: avendo assunto che il valoreVERO di Z sia
ZERO!).
Vuole anche dire che, a causa delle fluttuazioni statistiche, si può comunque avere uno Z fuori da quell'intervallo,
ma solo per il 32% delle volte. Beh, il 32% è un valore abbastanza grande!
_______
Qual'e' invece la probabilità che Z cada dentro un intervallo, sempre attorno a mZ = 0, i cui estremi sono multipli di
Nvolte ,
ovvero [- Nvolte dZ, + Nvolte dZ]?
Similmente a quanto scritto sopra,
1
- ÅÅÅÅ H ÅÅÅÅÅ L
P±NZ dZ = Ÿ-Nvolte dZ ÅÅÅÅÅÅÅÅ
ÅÅÅÅÅÅÅÅ
è!!!!!!!!
!!!!2!ÅÅ E 2 s „ Z
volte
2ps
N
dZ
1
Z 2
Purtroppo il risultato dell'integrale appena scritto non è esprimibile tramite una relazione banale... ma vale:
_______
Qual'e' invece la probabilità che Z cada dentro un intervallo, sempre attorno a mZ = 0, i cui estremi sono multipli di
compatibilty.nb
3
Nvolte ,
ovvero [- Nvolte dZ, + Nvolte dZ]?
Similmente a quanto scritto sopra,
P±NZ dZ =
Nvolte dZ
1
ÅÅÅÅÅÅÅÅ
è!!!!!!!!
!!!!!ÅÅ
Ÿ-Nvolte dZ ÅÅÅÅÅÅÅÅ
2 p s2
1
Z
E- ÅÅÅÅ2 H ÅÅÅÅsÅ L
2
„Z
Purtroppo il risultato dell'integrale appena scritto non è esprimibile tramite una relazione banale... ma vale:
P±NZ dZ = Erf( 0.71 Nvolte ).
Erf(t) è la famosissima funzione degli errori, la cosiddetta ERror Function, che può essere calolata numericamente per i
valori di t che ci interessano (nella nostra notazione, t = 0.71 Nvolte ) .
Si può calcolare quindi la seguente tabella:
Nvolte
i
j
j
j
1
j
j
j
j
j
j
1.25
j
j
j
j
j 1.5
j
Tab. 1 = j
j
j
j
1.75
j
j
j
j
j
2
j
j
j
j
j
2.5
j
j
j
k3
[email protected] Nvolte D y
z
z
z
0.684666
z
z
z
z
z
z
0.790563
z
z
z
z
z
0.867968
z
z
z
z
z
0.92111
z
z
z
z
z
0.955376
z
z
z
z
z
0.987935
z
z
z
0.997407
{
Come si vede se Nvolte =1, si ricade nel caso già trattato del 68%.
Facciamo un ultimo esempio: cosa si può dire nel caso in cui Nvolte =3?
Beh, se l'errore su Z è sempre dZ (ed è proprio dZ: quella era una ripetizione retorica) , è ragionevole aspettarsi valori
di Z fuori dall'intervallo [- Nvolte dZ, + Nvolte dZ] solo per il 0.2% delle volte, ovvero molto raramente.
___________________________
(A.2)
Facendo riferimento alla tabella Tab. 1, possiamo dedurre una regola:
- Se Nvolte ≥ 3 , le misure non sono compatibili (si dice che la distanza che separa x1 da x2 sarebbe giustificata da
fluttuazioni statistiche soltanto per lo 0.2% (o meno) delle volte... in soldoni, la differenza riscontrata tra x1 e x2 non è
imputabile ragionevolmente al caso ma a qualcosa di sistematico)
- Se Nvolte § 1.7, le misure sono compatibili entro gli errori ( ma attenzione: se Nvolte << 1, vuol dire anche che si
hanno degli errori dx1 e dx2 molto grossi!!!)
- Se 1.7 < Nvolte < 3, c'è tutta la sfumatura di grigi, e quindi bisogna giustificare la scelta che si fa.
Se per esempio Nvolte = 2, l'unica cosa certa che si può dire su basi statistiche è la seguente: l'ipotesi che le misure x1 e
x2 differiscano di Nvolte dZ solo per ragioni statistiche corrisponde al 5% di livello di confidenza (... insomma... non
siamo poi troppo confidenti che x1 e x2 siano compatibili) .
compatibilty.nb
4
METODO B: RAPPORTO
In questo caso si definisce
x1
Z = ÅÅÅÅÅ
Å,
x2
x1 $%%%%%%%%%%%%%%%%
d x1 2 %%%%%%%%%%%%%%
d x2 2
dZ = ÅÅÅÅÅ
Å
I
ÅÅÅÅÅÅÅÅ
Å
M
+
I
ÅÅÅÅÅÅÅÅ
ÅM
x2
x1
x2
Dalla solita TPE, si ha questa volta che che
Avendo definito Z come il rapporto tra x1 e x2 , assumendo sempre l'ipotesi della compatibilità delle due misure ci si
x1
aspetta che Z debba essere compatibile con 1 (cioè quando x1 = x2 fl ÅÅÅÅ
ÅÅ = 1)
x2
Quindi, cercando come prima quante volte Z disti dal valore (supposto) vero = 1, si ottiene:
Nvolte =
»1-Z»
ÅÅÅÅÅÅÅÅ
ÅÅÅÅ
dZ
x1
»1-» ÅÅÅÅ
x2ÅÅ » »
= ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ
2
x1 $%%%%%%%%%%%%%%%%
d x1 2 %%%%%%%%
d x2 %%%%
%
ÅÅÅÅ
H ÅÅÅÅ
x2ÅÅ
xÅ1ÅÅÅÅ L +H ÅÅÅÅxÅ2ÅÅÅÅ L
Per le stesse considerazioni fatte sopra, questa volta mZ = 1, e quindi la distribuzione di probabilità di Z vale:
f(Z)=
1 Å
ÅÅÅÅÅÅÅÅÅÅÅÅÅ
è!!!!!!!!!!!!
!
2 p s2
1
Z-1
s L
E- ÅÅÅ2 H ÅÅÅÅÅÅÅ
2
Similmente a quanto detto in precedenza, la probabilità che Z cada nell'intervallo [1- Nvolte dZ, 1+ Nvolte dZ] (si noti
che stavolta l'intervallo è centrato in mZ = 1!!!!)
P1±NZ dZ =
1+Nvolte dZ
1
ÅÅÅÅÅÅÅÅ
è!!!!!!!!
!!!!!ÅÅ
Ÿ1-Nvolte dZ ÅÅÅÅÅÅÅÅ
2 p s2
1 Z-1
E- ÅÅÅÅ2 H ÅÅÅÅsÅÅÅÅÅÅ L
2
„ Z = Erf(0.71 Nvolte )
NOTA: abbiamo ottenuto lo stesso risultato di prima (cfr. la Digressione del metodo A) !!
È quindi possibile utilizzare ancora la tabella trovata nella Digressione del metodo A per determinare quanto Z sia
compatibile con 1 (nel metodo della differenza, Z doveva essere compatibile con 0!!!), ovvero è possibile fare le stesse
considerazioni della sezione (A.2) per stabilire se x1 e x2 siano o meno compatibili.