compatibilty.nb 1 Verifica della compatibilità di due misure T.Chiarusi, 05/03/2009 La grandezza X viene misurata in due modi indipendenti; si hanno le seguenti misure sperimentali: X1 = x1 + d x1 X2 =x2 + d x2 IMPORTANTE: x1 e x2 sono variabili aleatorie, ovvero soggette a fluttuazioni casuali: è per questo che esse sono prive di significato se non sono accompagnate ciascuna dalla rispettiva incertezza d x1 e d x2 . Stabilire che x1 e x2 sono compatibili significa stabilire che, entro gli errori sperimentali, le differenze che le distingono, sono dovute a mere fluttuazioni statistiche. METODO A: DIFFERENZA Il metodo va diviso in due parti: (A.1) Sia Z = » x1 - x2 » il valore assoluto della differenza delle due misure. In pratica Z rappresenta la distanza tra le misure. IMPORTANTE: Z , essendo una funzione di x1 e x2 (variabili aleatorie), è essa stessa una variabile aleatoria, e per questo soggetta anch'essa a fluttuazioni casuali. Perciò, è possibile assegnarle un'incertezza d Z, che ovviamente dipenderà dalle d x. (vedremo dopo come si calcola...)! È ovvio che se le due misure sono identiche Hx1 = x2 L, allora Z = 0; In questo caso ovviamente le misure sono banalmente compatibili. Se invece Z ¹≠ 0, allora ha senso chiedersi: quanto sono distanti tali misure? Il nocciolo della discussione sta nello scegliere l'unità di misura con cui esprimere tale distanza. Bene: l'unità di misura che cerchiamo è proprio l'errore su Z, ovvero d Z. E quindi cercheremo di esprimere la distanza tra x1 e x2 in termini di multipli di d Z. è!!!!!!!!!!!!!!!! !!!!!!!! d x1 2 + d x2 2 . Se le misure sono indipendenti, la Teoria della Propagazione degli Errori (TPE) ci dice che dZ= IMPORTANTE: cercare la compatibilità tra le misure x1 e x2 entro gli errori significa assumere per ipotesi il seguente punto di vista: a noi piacerebbe ricavare che le misure siano compatibili, ovvero che x1 = x2 (entro gli errori), e quindi Z= 0. Per questo, stimare quanto x1 disti da x2 è del tutto equivalente a stimare quanto la Z disti da 0. | 0 - Z | = | 0 - » x1 - x2 » » = » x1 - x2 », Insomma, il nostro ragionamento ci spingerà a cercare quante volte d Z stia in ovvero: » 0-Z » »x1 -x2 » Nvolte = ÅÅÅÅÅÅÅÅ Å ÅÅÅÅ Å = ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ ÅÅÅÅÅÅÅÅ Å2ÅÅÅ! . è!!!!!!!!!!!!!!!! !!!!!! dZ 2 d x1 +d x2 Si dice quindi che x1 dista da x2 (ovvero Z da 0) un valore pari a Nvolte d Z. ___________________________ | 0 - Z | = | 0 - » x1 - x2 » » = » x1 - x2 », ovvero: compatibilty.nb Nvolte = » 0-Z » ÅÅÅÅÅÅÅÅ ÅÅÅÅÅÅ dZ = »x1 -x2 » ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ ÅÅÅÅÅÅÅÅ ÅÅÅÅ! . è!!!!!!!!!!!!!!!! !!!!!! d x1 2 +d x2 2 2 Si dice quindi che x1 dista da x2 (ovvero Z da 0) un valore pari a Nvolte d Z. ___________________________ DIGRESSIONE IMPORTANTE Non basta trovare Nvolte : occorre dargli un senso. Bisogna capire quando Nvolte indica una compatibilità tra due misure e quando no! Occorre capire quando Nvolte è troppo grande! IMPORTANTE: per i ragionamenti seguenti si assume che Z segua la distribuzione Gaussiana di probabilità (in generale, se le x sono distribuite secondo una Gaussiana - e le vostre misure con le pecore lo sono - anche Z lo è!). Quindi la legge matematica che descrive la distribuzione di probabilità della Z è la seguente: f(Z)= 1 Å ÅÅÅÅÅÅÅÅÅÅÅÅÅ è!!!!!!!!!!!! ! 2 p s2 Z-mZ 1 s ÅL E- ÅÅÅ2 H ÅÅÅÅÅÅÅÅ 2 , con mZ il valore vero per la grandezza rappresentata dalla variabile Z, e con s = dZ, l'errore sulla grandezza Z. IMPORTANTE: ricordiamo che abbiamo assunto per ipotesi che x1 = x2 ; quindi il valore vero mZ deve necessariamente essere nullo, ovvero mZ = 0. Una volta ricordato questo, il nostro problema si riconduce a capire quanto il nostro Z, calcolato tramite x1 e x2 , sia compatibile con il suo valor vero, cioè con mZ =0! Andiamo avanti: la distribuzione probabilistica della variabile Z attorno al valore vero mZ = 0 è quindi 1 Å e- ÅÅÅ 2 f(Z)= ÅÅÅÅÅÅÅÅÅÅÅÅÅ è!!!!!!!!!!!! 2! 1 2ps Z H ÅÅÅ s L 2 Ok, contando che il valore vero aspettato per Z sia proprio 0 (zero, lo ripeto: è importante!!!!), facciamoci questa domanda: qual'e' la probabilità di avere una misura di Z che mi cade dentro l'intervallo - dZ ≤ Z ≤ dZ (notate che quest'intervallo è centrato in Z=0, cioè è centrato su mZ che per ipotesi vale 0)? Banale: P±dZ = dZ 1 ÅÅÅÅÅÅÅÅ è!!!!!!!! !!!!!ÅÅ Ÿ-dZ ÅÅÅÅÅÅÅÅ 2 p s2 1 Z e- ÅÅÅÅ2 H ÅÅÅÅsÅ L 2 „ Z > 0.68 ï Ovvero il 68 %. Cosa vuol dire questo risultato? Esso vuol dire che su un totale di volte che misuro Z con un'incertezza dZ, la misura fatta mi cade dentro l'intervallo [- dZ , dZ] il 68% delle volte ( fino allo sfinimento: avendo assunto che il valoreVERO di Z sia ZERO!). Vuole anche dire che, a causa delle fluttuazioni statistiche, si può comunque avere uno Z fuori da quell'intervallo, ma solo per il 32% delle volte. Beh, il 32% è un valore abbastanza grande! _______ Qual'e' invece la probabilità che Z cada dentro un intervallo, sempre attorno a mZ = 0, i cui estremi sono multipli di Nvolte , ovvero [- Nvolte dZ, + Nvolte dZ]? Similmente a quanto scritto sopra, 1 - ÅÅÅÅ H ÅÅÅÅÅ L P±NZ dZ = Ÿ-Nvolte dZ ÅÅÅÅÅÅÅÅ ÅÅÅÅÅÅÅÅ è!!!!!!!! !!!!2!ÅÅ E 2 s „ Z volte 2ps N dZ 1 Z 2 Purtroppo il risultato dell'integrale appena scritto non è esprimibile tramite una relazione banale... ma vale: _______ Qual'e' invece la probabilità che Z cada dentro un intervallo, sempre attorno a mZ = 0, i cui estremi sono multipli di compatibilty.nb 3 Nvolte , ovvero [- Nvolte dZ, + Nvolte dZ]? Similmente a quanto scritto sopra, P±NZ dZ = Nvolte dZ 1 ÅÅÅÅÅÅÅÅ è!!!!!!!! !!!!!ÅÅ Ÿ-Nvolte dZ ÅÅÅÅÅÅÅÅ 2 p s2 1 Z E- ÅÅÅÅ2 H ÅÅÅÅsÅ L 2 „Z Purtroppo il risultato dell'integrale appena scritto non è esprimibile tramite una relazione banale... ma vale: P±NZ dZ = Erf( 0.71 Nvolte ). Erf(t) è la famosissima funzione degli errori, la cosiddetta ERror Function, che può essere calolata numericamente per i valori di t che ci interessano (nella nostra notazione, t = 0.71 Nvolte ) . Si può calcolare quindi la seguente tabella: Nvolte i j j j 1 j j j j j j 1.25 j j j j j 1.5 j Tab. 1 = j j j j 1.75 j j j j j 2 j j j j j 2.5 j j j k3 [email protected] Nvolte D y z z z 0.684666 z z z z z z 0.790563 z z z z z 0.867968 z z z z z 0.92111 z z z z z 0.955376 z z z z z 0.987935 z z z 0.997407 { Come si vede se Nvolte =1, si ricade nel caso già trattato del 68%. Facciamo un ultimo esempio: cosa si può dire nel caso in cui Nvolte =3? Beh, se l'errore su Z è sempre dZ (ed è proprio dZ: quella era una ripetizione retorica) , è ragionevole aspettarsi valori di Z fuori dall'intervallo [- Nvolte dZ, + Nvolte dZ] solo per il 0.2% delle volte, ovvero molto raramente. ___________________________ (A.2) Facendo riferimento alla tabella Tab. 1, possiamo dedurre una regola: - Se Nvolte ≥ 3 , le misure non sono compatibili (si dice che la distanza che separa x1 da x2 sarebbe giustificata da fluttuazioni statistiche soltanto per lo 0.2% (o meno) delle volte... in soldoni, la differenza riscontrata tra x1 e x2 non è imputabile ragionevolmente al caso ma a qualcosa di sistematico) - Se Nvolte § 1.7, le misure sono compatibili entro gli errori ( ma attenzione: se Nvolte << 1, vuol dire anche che si hanno degli errori dx1 e dx2 molto grossi!!!) - Se 1.7 < Nvolte < 3, c'è tutta la sfumatura di grigi, e quindi bisogna giustificare la scelta che si fa. Se per esempio Nvolte = 2, l'unica cosa certa che si può dire su basi statistiche è la seguente: l'ipotesi che le misure x1 e x2 differiscano di Nvolte dZ solo per ragioni statistiche corrisponde al 5% di livello di confidenza (... insomma... non siamo poi troppo confidenti che x1 e x2 siano compatibili) . compatibilty.nb 4 METODO B: RAPPORTO In questo caso si definisce x1 Z = ÅÅÅÅÅ Å, x2 x1 $%%%%%%%%%%%%%%%% d x1 2 %%%%%%%%%%%%%% d x2 2 dZ = ÅÅÅÅÅ Å I ÅÅÅÅÅÅÅÅ Å M + I ÅÅÅÅÅÅÅÅ ÅM x2 x1 x2 Dalla solita TPE, si ha questa volta che che Avendo definito Z come il rapporto tra x1 e x2 , assumendo sempre l'ipotesi della compatibilità delle due misure ci si x1 aspetta che Z debba essere compatibile con 1 (cioè quando x1 = x2 fl ÅÅÅÅ ÅÅ = 1) x2 Quindi, cercando come prima quante volte Z disti dal valore (supposto) vero = 1, si ottiene: Nvolte = »1-Z» ÅÅÅÅÅÅÅÅ ÅÅÅÅ dZ x1 »1-» ÅÅÅÅ x2ÅÅ » » = ÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅÅ 2 x1 $%%%%%%%%%%%%%%%% d x1 2 %%%%%%%% d x2 %%%% % ÅÅÅÅ H ÅÅÅÅ x2ÅÅ xÅ1ÅÅÅÅ L +H ÅÅÅÅxÅ2ÅÅÅÅ L Per le stesse considerazioni fatte sopra, questa volta mZ = 1, e quindi la distribuzione di probabilità di Z vale: f(Z)= 1 Å ÅÅÅÅÅÅÅÅÅÅÅÅÅ è!!!!!!!!!!!! ! 2 p s2 1 Z-1 s L E- ÅÅÅ2 H ÅÅÅÅÅÅÅ 2 Similmente a quanto detto in precedenza, la probabilità che Z cada nell'intervallo [1- Nvolte dZ, 1+ Nvolte dZ] (si noti che stavolta l'intervallo è centrato in mZ = 1!!!!) P1±NZ dZ = 1+Nvolte dZ 1 ÅÅÅÅÅÅÅÅ è!!!!!!!! !!!!!ÅÅ Ÿ1-Nvolte dZ ÅÅÅÅÅÅÅÅ 2 p s2 1 Z-1 E- ÅÅÅÅ2 H ÅÅÅÅsÅÅÅÅÅÅ L 2 „ Z = Erf(0.71 Nvolte ) NOTA: abbiamo ottenuto lo stesso risultato di prima (cfr. la Digressione del metodo A) !! È quindi possibile utilizzare ancora la tabella trovata nella Digressione del metodo A per determinare quanto Z sia compatibile con 1 (nel metodo della differenza, Z doveva essere compatibile con 0!!!), ovvero è possibile fare le stesse considerazioni della sezione (A.2) per stabilire se x1 e x2 siano o meno compatibili.