Laboratorio di Fisica per Scienze Naturali 1 - Elementi di Statistica e di teoria degli errori Misura di una grandezza fisica e suo errore Tipi di misure Le misure di una grandezza fisica possono venire classificate come: • misure dirette: la grandezza fisica e’ misurata mediante un confronto con un'altra della stessa specie, assunta come campione. Esempio: misura dell’ allungamento di una molla con un regolo graduato (Esperienza 1a) • misure indirette, la grandezza fisica e’ dedotta da una legge fisica nota y = f(x1, x2,...xm) di cui alcune xi sono note ed alcune xj sono misurate. Da queste, sostituendone i valori nella legge data, si ricava la misura di y; Esempio: misura della costante di elasticità di una molla mediante la misura del periodo di oscillazione (Esperienza 1b) • misure con apparecchi tarati. La misura della grandezza si ottiene mediante la lettura della posizione di un indice su una scala graduata, o di un numero su un quadrante. Esempio: misura del coefficiente di viscosità di un fluido mediante viscosimetro tarato (Esperienza 2). In questo caso la misura e’ diretta ma e’ necessaria una taratura spesso complessa dello strumento Errori di misura Quando si effettua una misura, si commette un errore, di cui è desiderabile valutare l'entità. Errore assoluto. La misura è sempre pensabile come la somma algebrica di un valore "vero" (non noto) della grandezza e di un errore (errore assoluto) che può modificare il valore della grandezza in più o in meno. Pertanto il risultato di ogni misura sperimentale y di una grandezza fisica Y si esprime in generale come: y ± ∆y • y e’ il valore più probabile della grandezza fisica Y • ∆y e’ l’ errore assoluto di misura e rappresenta l’ incertezza della misura sul valore vero Il valore della grandezza fisica non e’ pertanto nota, ma si assume che sia compreso nell’ intervallo di errore. Errore relativo E’ il rapporto tra il modulo del rapporto tra l’ errore assoluto e il valore di misura Errore relativo = |∆y/y| Rappresenta in modo forse più significativo errore la accuratezza della misura, che, per essere significativa deve avere un errore relativo <<1 . L' accuratezza di una misura indica la vicinanza della misura al valore vero della grandezza in esame. L 'errore assoluto o quello relativo rappresentano pertanto una misura dell'accuratezza La precisione rappresenta invece l'accordo di una serie di misure fra loro ed è un indice della riproducibilità di una misura. Non è riferibile ad una misura singola, ma a una serie di misure. Misure molto precise forniscono dunque dati poco "dispersi"; viceversa una grande dispersione dei dati indica scarsa precisione del set di misure e quindi del metodo utilizzato per la misurazione. . Accuratezza, precisione e sensibilita’ Misure “Vere” Alta accuratezza e precisione Scarsa precisione Alta accuratezza Alta precisione Scarsa accuratezza La sensibilità di uno strumento o metodo di misura è legata al concetto di minima variazione del valore della grandezza in esame, apprezzabile con lo strumento stesso. Per quantificare questo concetto chiamiamo x il valore della grandezza e S il corrispondente "segnale" dato dallo strumento (p. es: lo spostamento di un indice su una scala). Sia poi ∆x una piccola variazione di x, a cui corrisponderà un ∆s. La sensibilità può essere definita come S =∆s/ ∆x; ad esempio, un voltmetro può avere una sensibilità di 1 Volt/mm. Altre volte ci si esprime invece usando l'inverso, ossia S’ =∆x/ ∆s Errori sistematici Nelle misure con strumenti e metodi di elevata sensibilità, se si effettuano misure ripetute si ottengono valori tutti un po' diversi fra loro: emergono infatti errori casuali o accidentali, eventualmente sovrapposti a errori sistematici. Entrambi i tipi di errore influenzano ogni misura in modo non noto. Gli errori sistematici agiscono sempre nello stesso verso e si verificano per : Ad esempio: un regolo graduato che ha lo zero un spostato (errore sistematico costante); un'asta che dovrebbe essere verticale non lo è perfettamente; un regolo graduato è leggermente incurvato, ecc... Contro gli errori sistematici non si può fare altro che migliorare metodi, strumenti, teorie ed effettuare misure della stessa grandezza con più metodi diversi, in modo da poterle confrontare criticamente. Gli errori sistematici in generale influenzano l'accuratezza di una misura. Errori sistematici Gli errori accidentali o casuali sono dovuti al verificarsi di varie circostanze che, ripetendo le misurazioni in condizioni presupposte identiche, agiscono occasionalmente ora in un verso, ora in un altro, in modo stocastico ossia indefinibile ed imprevedibile. Generalmente ciò che accade è che fenomeni di vario genere vengono a sovrapporsi in modo irregolare al fenomeno in esame, influenzando i risultati della misura in maniera incontrollabile. Esempi: differenze accidentali di temperatura fra le varie parti di uno strumento producono deformazioni mutevoli...variazioni casuali dell'ambiente esterno, dello stato dell'aria circostante, dell'illuminazione, ecc., errori di valutazione dello sperimentatore Gli errori casuali hanno la caratteristica di essere irregolari e per lo più risultanti dalla somma algebrica di molti errori elementari agenti simultaneamente, con ugual probabilità, in entrambi i versi, positivo e negativo. Anche se non c’ è modo di annullarli, e’ possibile minimizzarli con la ripetizione delle misurazioni e applicando poi i risultati della teoria degli errori (che è una teoria statistico - probabilistica, adatta appunto agli errori dovuti al caso), in modo da giungere ad affermazioni di questo tipo: il valore della grandezza (nella unità scelta) si può ritenere compreso nell'intervallo fra x + ∆x e x - ∆x, dove ∆x è una misura di errore. Ad esempio: la lunghezza di un ponte e’ l 300 ± 1 m ovvero: la lunghezza del ponete e’ 299 < l < 301 m Errori casuali Di solito questa affermazione è accompagnata dalla probabilità con cui il valore "vero" si può pensare contenuto nell'intervallo dato (livello di fiducia). Gli errori accidentali influenzano in generale la precisione della misura. Nella discussione che segue non discuteremo di eventuali errori sistematici e ci occuperemo unicamente degli errori casuali. Con strumenti a sensibilità limitata, come certi strumenti tarati a lettura diretta (in cui si legge sulla graduazione il valore della grandezza), può accadere che ripetendo la misura, si ottenga sempre lo stesso valore, perché gli errori casuali sono di entità inferiore alla minima variazione della grandezza apprezzabile con lo strumento stesso. La variazione minima apprezzabile (ossia l'intervallo minimo leggibile sulla graduazione, che il costruttore avrà progettato in maniera opportuna), viene assunta come errore della misura. Concetto statistico di misura Da quanto detto sugli errori casuali, si deduce che ogni misura (sia x) di una grandezza fisica X (ossia il risultato di una operazione di misurazione di X) può essere considerata come una variabile casuale, che ha una probabilità p(x) di assumere, nella data misura, il determinato valore x all’ interno di un insieme di valori possibili. La quantità p(x) detta distribuzione di probabilità e’ una funzione che rappresenta la probabilità che la misura di X sia compresa tra il valore x e x+dx ed ovviamente ∫ p( x)dx = 1 x dato che l’ integrale rappresenta la probabilità che la misura assuma un valore qualsiasi. In generale la funzione p(x) e’ diversa a seconda della misura effettuata ed in generale non e’ nota a priori. E’ tuttavia ragionevole assumere che la probabilità di ottenere una certa misura sia più alta in prossimità del valore vero e ci aspettiamo pertanto che la distribuzione di probabilità abbia andamenti come in figura: p(x) Distribuzione simmetrica Distribuzione asimmetrica Valore vero Figura 1 Grafico di due funzioni di distribuzione x Distribuzione “normale” Di particolare importanza la distribuzione “normale” che ha l’ andamento in Figura 2 e e’ rappresentata dalla funzione matematica : La distribuzione ha un andamento simmetrico, un picco per x = µ una larghezza a semi ampiezza σ e +∞ ∫ p( x)dx = 1 −∞ La “dispersione” della funzione di distribuzione e’ pertanto proporzionale a σ. Si può dimostrare che questa distribuzione di probabilità rappresenta accuratamente la distribuzione degli errori casuali in insiemi molto grandi di misure. Figura 2 Distribuzione gaussiana Parametri medi di insiemi di dati Le proprietà insiemi di misura sono descrivibili in termini di parametri medi sull'insieme; i più semplici di queste • il valor medio della distribuzione = ∫ x ⋅ p ( x)dx • la varianza della distribuzione pari alla media dei quadrati degli scarti dalla media. _ = ∫ ( x − x) 2 ⋅ p( x)dx La quantità σx , radice quadrata della varianza è detto scarto quadratico medio o deviazione standard. Per una distribuzione normale, • il valor medio della distribuzione rappresenta il valore più probabile della variabile misurata • lo scarto quadratico medio della distribuzione fornisce un’ indicazione sulla probabilità che il valor medio si trovi entro un certo scarto dal valor vero. In particolare questa probabilità e’ • il 68% per σx • il 95% per 2σx • il 99% per 3σx Media e varianza empirica La media empirica è essa stessa una variabile casuale ed è tale che il suo valor medio coincide col valor medio di x: La varianza della x risulta essere Per cui la varianza della media empirica risulta essere: e la deviazione standard della media empirica è pertanto se N è grande. Media e varianza empirica di misure ripetute Il calcolo di questo tipo di medie richiede la conoscenza delle leggi della probabilità associate alla variabile casuale che si misura; in particolare per calcolare valor medio e varianza occorre conoscere la funzione p(x) che esprime la probabilità che un dato valore tra x - x+ dx si verifichi. Nella pratica normalmente queste leggi non sono note; si pone cosi il problema di stimare empiricamente le medie stesse, ossia determinarne dei valori plausibili mediante le informazioni di cui si dispone. Se dall'insieme dei valori possibili di x si traggono N valori (cosa fattibile effettuando N misure xi) si può, definire la quantità che è detta media empirica, ed assumere come errore assoluto associato alla singola misura la deviazione standard empirica : sx Assumendo che gli errori di misura seguano una distribuzione normale, si può assumere che il 68% delle misure siano all’ interno di una deviazione standard dalla media. Il parametro utilizzato come stima dell’ errore associato al valor medio di una misura e’ lo scarto quadratico medio rispetto alla media, che si può dimostrare vale: N s_ = x _ ∑ ( x − x) i 1 N ( N − 1) 2 Frequenza assoluta e relativa di misure ripetute N sx = _ ∑ ( x − x) i 1 N −1 2 = N _ ∑ f ( x − x) i 1 i 2 Istogramma delle frequenze di misure ripetute Un istogramma ad intervalli e’ un grafico che rappresenta la frequenza di ripetizione di misure che cadono nello stesso intervallo.. Ad esempio le età di un gruppo di 346 persone si distribuiscono come mostrato in tabella, l’ istogramma delle frequenze e’ mostrato in figura 0.318 0.265 0.159 0.106 0.053 0. Frequenze relative 0.212 Istogramma delle densità di frequenze L’ istogramma delle densità di frequenze e’ pertanto direttamente confrontabile con una funzione di distribuzione di probabilità normalizzata a 1 L’ istogramma della diapositiva precedente e’ un istogramma delle densita’ di frequenze, dato che che si e’ scelto un intervallo δx = 1 (anno) Costruzione di un istogramma 1. Ottenuto un insieme di N misure x1, x2, ….. xN, calcolare l’ intervallo massimo di dispersione dei dati δx = xmax – xmin 2. Scegliere l’ intervallo dell’ istogramma ∆x (bin) dividendo l’ intervallo massimo per un numero intero n. Come regola indicativa: n≈2 N per N >100 n ≈ 10 ⋅ log N per N < 100 3. Calcolare e graficare le densità di frequenza di ciascun intervallo Fi= fi/δx in modo da ottenere una distribuzione sperimentale di frequenze normalizzata a 1 _ 4. Calcolare il valor medio x e lo scarto quadratico medio σx della distribuzione ed indicarlo sul grafico _ 5. Utilizzando i valori x e σx calcolare e graficare la funzione di distribuzione normale relativa ai dati. Se i dati sono stati correttamente normalizzati il risultato finale dovrebbe apparire come in figura. Costruzione di un istogramma Si fa notare l’ approssimazione di un istogramma alla funzione di distribuzione e’ tanto migliore quanto e’ maggiore il numero di dati (Figura 1). Una “statistica povera” e’ in generale motivo di una scarso fit alla funzione di distribuzione (Figura 2). Effetti come in Figura 2 possono anche suggerire la presenza di un errore sistematico nelle misure, che provocano la dispersione dei dati in due picchi adiacenti. Figura 1 Figura 2 Ricerca di leggi empiriche (Massima verosimiglianza) Si consideri un fenomeno che determina una corrispondenza fra una variabile x ed una variabile y. Se si riportano le misure (xi,yi) su un diagramma cartesiano x-y si ottiene un grafico come in Figura 1. La curva sperimentale non e’ una curva continua ma una sequenza di punti Pi (xi,yi). Si vuole determinare una espressione analitica y= f(x) che meglio approssima i dati (best fit). Ad esempio, nella 1a esperienza del Laboratorio il risultato della misura può essere rappresentato dal grafico x = i 10 19 28 37 46 55 64 73 82 91 100 y = i 0 0.1 0.2 0.33 0.41 0.59 0.58 0.7 0.83 0.87 1 1 0.8 0.6 yi 0.4 0.2 0 0 0 10 20 40 60 xi 80 100 100 che suggerisce una dipendenza del tipo y = a0+a1x tra le due variabili. Il problema e’ dunque di determinare le costanti a0 e a1 per il best fit. Ricerca di leggi empiriche (Massima verosimiglianza) Si puo’ dimostrare che la curva che meglio approssima i dati sperimentali e quella i cui parametri a0 e a1 rendono minima la quantità : N S = ∑ [ y i − (a0 + a1 xi )]2 1) i =1 Perché questo avvenga e’ necessario che N ∂S = ∑ 2[ yi - (a0 + a1 x)] = 0 ∂a0 i =1 N ∂S = ∑ 2[ yi - (a0 + a1 xi )]x i = 0 ∂a1 i =1 N N i =1 i =1 Na0 + a1 ∑ xi − ∑ yi = 0 N 2) N a0 + a1 ∑ xi − ∑ xi yi = 0 2 i =1 i =1 che e’ un sistema di due equazioni in due incognite a0 ed a1 con soluzione: N N N N 2 y⋅ x − x ⋅ x ⋅ y ( ) ( ) i i i i i i=0 i=0 i=0 i=0 a0 := 2 N N x 2 − ( N + 1) ⋅ x i ( i) i=0 i = 0 ∑ ∑ ∑ ∑ ∑ ∑ N N N ( N + 1) ⋅ x ⋅ y − x ⋅ y ( ) ( ) i i i i i=0 i=0 i=0 a1 := 2 N N x 2 − ( N + 1) ⋅ x i ( i) i=0 i = 0 ∑ ∑ ∑ ∑ ∑ 3) Ricerca di leggi empiriche (Massima verosimiglianza) Utilizzando i dati precedenti e le 3) si ottiene: a0 = −0.107 a1 = 0.429 e la retta di massima verosimiglianza z = a0+a1x che e’ confrontata con i dati in figura 1.2 1.005 1 0.8 yi 0.6 zi 0.4 0.2 0 0 0 10 20 40 60 xi 80 100 100