Analisi statistica degli errori I valori numerici di misure ripetute

annuncio pubblicitario
Analisi statistica degli errori
I valori numerici di misure ripetute
risultano ogni volta diversi ⇒ l’operazione
di misura può essere considerata un evento
casuale a cui è associata una variabile
casuale che è il valore della misura ⇒ la
trattazione dei dati sperimentali richiede
un’analisi statistica
La statistica analizza con metodi scientifici dati
relativi a
- fenomeni ripetibili infinite volte
(almeno in teoria)
- che possono dare origine a più risultati
*singolarmente imprevedibili
*che si escludono a vicenda uno con l’altro
I possibili risultati di tali fenomeni prendono il
nome di variabili casuali o aleatorie
Esempi di eventi casuali
• Lancio di un dado o di una moneta
• Estrazione di un numero compreso in un certo
intervallo
• Decadimento di un nucleo radioattivo
• Esiti di un trattamento farmacologico
• Durata media delle lampade
• …
Statistica descrittiva e statistica inferenziale
Statistica descrittiva:
Organizza e sintetizza i dati relativi ad un
“campione” relativamente piccolo
Statistica inferenziale:
Permette di estendere i risultati ottenuti
per un campione ad una “popolazione”
più ampia
La probabilità
La statistica analizza i dati relativi agli
eventi casuali in termini di
probabilità p(Ei)
ossia in termini di rapporto tra il numero ki
di casi favorevoli di un certo risultato Ei e il
numero K totale di casi possibili, purché
tutti questi siano ugualmente possibili:
p(Ei) = ki/K
Dalla definizione data consegue:
0 ≤ p(Ei) ≤ 1
p(Ei) = 0 : l’evento è impossibile
p(Ei) = 1 : l’evento è certo
Se gli eventi Ei sono mutuamente esclusivi ed
esauriscono tutti i possibili risultati delle prove si
ha:
p(E1) + p(E2) + … + p(EK) = 1
Esempio: lancio di un dado
• La probabilità che in un lancio esca una
qualsiasi delle facce è 1/6: 1 caso
favorevole su 6 casi ugualmente possibili
• La probabilità che in un lancio esca il “3”
o il “6” è 2/6: 2 casi favorevoli su 6 casi
ugualmente possibili
Questa definizione richiede che si possa
conoscere “a priori” se un certo evento
presenta n casi favorevoli su N casi possibili
ed equiprobabili.
Probabilità empirica o “a posteriori”
Se si eseguono su un sistema N prove e si osserva
che l’evento Ei si verifica ni volte (ni = frequenza
assoluta)
si definisce frequenza relativa
assoluta
all’evento fi (o probabilità empirica)
empirica il rapporto
ni/N. Per definizione risulta:
N
ni ≤ N ⇒ f i ≤ 1
∑
i =1
N
ni 1 N
N
f i = ∑ = ∑ ni = = 1
N i =1
N
i =1 N
Esiste una relazione tra
probabilità a priori e
probabilità empirica
???
Legge empirica del caso
Nei casi in cui è possibile conoscere la
probabilità a priori di un evento Ei si
osserva che al crescere del numero totale N
delle prove, eseguite nelle medesime
condizioni,
la
frequenza
relativa,
fluttuando, tende a stabilizzarsi intorno al
valore della probabilità a priori:
ni
p( Ei ) = lim
N →∞ N
Legge di distribuzione di probabilità
Ad ogni evento casuale E si può
associare una variabile casuale x a cui è
associata quindi anche una probabilità
p(x) corrispondente alla probabilità
p(E) dell’evento. Questa variabile può
essere discreta o continua
Variabili discrete e variabili continue
Variabile discreta = può assumere una serie
discreta (finita o infinita) di
valori.
Es.: lancio di un dado – 1, 2, …, 6
Variabile continua = può assumere un’infinità di
valori
che
variano
con
continuità
Es.:misura di una grandezza fisica
Distribuzione di probabilità di variabili discrete
L’insieme dei valori delle probabilità p(xi) che
competono alla variabile casuale x associata
all’evento aleatorio E costituisce la legge di
distribuzione di probabilità della variabile
aleatoria considerata. Per tutti i possibili eventi
del sistema deve risultare:
∑ p( x ) = 1
i
i
Distribuzione di probabilità di variabili continue
Per le variabili aleatorie continue non si può
parlare di probabilità come per le variabili discrete
ma si può associare ad esse una funzione f(x), detta
funzione densità di probabilità, tale che la
probabilità dp associata ad un intervallo
infinitesimo dx è data da dp = f(x)dx.
La probabilità che compete ad un intervallo finito
[x1,x2] è allora:
x2
Pr (x ∈ [x1 , x 2 ])= ∫ f (x)dx
x1
Distribuzione di probabilità di variabili continue
La funzione densità di probabilità è una
funzione non negativa che soddisfa alla
condizione
+∞
∫ f (x)dx = 1
−∞
detta condizione di normalizzazione.
Distribuzione di probabilità di variabili continue
Si può allora definire la funzione di
distribuzione F per una variabile continua x
come:
x
F ( x)= ∫ f (t )dt
−∞
che rappresenta la probabilità di osservare un
valore non inferiore ad x e che soddisfa la
condizione F(∞) = 1.
Valore atteso
Se xi sono i possibili valori di una variabile casuale,
ciascuno con probabilità p(xi), si definisce valore
atteso di x la quantità:
+∞
µ = ∑ xi p ( xi )
µ = ∫ x ∗ f ( x)dx
i
−∞
Per la legge empirica del caso, per un campione N di
prove, se N → ∞ la media campionaria x tende al
valore atteso: N
x=
∑n x
i
i =1
N
i
N
N
i =1
i =1
= ∑ x i f i (x i ) ⎯N⎯
⎯→ ∑ x i p i (x i ) = µ
→∞
Varianza
Varianza σ2 = media del quadrato degli scarti fatta
sulla popolazione
σ = ∑ ( xi − µ ) p ( xi )
2
2
i
Descrive la dispersione della variabile casuale
attorno al valor medio µ.
La radice quadrata σ rappresenta la deviazione
standard della popolazione che può essere stimata
da un campione di misure tramite lo scarto
quadratico medio.
La distribuzione binomiale o di Bernoulli
La distribuzione binomiale (o di Bernoulli)
Bernoulli dà la
distribuzione di probabilità per eventi casuali
ciascuno dei quali può assumere, in maniera
indipendente dagli altri, solo uno tra due valori
(evento dicotomico).
Esempi
¾ Qual è la probabilità che lanciando N = 9 dadi la faccia
con il numero 5 esca R = 3 volte?
¾ Qual è la probabilità che in famiglie aventi N = 3 figli ci
siano R = 2 femmine?
¾ Su N = 15 pazienti operati quanti (R) ci aspettiamo
abbiano complicazioni se la percentuale di
complicazioni osservata è del 20%?
¾ Se il 10% dei bulloni prodotti da una macchina è
difettoso che probabilità abbiamo che su N = 100
bulloni R = 10 siano difettosi?
La distribuzione binomiale o di Bernoulli
N!
R
( N −R)
P ( R, N ) =
p (1 − p )
R!∗( N − R )!
N = numero di prove
R = numero di successi ( = numero di eventi favorevoli)
p = probabilità di successo in una prova
q = 1 – p = probabilità di insuccesso
P(R,N) = probabilità di avere R successi su N prove
Caratteristiche della distribuzione binomiale
• Dipende da 2 parametri: N e p
• Il numero medio di successi è dato da:
N
R = ∑ RP( R, N ) = Np
i =1
• La deviazione standard è data da:
σ R = Npq = Np (1 − p)
Caratteristiche della distribuzione binomiale
In generale:
¾ se p ≠ ½ la distribuzione binomiale non è
simmetrica ed il numero medio di successi non
coincide con il numero più probabile
p < ½ : il massimo si sposta verso lo zero;
p > ½ : il massimo si sposta dalla parte
opposta
¾ si osserva che, se la probabilità p non è molto
vicina ai valori estremi 0 ed 1, al crescere di N la
distribuzione binomiale tende a simmetrizzarsi
intorno al valor medio Np
Distribuz ione di probabilità pe r la nascita di R
femmine (R = 0, 1, 2, 3) in una famiglia
con N = 3 figli
p = 1/2
Distribuz ione di probabilità che la faccia
"cinque " e sca R volte (R = 0, 1, ..., 9)
ne l lancio di N = 9 dadi
p = 1/6
3,50E-01
3,00E-01
P(R,N)
P(R,N)
4,00E-01
4,00E-01
3,50E-01
3,00E-01
2,50E-01
2,00E-01
1,50E-01
1,00E-01
5,00E-02
0,00E+00
2,50E-01
2,00E-01
1,50E-01
1,00E-01
5,00E-02
0
1
2
3
4
5
6
7
8
9
0,00E+00
0
R
1
2
3
R
Distribuz ione di probabilità che si ve rifichino
R casi di complicaz ioni (R = 0, 1, 2, …, 15)
su N = 15 paz ienti operati
p = 0,2
Distribuz ione di probabilità di R bulloni
dife ttosi (R = 0, 1, 2, …, 50)
su N = 50 bulloni prodotti
p = 0,1
3,00E-01
2,00E-01
1,80E-01
2,50E-01
1,60E-01
P(R,N)
1,40E-01
1,50E-01
1,00E-01
1,20E-01
1,00E-01
8,00E-02
6,00E-02
5,00E-02
4,00E-02
2,00E-02
0,00E+00
R
R
50
45
40
35
30
25
20
15
10
5
0
14
12
10
8
6
4
0,00E+00
2
0
P(R,N)
2,00E-01
La distribuzione di Poisson
La distribuzione di Poisson dà la distribuzione di
probabilità di sistemi costituiti da un numero N
molto elevato di elementi, ciascuno avente una
probabilità p molto piccola di subire un evento
casuale.
Esempi
¾ Se la probabilità p che un certo individuo sia allergico ad un
certo vaccino è 0.001 che probabilità c’è che su N = 2000
individui R risultino allergici al vaccino stesso?
¾ Se una macchina produce in un giorno N = 500 lampadine ed
ogni lampadina presenta una probabilità p = 0.01 di essere
difettosa che probabilità c’è che tra le lampadine prodotte in un
giorno R siano difettose?
¾ Un campione di sangue contenente N = 700 globuli rossi viene
osservato al microscopio su un vetrino suddiviso da un retino in
100 cellette (p = 1/100). Qual è la probabilità che in una celletta
capitino R globuli rossi?
¾ Che probabilità c’è che in un secondo vengano emesse R
particelle da un grammoatomo di sostanza radioattiva (N=1023
atomi) i cui atomi hanno una probabilità p di decadere
(emettendo una particella) pari a 10-22 per secondo?
La distribuzione di Poisson
Numero di prove N elevato ⇒ formula della
binomiale praticamente inutilizzabile (calcolo di
fattoriali di numeri troppo grandi)
Se N → ∞ e p → 0 in modo che λ = Np rimanga
finito la distribuzione binomiale può essere
approssimata con una funzione più semplice
(distribuzione di Poisson)
Poisson avente la forma:
P( R) =
λ
R
R!
e
−λ
λ = pN
Caratteristiche della distribuzione di Poisson
• Dipende solo dal parametro λ
• non è simmetrica ed il numero medio di
successi non coincide con il numero più
probabile
• Il numero medio di successi è dato da:
R = Np =λ
Caratteristiche della distribuzione di Poisson
• La deviazione standard è data da:
σR = λ
• Al crescere del valore del parametro λ
tende a divenire simmetrica e raggiunge
il massimo intorno al valor medio
Distribuzione di Poisson per λ = Np = 5
Distribuzione di Poisson per λ = Np = 2
2,00E-01
3,00E-01
1,80E-01
2,50E-01
1,60E-01
1,40E-01
2,00E-01
P(R)
P(R)
1,20E-01
1,50E-01
1,00E-01
8,00E-02
1,00E-01
6,00E-02
4,00E-02
5,00E-02
2,00E-02
7
8
9
14
6
12
5
10
4
8
3
6
2
4
1
0
0
2
0,00E+00
0,00E+00
R
R
Distribuzione di Poisson per λ = Np = 10
Distribuzione di Poisson per λ = Np = 7
1,40E-01
1,60E-01
1,40E-01
1,20E-01
1,20E-01
1,00E-01
P(R)
8,00E-02
6,00E-02
8,00E-02
6,00E-02
4,00E-02
4,00E-02
2,00E-02
2,00E-02
0,00E+00
R
R
40
36
32
28
24
20
16
8
12
4
0
21
18
15
12
9
6
0,00E+00
3
0
P(R)
1,00E-01
La distribuzione di Gauss
Per molte variabili casuali continue la
densità di probabilità f(x) è data dalla
distribuzione di Gauss o normale
f ( x) = Ce
− h2 ( x−m)2
dove C, h ed m sono costanti.
Proprietà della distribuzione di Gauss
La funzione di Gauss è:
¾ una funzione continua tra - ∞ e + ∞;
¾ simmetrica intorno al valore massimo C che si
ha in corrispondenza di x = m;
¾ di larghezza w = 2/h, avendo definito la
larghezza come la distanza tra le due ascisse in
corrispondenza delle quali la funzione si riduce
di 1/e [f(m ± 1/h) = C/e]. h prende il nome di
modulo di precisione ed è tanto più grande
quanto più la curva è stretta.
Proprietà della distribuzione di Gauss
¾ Presenta due flessi in corrispondenza di
x = m±
1
h 2
¾ La funzione di Gauss dipende da due
parametri: m ed h.
¾ Il valore di C si determina imponendo che la
probabilità totale (= certezza) sia 1:
+∞
∫ Ce
−∞
−h2 ( x−m)2
dx = 1 ⇒ C=
h
π
Il parametro m
Il valor medio atteso µ è dato da
+∞
µ = ∫ xf ( x)dx = m
−∞
In corrispondenza di µ la funzione di Gauss
assume il valore massimo
1
σ
2π
Il parametro h
La deviazione standard σ si ricava dalla relazione:
1
σ = ∫ [x − µ ( x)] f ( x)dx = 2
−∞
2h
2
+∞
2
σ rappresenta il valor medio dei quadrati degli
scarti dalla media [(x – µ)2] e determina la
larghezza della distribuzione.
La distribuzione di Gauss o normale
•
Funzione di distribuzione gaussiana
De n sità di probabil ità
1,60
1,20
1
f ( x) =
e
2π σ
0,80
0,40
0,00
1,00
2,00
3,00
x
4,00
5,00
(
x − µ )2
−
2σ 2
La curva di Gauss al variare di µ e σ
Funzione di distribuzione gaussiana al variare del
parametro µ
Funzione di distribuzione gaussiana al variare del
parametro σ
2,00
4,00
3,00
µ = 4,00; σ = 0,3
µ = 1,00; σ = 0,3
1,00
Densità di probabilità
Densità di probabilità
µ = 3,00; σ = 0,3
µ = 3,00; σ = 0,3
µ = 3,00; σ = 0,6
µ = 3,00; σ = 0,1
2,00
1,00
0,00
0,00
1,00
2,00
3,00
x
4,00
5,00
6,00
0,00
1,00
2,00
3,00
x
4,00
5,00
Che cosa rappresenta σ?
L’area sotto la curva rappresenta la
probabilità che la variabile x acquisti
un valore compreso tra gli estremi
dell’intervallo considerato.
Densità di probabilità
1,50
1,00
0,50
0,00
1,00
2,00
3,00
x
4,00
5,00
L’area sotto la curva compresa
tra [µ - σ; µ + σ] corrisponde al
68.27% dell’area totale;
tra [µ - 2σ; µ + 2σ] corrisponde al
95.45% ;
tra [µ - 3σ; µ + 3σ] corrisponde al
99.73% .
Approssimazioni gaussiane della distribuzione
binomiale e della distribuzione di Poisson
Nelle condizioni in cui la distribuzione binomiale e la
distribuzione di Poisson tendono a simmetrizzarsi possono
essere approssimate con una gaussiana avente
- valore atteso µ = Np e deviazione standard σ = Npq per
la binomiale;
- valore atteso µ = λ e deviazione standard σ = λ per la
poissoniana;
In generale l’approssimazione con la gaussiana è ritenuta
buona quando:
¾ Np ≥ 5 ed N(1-p) ≥ 5 per la binomiale
¾ λ ≥ 8 per la poissoniana.
Come si applicano i metodi statistici
all’analisi delle misure
???
Che cosa rappresentiamo nell’istogramma?
L’ampiezza ∆x delle classi è
costante ⇒ l’area di ciascun
rettangolo è proporzionale
alla frequenza assoluta ossia
al numero ni di misure che
cadono nell’intervallo ∆x.
Frequenza assoluta
20
15
10
N
∑n
5
0
2,48 2,76 3,04 3,32 3,60
x
i =1
i
=N
L’area di tutti i rettangoli è
proporzionale al numero
totale N di misure
Possiamo rappresentare diversamente queste
informazioni?
Fre que nza re lativa
0,40
0,35
0,30
0,25
0,20
0,15
0,10
0,05
0,00
2,48 2,76 3,04 3,32 3,60
x
L’area dei rettangoli è
proporzionale alla frequenza
relativa fi ⇒ l’altezza dei
rettangoli è proporzionale
alla densità di frequenza
fi/∆x (= frequenza per
intervallo unitario)
N
∑
De ns ità di fre que nza
0,12
0,10
i =1
0,08
⎛ fi ⎞
f i = ∑ ⎜ ⎟∆x = 1
i =1 ⎝ ∆x ⎠
N
0,06
0,04
0,02
0,00
2,48 2,76 3,04 3,32 3,60
x
La somma delle aree dei
rettangoli è uguale ad 1
Che succede aumentando il numero N delle misure del campione?
¾ la frequenza di ciascun intervallo
aumenta ⇒ l’ampiezza delle classi
si restringe
50 misure
∆ x = 0.28
Densità di frequenza
0,12
0,10
¾ la frequenza relativa tende alla
probabilità
0,08
0,06
0,04
0,02
0,00
2,48
2,76
3,04
3,32
3,60
x
1000 misure
∆ x = 0,08
L’area di ciascun rettangolo indica la
probabilità che la variabile x acquisti
un valore compreso nell’intervallo ∆x.
1,4
1,2
1
0,8
0,6
0,4
0,2
3,80
3,64
3,48
3,32
3,16
3,00
2,84
2,68
2,52
2,36
2,20
0
2,04
Densità di frequenza
¾ l’istogramma tende a divenire una
curva continua.
x
L’area totale indica la probabilità che la
variabile acquisti un valore compreso
tra gli estremi dell’intervallo
rappresentato.
La funzione densità di probabilità per le
misure di grandezze fisiche
Nella condizione limite
N →∞
∆x ⎯⎯⎯→ 0
L’istogramma tende ad una curva continua, la
funzione densità di probabilità.
Per le misure delle grandezze fisiche la funzione
densità di probabilità nel caso limite di N → ∞ segue
l’andamento della distribuzione di Gauss o
normale.
Valore vero di una misura
Il valore atteso µ, calcolato per la distribuzione
limite (corrispondente cioè ad una serie infinita
di misure), può essere assunto come valore vero
x* della misura della grandezza X.
La deviazione standard σ, invece, caratterizza
quantitativamente la precisione della misura.
Distribuzione degli errori
La funzione di Gauss rappresenta sia la
distribuzione delle misure x della grandezza X,
sia la distribuzione dell’errore definito come
differenza tra il valore x della misura ed il valore
vero x* o (il valore atteso): x – x* = x – µ.
La distribuzione degli errori è centrata intorno
allo zero.
La deviazione standard della media
Si può dimostrare che la deviazione standard della
distribuzione delle medie di campioni aventi ciascuno N
misure è data da:
σx =
σ
N
ossia è 1 N volte più piccola di quella delle singole misure
⇒ le medie campionarie si distribuiscono intorno alla media
delle medie (valore vero) con una curva di distribuzione
gaussiana più stretta di quella delle singole misure.
Valore più probabile e
limiti di validità di una misura
In generale il valore più probabile ed i limiti
di validità della misura di una grandezza
fisica devono essere stimati a partire da un
campione ridotto di dati.
Stima dei parametri della distribuzione
Che cosa vuol dire stimare un parametro?
- ipotizzare la distribuzione cui obbedisce la
popolazione da cui il campione è estratto;
- calcolare il valore cui corrisponde la massima
probabilità di coincidere con il parametro della
popolazione.
Livello di confidenza ed intervallo di fiducia
La stima dei parametri fatta da un campione ha
comunque un carattere casuale ⇒ cambia al
variare
del
campione
secondo
una
certa
distribuzione di probabilità ⇒ occorre stabilire
qual è la probabilità ( = livello di confidenza ) che
il valore vero dei parametri cada entro un certo
intervallo (= intervallo di confidenza o di fiducia).
fiducia
Probabilità per il valore di una misura
Se le misure seguono una distribuzione normale ( =
assenza di errori sistematici) l’integrale di Gauss
consente di valutare la probabilità che un
particolare valore della misura cada in un certo
intervallo (a,b):
1
P ( a ≤ x ≤ b) =
σ 2π
b
∫e
a
( x−µ )2
−
2σ 2
dx
Variabile standardizzata z
L’integrale precedente può essere reso indipendente
da µ e σ definendo la variabile standardizzata z:
z
x−µ
z=
σ
z misura le deviazioni della misura x dalla media in
“unità σ”. Si ha allora:
1
P ( a ≤ x ≤ b) = P ( z a ≤ z ≤ zb ) =
2π
i cui valori sono tabulati.
zb
∫e
za
z2
−
2
dz
Intervalli di confidenza
La probabilità che il valore di una misura cada
entro un certo intervallo prende il nome di livello di
confidenza e il corrispondente intervallo prende il
nome di intervallo di confidenza o di fiducia.
fiducia
Intervallo di confidenza al 68.27 % ⇒ z = 1
Intervallo di confidenza al 95 % ⇒ z = 1.96
Intervallo di confidenza al 95.45 % ⇒ z = 2
Intervallo di confidenza al 99 % ⇒ z = 2.58
Intervallo di confidenza al 99.73 % ⇒ z = 3
Stima dei parametri della distribuzione
gaussiana
La miglior stima del valore atteso è la media
campionaria
x
; la miglior stima della deviazione
standard è lo scarto quadratico medio s;
s la miglior
stima della deviazione standard della media è
s
N
Presentazione del risultato di una misura
Dato un campione di N misure (N ≥ 30) distribuite
normalmente:
- la miglior stima del valor vero è la media
aritmetica;
- la stima dell’incertezza della misura è espressa
tramite la deviazione standard della media
s
σx =
N
.
Presentazione del risultato di una misura
Il risultato di un campione di misure di una certa
grandezza X si presenta correttamente come segue:
s ⎞
⎛
x = ⎜x±3
⎟um
N⎠
⎝
ciò vuole significare che esiste la probabilità
P( µ − x ≤ 3σ x ) = 99.7%
che una qualsiasi media campionaria scarti dal valore
atteso meno di tre deviazioni standard della media.
Limiti di fiducia
Per una popolazione normale, se x è la media
campionaria, i limiti di fiducia per µ sono dati da:
x±z
σ
N
dove N è il numero di misure del campione e z
dipende dal livello di confidenza richiesto. Si ha
quindi:
σ
µ = x± z
N
Limiti di fiducia
Intervallo di confidenza al 68.27 % ⇒ z = 1
Intervallo di confidenza al 95 % ⇒ z = 1.96
Intervallo di confidenza al 95.45 % ⇒ z = 2
Intervallo di confidenza al 99 % ⇒ z = 2.58
Intervallo di confidenza al 99.73 % ⇒ z = 3
Limiti di fiducia: esempio
Sono state condotte delle misure per ricavare il raggio di una sfera
piena. I valori ottenuti per i raggi sono riportati nella tabella
seguente:
N° misura
1
Raggio (cm)
6.98
2
3
4
5
6
6.94 6.98 7.01 6.94 7.02
7
8
9
10
7.01
6.97
6.94
6.99
Calcolare il raggio medio della sfera ed i valori di confidenza al 95%
ed al 99% per il valore del raggio reale.
10
R =
∑ Ri
i =1
10
∑ (R
10
= 6.98cm
σR =
i =1
i − R
(10 − 1)
)
2
= 0.030cm
Limiti di fiducia: esempio
Per i limiti di confidenza si avrà quindi:
95%:
0.030
0.030
6.98 − 1.96 *
≤ R ≤ 6.98 + 1.96 *
10
10
0.030
0.030
99%: 6.98 − 2.58 *
≤ R ≤ 6.98 + 2.58 *
10
10
Teoria delle decisioni statistiche
Che cosa si intende per decisione statistica?
Esempi:
1.
Una moneta viene lanciata 6 volte e “testa” si
presenta 6 volte. Possiamo ritenere truccata la
moneta?
Teoria delle decisioni statistiche
2. Una casa farmaceutica assicura che un
medicinale antiallergico è efficace nel 95%
dei casi. In un campione di 200 individui che
soffrono di questa allergia la medicina si
dimostra efficace in 160 casi. Si può ritenere
legittima l’affermazione fatta dalla casa
produttrice?
Teoria delle decisioni statistiche
3.
Le resistenze alla rottura delle funi prodotte da una
fabbrica hanno una media pari a 1800 N ed uno
scarto quadratico medio pari a 100 N. Si pensa di
aumentare la resistenza alla rottura immettendo
una nuova tecnica nel processo produttivo. Un
campione di 50 funi, prodotto con la nuova tecnica,
mostra una resistenza media alla rottura di 1850 N.
Possiamo ritenere che ci sia stato un effettivo
miglioramento?
Teoria delle decisioni statistiche
Ogni decisione presa intorno ad una popolazione
sulla base di dati campionari si chiama decisione
statistica.
I procedimenti che permettono di accettare o
rifiutare una ipotesi o di determinare se i
campioni osservati differiscono significativamente
dai risultati attesi prendono il nome di test di
ipotesi o di significatività.
Teoria delle decisioni statistiche
La probabilità massima con cui rischiamo di
ritenere falsa una ipotesi che invece è vera prende
il nome di livello di fiducia o di significatività del
test.
Ad esempio, richiedere un livello di fiducia del 5%
in un test delle ipotesi significa che ci sono 5
probabilità su 100 di rifiutare l’ipotesi quando
dovrebbe essere accettata, cioè siamo fiduciosi al
95% di aver preso la decisione corretta.
Come si ripercuote l’errore di una misura
diretta sulle grandezze derivate
???
Migliore stima di una grandezza derivata
G = G(x, y, z, …) grandezza derivata
Gli errori ∆x, ∆y, ∆z, … nelle misure dirette
rappresentano piccole variazioni delle variabili
indipendenti
⇒
⇒
Possiamo assumere come migliore stima della
grandezza derivata il valore della funzione
calcolato in corrispondenza delle medie
campionarie delle grandezze dirette:
G ( x, y, z ,...) = G ( x, y, z ,...)
Errore massimo sulla grandezza
derivata
Nelle ipotesi precedenti l’errore massimo
sulla grandezza derivata può essere stimato
tramite la relazione:
∂G
∆G ≅
∂x
∂G
∆x +
∂y
x= x
∂G
∆y +
∂z
y= y
∆z + ...
z=z
in cui le derivate parziali sono prese in valore
assoluto poiché si tratta di errore massimo.
Errore probabile sulla grandezza
derivata
Se gli errori sulle misure dirette sono
indipendenti l’errore probabile σG sulla
grandezza derivata è dato da:
2
⎛ ∂G ⎞
⎛ ∂G ⎞
⎛ ∂G ⎞
2
2
2
⎜
⎟
σG = ⎜
σ
+
σ
+
σ
⎟
⎜
⎟
x
y
z + ...
⎜
⎟
⎝ ∂x ⎠ x = x
⎝ ∂z ⎠ z = z
⎝ ∂y ⎠ y = y
2
2
Errore relativo massimo sulla
grandezza derivata
Se G è una grandezza derivata
l’errore relativo massimo è dato da:
∆G dG
εr =
≅
= d ln G
G
G
Errore relativo massimo sulla
grandezza derivata
Se G è una grandezza derivata tramite una
relazione funzionale del tipo
G = xαyβzγ …
L’errore relativo massimo è dato da:
∆x
∆y
∆z
ε r = d ln( x y z ...) = α
+β
+γ
+ ...
x
y
z
α
β
γ
Errore relativo probabile sulla
grandezza derivata
Se G è una grandezza derivata l’errore
relativo probabile è dato da:
εr =
σG
G
Media pesata
Può accadere che di una grandezza fisica si
abbiano M serie di misure ottenute con strumenti
diversi.
Se le misure possono essere considerate
consistenti,
consistenti cioè non affette da errori sistematici
(⇒ le medie sono distribuite normalmente), la
miglior stima della misura della grandezza è data
dalla media pesata.
pesata
Media pesata
M
∑
µˆ =
j =1
M
∑
j =1
xj =
σj =
xj
σ
2
j
1
σ
M
=
2
j
∑ pj xj
j =1
M
∑ pj
j =1
valor medio di ciascun campione
deviazione standard della media di ciascun
campione
pj =1 σ
2
j
= peso della media
xj
Media pesata
Applicando la legge di propagazione degli errori si
verifica facilmente che la deviazione standard della media
pesata σµ è data da:
σµ =
1
N
1
∑
2
σ
j=1
j
essendo σj la deviazione standard della media di ciascun
campione.
Scarica