Piccoli campioni
I parametri della distribuzione di una
popolazione sono in generale incogniti ⇒
devono essere stimati dal campione dei dati
sperimentali ⇒ per piccoli campioni (N < 30)
30
z = (x – µ)/σ non ha più una distribuzione
gaussiana ⇒ si introduce un errore non
trascurabile che aumenta al diminuire di N.
La t di Student
Per piccoli campioni si definisce la variabile
casuale
(x − µ)
t=
s
N
detta “t di Student”.
Student
La distribuzione della t di Student
La distribuzione della t di Student, rispetto alla
distribuzione normale, presenta una maggiore
dipersione intorno alla media e non è unica,
unica ma
dipende dal numero di gradi di libertà ν (= numero
di osservazioni indipendenti del campione N
diminuito del numero di parametri stimati dal
campione; ν = N – 1).
La distribuzione della t di Student
Se N è grande la distribuzione t di Student è
ben
approssimata
dalla
distribuzione
normale.
La distribuzione della t di Student
I limiti di confidenza per µ sono allora
x ± tp
s
N
e quindi
µ = x ± tp
s
N
Essendo 2p il livello di confidenza richiesto
t di Student - Esempio
Sono state eseguite 10 misure della resistenza alla
rottura R di un certo tipo di fili di nailon. I risultati
ottenuti sono i seguenti: 7.12 N, 7.00 N, 7.56 N, 7.37
N, 7. 24 N, 7.06 N, 7.40 N, 7.31 N, 7.5 N, 7.28 N.
Calcolate i limiti di confidenza al 95% ed al 99% per
la reale resistenza alla rottura.
Quale sarebbe il risultato se si potessero applicare i
metodi della teoria dei grandi campioni?
t di Student - Esempio
⟨R⟩ = 7.26 N
s = 0.18 N
Numero di gradi di libertà ν = 10 – 1 = 9
t0.975 = 2.26; t0.995 = 3.25
I limiti di confidenza sono quindi:
95%
99%
2.26 ∗ 0.18 ⎞
⎛
⎜ 7.26 ±
⎟ N=(7.26 ± 0.13)N
10
⎝
⎠
3.25 ∗ 0.18 ⎞
⎛
⎜ 7.26 ±
⎟ N=(7.26 ± 0.18)N
10 ⎠
⎝
t di Student - Esempio
Se applicassimo i metodi della teoria dei grandi campioni i limiti di confidenza
sarebbero:
95%
1.96 ∗ 0.18 ⎞
⎛
⎜ 7.26 ±
⎟ N=(7.26 ± 0.11)N
10 ⎠
⎝
99%
2.58 ∗ 0.18 ⎞
⎛
⎜ 7.26 ±
⎟ N=(7.26 ± 0.15)N
10
⎝
⎠
Ossia sarebbero meno ampi rispetto a quelli ottenuti con i metodi della
teoria dei piccoli campioni, come ci si poteva aspettare poiché con piccoli
campioni si raggiunge una precisione minore.
Test di ipotesi mediante la t di Student
Mediante la t di Student è possibile:
¾ stabilire se la misura di una grandezza fisica,
determinata tramite un piccolo campione, è
compatibile,
compatibile ad un certo livello di significatività, con
un valore noto a priori;
¾ confrontare due misure differenti della stessa
grandezza, ottenute da due piccoli campioni, e stabilire
se la diversità è dovuta a fluttuazioni statistiche
(campioni appartenenti a popolazioni aventi lo stesso
valore atteso) o meno.
Test di ipotesi con la t di Student - Esempio
Una ditta produttrice di fertilizzanti coltiva due campioni di 10 pianticelle
ciascuno adottando due diversi prodotti. Alla fine del trattamento in un
campione si misura un’altezza media ⟨h1⟩ = 20.0 cm e uno scarto
quadratico medio s1 = 2.0 cm, nell’altro un’altezza media ⟨h2⟩ = 22.7 cm e
uno scarto quadratico medio s2 = 3.0 cm.
Al livello di significatività dell’5% si può affermare che esiste una
differenza significativa tra i due campioni? E al livello dell’1%
Rispondere alle domande precedenti nell’ipotesi che i campioni siano
rispettivamente di
- N1 = 5 ed N2 = 7 elementi;
- N1 = N2 = 10 elementi
- N1 = N2 = 50 elementi.
Test di ipotesi con la t di Student - Esempio
Ipotesi H0: le differenze non sono significative perché sono dovute a
fluttuazioni statistiche ⇔ i campioni appartengono a popolazioni aventi
lo stesso valore atteso (µ1 = µ2).
Il valore atteso per la differenza delle medie campionarie è quindi 0.
Assumiamo che i campioni casuali siano estratti da popolazioni normali
con uguale deviazione standard (σ1 = σ2 ). La varianza della differenza
tra le medie campionarie può essere stimata mediante l’espressione:
σ 2x1 − x 2
(
N1 − 1) ∗ s12 + (N 2 −1) ∗ s 22
≅
N1 + N 2 − 2
che può essere vista come una media pesata delle stime delle varianze
dei due campioni.
Test di ipotesi con la t di Student - Esempio
Per valutare la consistenza delle medie consideriamo la variabile
(
x
t=
)
− x 2 − (µ1 − µ 2 )
1
1
σ x1 − x 2
+
N1 N 2
1
Che è distribuita come la t di Student con ν = N1 + N2 – 2 gradi di
libertà.
Test di ipotesi con la t di Student - Esempio
Nella 1a ipotesi (N1 = 5; N2 = 7) si ha:
σ x − x = 2.88
1
t = ±1.60 (*)
2
(*) i valori di t da considerare sono due in corrispondenza alle due
possibili differenze
(x
1
− x2
)
(x
2
− x1
)
Numero di gradi di libertà: ν = 5 + 7 – 2 = 10
cui corrisponde: t0.995, 10 = 3.17
t0.975, 10 = 2.23
Test di ipotesi con la t di Student - Esempio
Poiché risulta:
1%
-3.17 ≤ ±1.6 ≤ 3.17
5%
-2.23 ≤ ±1.6 ≤ 2.23
possiamo concludere che ad entrambi i livelli di
significatività la differenza tra i valori delle due medie
campionarie è dovuta unicamente a fluttuazioni statistiche,
quindi l’ipotesi H0 è accettabile a entrambi i livelli.
Test di ipotesi con la t di Student - Esempio
Nella 2a ipotesi (N1 = N2 = 10) si ha:
σ x − x = 2.69
1
t = ±2.25
2
Numero di gradi di libertà: ν = 18
cui corrisponde: t0.995,18 = 2.88
Poiché risulta:
t0.975,18 = 2.23
1%
-2.88 ≤ ±2.25 ≤ 2.88
5%
-2.25 ≤ -2.23; 2.23≤ 2.25
possiamo concludere che l’ipotesi H0 è accettabile al livello di
significatività dell’ 1% ma non al livello del 5%.
Test di ipotesi con la t di Student - Esempio
Nella 3a ipotesi (N1 = N2 = 50) , poiché i campioni sono
grandi, si usa la z. Si ha quindi:
(
x
z=
1
)
− x 2 − (µ1 − µ 2 )
σ 12
N1
+
σ 22
= ±5.29
N2
Essendo µ1 = µ2 e σ1; σ2 stimate mediante gli scarti
quadratici medi.
Test di ipotesi con la t di Student - Esempio
Poiché si ha z0.995 = 2.58
z0.975 = 2.24 risulta:
1%
-5.29≤ -2.58; 2.58≤ 5.29
5%
-5.29 ≤ -2.24; 2.24≤ 5.29
Si conclude che le differenze sono significative ad entrambi i
livelli di significatività, quindi dobbiamo rifiutare H0 ad
entrambi i livelli.
Test di ipotesi con la t di Student - Esempio
Conclusioni:
N1 = 5
N2 = 7
N1 = 10
N2 = 10
N1 = 50
N2 = 50
t =±1.60
t = ±2.25
z = ±5.29
t 0.975,10 = 2.23
t 0.975,18 = 2.10
z 0.975 = 1.96
t 0.995,10 = 3.17
t 0.995,18 = 2.88
z 0.995 = 2.58
maggiore è l’ampiezza del campione, più significative sono
le differenze.
La distribuzione chi-quadro
Lo scarto quadratico medio di un campione di
misure dà una stima della deviazione standard σ
della popolazione. Per poter stimare un’intervallo di
confidenza per σ occorre conoscere come s2 si
distribuisce intorno a σ2. Si definisce allora la
variabile casuale chi-quadro
N
χ =
2
2
(
x
−
x
)
∑ i
i =1
σ
2
=
( N − 1) s 2
σ2
La distribuzione chi-quadro
La distribuzione χ2:
¾ è definita nell’intervallo (0;+∞);
¾ è asimmetrica;
¾ non è unica ma dipende dal numero di gradi di
libertà ν;
¾ per ν ≥ 30 è ben approssimata da una
distribuzione gaussiana
La distribuzione chi-quadro
La distribuzione chi-quadro
Anche per la variabile
χ2 =
(n − 1) s 2
è possibile
σ
definire un intervallo di confidenza, individuando, i
2
χ
due estremi, min e
2
2
χ max
, entro cui cadrà con la
probabilità desiderata:
χ
2
min
≤
( N − 1) s
σ
2
2
≤χ
2
max
La distribuzione chi-quadro
Esplicitando rispetto a σ è possibile stimare quindi,
entro certi limiti di confidenza, lo scarto quadratico
medio della popolazione σ in termini dello scarto
quadratico medio campionario s:
s N −1
χ max
≤σ ≤
s N −1
χ min
Il test chi-quadro
Non
sempre
la
legge
di
distribuzione
di
probabilità di una serie di dati sperimentali è
nota a priori ⇒ la legge di distribuzione deve
essere determinata in base a delle ipotesi.
Come si può stabilire in termini di probabilità se
la distribuzione ipotizzata è accettabile o meno?
Il test chi-quadro
Consideriamo un campione di N osservazioni
suddiviso in k intervalli.
intervalli Definiamo la variabile
casuale adimensionale chi-quadro :
(oi − ei )
χ =∑
ei
i =1
k
2
2
oi = frequenze osservate per l’i-esimo intervallo
ei = frequenze attese per l’i-esimo intervallo
[ei = NP(xi); P(xi) = probabilità ipotizzata che la
variabile acquisti il valore xi incluso nella classe i]
Il test chi-quadro
Vale la relazione
k
k
∑ o =∑ e
i =1
i
i =1
i
=N
La variabile χ2 così definita misura la discrepanza
esistente tra le frequenze osservate e quelle attese.
χ2 = 0 ⇒ accordo perfetto tra dati sperimentali e
valori attesi
χ2 > 0 ⇒ disaccordo tra dati sperimentali e
valori attesi tanto maggiore quanto
maggiore è il valore di χ2 .
Il test chi-quadro
Se N → ∞ la distribuzione della variabile
(o i − e i ) 2
∑
ei
i =1
k
tende asintoticamente
variabile
alla
distribuzione
( N − 1)s 2
σ2
con un numero di gradi di libertà ν dato da:
della
Il test chi-quadro
ν=k–1
se le frequenze attese possono essere
calcolate senza
dover
stimare
parametri della popolazione
dalle
distribuzioni osservate;
ν = k – 1 - λ se le frequenze attese possono essere
calcolate solo stimando λ parametri
della popolazione
dalle
distribuzioni campionarie.
Il test chi-quadro
La condizione di asintoticità si considera raggiunta se N ≥ 50
e il numero di eventi per classe è almeno uguale a 5.
Il valore atteso di χ2 è uguale al numero di gradi di libertà ν.
La funzione di distribuzione f(χ2) consente di calcolare, al
variare di ν, la probabilità che, ripetendo le N misure, si
ottenga, solo per effetto delle fluttuazioni casuali, un valore
di χ2 maggiore o uguale di quello osservato χ02:
P ( χ 2 ≥ χ 02 ) =
∞
∫
χ2
f ( χ 2 ) dχ 2
Il test chi-quadro
χ02
Area a destra di χ02 = probabilità P di ottenere, solo
per effetto del caso, un valore maggiore o uguale di
χ02.
Area maggiore ⇒ maggiore probabilità che le
frequenze teoriche differiscano da quelle sperimentali
per effetto del caso
Il test chi-quadro
χ02
Fissato un livello di significatività α, il valore
osservato indica un disaccordo significativo se
P ( χ 2 ≥ χ 02 ) < α
E l’ipotesi va rigettata al livello di significatività α.
Il chi-quadro ridotto
Poiché il valore atteso di χ2 deve essere ν spesso si
normalizza a ν il χ2 e si considera il chi-quadro
ridotto
2
χ
2
~
χ =
ν
che è prossimo a 1 se esiste un buon accordo tra
la distribuzione osservata e quella ipotizzata.
Livelli di significatività
E’ convenzione stabilire due livelli significativi per il
valore della probabilità P ( χ ≥ χ ) : 5% oppure 1%.
2
Se P( χ 2 ≥ χ 02 ) < 5%
2
0
il disaccordo con la distribuzione
attesa è significativo e si rigetta l’ipotesi al livello di
significatività del 5%;
5%
Se
P( χ 2 ≥ χ 02 ) < 1%
il disaccordo con la distribuzione
attesa è altamente significativo e si rigetta l’ipotesi al
livello di significatività dell’1%.
1%
Applicazioni del chi-quadro
Test della significatività per verificare se le
frequenze osservate per un insieme di possibili
eventi differiscono significativamente dalle
frequenze attese sulla base di certe ipotesi.
Test della significatività - Esempio
Lanciando un dado 120 volte si sono osservate
per ciascuna faccia le seguenti frequenze.
Faccia
1
2
3
4
5
6
Frequenze osservate
25
17
15
23
24
16
Provate l’ipotesi che il dado è buono al livello di
significatività del 5%.
Se il dado non è truccato le frequenze attese ei
per ciascuna faccia sono uguali e sono pari a 20.
Applicazioni del chi-quadro - Esempio
(o i − e i ) 2 (25 − 20 ) (17 − 20 )
=
+
+
∑
ei
20
20
i =1
2
k
(
15 − 20 )
+
2
(
23 − 20 )
+
20
20
2
(
16 − 20 )
+
= 5.00
20
2
2
(
24 − 20 )
+
2
20
+
Poiché il numero di classi (le facce in questo caso) è k = 6 e
non ci sono parametri della distribuzione attesa calcolati dai
dati sperimentali il numero di gradi di libertà è ν = k – 1 = 5
Applicazioni del chi-quadro - Esempio
Dalle tavole del
χ2
si ricava:
χ 02,95,5 = 11.1
Poiché 5.00 < 11.1 possiamo accettare l’ipotesi che
il dado sia buono.
Applicazioni del chi-quadro
Test sulla verosimiglianza di un modello per
verificare la verosimiglianza di un certo modello
matematico nel rappresentare i dati relativi ad
un certo fenomeno. In questo caso il χ2 è definito
come
N
( yi − y c i ) 2
i =1
σ i2
χ2 = ∑
yi = valori sperimentali; yc = valori calcolati;
σi = deviazione standard
i
Test χ2 per ricercare la forma di una
dipendenza funzionale
Se la relazione funzionale non è nota a priori e si dispone di
pochi punti sperimentali può accadere che si possano
ipotizzare diverse relazioni funzionali. Quale deve ritenersi la
più soddisfacente?
La quantità
N
( yi − y c i ) 2
i =1
σ i2
χ2 = ∑
yci = stima, tramite la relazione funzionale ipotizzata, della
variabile yi, avente deviazione standard
distribuzione f(χ2)
σi , segue la
Test χ2 per ricercare la forma di una
dipendenza funzionale
Possiamo quindi calcolare la probabilità di ottenere
un valore di χ2 maggiore o uguale a quello osservato
χ02 [P(χ2 ≥ χ02)] solo per effetto delle fluttuazioni
casuali
e
stabilire,
ad
un
certo
livello
di
significatività α, se la relazione funzionale proposta
può essere accettata.
Test χ2 per ricercare la forma di una
dipendenza funzionale
Se le relazioni ipotizzabili sono più di una per ciascuna si
calcolano i rispettivi χ2 considerando i gradi di libertà ν dati
dal numero N di variabili indipendenti diminuito del
numero c di parametri calcolati e si decide sulla base del
livello di significatività prescelto. Se ambedue soddisfano il
livello di significatività prescelto si sceglie quello il cui χ02
presenta la maggior probabilità di essere superato dal valore
del χ2 teorico.
Test χ2 per ricercare la forma di una
dipendenza funzionale
Anche in questo caso si può usare il chi-quadro
ridotto:
χ
2
~
χ =
2
ν
In tal caso, se
entrambe le relazioni funzionali
soddisfano il livello di significatività prescelto, si
~ 2 minore.
sceglie quella con il χ
Test χ2 per ricercare la forma di una
dipendenza funzionale
5,0
4,0
3,0
2,0
1,0
0,0
0
1
2
3
4
5
6
Test χ2 per ricercare la forma di una
dipendenza funzionale
5,0
4,0
3,0
2,0
1,0
0,0
0
1
2
3
4
5
6
Si ha inoltre: χ2 = 5.1
L’equazione della retta è
y = 0.98x + 0.54x
Poiché due parametri
sono calcolati dai dati
sperimentali si ha
ν = 5 – 2 = 3.
Test χ2 per ricercare la forma di una
dipendenza funzionale
Dalle tavole si ricava che per ν = 3 il χ2 trovato è
compreso tra 4.11 [cui corrisponde P(χ2 ⟨ 4.11) = 75%] e
6.25 [cui corrisponde P(χ2 ⟨ 6.25) = 90%] . Interpolando
linearmente tra questi due valori si ricava:
P(χ2 ⟨ 5.1) = 82% ⇒ P(χ2 ≥ 5.1) = 18%
Test χ2 per ricercare la forma di una
dipendenza funzionale
L’equazione della curva è
5,0
4,0
y = -1.02 + 2.25x –0.286 x2
3,0
2,0
1,0
0,0
0
1
2
3
4
5
6
Si ha inoltre: χ2 = 0.49
Poiché tre parametri sono
calcolati
dai
dati
sperimentali si ha
ν = 5 – 3 = 2.
Test χ2 per ricercare la forma di una
dipendenza funzionale
Dalle tavole si ricava che per ν = 2 il χ2 trovato è
compreso tra 0.211 [cui corrisponde P(χ2 ⟨ 0.211) = 10%]
e 0.575 [cui corrisponde P(χ2 ⟨ 0.575) = 25%] .
Interpolando linearmente tra questi due valori si ricava:
P(χ2 ⟨ 0.49) = 21.5% ⇒ P(χ2 ≥ 5.1) = 78.5%
Quindi, poiché 78.5% ⟩ 18% l’equazione della parabola si
accorda meglio ai dati sperimentali.
Test χ2 per ricercare la forma di una
dipendenza funzionale
Alle stesse conclusioni si arriva più rapidamente
utilizzando il chi-quadro ridotto:
5,0
5,0
4,0
4,0
3,0
3,0
2,0
2,0
1,0
1,0
0,0
0,0
0
1
2
3
4
2
~
χ = 1.7
5
6
0
1
2
3
4
2
~
χ = 0.25
5
6
Correlazione
Due grandezze, x e y, sono correlate se a variazioni di una
corrispondono variazioni dell’altra; se, invece, al variare
di una grandezza l’altra non varia oppure varia in
maniera casuale si dice che le grandezze sono incorrelate o
indipendenti.
indipendenti
Non sempre è possibile stabilire una possibile correlazione
tra le variabili x ed y poiché i dati sperimentali possono
risultare molto dispersi.
Mediante il coefficiente di correlazione è possibile
quantificare in termini di probabilità il grado di
correlazione tra due variabili.
Correlazione lineare
Un parametro che quantifica il diverso grado di
correlazione tra due variabili è il coefficiente di
correlazione lineare r definito dalla relazione
N
r=
∑ ( x − x)( y
i =1
i
N
N
i =1
i =1
i
− y)
2
2
(
x
−
x
)
(
y
−
y
)
∑ i
∑ i
Correlazione lineare
Si verifica che risulta: -1 ≤ r ≤ 1
r = 0 ⇔ non esiste alcuna correlazione tra le variabili
r = ±1 ⇔ c’è una perfetta correlazione tra le variabili.
Il segno ± è legato al fatto che il coefficiente
angolare della retta può assumere valore
positivo o negativo.
Correlazione lineare
Si può calcolare la probabilità che per N coppie di
variabili(xi,yi) incorrelate il valore assoluto di r, per il solo
effetto del caso, sia maggiore o uguale a quello osservato:
P(⎜r⎜ ≥ ⎜r0⎜)
Quanto
più
è
piccola
tale
probabilità
tanto
più
soddisfacente si può ritenere la correlazione.
Generalmente si assume:
P(⎜r⎜ ≥ ⎜r0⎜) ≤ 5%
correlazione significativa
P(⎜r⎜ ≥ ⎜r0⎜) ≤ 1%
correlazione altamente significativa
Metodo dei minimi quadrati
Date due grandezze X ed Y, come stimare dai
dati sperimentali i parametri di una relazione
funzionale
y = f(x,A,B,C,…)
ipotizzata tra le due grandezze?
Se i valori delle grandezze non avessero errore
basterebbe un numero di coppie di valori (xi,yi)
pari al numero dei parametri da determinare.
Metodo dei minimi quadrati
Nella pratica questo non è possibile perché, a
causa degli errori, ad un certo valore xi
corrisponderebbero diversi valori yi, y’i, y”i,
… e viceversa.
Metodo dei minimi quadrati
Ipotesi:
Ipotesi
- tutte le misure sono tra loro statisticamente
indipendenti
- una variabile (in genere quella indipendente x) ha
errori trascurabili
-i
valori
delle
misure
di
y
normalmente attorno al valore vero
sono
distribuiti
Metodo dei minimi quadrati
La probabilità di avere l’insieme completo di misure
y1, y2, …, yN calcolato in termini dei parametri A, B,
C, …è data da:
N
∏
i =1
1 1
e
2π σ yi
−
[ yi − f ( xi , A, B ,C ,...)]2
2σ y2i
ove σ y sono le deviazioni standard di ciascuna
i
grandezza yi.
Metodo dei minimi quadrati
Questa probabilità è massima quando è minima la
quantità:
[ yi − f ( xi , A, B, C ,...)]
χ =∑
2
2σ yi
i =1
N
2
2
Gli errori sui parametri A, B, C, … si determinano
con la legge di propagazione degli errori.
Retta dei minimi quadrati
Se la relazione funzionale tra le grandezze x, y è di
tipo lineare (y = Ax + B) i parametri A e B sono dati
da:
A=
N
N
N
i =1
i =1
i =1
N∑ x i y i − ∑ x i ∑ y i
B=
∆
N
N
N
N
i =1
i =1
i =1
i =1
2
x
∑ i ∑ y i −∑ x i ∑ x i y i
∆
⎛
⎛
⎞
2⎞
∆ = N ⎜ ∑ xi ⎟ − ⎜ ∑ xi ⎟
⎝ i =1 ⎠ ⎝ i =1 ⎠
N
N
2
Retta dei minimi quadrati – Stima a posteriori
dell’incertezza su y
L’errore
σy
sulle yi , se non è noto a priori, può
essere stimato a partire dai dati stessi, una volta
eseguita l’interpolazione lineare, utilizzando la
dispersione dei punti attorno alla retta. Si può
dimostrare che una stima corretta di tale errore è
data dall’espressione:
[ y i − Ax i + B]2
σy = ∑
N−2
i =1
N
Retta dei minimi quadrati – Stima a posteriori
dell’incertezza su y
La corretta stima dell’errore si ottiene dividendo per (N –
2) poiché gli scarti sono calcolati rispetto ad un valore
stimato che dipende da due parametri (i due coefficienti
dell’equazione della retta) che a loro volta sono stimati
dai dati sperimentali. I gradi di libertà, quindi, sono
diminuiti di due.
Nel caso in cui si disponesse solo di due punti sperimentali
la retta passerebbe esattamente per essi e l’errore
assumerebbe correttamente la forma indeterminata 0/0.
Retta dei minimi quadrati passante per l’origine
Se la relazione funzionale che collega le due
grandezze x, y è del tipo y = Ax si ha:
N
A=
∑x y
i =1
N
i
2
x
∑ i
i =1
i
Retta dei minimi quadrati passante per l’origine Stima a posteriori dell’incertezza su y
La stima corretta dell’errore su y è data
dall’espressione:
[ y i − Ax i ]
σy = ∑
N −1
i =1
N
2