CORSO DI LAUREA IN
OTTICA E OPTOMETRIA
C O R S O D I I N F O R M AT I C A E S TAT I S T I C A
D A N I E L E . M O N TA N I N O @ U N I S A L E N T O . I T
Parte II - Statistica inferenziale
1
DEFINIZIONI PRIMITIVE
•  Su supponga di effettuare un certo esperimento o prova (ad
esempio: lancio di una moneta, o di un dado)
•  Si definiscono campioni (o eventi elementari ωi) i possibili
risultati dell’esperimento (per esempio “Testa” o “Croce” nel
lancio di un dado.
•  Spazio di probabilità: è l’insieme di tutti i possibili eventi
elementari che possono avvenire in esperimento
•  Esempi
1. 
2. 
3. 
4. 
Lancio di una moneta Ω={Testa,Croce}
Lancio di due monete Ω={TT,TC,CT,CC}
Lancio di un dado Ω={1,2,3,4,5,6}
Estrarre una carta da un mazzo di carte francesi Ω={1♤,1♧,1♡,1♢,…
K♤,K♧,K♡,K♢}
Parte II - Statistica inferenziale
2
SPAZIO DEGLI EVENTI
•  Un sottoinsieme E⊆Ω è detto spazio degli eventi.
•  Esempi
1.  Esce testa nel lancio di una moneta E={Testa}
2.  Esca entrambe testa o entrambe croce nel lancio di due monete
E={TT,CC}
3.  Esca un numero pari nel lancio di un dado E={2,4,6}
4.  Esca una carta di fiori estraendo una carta da un mazzo di carte
francesi E={1♧,2♧,…Q♧,K♧}
etc…
•  In questi esempi è possibile “contare” il numero di campioni
all’interno di un evento. Questi insieme si dicono
“enumerabili”. Ci sono casi in cui ciò non è possibile.
•  Definiamo la cardinalità N(E) il numero di campioni in un
evento enumerabile (per esempio N({TT,CC})=2)
Parte II - Statistica inferenziale
3
ALGEBRA DEGLI EVENTI
•  L’algebra degli eventi segue la teoria degli insiemi
•  Si definisce l’evento nullo (o insieme vuoto) l’insieme non
contenente nessun elemento ⦰={}
•  Dati due eventi A e B si definisce l’unione (o somma logica)
A∪B l’insieme degli elementi che appartengono ad A oppure
a B (o a entrambi)
•  Esempio nel lancio di un dado se A={1,2,4} e B={4,6}, A∪B={1,2,4,6}
•  Si definisce intersezione (o prodotto logico) A∩B l’insieme degli
elementi che appartengono contemporaneamente sia ad A
che a B
•  Per esempio se A={1,2,4} e B={4,6}, A∩B={4}
•  Se A={1,2} e B={3,4}, A∩B=⦰
•  A={carte di fiori}, B={assi}, A∩B={asso di fiori}
•  Si definisce “complementare” di un evento A l’insieme Ā degli
elementi di Ω che non appartengono ad A
•  Per esempio A={1,2,4}, Ā={3,5,6}
Parte II - Statistica inferenziale
4
ALGEBRA DEGLI EVENTI
(RAPPRESENTAZIONE GRAFICA)
Ω
1
Ω
A
5
1
2
4
5
B
6
A∪B
6
4
2
Ω
3
1
5
Ω
1 A
5
2
3
2
A∩B
6
4
3
Ā
4
6
3
Parte II - Statistica inferenziale
5
PROBABILITÀ A PRIORI
NELL’APPROCCIO CLASSICO
•  Per insiemi di cardinalità finita è possibile definire la probabilità che
accada un evento E accada come il rapporto tra la cardinalità di E
(numero di casi favorevoli) diviso la cardinalità di Ω (numero di casi
possibili)
P[E] =
N(E)
N(Ω)
•  Per esempio, la probabilità che esca testa (E={T}, N(E)=1) nel lancio di una moneta (Ω={T,C},
N(Ω)=2) vale P=1/2
•  Allo stesso modo, la probabilità che estraendo una carta da un mazzo di carte francesi
(N(Ω)=52) esca una carta di fiori (N(E)=13) vale P=13/52=1/4
•  Questa definizione è giustificata postulato empirico del caso: ripetendo
un gran numero di volte lo stesso esperimento, la frequenza di volte in cui
si verifica l’evento diviso il numero totale di prove tende alla probabilità.
•  La definizione precedente però presenta problemi quando la cardinalità
dell’insieme Ω è infinita (per esempio quando si ha a che fare con misure
di grandezze fisiche “continue” quali lunghezze, pesi etc.)
Parte II - Statistica inferenziale
6
PROBABILITÀ A POSTERIORI (O
EMPIRICA)
•  Non sempre è possibile calcolare “a priori” la probabilità. Per
esempio è impossibile rispondere semplicemente con un
calcolo alla domanda “che probabilità ho di sviluppare una
certa patologia nel prossimo anno”.
•  In questo caso la probabilità si definisce in maniera empirica:
per esempio nel caso della domanda precedente si prende
un campione sufficientemente ampio di persone e si “conta”
la frequenza di incidenza della patologia.
•  Naturalmente il campione deve essere scelto in maniera opportuna: se mi
chiedo qual è l’incidenza di una patologia in una certa area geografica
(p.e. vicino una fabbrica) è ovvio che il campione va scelto tra le persone
in quell’area geografica. Al contrario, se sono interessato all’incidenza di
quella stessa patologia “in generale” dovrò scegliere un campione il più
possibile eterogeneo.
Parte II - Statistica inferenziale
7
PROBABILITÀ A POSTERIORI (O
EMPIRICA)
•  Nel calcolo della probabilità a priori facciamo
implicitamente delle assunzioni: p.e. nel lancio di
una moneta assumiamo che essa non sia truccata.
Vedremo che, in un certo senso, una parte del
problema è il confronto tra probabilità a priori e a
posteriori, per “testare” le assunzioni di base (p.e.,
con che probabilità una moneta è buona o
truccata)
Parte II - Statistica inferenziale
8
PROBABILITÀ “SOGGETTIVA”
•  Esiste una definizione “soggettiva” di probabilità:
ovvero il “grado di fiducia” che ciascuno attribuisce
ad un certo evento.
•  Esempio: nelle sale scommesse la vincita di una squadra di
calcio in una partita può essere data 2:1, cioè la vincita
viene valutata 2/3 e il pareggio o perdita 1/3. Ovviamente
questa valutazione è puramente soggettiva e basata solo
su di una esperienza personale.
Parte II - Statistica inferenziale
9
DEFINIZIONE ASSIOMATICA DI
PROBABILITÀ
•  Come si vede, non esiste una definizione precisa di probabilità. Da un
punto di vista matematico si ricorre quindi ad una definizione
assiomatica:
La probabilità è una funzione che associa ad un evento E ⊆Ω
un numero P(E) tale che
1.  P(E)≥0
2.  P(Ω)=1
3.  Se A e B sono due eventi disgiunti (cioè che A∩B=⦰) si ha
P(A∪B)=P(A)+P(B)
•  E’ facile vedere che questi postulati rispettano la definizione classica
di probabilità
•  Il primo postulato ci dice semplicemente che la probabilità è un numero positivo.
•  Il secondo ci dice per esempio è certo che lanciando un dado debba uscire un
numero tra 1 e 6!
•  Il terzo ci dice per esempio che la probabilità che lanciando un dado la probabilità
che esca 1 o 2 (eventi disgiunti) è 1/6+1/6
Parte II - Statistica inferenziale
10
PROPRIETÀ
•  A partire dai postulati è facile dimostrare le seguenti
proprietà
1. 
2. 
3. 
4. 
P(⦰)=0
P(A∪B)=P(A)+P(B)-P(A∩B)
se B⊆A, P(B)≤P(A)
P(Ā)=1-P(A) (poiché A∩Ā=⦰ e A∪Ā=Ω)
•  E’ possibile dimostrare i precedenti teoremi anche
in maniera grafica. La prova è lasciata allo
studente.
Parte II - Statistica inferenziale
11
ESEMPI
1.  Qual è la probabilità che lanciando un dado non esca…
nulla?
• 
Ovviamente è P(⦰)=0!
2.  Qual è la probabilità che estraendo una carta da un mazzo
di carte francesi esca un asso o una carta di cuori?
• 
Siano A={1♤,1♧,1♡,1♢} e Q={1♡,… K♡}, A∩Q={1♡} si ha P(A)=4/52,
P(Q)=13/52, P(A∩Q)=1/52, dal teorema 2: P=(4+13-1)/52=16/52=0,31.
Infatti i casi possibili sono le 13 carte di cuori più i rimanenti 3 assi. Se
avessimo semplicemente sommato le due probabilità avremmo contato
due volte l’asso di cuori.
3.  Qual è la probabilità che lanciando un dado esca 1 o 2?
Oppure 3 ,4, 5 o 6?
• 
Se A={1,2} si ha P(A)=2/6=1/3. Evidentemente Ā={3,4,5,,6} e
P(Ā)=4/6=2/3=1-P(A), come richiesto dal teorema 3.
Parte II - Statistica inferenziale
12
PROBABILITÀ CONDIZIONATA
•  A volte il verificarsi di un evento B è “condizionato” dal
precedente verificarsi di un evento A.
•  Esempio: da un mazzo di carte francesi estraiamo una carta a
caso ed essa è un asso (evento A). Vogliamo conoscere la
probabilità che estraendo una seconda carta dal mazzo essa sia
ancora un asso (evento B). La risposta intuitiva è P(B|A)=3/51=1/17
poiché nel mazzo sono rimaste 51 carte di solo 3 ora sono assi.
Notiamo anche che la probabilità che esca un asso alla prima
estrazione vale P(A)=4/52=1/13. Le combinazioni possibili di due
assi sono 6 ({1♤,1♧}, {1♤, 1♢}, {1♤,1♡}, {1♧,1♢}, {1♧,1♡}, {1♡,1♢}),
mentre le combinazioni possibili di 2 carte qualunque sono
52·51/2=1326. Ne consegue che la probabilità di estrarre due assi
vale 6/1326=1/221.
Vediamo quindi che la probabilità che la seconda carta sia un
asso è data dalla probabilità di avere una coppia di assi diviso la
probabilità che la prima carta sia un asso 1/17=(1/221)/(1/13)
Parte II - Statistica inferenziale
13
PROBABILITÀ CONDIZIONATA
•  Dall’esempio precedente possiamo giustificare la seguente
definizione: si definisce probabilità condizionata dell’evento B
dall’evento A la quantità:
P(A ∩ B)
P(B | A) =
P(A)
•  Due eventi si dicono indipendenti (da non confondere con eventi
disgiunti!) se P(B|A) non dipende da A ovvero P(A∩B)=P(A) ·P(B)
•  Esempio: qual è la probabilità che lanciando due volte un dado esca due
volte 6? Il numero di casi favorevoli è 1 ({6,6}) contro 36 possibili
combinazioni, quindi P=1/36 che è proprio 1/6·1/6. Evidentemente si tratta
di eventi indipendenti in quanto il fatto che sia uscito 6 a un primo lancio
non influenza in nessun modo il risultato del secondo lancio.
Parte II - Statistica inferenziale
14
VARIABILI ALEATORIE
•  Una variabile aleatoria (o casuale) è una funzione che
associa ad ogni elemento ωi dello spazio campionario Ω
uno e un solo numero (in generale reale) xi.
•  Esempio: nel lancio di una moneta è possibile assegnare x=0 a
testa e x=1 a croce
•  Nel lancio di un dado si può assegnare il valore della faccia.
•  Un variabile aleatoria “discreta” può assumere un
numero finito o infinito numerabile di valori (p.e., le
facce di un dado, il numero di decadimenti radioattivi
per secondo in un campione…)
•  Una variabile aleatoria continua può invece assumere
valori in intervalli o in tutto l’asse reale (p.e., la piovosità
in una data regione, la velocità di una molecola in un
gas in m/s, l’indice Dow Jones di Wall Street…)
Parte II - Statistica inferenziale
15
FUNZIONE DI PROBABILITÀ
•  Consideriamo per il momento variabili aleatorie discrete.
Chiamiamo P(xi) la probabilità che si verifichi l’evento
elementare Ei={ωi}. La P(xi) è una distribuzione di probabilità.
Probabilità
•  Esempi banali sono la probabilità associata al lancio di una
moneta o di un dado.
0,18
0,16
0,14
0,12
0,1
0,08
0,06
0,04
0,02
0
1
2
3
4
5
6
Numero di faccia
Tale distribuzione si dice “uniforme” poiché la probabilità è uguale
per tutti gli xi.
Parte II - Statistica inferenziale
16
DISTRIBUZIONI DISCRETE
•  Un esempio meno banale è il seguente: la distribuzione
di probabilità per la somma del valore delle due facce
nel lancio di due dadi. La distribuzione può essere
dedotta dalla seguente tabella
Risultato
xi
Possibili combinazioni dei due dadi
Casi
favorevoli
P(xi)=
Casi
favorevoli/36
2
1+1
1
0,028
3
1+2
2+1
2
0,056
4
1+3
2+2
3+1
3
0,083
5
1+4
2+3
3+2
4+1
4
0,111
6
1+5
2+4
3+3
2+4
1+5
5
0,139
7
1+6
2+5
3+4
4+3
5+2
6
0,167
8
2+6
3+5
4+4
5+3
6+2
5
0,139
9
3+6
4+5
5+4
6+3
4
0,111
10
4+6
5+5
6+4
3
0,083
11
5+6
6+5
2
0,056
12
6+6
1
0,028
6+1
Parte II - Statistica inferenziale
17
ESEMPIO DI DISTRIBUZIONE DISCRETA
0,180
0,160
0,140
0,120
0,100
0,080
0,060
0,040
0,020
0,000
2
3
4
5
6
7
8
9
10
11
12
Somma dado 1+dado2
Parte II - Statistica inferenziale
18
CUMULATIVA
•  Evidentemente deve essere
N
∑ P(x ) = 1
k
k=1
•  Si definisce cumulativa (o funzione di ripartizione) la funzione
i
F(xi ) = ∑ P(xk )
k=1
ovvero la somma delle probabilità sino all’i-esimo valore. La
cumulativa è la probabilità che X sia minore o uguale a xi
F(xi ) = P(X ≤ xi )
Parte II - Statistica inferenziale
19
CUMULATIVA
•  Nell’esempio precedente la cumulativa assume la
seguente forma
1,000
xi
P(xi)
F(xi)
2
0,028
0,028
3
0,056
0,083
0,700
4
0,083
0,167
0,600
5
0,111
0,278
0,500
6
0,139
0,417
0,400
7
0,167
0,583
8
0,139
0,722
9
0,111
0,833
10
0,083
0,917
11
0,056
0,972
12
0,028
1,000
0,900
0,800
0,300
0,200
0,100
0,000
2
3
4
5
6
7
8
9
10
11
12
Parte II - Statistica inferenziale
20
CUMULATIVA
•  Esempio di uso della cumulativa
•  qual è la probabilità che lanciando due dadi la somma delle due
facce è minore o uguale a 7? La risposta è diretta e vale
P(S≤7)=F(7)=0.583
•  che sia compresa tra 4 e 7 (compresi)? In generale si ha
P(x p ≤ x ≤ xq ) = P(x p ) +... + P(xq )
= P(x1 ) +... + P(x p−1 ) + P(x p ) +... + P(xq ) − ( P(x1 ) +... + P(x p−1 ))
= F(xq ) − F(x p−1 )
nel nostro caso P(4≤S≤7)=F(7)-F(3)=0,5
•  che sia maggiore di 7. Ragionando come nel caso precedente si
ha P(S>7)=1-P(S≤7)=1-F(7)=0,417
Parte II - Statistica inferenziale
21
MEDIA E VARIANZA
•  Si definisce media di una distribuzione di probabilità (discreta) la
N
quantità
µ = ∑ P(xk )⋅ xk
k=1
•  si definisce varianza di una distribuzione la quantità
N
σ 2 = ∑ P(xk )⋅ (xk − µ )2
k=1
•  Si definisce scarto quadratico medio della distribuzione σ la
radice quadrata della varianza.
•  Nel caso dell’esempio della somma delle facce dei due dadi si
ha µ=7 e σ=2,415. Il fatto che la media corrisponda al valore
centrale della distribuzione non è un caso ma vale per tutte le
distribuzioni simmetriche.
Parte II - Statistica inferenziale
22
DISPOSIZIONI
•  Facciamo un esempio: in quanti modi è possibile disporre 3 studenti
su 5 postazioni?
•  Il 1° studente ha 5 possibilità
•  Una volta che il 1° studente ha fatto la sua scelta al secondo rimangono
solo 4 possibilità
•  A sua volta, al 3° studente rimangono solo 3 possibilità
Parte II - Statistica inferenziale
23
DISPOSIZIONI
•  In definitiva ci sono 5×4×3=60 possibili disposizioni di 3 studenti
su 5 postazioni. Più in generale se abbiamo k studenti e N
postazioni avremmo
N·(N-1)·…(N-k+1) possibili disposizioni. Questo numero viene
chiamato “disposizioni di N elementi in classe k”.
•  In particolare se avessimo esattamente N studenti per N
postazioni, le possibili disposizioni sarebbero
N·(N-1)·…·3·2·1=N! disposizioni.
Parte II - Statistica inferenziale
24
COMBINAZIONI
•  Nell’esempio precedente supponiamo che non ci interessi con quale
ordine con cui gli studenti hanno occupato la postazione, ma solo in
quanti modi è possibile occupare 3 postazioni su 5. In pratica se
scambiamo due studenti la situazione è equivalente
1
2
3
4
Parte II - Statistica inferenziale
5
25
COMBINAZIONI
•  Nell’esempio precedente in cui le postazioni 1, 4 e 5 sono
occupate vi sono 3!=6 disposizioni possibili di studenti. Ne
consegue che il numero totale di combinazioni è dato da
5×4×3/3!=10, ovvero esistono 10 possibili modi di riempire 3
sedie su 5.
•  Più in generale le combinazioni di N elementi in classe k sono
date da
! N $ N(N −1)...(N − k +1)
N!
=
#
&=
k!
k!(N − k)!
" k %
•  Il simbolo precedente (leggasi N su k, da non confondersi
assolutamente con la frazione N/k) ha se seguenti proprietà
! N $ ! N $
&& = 1;
#
& = ##
" 0 % " N %
! N $ ! N
#
& = ##
" 1 % " N −1
$
&& = N;
%
Parte II - Statistica inferenziale
! N $ ! N
#
& = ##
" k % " N −k
$
&&
%
26
BINOMIO DI NEWTON
•  Interessante notare che le combinazioni entrano nel calcolo
del binomio di Newton
! N $ k N−k
(A + B) = ∑#
&A B
k=0 " k %
N
N
ciò deriva dal fatto che per ogni termine con AkBN-k esistono N
su k combinazioni possibili. Per esempio A2B2 può essere scritto in
6 modi diversi: AABB, ABAB,ABBA,BABA,BBAA,BAAB. E’ facile
vedere che
! 4 $
#
&=6
" 2 %
Parte II - Statistica inferenziale
27
DISTRIBUZIONE BINOMIALE (O DI
BERNOULLI)
•  Si supponga di voler rispondere a questa domanda: qual è la
probabilità che lanciando 10 volte un dado esca per 3 volte
la faccia contrassegnata col “sei”.
Poiché sono eventi indipendenti, la probabilità che 3 volte
esca il sei e per le restanti 7 volte non esca il sei è data da
(1/6)3×(5/6)7. Poiché però non ci interessa l’ordine con cui il sei
esce dobbiamo moltiplicare per le possibili combinazioni di
volte in cui il sei esce 3 volte nella sequenza di 10 lanci.
7
! 10 $
10 × 9 × 8 5
3
7
P =#
= 0,155
& (1 / 6) ⋅ (5 / 6) =
10
1× 2 × 3 6
" 3 %
Parte II - Statistica inferenziale
28
DISTRIBUZIONE BINOMIALE (O DI
BERNOULLI)
•  Più in generale, la probabilità che un evento elementare che ha
probabilità p di accadere accada k volte su una serie di N prove è
data da
PN,k
! N $ k
=#
& p ⋅ (1− p) N−k
" k %
•  Questa distribuzione è detta Binomiale o di Bernoulli (esistono anche
distribuzioni “multinomiali” di cui non ci occuperemo). E’ lasciato per
esercizio (usando la formula del binomio di Newton) provare che
N
∑P
N,k
=1
k=0
Parte II - Statistica inferenziale
29
DISTRIBUZIONE BINOMIALE
•  Nel caso precedente la forma della distribuzione e della
cumulativa è la seguente
P10,k
0,3
! 10 $
=#
&(1 / 6)k ⋅ (1−1 / 6)10−k
" k %
Probabilità
0,25
0,2
0,15
0,1
0,05
1
0,9
Probabilità cumulativa
0,35
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0
0
1
2
3
4
5
6
7
8
9
10
0
Numero di volte in cui esce "sei"
1
2
3
4
5
6
7
8
9
10
Numero di volte in cui esce "sei"
•  Si può mostrare che la media e lo scarto quadratico medio di
una distribuzione binomiale sono dati da
µ = Np;
σ = Np(1− p)
Parte II - Statistica inferenziale
30
DISTRIBUZIONE DI POISSON
•  La distribuzione di Poisson è il limite di una distribuzione
binomiale in cui la probabilità dell’evento elementare è molto
piccola (p➝0) mentre il numero di prove è molto grande
(N➝∞) ma in modo che la media µ=Np rimanga un numero
“finito” noto. Si può dimostrare che in questo limite la
probabilità che l’evento accada k volte è dato da
k
µ −µ
P(k) = e
k!
•  La media di una distribuzione di Poisson è proprio µ mentre si
può mostrare che la deviazione standard vale √µ.
Parte II - Statistica inferenziale
31
DISTRIBUZIONE DI POISSON
•  Esempio: una rara patologia oculare colpisce 1 persona su 20.000. In
una città di 100.000 abitanti mediamente ci sono 5 persone affette
da quella patologia. La distribuzione di probabilità che k persone
abbiano quella patologia in quella città è la seguente
0,2
0,18
5k −5
P(k) = e
k!
0,16
0,14
P(k)
0,12
0,1
0,08
0,06
0,04
0,02
0
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
k (numero di persone affette da una certa patologia)
Parte II - Statistica inferenziale
32
DISTRIBUZIONI CONTINUE
•  Come detto a volte si ha a che fare con variabili aleatorie
“continue”. In questo caso non ha senso definire una distribuzione di
probabilità in quanto a rigore la probabilità che x assuma un valore
ben preciso è nulla. Si definisce invece una funzione densità di
probabilità fX(x)≥0 (che a volte viene chiamata impropriamente
distribuzione di probabilità) per cui la probabilità che X vada a
cadere in un intervallo compreso tra a e b è dato da
b
P(x ∈ [a, b]) =
∫f
X
(x)dx
a
•  Evidentemente la fX deve sottostare alla condizione (di
“normalizzazione”)
+∞
∫
R
f X (x)dx ≡
∫f
X
(x)dx = 1
−∞
Parte II - Statistica inferenziale
33
DISTRIBUZIONI CONTINUE
•  Esempio: la distribuzione delle dimensioni delle cellule in un certo
tessuto segue approssimativamente la legge
#% − x
f X (x) = $ xe
%& 0
se x ≥ 0
se x < 0
dove x è la dimensione della cellula in micron.
0,4
La densità di probabilità è quella
rappresentata in figura. Si noti
che la curva non rappresenta
direttamente una probabilità,
ovvero per esempio non
significa che la probabilità che
la cellula abbia dimensione
1micron sia 0,36!
0,35
0,3
0,25
0,2
0,15
0,1
0,05
0
0
1
2
3
4
5
Dimensione delle cellule in Parte
micronII
6
7
- Statistica inferenziale
34
DISTRIBUZIONE CONTINUA
•  La distribuzione precedente va invece interpretata come segue. Per
esempio vogliamo sapere la probabilità che una cellula abbia una
dimensione compresa tra 1 e 2 micron dobbiamo calcolare
l’integrale della distribuzione tra 1 e 2. In pratica occorre calcolare
l’area al di sotto della curva
0,4
2
P(x ∈ [1, 2]) =
0,35
0,3
∫ xe
−x
dx = −(1+ x)e
−x 2
1
= −3e−2 + 2e−1 = 0, 33
0,25
0,2
0,15
0,1
0,05
0
0
1
2
3
4
5
6
7
Dimensione delle cellule in micron
Parte II - Statistica inferenziale
35
1
CUMULATIVA
•  Si definisce la cumulativa (o funzione di ripartizione) come
x
FX (x) =
∫f
X
(ξ )d ξ
−∞
•  Nell’esempio precedente la funzione di ripartizione vale
x
FX (x) = ∫ ξ e−ξ d ξ = 1− (1+ x)e− x
0
(il limite inferiore parte da 0 perché la funzione è nulla per x<0).
Anche in questo caso possiamo scrivere P(x∈[a,b])=FX(b)-FX(a)
Parte II - Statistica inferenziale
36
MEDIA E VARIANZA
•  Si definisce la media di una densità di probabilità come
+∞
µ=
∫ x⋅ f
X
(x)dx
−∞
•  allo stesso modo la varianza si definisce come
+∞
σ 2 = ∫ (x − µ )2 ⋅ f X (x)dx
−∞
•  Nell’esempio precedente si può facilmente dimostrare che
µ=2 e σ2=2.
Parte II - Statistica inferenziale
37
QUANTILI
•  Il quantile (o percentile) di ordine α è quel valore qα per cui F(qα)=α.
Per esempio, il quantile di ordine 0,1 della distribuzione precedente
vale α=0,583. Questo significa che il 10% delle cellule hanno una
dimensione inferiore a 0,583micron e il 90% superiore. Il quantile di
ordine ½ viene chiamata mediana.
0,4
0,35
0,3
0,25
0,2
0,15
0,1
0,05
0
0
1
2
3
4
5
6
7
Dimensione delle cellule in micron
Parte II - Statistica inferenziale
38
DISTRIBUZIONE NORMALE
•  La distribuzione normale (o gaussiana) è quella sicuramente
più importante nella statistica inferenziale. Essa è definita
come
2
1
ϕ µ,σ (x) =
e
σ 2π
1 " x−µ %
− $
'
2# σ &
•  è possibile mostrare che µ e σ sono proprio la media e la
deviazione standard della distribuzione. La funzione è una
curva a campana simmetrica centrata intorno al valore x=µ e
la cui larghezza da flesso a flesso vale 2σ. In pratica, maggiore
è σ più “larga” è la curva.
Parte II - Statistica inferenziale
39
DISTRIBUZIONE NORMALE
•  Esempi di distribuzione normale
Parte II - Statistica inferenziale
40
NORMALE STANDARDIZZATA
•  La distribuzione normale con µ=0 e σ=1 si definisce
“standardizzata”:
1
ϕ (z) =
e
2π
z2
−
2
•  E’ facile vedere che qualunque distribuzione normale può
scriversi come
" x−µ%
ϕ µ,σ (x) = ϕ $
'
# σ &
Parte II - Statistica inferenziale
41
IMPORTANZA DELLA DISTRIBUZIONE
NORMALE
•  Esistono moltissimi motivi per cui la distribuzione precedente è
estremamente importante
•  La distribuzione binomiale, per N molto grande tende ad una normale con
media µ=Np e varianza σ2=Np(1-p). Lo stesso vale per una distribuzione di
Poisson
0,200
0,180
0,160
Binomiale
0,140
Normale
0,120
0,100
0,080
0,060
0,040
0,020
0,000
0
2
4
6
8
10
12
14
16
18
20
•  Le più importanti distribuzioni teoriche (chi-quadrato, t-student) tendono a
delle gaussiane per un numero grande di gradi di libertà.
Parte II - Statistica inferenziale
42
DISTRIBUZIONE T-STUDENT
•  La distribuzione t-student è caratterizzata dalla seguente espressione
" t %
fν (t) = N(ν )⋅ $1+ '
# ν&
2
ν +1
2
dove N(ν) è una opportuna costante di normalizzazione (in modo
che ∫R fν(t)dt=1)e ν viene detto “numero di gradi di libertà”. La
distribuzione per diversi valori di ν è mostrata in figura. Per ν>30 è
praticamente indistinguibile da una normale standard.
Parte II - Statistica inferenziale
43
DISTRIBUZIONE CHI2
•  La distribuzione chi-quadrato è caratterizzata dalla seguente
espressione
fk (x) = N(k)⋅ x
k/2−1 − x/2
e
dove N(k) è una opportuna costante di normalizzazione e k viene
detto “numero di gradi di libertà”. La distribuzione per diversi valori di
k è mostrata in figura. Per k>30 è praticamente indistinguibile da una
normale con media k e deviazione standard √2k.
Parte II - Statistica inferenziale
44
INTERVALLO DI CONFIDENZA
•  I quantili di ordine (1-α)/2 e (1+α)/2 delimitano una normale
standardizzata in una “zona centrale” con P(|z|<zα/2)=α e due
“code” in cui si ha P(|z|>zα/2)=(1-α)/2. Data la simmetria della curve
normale tali quantili sono determinati da un numero che denotiamo
zα/2, come in figura.
•  Per una variabile normale generica si definisce intervallo di
confidenza α quello che contiene la variabile X con probabilità α
Poiché z=(x-µ)/σ si ha che tale
intervallo di confidenza vale
µ − zα /2σ ≤ x ≤ µ + zα /2σ
valori tipici di za/2 sono
(1-α)/2
α/2
-zα/2
α/2
α
1-α
za/2
68%
0,32
1,000
90%
0,10
1,645
95%
0,05
1,960
zα/2 Parte II - Statistica inferenziale99%
0,01
2,576
(1-α)/2
z
45
TEOREMA DEL LIMITE CENTRALE
•  Siano {x1, x2,…xN} N variabili casuali con la stessa distribuzione
avente media µ e deviazione standard σ. Il teorema del limite
centrale afferma che posto
1 N
X = ∑ xk
N k=1
per N➝∞ X si distribuisce come una normale con media µ e
deviazione standard σ/√N. Detto diversamente, la variabile
X −µ
z=
σ/ N
si distribuisce come una variabile normale standardizzata.
Parte II - Statistica inferenziale
46
TEOREMA DEL LIMITE CENTRALE
•  In figura è mostrata il risultato di un esperimento in cui viene eseguita la
media di 25 numeri casuali numeri casuali (distribuiti uniformemente tra 0 e 1)
ripetuta per molte volte. Con i punti viene rappresentato il risultato
dell’esperimento mentre in linea continua si ha una curva normale con media
0,5 e varianza 0,0578.
8
7
6
5
4
3
2
1
0
0,30
0,40
0,50
media
Parte II - Statistica inferenziale
0,60
0,70
47
INTERVALLO DI CONFIDENZA PER LA
MEDIA (VARIANZA NOTA)
•  Il teorema del limite centrale consente di stimare l’intervallo di
confidenza per la media di un parametro quando la deviazione
standard è nota.
•  Esempio: è noto che la deviazione standard della concentrazione di
un certo inquinante vale σ=15ppm. Si misura la concentrazione di
quell’inquinante di N=50 giorni ottenendo come misura media
X=40ppm. Si vuole stabilire l’intervallo in cui al 95% si trova il valore
“vero” µ della concentrazione di inquinante.
Usando il teorema del limite centrale concludiamo che che tale
intervallo è definito da
X − zα /2
σ
σ
≤ µ ≤ X + zα /2
N
N
Parte II - Statistica inferenziale
48
INTERVALLO DI CONFIDENZA PER LA
MEDIA (VARIANZA NOTA)
In genere i valori di zα sono tabulati. Utilizzando un foglio di calcolo è
possibile però utilizzare la funzione INV.NORM.ST che calcola l’inversa della
cumulativa della normale standard per il calcolo dei quantili.
zβ
P(Z ≤ zβ ) = ∫ ϕ (z)dz = β
−∞
β
zβ=INV.NORM.ST(β)
Parte II - Statistica
inferenziale
49
INTERVALLO DI CONFIDENZA PER LA
MEDIA (VARIANZA NOTA)
Per trovare l’intervallo di confidenza desiderato bisogna considerare che
P(z>zβ)=1-β=(1-α)/2 da cui β=(1+α)/2
Nell’esempio precedente
• 
zα/2=INV.NORM.ST((1+α)/2)
valore di (1+α)/2
•  Si ha quindi che l’intervallo di confidenza al 95%vale
40 −1, 96
valore di zα/2
15
15
≤ µ ≤ 40 +1, 96
50
50
cioè c’è il 95% di probabilità che µ sia compreso tra 35,8 e 44,2.
Parte II - Statistica inferenziale
50
INTERVALLO DI CONFIDENZA PER LA
MEDIA (VARIANZA INCOGNITA)
•  Più comunemente può accadere che la deviazione standard del
campione non sia nota ma debba essere ricavata essa stessa dai
dati. Detta
N
S2 =
∑(x
2
−
X)
k
k=1
N −1
la varianza campionaria si può mostrare che la quantità
X −µ
t=
S/ N
si distribuisce come una variabile t-student con N-1 gradi di libertà.
Parte II - Statistica inferenziale
51
INTERVALLO DI CONFIDENZA PER LA
MEDIA (VARIANZA INCOGNITA)
•  Esempio: si è misurata la miopia di N=5 pazienti scelti in un
campione ottenendo i seguenti risultati (in diottrie): 2,3 – 2,5 –
1,8 – 1,2 – 2,9. Stimare l’intervallo di confidenza al 99% in cui si
trova il valore medio del campione. La media vale X=2,14 e la
deviazione standard campionaria S=0,66. L’intervallo di
confidenza è definito da
X − tα /2
S
S
≤ µ ≤ X + tα /2
N
N
dove tα/2 ha lo stesso significato del caso della distribuzione
normale ma in questo caso viene calcolato su una
distribuzione t-student a 4 gradi di libertà.
Parte II - Statistica inferenziale
52
INTERVALLO DI CONFIDENZA PER LA
MEDIA (VARIANZA INCOGNITA)
•  Come nel caso della normale i valori di tα/2 sono tabulati. Tuttavia,
avendo a disposizione un foglio di calcolo, i valori di tα/2 possono
essere calcolati attraverso la funzione INV.T. Questa funzione, a
differenza della INV.NORM.ST fornisce i valori t’β per cui P(t>t’β)=β/2
•  dato il valore di α e il numero di gradi di libertà.
•  tα/2 =INV.T(1-α,N-1)
•  tα =INV.T(2*(1-α),N-1)
t’β=INV.NORM(β/2)
α=1-β
β/2
valore di 1-α
Numero
gradi inferenziale
di libertà (N-1)
Parte di
II - Statistica
β/2
53
INTERVALLO DI CONFIDENZA PER LA
MEDIA (VARIANZA INCOGNITA)
•  Nell’esempio precedente abbiamo quindi
0, 66
0, 66
2,14 − 4, 6
≤ µ ≤ 2,14 + 4, 6
5
5
cioè 0,78<µ<3,50, ovvero esiste il 99% di probabilità che la miopia
media nell’intero campione si trovi in questo intervallo. Notare che se
avessimo usato la funzione INV.NORM.ST avremmo ottenuto
erroneamente l’intervallo 1,38<µ<2,90, molto più ristretto rispetto al
precedente.
Parte II - Statistica inferenziale
54
TEST DI IPOTESI
•  Facciamo un esempio: si supponga di aver lanciato 10 volte una
moneta e di aver ottenuto 8 volte Testa e 2 Croce. E’ possibile che la
moneta sia truccata in modo che esca prevalentemente testa?
Ovviamente non è possibile dare una risposta certa poiché può
benissimo accadere (anche se è estremamente improbabile) che
esca anche 100 volte testa lanciando una moneta buona!
•  E’ evidente che la risposta sarà di tipo probabilistico: con che
probabilità la moneta è buona truccata essendo uscito 8 volte Testa
e 2 Croce? Abbiamo quindi due ipotesi:
•  La moneta non è truccata e il fatto che sia uscito 8 volte Testa e 2 volte Croce è un
fatto puramente casuale.
•  La moneta è truccata in modo che esca prevalentemente Testa.
Torneremo tra un momento su questo esempio della moneta
Parte II - Statistica inferenziale
55
TEST PARAMETRICI E NON
PARAMETRICI
•  Un test quindi è una regola che consiste nel decidere tra due ipotesi
(o congetture)
•  Ipotesi H0 (o ipotesi nulla) consistente nell’ipotesi preesistente
prima dell’osservazione dei dati (es. la moneta è buona)
•  Ipotesi H1 (o ipotesi alternativa) consistente nell’ipotesi che si
contrappone all’ipotesi nulla (es. la moneta è truccata)
•  I test si suddividono ulteriormente in
•  Test parametrici: si applicano si vuole verificare l’ipotesi sul valore
di un parametro (p.e. la media) quando si suppone nota la
distribuzione di probabilità del parametro (o dei parametri) da
sottoporre a test.
•  Test non parametrici: si applicano quando non si fanno ipotesi a
priori sulle caratteristiche della popolazione. Essi si chiamano non
parametrici poiché non è necessaria la stima di parametri statistici
(quale media, varianza, etc.)
Parte II - Statistica inferenziale
56
REGIONE DI ACCETTAZIONE E DI
RIFIUTO
•  Torniamo all’esempio della moneta: potremmo decidere che di
accettare l’ipotesi nulla (la moneta è buona) se la la probabilità di
ottenere un risultato inusuale (tipo 2 Croci e 8 Teste) o ancora più
inusuale (0 o 1 Croci) è superiore a β=5%.
•  Se P(T≤2)≥5% accettiamo H0 (la moneta è buona)
•  Se P(T≤2)<5% rifiutiamo H0 e accettiamo H1 (la moneta è truccata)
•  Questo esempio è un caso di test parametrico poiché conosciamo
la distribuzione di probabilità a priori degli eventi (statistica
binomiale). Il parametro da testare è il numero di teste.
•  Il valore di β=5% scelto nell’esempio precedente è detto livello di
significatività del test. Più grande è β maggiore è la regione di rifiuto.
Parte II - Statistica inferenziale
57
REGIONE DI ACCETTAZIONE E DI
RIFIUTO
•  Nel nostro caso la probabilità P(T≤2) si calcola con la statistica
binomiale
k
10−k
2
2 #
10 &# 1 & # 1 &
P(T ≤ 2) = ∑ P(T = k) = ∑ %
(% ( %1− ( = 5, 5%
k
'$ 2 ' $ 2 '
k=0
k=0 $
•  Concludiamo quindi che poiché
la probabilità è maggiore del 5%
accettiamo l’ipotesi H0
•  Notiamo che se per esempio
avessimo scelto un livello di di
significatività più alto, per
esempio, β=10% avremmo
rifiutato l’ipotesi nulla.
0,3
Probabilità
0,25
0,2
0,15
0,1
0,05
0
0
1
2
3
4
5
6
7
8
9
10
Numero di teste
Parte II - Statistica inferenziale
58
ERRORI DI I E SECONDO TIPO
•  Un errore di I tipo si ha quando rifiutiamo l’ipotesi nulla mentre questa è falsa
•  Un errore di II tipo si ha quando accettiamo l’ipotesi nulla mentre questa è
vero
Accetto H0
Rifiuto H0
H0 è vera
OK, P=1-β
Errore di tipo I, P=β
H0 è falsa
Errore di II tipo, P=α
OK, P=1-α
•  Nel primo caso la probabilità di commettere un errore di I tipo è β (per
esempio nel caso precedente se avessimo scelto avessimo scelto un livello di
di significatività più alto, per esempio, β=10% avremmo rifiutato l’ipotesi nulla,
rischiando di concludere che la moneta è truccata pur non essendolo.
•  Se diminuiamo β però aumentiamo la probabilità α di commettere un errore
di II tipo (non sempre è possibile calcolare questa probabilità, per esempio nel
caso precedente dovremmo fare delle ipotesi su come è truccata la
moneta). Quando è possibile calcolarlo l valore 1-α è detta potenza del test.
•  Evidentemente la scelta migliore è trovare un compromesso tra α e β.
Parte II - Statistica inferenziale
59
TEST A UNA E DUE CODE
•  Nei test parametrici si vuole per esempio verificare se un parametro x
sia uguale o diverso da un parametro di riferimento x0. Un test si dice
“a una coda” (o semplice) se vogliamo verificare con significatività α
che x è maggiore (oppure minore) di x0. Si dice invece “a due
code” (o composta) se vogliamo semplicemente verificare se x≠x0.
•  Test a una coda: per esempio vogliamo verificare l’ipotesi
•  H0: x=x0
H1: x<x0
regione di accettazione
La regione di rifiuto è quella rossa
In pratica se x<xβ rifiutiamo H0
•  Test a due code
β
1-β
xα
P(x≤xβ)<β
regioni di rifiuto (“inusuali”)
•  H0 x=x0
•  H1 x≠x0
P(x≤xI,β/2∪x≥xII,β/2)<β
Se x<xI,β/2 o se x>xII,β/2 rifiutiamo H0
•  gli xα sono detti “valori critici”
β/2
xI,β/2
Parte II - Statistica inferenziale
1-β
β/2
xII,β/2
60
TEST SULLA MEDIA A UN CAMPIONE
(VARIANZA NOTA)
•  Facciamo un esempio: si supponga che sia nota la media nazionale della
miopia dei bambini tra i 7 e i 10 anni sia µ=1,5 con deviazione standard σ=0,8.
Viene misurata la miopia media di N=25 bambini tra 7 e 10 anni con problemi
di handicap ottenendo una miopia media m=1,8. Ci si chiede se
effettivamente la media della miopia dei bambini con problemi di handicap
sia più alta della media nazionale o la differenza rientri in una fluttuazione
statistica.
•  Poiché ci chiediamo se la media è più alta si tratta di un test a una coda:
H0: m=µ; H1: m>µ
Ricordiamo che la media segue approssimativamente una distribuzione di
tipo normale. Scegliamo ad esempio una significatività del 5%. Ne consegue
che la regione di rifiuto è
m > µ + z1/2−βσ / N = 1, 5 +1, 64 ⋅ 0,8 / 25 = 1, 76
•  poiché m=1,8 è maggiore di questo valore critico rifiutiamo l’ipotesi nulla,
ovvero accettiamo l’ipotesi che la media della miopia dei bambini aventi
problemi di handicap è superiore a quella nazionale di tutti i bambini
Parte II - Statistica inferenziale
61
TEST SULLA MEDIA A UN CAMPIONE
(VARIANZA NOTA)
•  Il caso precedente è un esempio di test a una coda. Se invece ci fossimo
chiesti invece se la media della miopia dei bambini con problemi di
handicap è semplicemente diversa dalla media nazionale avremmo che la
regione di rifiuto vale
m > µ + z(1−β )/2σ / N = 1, 5 +1, 96 ⋅ 0,8 / 25 = 1,81
m < µ − z(1−β )/2σ / N = 1, 5 −1, 96 ⋅ 0,8 / 25 = 1,19
•  In questo caso, poiché il valore 1,8 ricade nell’intervallo [1,19-1,81] (anche se
di poco…) accettiamo l’ipotesi nulla, ovvero che la miopia dei portatori di
handicap non è diversa dalla media. Un test a una coda è quindi sempre più
stringente di un test a due code.
Parte II - Statistica inferenziale
62
TEST SULLA MEDIA A UN CAMPIONE
(VARIANZA INCOGNITA)
•  Si supponga di trovarsi nella stessa situazione dell’esempio
precedente ma la deviazione standard della miopia a livello
nazionale è incognita. In questo caso la deviazione standard deve
essere dedotta dal campione di 25 bambini. Per esempio si
supponga che la deviazione standard campionaria dei 25 bambini
valga s=0,6. In questo caso però, la distribuzione da utilizzare è la tstudent a 24 gradi di libertà. Per il test a una coda la regione di rifiuto
è data da
m > µ + tβ s / N = 1, 5 +1, 711⋅ 0, 6 / 25 = 1, 71
•  dove il valore di tα è calcolato come INV.T(2*0,05;24) (ricordiamo che
INV.T calcola direttamente tβ/2). In questo caso, poiché m=1,8 siamo
nella regione di rifiuto, per cui rifiutiamo l’ipotesi H0.
Parte II - Statistica inferenziale
63
CONFRONTO TRA MEDIE A DUE
CAMPIONI (VARIANZA INCOGNITA)
•  A volte capita di voler confrontare due medie da due popolazioni
diverse.
•  Facciamo il seguente esempio: si vuole misurare al β=1% del livello di
significatività l’efficacia di due diversi procedimenti miranti alla
riduzione dell’astigmatismo.
•  Nel primo caso il procedimento è stato applicato a N1=20 pazienti ottenendo una
riduzione media dell’astigmatismo di m1=0,8 diottrie con una deviazione standard
campionaria di s1=0,3.
•  Nel secondo caso il procedimento è stato applicato a N2=15 pazienti ottenendo una
riduzione media m2=0,7 con una deviazione standard s2=0,2.
•  L’ipotesi nulla è H0: m1=m2, (i due metodi sono ugualmente efficaci) mentre
H1: m1≠m2.
(N1 −1)s12 + (N 2 −1)s22
m1 − m2
•  Definiamo la variabile t =
con sc =
sc
1
1
+
N1 N 2
(N1 + N 2 − 2)
si può dimostrare che t si comporta come una variabile t-student a N1+N2-2
gradi di libertà.
Parte II - Statistica inferenziale
64
CONFRONTO TRA MEDIE A DUE
CAMPIONI (VARIANZA INCOGNITA)
•  Nell’esempio precedente quindi si ha
(N1 −1)s12 + (N 2 −1)s22
(20 −1)⋅ 0, 32 + (15 −1)⋅ 0, 2 2
sc =
=
= 0, 26
(N1 + N 2 − 2)
20 +15 − 2
e
t=
m1 − m2
0,8 − 0, 7
=
= 1,12
1
1
0, 26 1 / 20 +1 /15
sc
+
N1 N 2
(equivalentemente si possono applicare le formule nella tabella di riepilogo).
La regione di accettazione è data da -tβ/2<t<tβ/2 con tβ/2=INV.T(0,01;35-2)=2,73.
Poiché t=1,13 si trova all’interno della regione di accettazione, per cui
accettiamo l’ipotesi H0 che le due medie siano uguali (ovvero che i due
procedimenti siano equivalenti).
Parte II - Statistica inferenziale
65
TEST DI CORRELAZIONE
•  Come si è visto nella prima parte del corso, l’indice di correlazione può essere
un indicatore per la verifica di una possibile relazione lineare tra due serie di
dati. Anche in questo caso è possibile effettuare un test per verificare se vi sia
correlazione tra i dati. Il test si basa sul fatto che se R è l’indice di correlazione
tra due serie di dati, la variabile
T=
R
1− R
2
N −2
con N numero di dati, si comporta come una variabile T di student con N-2
gradi di libertà.
•  Le due ipotesi da verificare ad un determinato livello di confidenza β sono
• 
• 
H0: non c’è nessuna correlazione tra i
H1: vi è una effettiva correlazione tra i dati
•  Nel test a due code se tβ/2 è il valore critico relativo al livello di confidenza α,
se |T|<tβ/2 accetto l’ipotesi nulla H0, altrimenti rifiuto H0 e accetto H1
•  Nel test a una coda si utilizza tβ. In questo caso si vuole verificare
esplicitamente se vi è correlazione o anticorrelazione.
Parte II - Statistica inferenziale
66
TEST DI CORRELAZIONE
•  Esempio: consideriamo di nuovo il caso della miopia messa in relazione con le ore
passate a giocare ai videogiochi.
Ore passate a
giocare
0
1
2
3
4
5
Miopia media
0,8
1,3
1,2
2,4
2,7
3,2
Come si è visto la variabile R valeva 0,97. Ci si chiede però se questo valore elevato sia
frutto di un caso o la correlazione sia reale. Le due ipotesi sono allora
• 
• 
H0: non c’è nessuna correlazione tra i dati e il valore elevato di R è solo frutto di un caso
H1: vi è una effettiva correlazione tra i dati
Verifichiamo l’ipotesi all’1% del livello di confidenza. Calcoliamo il valore di T (N=6)
T=
R
1− R
2
N − 2 = 7, 98
Dalla tabella dei valori critici della t di student vediamo che il valore critico di T per
N-2=4 gradi di libertà per β=0,01 vale 4,604. Poiché il nostro valore di T supera (di gran
lunga!) questo valore critico possiamo concludere che dobbiamo rigettare H0 e
accettare H1, ovvero che un tale valore dell’indice di correlazione non è frutto di un
caso (in quanto vi è una probabilità inferiore all’1% che R possa assumere per caso un
valore così elevato.
Parte II - Statistica inferenziale
67
TEST DEL CHI-QUADRATO
•  Un esempio di test non parametrico è il test del χ2. Esso consiste nel
fatto che il χ2 calcolato nella I parte del corso si distribuisce
approssimativamente(*) come una variabile χ2 a NGL=(N-1)(M-1)
gradi di libertà con N e M numero di righe e di colonne.
•  Riprendiamo l’esempio del farmaco: a un gruppo di 50 pazienti si
somministra un farmaco tradizionale e all’altro un nuovo principio
attivo
Farmaco
Convenzionale
Nuovo farmaco
Nessun miglioramento
15
2
17
Moderato
miglioramento
Consitente
miglioramento
15
17
32
20
31
51
50
50
100
(*) Purché i numeri in tabella non siano troppo piccoli o nulli. In caso contrario è meglio usare test
alternativi come per esempio il test esatto
diIIFisher.
Parte
- Statistica inferenziale
68
TEST DEL CHI-QUADRATO
•  Nella I parte del corso avevamo calcolato il valore di χ02=12,4 (si
rimanda alla I parte per il calcolo). Le ipotesi sono quindi
•  H0: il primo e il secondo farmaco hanno la stessa efficacia (ovvero χ2=0).
•  H1: il secondo farmaco è più efficace del primo.
•  Come nell’esempio della moneta dobbiamo vedere con che
probabilità possiamo ottenere un valore di χ2 ancora più grande di
χ02 (ovvero avere situazioni ancora più “inusuali”).
•  Supponiamo di fissare un livello di significatività β=1%. La condizione
di rifiuto avviene quindi P(χ2>χ02)<β.
Condizione di rifiuto
P(χ2>χ02)<β.
χ02inferenziale
Parte II - Statistica
69
TEST DEL CHI-QUADRATO: ESEMPIO
•  Per calcolare il χ2 calcoliamo prima i
marginali
•  A questo punto calcoliamo la tabella
teorica n*ij nella solita maniera
moltiplicando i marginali di riga e di
colonna e dividendo per il totale
Parte II - Statistica inferenziale
70
TEST DEL CHI-QUADRATO: ESEMPIO
•  Ora calcoliamo i valori (nij-n*ij)2/n*ij…
•  …e ne facciamo la somma
Parte II - Statistica inferenziale
71
TEST DEL CHI-QUADRATO: ESEMPIO
•  Il calcolo del valore critico di probabilità può essere effettuato
tramite la funzione DISTRIB.CHI che calcola la probabilità a una coda
della distribuzione χ2
Valore di NGL
P(χ2>12,4)=0,20%
Valore di χ02
χ02=12,4
•  Nel nostro caso si ha che il numero di gradi di libertà vale
NGL=(N-1)(M-1)=1x2=2. Il calcolo fornisce quindi P(χ2>12,4)=0,20%:
poiché tale valore è minore dell’1% che ci eravamo prefissati
rifiutiamo l’ipotesi H0 e accettiamo H1, ovvero il secondo farmaco è
più efficace del primo.
Parte II - Statistica inferenziale
72
Tabella di riepilogo (è consentito portarla all’esame)
Tipo di test
Ipotesi
H0: m=µ
H1: m>µ
Test sulla media
(quando µ e σ
vengono dati)
Test sulla media
(quando solo µ
viene dato)
Confronto tra
due medie m1 e
m2
Rifiuto H0 se
Note
m>µ+σz1/2-β/√N
H0: m=µ
H1: m<µ
m<µ-σz1/2-β/√N
H0: m=µ
H1: m≠µ
m<µ-σz(1-β)/2/√N oppure
m>µ+σz(1-β)/2/√N
H0: m=µ
H1: m>µ
m>µ+stβ/√N
H0: m=µ
H1: m<µ
m<µ-stβ/√N
H0: m=µ
H1: m≠µ
m<µ-stβ/2/√N oppure
m>µ+stβ/2/√N
H0: m1=m2
H1: m1>m2
m1-m2>sctβ√1/N1+1/N2
H0: m1=m2
H1: m2>m1
m2-m1>sctβ√1/N1+1/N2
H0: m1=m2
H1: m1≠m2
m1-m2>sctβ/2√1/N1+1/N2
m2-m1>sctβ/2√1/N1+1/N2
•  N=numero di dati
•  m=MEDIA(vettore dati)
Calcolo dei valori critici
z1-β=INV.NORM.ST(1-β)
z(1-β)/2=INV.NORM.ST(1-β/2)
•  N=numero di dati
•  m=MEDIA(vettore dati)
•  s=DEV.ST(vettore dati)
tβ=INV.T(2*β;N-1)
tβ/2=INV.T(β;N-1)
•  N1,2=numero di dati 1,2
•  m1,2=MEDIA(vettore dati 1,2)
•  s1,2=DEV.ST(vettore dati 1,2)
tβ=INV.T(2*β;N1+N2-2)
(N1 −1)s12 + (N 2 −1)s22
•  sc =
(N1 + N 2 − 2)
tβ/2=INV.T(β;N1+N2-2)
•  N=righe, M=colonne
•  NGL=(N-1)*(M-1)
Test del χ2
H0: nij=n*ij
H0: nij≠n*ij
P(χ2>χ02,NGL)<β
*
•  n i, j =
2
•  χ 0 =
ni,• ⋅ n•, j
n
N M
(ni, j − ni,* j )2
∑∑
i=1 j=1
P(χ2>χ02,NGL)=
DISTRIB.CHI(χ02;NGL)
ni,* j
Parte II - Statistica inferenziale
73
k=1
k=2
k=3
k=4
k=5
k=6
k=7
k=8
k=9
k=10
N=1
1
N=2
2
1
N=3
3
3
1
N=4
4
6
4
1
N=5
5
10
10
5
1
N=6
6
15
20
15
6
1
N=7
7
21
35
35
21
7
1
N=8
8
28
56
70
56
28
8
1
N=9
9
36
84
126
126
84
36
9
1
N=10
10
45
120
210
252
210
120
45
10
1
N=11
11
55
165
330
462
462
330
165
55
11
N=12
12
66
220
495
792
924
792
495
220
66
N=13
13
78
286
715
1287
1716
1716
1287
715
286
N=14
14
91
364
1001
2002
3003
3432
3003
2002
1001
N=15
15
105
455
1365
3003
5005
6435
6435
5005
3003
N=16
16
120
560
1820
4368
8008
11440
12870
11440
8008
N=17
17
136
680
2380
6188
12376
19448
24310
24310
19448
N=18
18
153
816
3060
8568
18564
31824
43758
48620
43758
N=19
19
171
969
3876
11628
27132
50388
75582
92378
92378
N=20
20
190
1140
4845
15504
38760
77520
125970
167960
184756
! N $
#
&
" k %
74
Tavola della cumulativa dellla distribuzione norbale standard (si veda la figura)
z
α/2
(1-α)/2
z
α/2
(1-α)/2
z
α/2
(1-α)/2
z
α/2
(1-α)/2
0,00
0,00000
0,50000
1,00
0,34134
0,15866
2,00
0,47725
0,02275
3,00
0,49865
0,00135
0,05
0,01994
0,48006
1,05
0,35314
0,14686
2,05
0,47982
0,02018
3,05
0,49886
0,00114
0,10
0,03983
0,46017
1,10
0,36433
0,13567
2,10
0,48214
0,01786
3,10
0,49903
0,00097
0,15
0,05962
0,44038
1,15
0,37493
0,12507
2,15
0,48422
0,01578
3,15
0,49918
0,00082
0,20
0,07926
0,42074
1,20
0,38493
0,11507
2,20
0,48610
0,01390
3,20
0,49931
0,00069
0,25
0,09871
0,40129
1,25
0,39435
0,10565
2,25
0,48778
0,01222
3,25
0,49942
0,00058
0,30
0,11791
0,38209
1,30
0,40320
0,09680
2,30
0,48928
0,01072
3,30
0,49952
0,00048
0,35
0,13683
0,36317
1,35
0,41149
0,08851
2,35
0,49061
0,00939
3,35
0,49960
0,00040
0,40
0,15542
0,34458
1,40
0,41924
0,08076
2,40
0,49180
0,00820
3,40
0,49966
0,00034
0,45
0,17364
0,32636
1,45
0,42647
0,07353
2,45
0,49286
0,00714
3,45
0,49972
0,00028
0,50
0,19146
0,30854
1,50
0,43319
0,06681
2,50
0,49379
0,00621
3,50
0,49977
0,00023
0,55
0,20884
0,29116
1,55
0,43943
0,06057
2,55
0,49461
0,00539
3,55
0,49981
0,00019
0,60
0,22575
0,27425
1,60
0,44520
0,05480
2,60
0,49534
0,00466
3,60
0,49984
0,00016
0,65
0,24215
0,25785
1,65
0,45053
0,04947
2,65
0,49598
0,00402
3,65
0,49987
0,00013
0,70
0,25804
0,24196
1,70
0,45543
0,04457
2,70
0,49653
0,00347
3,70
0,49989
0,00011
0,75
0,27337
0,22663
1,75
0,45994
0,04006
2,75
0,49702
0,00298
3,75
0,49991
0,00009
0,80
0,28814
0,21186
1,80
0,46407
0,03593
2,80
0,49744
0,00256
3,80
0,49993
0,00007
0,85
0,30234
0,19766
1,85
0,46784
0,03216
2,85
0,49781
0,00219
3,85
0,49994
0,00006
0,90
0,31594
0,18406
1,90
0,47128
0,02872
2,90
0,49813
0,00187
3,90
0,49995
0,00005
0,95
0,32894
0,17106
1,95
0,47441
0,02559
2,95
0,49841
0,00159
3,95
0,49996
0,00004
α/2
α z
= ∫ ϕ (z)dz
2 0
75
Valori critici della t di Student
P(t>t’β)=β
β=0,1000
0,0500
0,0250
0,0100
0,0050
0,0010
0,0005
P(|t|>t’β/2)=β
β=0,2000
0,1000
0,0500
0,0200
0,0100
0,0020
0,0010
g.l.=1
3,078
6,314
12,706
31,821
63,657
318,309
636,619
2
1,886
2,920
4,303
6,965
9,925
22,327
31,599
3
1,638
2,353
3,182
4,541
5,841
10,215
12,924
4
1,533
2,132
2,776
3,747
4,604
7,173
8,610
5
1,476
2,015
2,571
3,365
4,032
5,893
6,869
6
1,440
1,943
2,447
3,143
3,707
5,208
5,959
7
1,415
1,895
2,365
2,998
3,499
4,785
5,408
8
1,397
1,860
2,306
2,896
3,355
4,501
5,041
9
1,383
1,833
2,262
2,821
3,250
4,297
4,781
10
1,372
1,812
2,228
2,764
3,169
4,144
4,587
11
1,363
1,796
2,201
2,718
3,106
4,025
4,437
12
1,356
1,782
2,179
2,681
3,055
3,930
4,318
13
1,350
1,771
2,160
2,650
3,012
3,852
4,221
14
1,345
1,761
2,145
2,624
2,977
3,787
4,140
15
1,341
1,753
2,131
2,602
2,947
3,733
4,073
16
1,337
1,746
2,120
2,583
2,921
3,686
4,015
17
1,333
1,740
2,110
2,567
2,898
3,646
3,965
18
1,330
1,734
2,101
2,552
2,878
3,610
3,922
19
1,328
1,729
2,093
2,539
2,861
3,579
3,883
20
1,325
1,725
2,086
2,528
2,845
3,552
3,850
21
1,323
1,721
2,080
2,518
2,831
3,527
3,819
22
1,321
1,717
2,074
2,508
2,819
3,505
3,792
23
1,319
1,714
2,069
2,500
2,807
3,485
3,768
24
1,318
1,711
2,064
2,492
2,797
3,467
3,745
25
1,316
1,708
2,060
2,485
2,787
3,450
3,725
26
1,315
1,706
2,056
2,479
2,779
3,435
3,707
27
1,314
1,703
2,052
2,473
2,771
3,421
3,690
28
1,313
1,701
2,048
2,467
2,763
3,408
3,674
29
1,311
1,699
2,045
2,462
2,756
3,396
3,659
30
1,310
1,697
2,042
2,457
2,750
3,385
3,646
76
Valori critici di χ2
P(χ2>χ02)=β
β=0,2
0,1
0,05
0,02
0,01
g.l.=1
1,6424
2,7055
3,8415
5,4119
6,6349
2
3,2189
4,6052
5,9915
7,8240
9,2103
3
4,6416
6,2514
7,8147
9,8374
11,3449
4
5,9886
7,7794
9,4877
11,6678
13,2767
5
7,2893
9,2364
11,0705
13,3882
15,0863
6
8,5581
10,6446
12,5916
15,0332
16,8119
7
9,8032
12,0170
14,0671
16,6224
18,4753
8
11,0301
13,3616
15,5073
18,1682
20,0902
9
12,2421
14,6837
16,9190
19,6790
21,6660
10
13,4420
15,9872
18,3070
21,1608
23,2093
11
14,6314
17,2750
19,6751
22,6179
24,7250
12
15,8120
18,5493
21,0261
24,0540
26,2170
13
16,9848
19,8119
22,3620
25,4715
27,6882
14
18,1508
21,0641
23,6848
26,8728
29,1412
15
19,3107
22,3071
24,9958
28,2595
30,5779
16
20,4651
23,5418
26,2962
29,6332
31,9999
17
21,6146
24,7690
27,5871
30,9950
33,4087
18
22,7595
25,9894
28,8693
32,3462
34,8053
19
23,9004
27,2036
30,1435
33,6874
36,1909
20
25,0375
28,4120
31,4104
35,0196
37,5662
21
26,1711
29,6151
32,6706
36,3434
38,9322
22
27,3015
30,8133
33,9244
37,6595
40,2894
23
28,4288
32,0069
35,1725
38,9683
41,6384
24
29,5533
33,1962
36,4150
40,2704
42,9798
25
30,6752
34,3816
37,6525
41,5661
44,3141
26
31,7946
35,5632
38,8851
42,8558
45,6417
27
32,9117
36,7412
40,1133
44,1400
46,9629
28
34,0266
37,9159
41,3371
45,4188
48,2782
29
35,1394
39,0875
42,5570
46,6927
49,5879
30
36,2502
40,2560
43,7730
47,9618
50,8922
77
FINE PARTE II
•  Copia di questa presentazione in formato PDF può
essere trovato all’indirizzo
http://www.le.infn.it/~montanin/
P.S.: se trovate errori o imprecisioni vi prego di comunicarmeli
direttamente o per email a [email protected]. Grazie
Parte II - Statistica inferenziale
78