TEST DELLE IPOTESI STATISTICHE
TEORIA DELLE PROVE DI IPOTESI
Le assunzioni fatte sulla distribuzione di probabilità di una v.a. associata ad un fenomeno
reale sono dette ipotesi e riguardano parametri incogniti.
La verifica statistica delle ipotesi appura se tali ipotesi possono ritenersi compatibili con
le osservazioni campionarie.
Nella prova di ipotesi distinguiamo:
- ipotesi nulla H0, che contempla la situazione prima dell’osservazione campionaria,
- ipotesi alternativa H1, che contempla una situazione differentemente specificata.
L’insieme  dei valori che il parametro  può assumere si può vedere suddiviso in due
zone 1 e 2 t.c. :
- se l’ipotesi H0 auspica che il valore assunto da  sia compreso in 1,
- l’ipotesi alternativa auspica un valore di  compreso in 2 .
Le ipotesi statistiche si dicono
- semplici se specificano in modo univoco la distribuzione della popolazione in oggetto,
- composte se specificano diversi valori del parametro.
Ad esempio, nella tabella sono indicati per alcuni valori di  specificati dall’ipotesi H0, i
corrispondenti valori per H1:
H0:
H1:
=0
=1
=0 0 0
0 <0 >0 .
La verifica di un’ipotesi significa la sua accettazione o il rifiuto, ad un prestabilito livello di
probabilità. A questo scopo si utilizza un test: una funzione delle osservazioni che ha
distribuzione nota con la condizione che l’ipotesi enunciata sia vera.
Il test è una procedura inferenziale atta a valutare la conformità probabilistica fra un
campione e la popolazione.
E’ possibile tramite il test valutare l’attendibilità delle osservazione campionarie, allo scopo
di stabilire se le differenze rispetto alla popolazione sono casuali, dovute ad errore
campionario, o significative.
I test più utilizzati presentano distribuzioni: v.a. normale standardizzata, v.a. t di Student,
v.a. F di Fisher, v.a. 2.
PROCEDURA DI TEST
1. si formula l’ipotesi nulla H0 ed un’ipotesi alternativa H1 sulla popolazione
2. attraverso i risultati campionari ed un’opportuna valutazione statistica si decide se
accettare o rigettare l’ipotesi H0.
Distinguiamo:
-
test parametrici: quando è nota la funzione di ripartizione della v.a. che
rappresenta la popolazione e si testano ipotesi sui suoi parametri
test non parametrici (distribution free): non sono vincolati al tipo di distribuzione
della popolazione, e sono applicabili laddove non sia possibile ricorrrere ai test
parametrici.
Lo spazio campionario risulta di fatto diviso in due regioni mutuamente esclusive:
- una regione di accettazione, ossia l’insieme di valori campionari che implicano
l’accettazione dell’ipotesi nulla, ossia tale che, se il test per quei specifici valori
campionari ricade in questa regione, si accetta l’ipotesi nulla.
- una regione critica (o di rifiuto) che indica l’insieme dei valori campionari che
implicano il rifiuto dell’ipotesi nulla: se il test ricade in questa regione, l’ipotesi nulla
viene rigettata.
La regola di decisione consiste nello stabilire se la differenza fra il valore stimato del
parametro, specificato dall’ipotesi nulla, e quello ottenuto dall’osservazione campionaria
sia o meno significativa. Si stabilisce cioè un livello di significatività , che rappresenta
l’ampiezza della regione critica, si fissano i valori critici del test in base alle tavole, e si
rifiuta l’ipotesi nulla se il valore sperimentale del test ricade nella regione critica.
La regola presuppone che il risultato campionario possa portare a due tipi di errori:
- errore del primo tipo, si commette con probabilità  quando, cadendo il valore del
test nella regione di rifiuto dell’ipotesi nulla, questa è rifiutata pur essendo vera.
Infatti il livello di confidenza, ossia la fiducia nel fatto di non commettere alcun
errore nell’accettare l’ipotesi nulla (se i risultati campionari la avvalorano) è
rappresentato dal valore (1 - ).
- errore di secondo tipo, si commette con probabilità  quando, cadendo il valore
del test nella regione di accettazione, l’ipotesi nulla è accettata pur essendo falsa.
Diciamo potenza del test il valore (1 - ) e indica la probabilità di accettare l’ipotesi
nulla quando è falsa.
 e  non sono fra loro complementari.
A rigore, l’unica decisione corretta è il rifiuto di H0, quindi è meglio dire “ non rifiutare
H0“ che “ accettare H1”.
Opportunamente lo statistico stabilisce un livello di significatività  tale per cui le
regioni di rifiuto sono i valori di coda del test. Se si tratta della coda di sinistra, sarà una
regione di rifiuto costituita dai valori inferiori ad un valore critico molto basso. Se si
tratta della coda di destra, sarà una regione di rifiuto costituita da valori superiori ad un
valore critico elevato.
La regione alternativa può essere costituita da ambo le code, ciascuna corrispondente
ad una probabilità /2, e quindi dagli insiemi di valori inferiori ad un valore critico molto
basso o di valori superiori ad un valore critico molto alto.
Riassumendo:
Livello di significatività del test è quindi la probabilità  di rifiutare l’ipotesi nulla
quando questa è vera (errore del I tipo), ossia di compiere un errore affermando che il
valore del parametro da stimare è compreso nell’intervallo stabilito. Infatti (1-) è il
livello di confidenza (fiducia), la probabilità che il parametro da stimare sia compreso
nell’intervallo stabilito.
TEST SULLA MEDIA DI UNA POPOLAZIONE CON VARIANZA NOTA. TEST
NORMALE
Vogliamo verificare l’ipotesi sulla media  di una popolazione normale X ~ N ( ,  2 ) con
varianza nota  2 . Se disponiamo di un campione di numerosità n, avremo:
H 0 :   0
e la statistica da usare come test è
Z
X  0

n
che, se l’ipotesi nulla è vera, al variare del campione si distribuisce come una v.a. normale
standardizzata. La regione critica dipende dal tipo di ipotesi alternativa.
Se decidiamo per un’ipotesi alternativa del tipo
H1 :    0
la regione critica riguarda la coda di sinistra della normale, il valore critico è cioè  z e si
ha
RC : X   0  z

n
Se decidiamo per un’ipotesi alternativa del tipo
H1 :    0
la regione critica riguarda la coda di destra della normale, il valore critico è cioè z e si ha
RC : X  0  z

n
Se decidiamo per un’ipotesi alternativa del tipo
H1 :    0
la regione critica riguarda entrambe le code della normale, i valori critici sono cioè  z / 2 e
 z / 2 e si ha


X



z
0

/
2

n

RC : 


 X   0  z / 2
n

TEST SULLA MEDIA DI UNA POPOLAZIONE CON VARIANZA NON NOTA. TEST t
DI STUDENT
La varianza di una popolazione si può presupporre nota se si è certi della sua
distribuzione normale. In tal caso infatti la varianza della v.a. normale standardizzata è
uguale ad 1.
Se la varianza della popolazione non è nota e la numerosità del campione è scarsa,
nulla si può dire circa la normalità della sua distribuzione.
Supponiamo di disporre di un campione di dimensione n<30 che fornisca solo una
stima (corretta) della varianza della popolazione.
Vogliamo testare l’ipotesi
H 0 :   0 .
La statistica che usiamo per il test è
T
X  0
S
n
che se l’ipotesi nulla è vera si distribuisce al variare del campione come una v.a. t di
Student con n-1 gradi di libertà.
Con un’ipotesi alternativa
H1 :    0
la regione critica è
RC : X  0  t ;n1
Con un’ipotesi alternativa del tipo
H1 :    0
la regione critica è
S
n
RC : X  0  t ;n1
S
n
Con un’ipotesi alternativa del tipo
H1 :    0
la regione critica è

 X   0  t ;n1

RC : 

 X   0  t ;n1

S
n
S
n
TEST SULLA VARIANZA DI UNA POPOLAZIONE. TEST CHI QUADRATO
Una popolazione presenta distribuzione normale con varianze incognite. Da essa
estraiamo un campione casuale di dimensione n che dà la stima della varianza.
In questo caso per verificare l’ipotesi nulla
H 0 :  2   02
Contro le ipotesi alternative
1. H1 :  2   02
2. H1 :  2   02
3. H 1 :  2   02
il test utilizza la statistica
2 
(n  1) S 2
 02
che al variare del campione, se l’ipotesi nulla è vera, si distribuisce come una v.a. chi
quadrato con n-1 gradi di libertà.
Fissando una soglia di significatività , la regione critica sarà:
- Per l’ipotesi alternativa H1 :  2   02
RC : S 
2
 02
n 1
12 ;n1
- Per l’ipotesi alternativa H1 :  2   02
 02
RC : S 2 
n 1
2;n1
- Per l’ipotesi alternativa H 1 :  2   02
 2  02 2
1 / 2;n1
S 
n 1

RC : 
 2  02 2
 / 2;n1
S 
n 1

TEST SULLA DIFFERENZA FRA MEDIE DI DUE POPOLAZIONI DI VARIANZA NOTA.
TEST NORMALE
E’ spesso importante poter valutare se i valori medi di due popolazioni sono uguali fra loro.
Supponiamo che le due popolazioni abbiano distribuzioni normali, siano 1 e  2 le medie
incognite e  1 e  2 le varianze note, diverse o uguali.
I due campioni di cui si dispone abbiano numerosità n1 e n2 ,e da questi traiamo le stime
X 12 e X 22 delle medie delle popolazioni.
Vogliamo verificare al livello di significatività  :
H 0 : 1   2  0
Contro le ipotesi alternative
1. H1 : 1  2  0
2. H1 : 1  2  0
3. H1 : 1  2  0
La v.a. X 12  X 22 si distribuisce normalmente al variare del campione, con
media
1  2  0
e varianza
S
2
X1  X 2

 12
n1

 22
n2
La statistica da utilizzare per il test è
Z
X1  X 2
1
n1

2
n2
.
che se l’ipotesi nulla è vera si distribuisce come una v.a. normale standardizzata.
Ci si regola quindi come per il caso del test sulla media.
Nel caso le popolazioni non fossero normali, è sufficiente disporre di campioni di
numerosità ampia per applicare lo stesso test grazie al teorema del limite centrale.
TEST SULLA DIFFERENZA FRA MEDIE DI DUE POPOLAZIONI CON VARIANZA NON
NOTA. TEST t DI STUDENT
Se vogliamo verificare l’ipotesi che le medie di due popolazioni normali siano uguali, ma le
varianze  1 e  2 non sono note, possiamo considerarle uguali e utilizzare la loro stima S2
come media delle due varianze campionarie S12 e S 22 . La media viene ponderata con 1
gradi di libertà n1  1  n2  1  n1  n2  2 :
S2 
(n1  1) S12  (n2  1) S 22
n1  n2  2
con le stesse regole di decisione viste nei casi precedenti.
Il test segue la statistica
T
X1  X 2
1 1
S

n1 n2
che se l’ipotesi nulla è vera si distribuisce come una v.a. t di Student con n1  n2  2 gradi di
libertà.
TEST SULLA DIFFERENZA FRA MEDIE PER CAMPIONI APPAIATI. TEST t DI
STUDENT
Spesso a livello sperimentale si vuole verificare una variazione di valor medio prima e
dopo un dato trattamento, in cui si sono istituiti campioni appaiati X ed Y corrispondenti ad
una medesima unità statistica, ossia non indipendenti ma rilevati prima e dopo il
trattamento.
Le ipotesi a confronto sono:
H 0 : 1   2  0
contro:
1. H1 : 1  2  0
2. H1 : 1  2  0
3. H1 : 1  2  0
In questo caso il test fa riferimento alla statistica:
T n
D
SD
Che al variare del campione, se l’ipotesi nulla è vera, si distribuisce come una v.a. t di
Student in cui:
-
n è la numerosità del campione (che di fatto è unico)
n
-
D
D
i
i 1
n
è la media campionaria delle differenze appaiate Di  X i  Yi
n
-
SD 
 (D
i 1
i
 D )2
n 1
è lo scarto quadratico medio campionario.
TEST SUL RAPPORTO FRA VARIANZE: TEST F DI FISHER
Vogliamo testare l’ipotesi nulla a proposito delle varianze incognite  12 e  22 di due
popolazioni normali.
Disponendo di due campioni indipendenti di dimensione n1 e n2 , con varianze stimate s12
e s22 , vogliamo verificare, al livello di significatività  , l’ipotesi nulla
H 0 :  12   22
omoschedasticità
contro le ipotesi alternative
H1 :  12   22
H1 :  12   22
H1 :  12   22 .
La statistica da utilizzare per il test è
F
S12
S 22
(*)
in cui supponiamo per convenzione S12  S 22
Se l’ipotesi nulla di uguaglianza fra varianze è vera, questa statistica si distribuisce come
una v.a. di F di Fisher con n1  1 e n2  1 gradi di libertà.
Questo perché le due variabili
(n1  1) S1
 12
2
e
( n2  1) S 2
 22
2
si distribuiscono come due v.a. chi quadrato con n1  1 e n2  1
gradi di libertà.
Se quindi rapportiamo le variabili ai loro rispettivi gradi di libertà otteniamo
(n1  1) S12 /( n1  1) 12 S12 22
=
F
(n2  1) S 22 /( n2  1) 22 S 22 12
che è la (*) se l’ipotesi nulla di omoschedasticità è vera.
La regione critica dipende dall’ipotesi alternativa formulata:
Per H1 :  12   22
RC : F  F1 ;n11;n 21
Per H1 :  12   22
RC : F  F ;n11;n 21
Per H1 :  12   22
 F  F1 / 2;n11;n 21

RC : 
FF
 / 2;n11;n 21

ANALISI DELLA VARIANZA (ANOVA). TEST F DI FISHER
L’analisi della varianza (ANalysis OF VAriance) cerca di indagare quanta parte della
variabilità di un campione sia dovuta ad uno o più specifici fattori. A questo scopo si
analizzano medie di più gruppi di osservazioni attraverso il confronto fra devianze.
La ANOVA richiede la normalità della distribuzione osservata.
Consideriamo l’analisi della varianza ad un fattore.
Vogliamo verificare l’efficacia del fattore sperimentale A. Somministriamo k trattamenti
A1, A2 ,... Ak a k unità statistiche n1 , n2 ,..., nk tali che n1  n2  ...  nk  n .
Sia Yij la v.a. risposta relativa all’i-esimo trattamento somministrato alla j-esima unità.
I risultati dei trattamenti sono così schematizzabili:
Trattamento A1
y11, y12, ,...., y1n1
Trattamento A2
y 21, y 22, ,...., y 2 n 2
…..
Trattamento Ak
yk1, yk 2, ,...., yknk
Sottoporremo a verifica l’ipotesi che i valori medi dei diversi trattamenti siano uguali fra
loro:
H 0 : 1   2  ...   k  
contro l’ipotesi:
H1 : non è vera H 0 .
Se l’ipotesi nulla è vera, ognuno dei k trattamenti può essere pensato come estratto da
un’unica popolazione X~N(,2) : in modo che tutti gli elementi dei trattamenti possono
essere visti come elementi casuali di un unico campione trattamento estratto da un’unica
popolazione normale.
Il test consiste nella scomposizione della variabilità globale in variabilità entro gruppi e
variabilità fra gruppi.
Partiamo dalla v.a. media campionaria del trattamento i-esimo
n
Yi 
1 j
 Yij
n j 1
dove n è il numero totale di osservazioni e nj è la numerosità del gruppo j-esimo.
Lo stimatore non distorto e consistente della media  è la v.a. media campionaria generale
n
Y 
1 k j
1 k
Y

Yi.
 ij n 
n i 1 j 1
i 1
Ora introduciamo il calcolo delle devianze.
Per devianza totale, con i suoi gradi di libertà, si intende la devianza che stimeremmo da
tutti gli n dati di tutti i gruppi messi assieme, come in un'unica lista.
Il punto di partenza dell’analisi è la scomposizione della devianza totale:
Scomponiamo in questo modo la devianza totale
D(T ) 
k
nj

i 1
j 1
k
(Yij  Y ) 2 = 
i 1
nj
 ((Y
j 1
ij
 Yi )  (Yi  Y )) 2
k
k
=  ni (Yi  Y )  
2
i 1
i 1
nj

j 1
(Yij  Yi ) 2
Distinguiamo:
devianza fra gruppi (B=between)
k
D( B)   ni (Yi  Y ) 2
i 1
k
che si può scrivere anche (utile per i conti)
D( B)   ni (Yi ) 2  n(Y ) 2 ,
i 1
e devianza entro gruppi (W=within)
k
D(W )  
i 1
nj

j 1
(Yij  Yi ) 2
k
che si può scrivere anche (utile per i conti)
D(W )   (ni  1) si2 (dove si2 è la varianza
i 1
campionaria non distorta),
in modo che sia come si è visto
D(T )  D( B)  D(W ) .
Queste devianze si possono anche chiamare devianza spiegata (perché è la devianza fra
medie) e devianza residua (o dell’errore, devianza non spiegata).
Si dimostra che due stimatori non distorti delle devianze D(B) e D(W) sono forniti da
S B2 
D( B)
k 1
S w2 
e
D (W )
.
nk
Infatti anche i gradi di libertà totali si possono suddividere in
k
k
i 1
i 1
gdltot  n  1   ni  1   (ni  1)  (k  1)
Allora il test ANOVA fa uso della statistica
F
S B2
SW2
che, se l’ipotesi nulla è vera, si distribuisce come una v.a. F di Fisher con k-1 e n-k gradi di
libertà.
Nella pratica si calcola il valore sperimentale delle devianze e si confronta il loro rapporto
con il valore critico F ;k 1;nk a livello di significatività  desunto dalle tavole.
Se il valore calcolato è maggiore del valore critico, la differenza dei trattamenti è
significativa e si rifiuta l’ipotesi nulla.
TEST NON PARAMETRICI
I test parametrici sono basati soprattutto su distribuzione normale e t di Student. Ma
spesso non si è in grado di dimostrare il tipo di distribuzione dei dati, o questi sono
distribuiti in modo diverso da quelli standard, come nel caso di numerosità ridotta.
In questo caso si utilizzano i test non parametrici, che non sono basati su distribuzioni.
TEST SU FREQUENZE
Supponiamo di disporre di un campione di numerosità n. Sia F la frequenza stimata e p la
probabilità di occorrenza di un certo carattere. vogliamo verificare al livello di significatività

H 0 : p  p0
contro le ipotesi alternative
H1 : p  p0
H1 : p  p0
H1 : p  p0 .
TEST BINOMIALE
Si usa se la numerosità n dei campioni non è alta.
Con la distribuzione cumulativa della v.a. binomiale si calcola la probabilità che un dato
evento si presenti in n prove con frequenza relativa inferiore o uguale ad f, ossia un
numero di volte inferiore o uguale a k=nf:
k
 n
P( X  k )     p0x (1  p0 ) n. x
x 0  k 
Si rifiuta l’ipotesi nulla se questa probabilità è inferiore al livello prefissato  .
TEST NORMALE
Per il teorema limite centrale, quando la numerosità del campione n è elevata, la v.a.
frequenza relativa F può essere approssimata ad una distribuzione normale di media p e
p (1  p )
varianza
.
n
La statistica da utilizzare sarà
Z
F  p0
p0 (1  p0 )
n
che, se l’ipotesi nulla è vera, al variare del campione si distribuisce come una v.a. normale
standardizzata.
Le regole di decisione sono le stesse utilizzate nella verifica di ipotesi sulle medie.
TEST SULLA DIFFERENZA FRA TENDENZE CENTRALI
La tendenza centrale, nei test non parametrici, è rappresentata non dalla media ma dalla
mediana.
Vogliamo confrontare le tendenze centrali di due popolazioni a partire da due campioni
indipendenti n1 e n2 . Se non possiamo usare la distribuzione t di Student utilizziamo il test
della mediana.
L’ipotesi nulla è:
H 0 : Me1  Me2  Me
dove Me è la mediana comune delle due popolazioni.
Disponiamo allora le osservazioni in un gruppo unico in ordine crescente, conservando
l’appartenenza al campione, calcolando la mediana del gruppo unico. Se l’ipotesi nulla è
vera, metà delle osservazioni assumerà valori inferiori alla mediana.
Creiamo una tabella 2x2 così concepita:
Sotto la mediana Sopra la mediana Totale
Campione1 n1
n1
n1
2
2
Campione2 n 2
n2
n2
2
2
Per verificare l’ipotesi che i due campioni provengano da popolazioni di uguali mediane si
applica il test chi quadrato per tabelle 2x2 spiegato più oltre.
Questo test è la versione semplificata del test Wilcoxon-Mann-Whitney che, in presenza di
valori ordinali provenienti da una distribuzione continua, verifica se due campioni statistici
provengono dalla stessa popolazione:
1. Prendendo ogni osservazione nel campione 1, si conta il numero di osservazioni
nel campione 2 che sono inferiori (in valore) al campione 1 (contando come un 1/2
per ogni osservazione che possa essere considerata uguale).
2. Il totale di questo conteggio è il valore U. La variabile U viene tabulata come
somma dei ranghi di uno dei campioni, e viene utilizzata per valutare l’ipotesi nulla
con livello di significatività.
TEST SULLA DIFFERENZA FRA TENDENZE CENTRALI PER CAMPIONI APPAIATI
Il test dei segni è utilizzato nel caso di campioni appaiati per la verifica di ipotesi sulla
tendenza centrale quando non è rispettata la normalità della distribuzione o è utilizzata
una misura ordinale.
Calcoliamo le differenze fra ciascuna coppia di elementi contrassegnandola con + o -. Se i
campioni presentano uguale mediana e le popolazioni sono simmetriche, il numero di + e
di – è lo stesso.
La statistica per il test dei segni, che sono 2, segue la distribuzione binomiale di
parametro p=1/2.
D’altra parte la binomiale si approssima alla normale per grandi campioni.
Se si conteggia un eccesso di segni + sui segni – (o viceversa) si rigetta l’ipotesi nulla di
uguaglianza.
TEST SULLA DIFFERENZA DI FREQUENZE
Supponiamo di avere due campioni indipendenti di alta numerosità, per i quali le stime
delle frequenze delle unità di una popolazione riguardanti un certo carattere dicotomico
sono F1 e F2.
Vogliamo verificare l’ipotesi
H 0 : p1  p2
contro le ipotesi alternative, con livello di significatività  .
La v.a. F1  F2 , al variare del campione, si distribuisce normalmente se l’ipotesi nulla è
p1 (1  p1 )
p2 (1  p2 )
vera, con media F1  F2  0 e varianza S F21  F2 
.

n1
n2
Ma le proporzioni p1 e p2 sono incognite e utilizziamo come stima la media ponderata di
F1 e F2:
F n  F2 n2
Fˆ  1 1
.
n1  n2
Calcolando la varianza si ottiene allora
1 1
S F21  F2  Fˆ (1  Fˆ )  
 n1 n2 
e si utilizza la statistica
Z
F1  F2
1 1
Fˆ (1  Fˆ )  
 n1 n2 
che se l’ipotesi nulla è vera si distribuisce al variare del campione come una v.a. normale
standardizzata, con le note regole di decisione.
TEST SULLA DIFFERENZA FRA FREQUENZE PER CAMPIONI APPAIATI. TEST DI
McNEMAR
Vogliamo verificare se un campione di individui sottoposti in tempi diversi ad uguale
trattamento esprimono un carattere dicotomico secondo statistiche diverse.
Dobbiamo quindi disporre di campioni appaiati e dati in forma di frequenze.
Potremmo anche usare il test binomiale, che però è meno immediato.
Segnaliamo con + la presenza del carattere, con – la sua assenza.
+
PRIMA
-
+
n11
DOPO
n12
n21
n.1
n22
n.2
n1.
n 2.
n
La statistica da utilizzare per il test, come si potrà ricavare dal test  2 per tabelle a doppia
entrata, è
(n12  n21 ) 2
X 
n12  n21
2
che se l’ipotesi nulla è vera si distribuisce come una v.a. chi quadrato con 1 grado di
libertà.
Si rifiuta l’ipotesi H0 : “il trattamento non determina cambiamento significativo nelle
frequenze” se X 2   ,1 .
Per valori n  20 si utilizza l’approssimazione
X2 
(| n12  n21 | 1) 2
.
n12  n21
TEST SULLA INDIPENDENZA. TEST CHI QUADRATO E TEST ESATTO DI FISHER
In una tabella a doppia entrata (tabella di contingenza) con r righe e c colonne, a partire
dai caratteri X ed Y (qualitativi o quantitativi, discreti o continui), sia nij la frequenza con cui
si presenta la coppia di modalità ( xi , y j ) . Dato un campione casuale di n unità,
verifichiamo a livello di significatività  , l’ipotesi nulla che i due caratteri siano
indipendenti:
H 0 : nijT 
ni.n. j
n
Contro l’ipotesi alternativa
H1 : nijT 
ni.n. j
n
dove nijT è la frequenza teorica calcolata per ciascuna coppia di caratteri.
La statistica da utilizzare è
r
c
X 2  
i 1 j 1
(nij  nijT )
nijT
che se l’ipotesi nulla è vera si distribuisce come una v.a. chi quadrato con (r-1)(c-1) gradi
di libertà.
Quindi si rifiuta H0 se X 2  2;( r 1)(c1) .
Il test chi-quadrato è un metodo approssimato valido quando le frequenze sono grandi.
Una regola perchè sia valido è che il valore atteso di ogni cella sia maggiore o uguale a 5.
Quando le frequenze attese sono basse (ma sempre >5) si applica la correzione di Yates
che riduce di ½ la grandezza assoluta di (O-E) per ciascuna cella.
La correzione è dovuta al fatto che il chi-quadrato si basa sull’approssimazione normale
della binomiale, quindi imponiamo una correzione “per la continuità”, essendo risultati per
distribuzioni continue applicati a dati discreti.
Secondo la correzione di Yates, la statistica da utilizzare per il test diviene
r
c
X 2  
i 1 j 1
(| nij  nijT | 0.5) 2
nijT
.
TEST ESATTO DI FISHER
Il test esatto di Fisher si applica come il test chi quadrato per verificare l’indipendenza di
due v.a. rappresentate in una tabella di contingenza, ma è basato sulla distribuzione
ipergeometrica.
Quando il campione è piccolo o il numero di osservazioni per ciascun elemento della
tabella è inferiore a 5, questo test assicura maggior precisione rispetto ai test basati sulla
normale o sul chi quadrato, che sono validi asintoticamente per grandi campioni.
In una tabella 2x2 si pongono nelle righe i campioni (o fattori sperimentali), nelle colonne
la presenza (+) o l’assenza(-) di un dato carattere.
+
n11
n21
n.1
n12
n22
n.2
n1.
n2.
n
Per chiarire i conti da eseguire, riscriviamo la tabella in modo generico:
+
a
c
a+c
b
d
b+d
a+b
c+d
n
Vogliamo verificare l’ipotesi nulla che le popolazioni di origine dei due campioni abbiano la
stessa suddivisione dicotomica e che le differenze osservate con i dati campionari siano
dovute semplicemente al caso.
Ronald Fisher dimostrò, basandosi sulla funzione densità della v.a. ipergeometrica, che la
probabilità di ottenere i valori in tabella si ricava dalla formula
 a  b  c  d 



c  c 
(a  b)! (c  d )! (a  c)! (b  d )!

P

n! a!b!c! d!
 n 


a  c
Questa formula dà le probabilità esatte di osservare i valori a, b, c, d (dati a+b, a+c, c+d,
b+d) qualora fosse vera l'ipotesi nulla sopra enunciata.
Mantenendo fissi i totali marginali si fa variare verso 0 la frequenza osservata minore,
calcolando cioè che la probabilità di ottenere quella tabella equivalga alla probabilità di
ottenere le risposte più estreme. In questo modo si verifica se i valori osservati sono
eccessivamente diversi da quanto previsto dall'ipotesi nulla.
Nella pratica ci si regola in questo modo:
- si individua la cella con frequenza osservata minore e si calcola la probabilità di
ottenere esattamente la tabella osservata:
 a  b  c  d 



c  c 
(a  b)! (c  d )! (a  c)! (b  d )!

P

n! a!b!c! d!
 n 


a  c
-
a questo punto si diminuisce il valore della frequenza minore (ma non i totali
marginali) e si ricalcola la probabilità con la stessa formula.
- si continua fino ad avere zero per questa frequenza. Sommando tutti i valori di
probabilità ottenuti, si ottiene la probabilità che la tabella di frequenze osservate sia
dovuta al caso.