TEST DELLE IPOTESI STATISTICHE TEORIA DELLE PROVE DI IPOTESI Le assunzioni fatte sulla distribuzione di probabilità di una v.a. associata ad un fenomeno reale sono dette ipotesi e riguardano parametri incogniti. La verifica statistica delle ipotesi appura se tali ipotesi possono ritenersi compatibili con le osservazioni campionarie. Nella prova di ipotesi distinguiamo: - ipotesi nulla H0, che contempla la situazione prima dell’osservazione campionaria, - ipotesi alternativa H1, che contempla una situazione differentemente specificata. L’insieme dei valori che il parametro può assumere si può vedere suddiviso in due zone 1 e 2 t.c. : - se l’ipotesi H0 auspica che il valore assunto da sia compreso in 1, - l’ipotesi alternativa auspica un valore di compreso in 2 . Le ipotesi statistiche si dicono - semplici se specificano in modo univoco la distribuzione della popolazione in oggetto, - composte se specificano diversi valori del parametro. Ad esempio, nella tabella sono indicati per alcuni valori di specificati dall’ipotesi H0, i corrispondenti valori per H1: H0: H1: =0 =1 =0 0 0 0 <0 >0 . La verifica di un’ipotesi significa la sua accettazione o il rifiuto, ad un prestabilito livello di probabilità. A questo scopo si utilizza un test: una funzione delle osservazioni che ha distribuzione nota con la condizione che l’ipotesi enunciata sia vera. Il test è una procedura inferenziale atta a valutare la conformità probabilistica fra un campione e la popolazione. E’ possibile tramite il test valutare l’attendibilità delle osservazione campionarie, allo scopo di stabilire se le differenze rispetto alla popolazione sono casuali, dovute ad errore campionario, o significative. I test più utilizzati presentano distribuzioni: v.a. normale standardizzata, v.a. t di Student, v.a. F di Fisher, v.a. 2. PROCEDURA DI TEST 1. si formula l’ipotesi nulla H0 ed un’ipotesi alternativa H1 sulla popolazione 2. attraverso i risultati campionari ed un’opportuna valutazione statistica si decide se accettare o rigettare l’ipotesi H0. Distinguiamo: - test parametrici: quando è nota la funzione di ripartizione della v.a. che rappresenta la popolazione e si testano ipotesi sui suoi parametri test non parametrici (distribution free): non sono vincolati al tipo di distribuzione della popolazione, e sono applicabili laddove non sia possibile ricorrrere ai test parametrici. Lo spazio campionario risulta di fatto diviso in due regioni mutuamente esclusive: - una regione di accettazione, ossia l’insieme di valori campionari che implicano l’accettazione dell’ipotesi nulla, ossia tale che, se il test per quei specifici valori campionari ricade in questa regione, si accetta l’ipotesi nulla. - una regione critica (o di rifiuto) che indica l’insieme dei valori campionari che implicano il rifiuto dell’ipotesi nulla: se il test ricade in questa regione, l’ipotesi nulla viene rigettata. La regola di decisione consiste nello stabilire se la differenza fra il valore stimato del parametro, specificato dall’ipotesi nulla, e quello ottenuto dall’osservazione campionaria sia o meno significativa. Si stabilisce cioè un livello di significatività , che rappresenta l’ampiezza della regione critica, si fissano i valori critici del test in base alle tavole, e si rifiuta l’ipotesi nulla se il valore sperimentale del test ricade nella regione critica. La regola presuppone che il risultato campionario possa portare a due tipi di errori: - errore del primo tipo, si commette con probabilità quando, cadendo il valore del test nella regione di rifiuto dell’ipotesi nulla, questa è rifiutata pur essendo vera. Infatti il livello di confidenza, ossia la fiducia nel fatto di non commettere alcun errore nell’accettare l’ipotesi nulla (se i risultati campionari la avvalorano) è rappresentato dal valore (1 - ). - errore di secondo tipo, si commette con probabilità quando, cadendo il valore del test nella regione di accettazione, l’ipotesi nulla è accettata pur essendo falsa. Diciamo potenza del test il valore (1 - ) e indica la probabilità di accettare l’ipotesi nulla quando è falsa. e non sono fra loro complementari. A rigore, l’unica decisione corretta è il rifiuto di H0, quindi è meglio dire “ non rifiutare H0“ che “ accettare H1”. Opportunamente lo statistico stabilisce un livello di significatività tale per cui le regioni di rifiuto sono i valori di coda del test. Se si tratta della coda di sinistra, sarà una regione di rifiuto costituita dai valori inferiori ad un valore critico molto basso. Se si tratta della coda di destra, sarà una regione di rifiuto costituita da valori superiori ad un valore critico elevato. La regione alternativa può essere costituita da ambo le code, ciascuna corrispondente ad una probabilità /2, e quindi dagli insiemi di valori inferiori ad un valore critico molto basso o di valori superiori ad un valore critico molto alto. Riassumendo: Livello di significatività del test è quindi la probabilità di rifiutare l’ipotesi nulla quando questa è vera (errore del I tipo), ossia di compiere un errore affermando che il valore del parametro da stimare è compreso nell’intervallo stabilito. Infatti (1-) è il livello di confidenza (fiducia), la probabilità che il parametro da stimare sia compreso nell’intervallo stabilito. TEST SULLA MEDIA DI UNA POPOLAZIONE CON VARIANZA NOTA. TEST NORMALE Vogliamo verificare l’ipotesi sulla media di una popolazione normale X ~ N ( , 2 ) con varianza nota 2 . Se disponiamo di un campione di numerosità n, avremo: H 0 : 0 e la statistica da usare come test è Z X 0 n che, se l’ipotesi nulla è vera, al variare del campione si distribuisce come una v.a. normale standardizzata. La regione critica dipende dal tipo di ipotesi alternativa. Se decidiamo per un’ipotesi alternativa del tipo H1 : 0 la regione critica riguarda la coda di sinistra della normale, il valore critico è cioè z e si ha RC : X 0 z n Se decidiamo per un’ipotesi alternativa del tipo H1 : 0 la regione critica riguarda la coda di destra della normale, il valore critico è cioè z e si ha RC : X 0 z n Se decidiamo per un’ipotesi alternativa del tipo H1 : 0 la regione critica riguarda entrambe le code della normale, i valori critici sono cioè z / 2 e z / 2 e si ha X z 0 / 2 n RC : X 0 z / 2 n TEST SULLA MEDIA DI UNA POPOLAZIONE CON VARIANZA NON NOTA. TEST t DI STUDENT La varianza di una popolazione si può presupporre nota se si è certi della sua distribuzione normale. In tal caso infatti la varianza della v.a. normale standardizzata è uguale ad 1. Se la varianza della popolazione non è nota e la numerosità del campione è scarsa, nulla si può dire circa la normalità della sua distribuzione. Supponiamo di disporre di un campione di dimensione n<30 che fornisca solo una stima (corretta) della varianza della popolazione. Vogliamo testare l’ipotesi H 0 : 0 . La statistica che usiamo per il test è T X 0 S n che se l’ipotesi nulla è vera si distribuisce al variare del campione come una v.a. t di Student con n-1 gradi di libertà. Con un’ipotesi alternativa H1 : 0 la regione critica è RC : X 0 t ;n1 Con un’ipotesi alternativa del tipo H1 : 0 la regione critica è S n RC : X 0 t ;n1 S n Con un’ipotesi alternativa del tipo H1 : 0 la regione critica è X 0 t ;n1 RC : X 0 t ;n1 S n S n TEST SULLA VARIANZA DI UNA POPOLAZIONE. TEST CHI QUADRATO Una popolazione presenta distribuzione normale con varianze incognite. Da essa estraiamo un campione casuale di dimensione n che dà la stima della varianza. In questo caso per verificare l’ipotesi nulla H 0 : 2 02 Contro le ipotesi alternative 1. H1 : 2 02 2. H1 : 2 02 3. H 1 : 2 02 il test utilizza la statistica 2 (n 1) S 2 02 che al variare del campione, se l’ipotesi nulla è vera, si distribuisce come una v.a. chi quadrato con n-1 gradi di libertà. Fissando una soglia di significatività , la regione critica sarà: - Per l’ipotesi alternativa H1 : 2 02 RC : S 2 02 n 1 12 ;n1 - Per l’ipotesi alternativa H1 : 2 02 02 RC : S 2 n 1 2;n1 - Per l’ipotesi alternativa H 1 : 2 02 2 02 2 1 / 2;n1 S n 1 RC : 2 02 2 / 2;n1 S n 1 TEST SULLA DIFFERENZA FRA MEDIE DI DUE POPOLAZIONI DI VARIANZA NOTA. TEST NORMALE E’ spesso importante poter valutare se i valori medi di due popolazioni sono uguali fra loro. Supponiamo che le due popolazioni abbiano distribuzioni normali, siano 1 e 2 le medie incognite e 1 e 2 le varianze note, diverse o uguali. I due campioni di cui si dispone abbiano numerosità n1 e n2 ,e da questi traiamo le stime X 12 e X 22 delle medie delle popolazioni. Vogliamo verificare al livello di significatività : H 0 : 1 2 0 Contro le ipotesi alternative 1. H1 : 1 2 0 2. H1 : 1 2 0 3. H1 : 1 2 0 La v.a. X 12 X 22 si distribuisce normalmente al variare del campione, con media 1 2 0 e varianza S 2 X1 X 2 12 n1 22 n2 La statistica da utilizzare per il test è Z X1 X 2 1 n1 2 n2 . che se l’ipotesi nulla è vera si distribuisce come una v.a. normale standardizzata. Ci si regola quindi come per il caso del test sulla media. Nel caso le popolazioni non fossero normali, è sufficiente disporre di campioni di numerosità ampia per applicare lo stesso test grazie al teorema del limite centrale. TEST SULLA DIFFERENZA FRA MEDIE DI DUE POPOLAZIONI CON VARIANZA NON NOTA. TEST t DI STUDENT Se vogliamo verificare l’ipotesi che le medie di due popolazioni normali siano uguali, ma le varianze 1 e 2 non sono note, possiamo considerarle uguali e utilizzare la loro stima S2 come media delle due varianze campionarie S12 e S 22 . La media viene ponderata con 1 gradi di libertà n1 1 n2 1 n1 n2 2 : S2 (n1 1) S12 (n2 1) S 22 n1 n2 2 con le stesse regole di decisione viste nei casi precedenti. Il test segue la statistica T X1 X 2 1 1 S n1 n2 che se l’ipotesi nulla è vera si distribuisce come una v.a. t di Student con n1 n2 2 gradi di libertà. TEST SULLA DIFFERENZA FRA MEDIE PER CAMPIONI APPAIATI. TEST t DI STUDENT Spesso a livello sperimentale si vuole verificare una variazione di valor medio prima e dopo un dato trattamento, in cui si sono istituiti campioni appaiati X ed Y corrispondenti ad una medesima unità statistica, ossia non indipendenti ma rilevati prima e dopo il trattamento. Le ipotesi a confronto sono: H 0 : 1 2 0 contro: 1. H1 : 1 2 0 2. H1 : 1 2 0 3. H1 : 1 2 0 In questo caso il test fa riferimento alla statistica: T n D SD Che al variare del campione, se l’ipotesi nulla è vera, si distribuisce come una v.a. t di Student in cui: - n è la numerosità del campione (che di fatto è unico) n - D D i i 1 n è la media campionaria delle differenze appaiate Di X i Yi n - SD (D i 1 i D )2 n 1 è lo scarto quadratico medio campionario. TEST SUL RAPPORTO FRA VARIANZE: TEST F DI FISHER Vogliamo testare l’ipotesi nulla a proposito delle varianze incognite 12 e 22 di due popolazioni normali. Disponendo di due campioni indipendenti di dimensione n1 e n2 , con varianze stimate s12 e s22 , vogliamo verificare, al livello di significatività , l’ipotesi nulla H 0 : 12 22 omoschedasticità contro le ipotesi alternative H1 : 12 22 H1 : 12 22 H1 : 12 22 . La statistica da utilizzare per il test è F S12 S 22 (*) in cui supponiamo per convenzione S12 S 22 Se l’ipotesi nulla di uguaglianza fra varianze è vera, questa statistica si distribuisce come una v.a. di F di Fisher con n1 1 e n2 1 gradi di libertà. Questo perché le due variabili (n1 1) S1 12 2 e ( n2 1) S 2 22 2 si distribuiscono come due v.a. chi quadrato con n1 1 e n2 1 gradi di libertà. Se quindi rapportiamo le variabili ai loro rispettivi gradi di libertà otteniamo (n1 1) S12 /( n1 1) 12 S12 22 = F (n2 1) S 22 /( n2 1) 22 S 22 12 che è la (*) se l’ipotesi nulla di omoschedasticità è vera. La regione critica dipende dall’ipotesi alternativa formulata: Per H1 : 12 22 RC : F F1 ;n11;n 21 Per H1 : 12 22 RC : F F ;n11;n 21 Per H1 : 12 22 F F1 / 2;n11;n 21 RC : FF / 2;n11;n 21 ANALISI DELLA VARIANZA (ANOVA). TEST F DI FISHER L’analisi della varianza (ANalysis OF VAriance) cerca di indagare quanta parte della variabilità di un campione sia dovuta ad uno o più specifici fattori. A questo scopo si analizzano medie di più gruppi di osservazioni attraverso il confronto fra devianze. La ANOVA richiede la normalità della distribuzione osservata. Consideriamo l’analisi della varianza ad un fattore. Vogliamo verificare l’efficacia del fattore sperimentale A. Somministriamo k trattamenti A1, A2 ,... Ak a k unità statistiche n1 , n2 ,..., nk tali che n1 n2 ... nk n . Sia Yij la v.a. risposta relativa all’i-esimo trattamento somministrato alla j-esima unità. I risultati dei trattamenti sono così schematizzabili: Trattamento A1 y11, y12, ,...., y1n1 Trattamento A2 y 21, y 22, ,...., y 2 n 2 ….. Trattamento Ak yk1, yk 2, ,...., yknk Sottoporremo a verifica l’ipotesi che i valori medi dei diversi trattamenti siano uguali fra loro: H 0 : 1 2 ... k contro l’ipotesi: H1 : non è vera H 0 . Se l’ipotesi nulla è vera, ognuno dei k trattamenti può essere pensato come estratto da un’unica popolazione X~N(,2) : in modo che tutti gli elementi dei trattamenti possono essere visti come elementi casuali di un unico campione trattamento estratto da un’unica popolazione normale. Il test consiste nella scomposizione della variabilità globale in variabilità entro gruppi e variabilità fra gruppi. Partiamo dalla v.a. media campionaria del trattamento i-esimo n Yi 1 j Yij n j 1 dove n è il numero totale di osservazioni e nj è la numerosità del gruppo j-esimo. Lo stimatore non distorto e consistente della media è la v.a. media campionaria generale n Y 1 k j 1 k Y Yi. ij n n i 1 j 1 i 1 Ora introduciamo il calcolo delle devianze. Per devianza totale, con i suoi gradi di libertà, si intende la devianza che stimeremmo da tutti gli n dati di tutti i gruppi messi assieme, come in un'unica lista. Il punto di partenza dell’analisi è la scomposizione della devianza totale: Scomponiamo in questo modo la devianza totale D(T ) k nj i 1 j 1 k (Yij Y ) 2 = i 1 nj ((Y j 1 ij Yi ) (Yi Y )) 2 k k = ni (Yi Y ) 2 i 1 i 1 nj j 1 (Yij Yi ) 2 Distinguiamo: devianza fra gruppi (B=between) k D( B) ni (Yi Y ) 2 i 1 k che si può scrivere anche (utile per i conti) D( B) ni (Yi ) 2 n(Y ) 2 , i 1 e devianza entro gruppi (W=within) k D(W ) i 1 nj j 1 (Yij Yi ) 2 k che si può scrivere anche (utile per i conti) D(W ) (ni 1) si2 (dove si2 è la varianza i 1 campionaria non distorta), in modo che sia come si è visto D(T ) D( B) D(W ) . Queste devianze si possono anche chiamare devianza spiegata (perché è la devianza fra medie) e devianza residua (o dell’errore, devianza non spiegata). Si dimostra che due stimatori non distorti delle devianze D(B) e D(W) sono forniti da S B2 D( B) k 1 S w2 e D (W ) . nk Infatti anche i gradi di libertà totali si possono suddividere in k k i 1 i 1 gdltot n 1 ni 1 (ni 1) (k 1) Allora il test ANOVA fa uso della statistica F S B2 SW2 che, se l’ipotesi nulla è vera, si distribuisce come una v.a. F di Fisher con k-1 e n-k gradi di libertà. Nella pratica si calcola il valore sperimentale delle devianze e si confronta il loro rapporto con il valore critico F ;k 1;nk a livello di significatività desunto dalle tavole. Se il valore calcolato è maggiore del valore critico, la differenza dei trattamenti è significativa e si rifiuta l’ipotesi nulla. TEST NON PARAMETRICI I test parametrici sono basati soprattutto su distribuzione normale e t di Student. Ma spesso non si è in grado di dimostrare il tipo di distribuzione dei dati, o questi sono distribuiti in modo diverso da quelli standard, come nel caso di numerosità ridotta. In questo caso si utilizzano i test non parametrici, che non sono basati su distribuzioni. TEST SU FREQUENZE Supponiamo di disporre di un campione di numerosità n. Sia F la frequenza stimata e p la probabilità di occorrenza di un certo carattere. vogliamo verificare al livello di significatività H 0 : p p0 contro le ipotesi alternative H1 : p p0 H1 : p p0 H1 : p p0 . TEST BINOMIALE Si usa se la numerosità n dei campioni non è alta. Con la distribuzione cumulativa della v.a. binomiale si calcola la probabilità che un dato evento si presenti in n prove con frequenza relativa inferiore o uguale ad f, ossia un numero di volte inferiore o uguale a k=nf: k n P( X k ) p0x (1 p0 ) n. x x 0 k Si rifiuta l’ipotesi nulla se questa probabilità è inferiore al livello prefissato . TEST NORMALE Per il teorema limite centrale, quando la numerosità del campione n è elevata, la v.a. frequenza relativa F può essere approssimata ad una distribuzione normale di media p e p (1 p ) varianza . n La statistica da utilizzare sarà Z F p0 p0 (1 p0 ) n che, se l’ipotesi nulla è vera, al variare del campione si distribuisce come una v.a. normale standardizzata. Le regole di decisione sono le stesse utilizzate nella verifica di ipotesi sulle medie. TEST SULLA DIFFERENZA FRA TENDENZE CENTRALI La tendenza centrale, nei test non parametrici, è rappresentata non dalla media ma dalla mediana. Vogliamo confrontare le tendenze centrali di due popolazioni a partire da due campioni indipendenti n1 e n2 . Se non possiamo usare la distribuzione t di Student utilizziamo il test della mediana. L’ipotesi nulla è: H 0 : Me1 Me2 Me dove Me è la mediana comune delle due popolazioni. Disponiamo allora le osservazioni in un gruppo unico in ordine crescente, conservando l’appartenenza al campione, calcolando la mediana del gruppo unico. Se l’ipotesi nulla è vera, metà delle osservazioni assumerà valori inferiori alla mediana. Creiamo una tabella 2x2 così concepita: Sotto la mediana Sopra la mediana Totale Campione1 n1 n1 n1 2 2 Campione2 n 2 n2 n2 2 2 Per verificare l’ipotesi che i due campioni provengano da popolazioni di uguali mediane si applica il test chi quadrato per tabelle 2x2 spiegato più oltre. Questo test è la versione semplificata del test Wilcoxon-Mann-Whitney che, in presenza di valori ordinali provenienti da una distribuzione continua, verifica se due campioni statistici provengono dalla stessa popolazione: 1. Prendendo ogni osservazione nel campione 1, si conta il numero di osservazioni nel campione 2 che sono inferiori (in valore) al campione 1 (contando come un 1/2 per ogni osservazione che possa essere considerata uguale). 2. Il totale di questo conteggio è il valore U. La variabile U viene tabulata come somma dei ranghi di uno dei campioni, e viene utilizzata per valutare l’ipotesi nulla con livello di significatività. TEST SULLA DIFFERENZA FRA TENDENZE CENTRALI PER CAMPIONI APPAIATI Il test dei segni è utilizzato nel caso di campioni appaiati per la verifica di ipotesi sulla tendenza centrale quando non è rispettata la normalità della distribuzione o è utilizzata una misura ordinale. Calcoliamo le differenze fra ciascuna coppia di elementi contrassegnandola con + o -. Se i campioni presentano uguale mediana e le popolazioni sono simmetriche, il numero di + e di – è lo stesso. La statistica per il test dei segni, che sono 2, segue la distribuzione binomiale di parametro p=1/2. D’altra parte la binomiale si approssima alla normale per grandi campioni. Se si conteggia un eccesso di segni + sui segni – (o viceversa) si rigetta l’ipotesi nulla di uguaglianza. TEST SULLA DIFFERENZA DI FREQUENZE Supponiamo di avere due campioni indipendenti di alta numerosità, per i quali le stime delle frequenze delle unità di una popolazione riguardanti un certo carattere dicotomico sono F1 e F2. Vogliamo verificare l’ipotesi H 0 : p1 p2 contro le ipotesi alternative, con livello di significatività . La v.a. F1 F2 , al variare del campione, si distribuisce normalmente se l’ipotesi nulla è p1 (1 p1 ) p2 (1 p2 ) vera, con media F1 F2 0 e varianza S F21 F2 . n1 n2 Ma le proporzioni p1 e p2 sono incognite e utilizziamo come stima la media ponderata di F1 e F2: F n F2 n2 Fˆ 1 1 . n1 n2 Calcolando la varianza si ottiene allora 1 1 S F21 F2 Fˆ (1 Fˆ ) n1 n2 e si utilizza la statistica Z F1 F2 1 1 Fˆ (1 Fˆ ) n1 n2 che se l’ipotesi nulla è vera si distribuisce al variare del campione come una v.a. normale standardizzata, con le note regole di decisione. TEST SULLA DIFFERENZA FRA FREQUENZE PER CAMPIONI APPAIATI. TEST DI McNEMAR Vogliamo verificare se un campione di individui sottoposti in tempi diversi ad uguale trattamento esprimono un carattere dicotomico secondo statistiche diverse. Dobbiamo quindi disporre di campioni appaiati e dati in forma di frequenze. Potremmo anche usare il test binomiale, che però è meno immediato. Segnaliamo con + la presenza del carattere, con – la sua assenza. + PRIMA - + n11 DOPO n12 n21 n.1 n22 n.2 n1. n 2. n La statistica da utilizzare per il test, come si potrà ricavare dal test 2 per tabelle a doppia entrata, è (n12 n21 ) 2 X n12 n21 2 che se l’ipotesi nulla è vera si distribuisce come una v.a. chi quadrato con 1 grado di libertà. Si rifiuta l’ipotesi H0 : “il trattamento non determina cambiamento significativo nelle frequenze” se X 2 ,1 . Per valori n 20 si utilizza l’approssimazione X2 (| n12 n21 | 1) 2 . n12 n21 TEST SULLA INDIPENDENZA. TEST CHI QUADRATO E TEST ESATTO DI FISHER In una tabella a doppia entrata (tabella di contingenza) con r righe e c colonne, a partire dai caratteri X ed Y (qualitativi o quantitativi, discreti o continui), sia nij la frequenza con cui si presenta la coppia di modalità ( xi , y j ) . Dato un campione casuale di n unità, verifichiamo a livello di significatività , l’ipotesi nulla che i due caratteri siano indipendenti: H 0 : nijT ni.n. j n Contro l’ipotesi alternativa H1 : nijT ni.n. j n dove nijT è la frequenza teorica calcolata per ciascuna coppia di caratteri. La statistica da utilizzare è r c X 2 i 1 j 1 (nij nijT ) nijT che se l’ipotesi nulla è vera si distribuisce come una v.a. chi quadrato con (r-1)(c-1) gradi di libertà. Quindi si rifiuta H0 se X 2 2;( r 1)(c1) . Il test chi-quadrato è un metodo approssimato valido quando le frequenze sono grandi. Una regola perchè sia valido è che il valore atteso di ogni cella sia maggiore o uguale a 5. Quando le frequenze attese sono basse (ma sempre >5) si applica la correzione di Yates che riduce di ½ la grandezza assoluta di (O-E) per ciascuna cella. La correzione è dovuta al fatto che il chi-quadrato si basa sull’approssimazione normale della binomiale, quindi imponiamo una correzione “per la continuità”, essendo risultati per distribuzioni continue applicati a dati discreti. Secondo la correzione di Yates, la statistica da utilizzare per il test diviene r c X 2 i 1 j 1 (| nij nijT | 0.5) 2 nijT . TEST ESATTO DI FISHER Il test esatto di Fisher si applica come il test chi quadrato per verificare l’indipendenza di due v.a. rappresentate in una tabella di contingenza, ma è basato sulla distribuzione ipergeometrica. Quando il campione è piccolo o il numero di osservazioni per ciascun elemento della tabella è inferiore a 5, questo test assicura maggior precisione rispetto ai test basati sulla normale o sul chi quadrato, che sono validi asintoticamente per grandi campioni. In una tabella 2x2 si pongono nelle righe i campioni (o fattori sperimentali), nelle colonne la presenza (+) o l’assenza(-) di un dato carattere. + n11 n21 n.1 n12 n22 n.2 n1. n2. n Per chiarire i conti da eseguire, riscriviamo la tabella in modo generico: + a c a+c b d b+d a+b c+d n Vogliamo verificare l’ipotesi nulla che le popolazioni di origine dei due campioni abbiano la stessa suddivisione dicotomica e che le differenze osservate con i dati campionari siano dovute semplicemente al caso. Ronald Fisher dimostrò, basandosi sulla funzione densità della v.a. ipergeometrica, che la probabilità di ottenere i valori in tabella si ricava dalla formula a b c d c c (a b)! (c d )! (a c)! (b d )! P n! a!b!c! d! n a c Questa formula dà le probabilità esatte di osservare i valori a, b, c, d (dati a+b, a+c, c+d, b+d) qualora fosse vera l'ipotesi nulla sopra enunciata. Mantenendo fissi i totali marginali si fa variare verso 0 la frequenza osservata minore, calcolando cioè che la probabilità di ottenere quella tabella equivalga alla probabilità di ottenere le risposte più estreme. In questo modo si verifica se i valori osservati sono eccessivamente diversi da quanto previsto dall'ipotesi nulla. Nella pratica ci si regola in questo modo: - si individua la cella con frequenza osservata minore e si calcola la probabilità di ottenere esattamente la tabella osservata: a b c d c c (a b)! (c d )! (a c)! (b d )! P n! a!b!c! d! n a c - a questo punto si diminuisce il valore della frequenza minore (ma non i totali marginali) e si ricalcola la probabilità con la stessa formula. - si continua fino ad avere zero per questa frequenza. Sommando tutti i valori di probabilità ottenuti, si ottiene la probabilità che la tabella di frequenze osservate sia dovuta al caso.