DECIMA UNITA’ Il confronto tra due campioni Nell’unità precedente abbiamo approfondito come si può procedere nello stimare i parametri di una popolazione a partire dalle statistiche di un suo campione. Il teorema di limite centrale, in particolare, ci ha fornito i mezzi per giungere a stime per le quali potevano anche indicare gli intervalli di confidenza. In altre parole, identificare la probabilità che le nostre conclusioni fossero esatte o anche controllare la probabilità di compiere un errore di stima. Quando si conoscono i parametri della popolazione, e in particolare s, è possibile ricorrere alla distribuzione di z per poter giungere a valutazioni adeguate e prendere decisioni in condizioni di incertezza controllata. Tuttavia, si è anche constatato che quando non si conoscono i parametri di una popolazione e ancor più quando l’ampiezza del campione considerato è modesta, occorre ricorrere a un nuovo tipo di distribuzione, o meglio a una famiglia di distribuzioni, quella del t di Student. In questa unità esamineremo più da vicino le opportunità che offre questa distribuzione per affrontare le seguenti situazioni: a) confrontare la media delle differenze tra due campioni dipendenti (cioè correlati tra di loro) e la media attesa; b) confrontare tra loro le medie di due campioni indipendenti, cioè non correlati tra di loro. In particolare ci interessa affrontare un insieme di questioni assai interessante e denso di applicazioni nel campo delle scienze dell’educazione. Esso può essere espresso in questi termini. Abbiamo due campioni dei quali possiamo elaborare le loro statistiche. A partire da questi dati è possibile stimare se essi provengono da una medesima popolazione o se, invece, essi mettono in evidenza l’esistenza di due distinte popolazioni? Quale grado di fiducia possiamo assegnare alle conclusioni raggiunte? 1. Il caso relativo al confronto tra le medie di due campioni indipendenti, cioè non correlati tra di loro. E’ questo il caso più frequente nelle indagini svolte nell’ambito delle scienze dell’educazione. Si vuole infatti chiarire se le medie individuate in due campioni differiscano tra loro in modo significativo e se su questa base è possibile inferire che essi sono tratti da due popolazioni diverse. Si tratta, cioè, di trovare le strade per ottenere informazioni tali che ci garantiscano, almeno a un sufficiente livello di fiducia, cioè di probabilità, che i campioni presi in considerazione provengono da una stessa o da differenti popolazioni. Se utilizziamo un certo metodo di intervento psicologico a un gruppo sperimentale e confrontiamo i risultati ottenuti con quelli di un gruppo paragonabile di controllo, le differenze che riscontriamo sono tali che possiamo affermare di essere di fronte a due popolazioni diverse dal punto di vista adottato? Con quale grado di fiducia? Oppure in realtà si tratta della stessa popolazione, cioè il trattamento adottato nel gruppo sperimentale non dà risultati significativamente diversi da quelli che riscontriamo in quello di controllo. Inoltre, questi risultati sono generalizzabili a tutta la popolazione di riferimento? Con quale grado di fiducia? 97 Per affrontare problematiche di questo tipo è stato utile, come per quelle considerate nell’unità precedente, ricorrere a una distribuzione ideale di riferimento, che, come si può facilmente pensare, è proprio quella normale. Vediamo come si può procedere. Invece di considerare la distribuzione delle medie dei campioni estraibili da una popolazione, in questo caso si prende in considerazione la distribuzione delle differenze tra le medie di due campioni. E’ facile pensare che alcune di queste differenze saranno minime, qualcuna potrà anche essere uguale a zero, ma altre potrebbero essere anche assai ampie. L’insieme delle differenze di tutte le possibili coppie estraibili viene a costituire un nuovo tipo di distribuzione di frequenze. Se i campioni estratti sono sufficientemente grandi quanto a numero di unità statistiche e i campioni provengono dalla stessa popolazione la distribuzione delle differenze tra le medie delle coppie di campioni assumerà approssimativamente la forma normale. La media di questa distribuzione sappiamo che è zero. Otteniamo così quella che si chiama la distribuzione campionaria delle differenze tra le medie. Mentre la sua media è zero, la sua dispersione dipende dalla dispersione della popolazione. La deviazione standard di questa distribuzione è denominata errore standard delle differenze tra le medie. A esempio, immaginiamo di estrarre a caso due campioni alla volta (senza reimmissione) da una popolazione, per la quale si abbia µ = 5,0 e s = 0,99. Estraiamo due unità per il primo campione (cioè, n1 = 2) e tre unità per il secondo campione (cioè, n2 = 3). Per esempio, possiamo estrarre 5 e 6 per il primo campione e 4, 4, 7 per il nostro secondo campione. Ora, poiché X 1 = 5,5 e X 2 = 5,0, sarà X 1 - X 2 = 0,5. Supponiamo adesso di continuare a estrarre campioni con n1 = 2 e n2 = 3, finché non abbiamo ottenuto un gran numero di coppie di campioni. Se calcoliamo le differenze tra le medie delle coppie di campioni e trattiamo ciascuna differenza come un punteggio, possiamo costruire una distribuzione di frequenza delle differenze stesse. Quale dovrebbe essere intuitivamente la forma di questa distribuzione di frequenza? Avendo selezionato coppie di campioni dalla stessa popolazione, con una procedura casuale, ci dovremmo aspettare una distribuzione normale con media uguale 0. Facendo un passo in più, possiamo descrivere la distribuzione della differenza tra coppie di medie campionarie, anche nel caso in cui i campioni non sono estratti dalla stessa popolazione. Avremo infatti una distribuzione normale con media (µx1-x2) uguale a µ1 – µ2 e deviazione standard (s x1-x2) denominata anche errore standard della differenza tra le medie uguale a Così la distribuzione campionaria della statistica: è una distribuzione normale che ci consente pertanto di ricorrere a una curva normale standardizzata per la verifica statistica delle ipotesi. La statistica z viene impiegata solamente allorché sono noti i parametri della popolazione. Poiché solo raramente essi sono noti, siamo costretti ancora una volta a stimare l’errore standard, che nel nostro caso è s x1-x2. 98 Se estraiamo un campione di n1 individui da una popolazione con varianza incognita ed un secondo campione di n2 individui da un’altra popolazione con varianza incognita, l’errore standard della differenza tra le medie, può essere calcolato mediante la formula oppure Tuttavia, se n1 e n2 = n, le formule si possono semplificare: dove n è il numero di elementi appartenenti a ciascuno dei due campioni. Le precedenti formule rappresentano stime distorte dell’errore standard della differenza tra le medie. Tuttavia al crescere di n, esse tendono a divenire stime corrette. La stima corretta, che suppone i due campioni estratti da popolazioni con la stessa varianza, cumula la somma dei quadrati, nonché i gradi di libertà dei due campioni al fine di ottenere una stima globale dell’errore standard della differenza. Pertanto: Tuttavia, se n1 e n2 = n, la formula si semplifica e diventa: Per ottenere la somma dei quadrati nei due gruppi, possiamo applicare una formula già incontrata per ogni campione e quindi ottenere: Allorché gli n sono uguali le varie formule sono algebricamente identiche. Così, per n uguale in ambedue i campioni, una qualunque di esse può essere utilizzata a seconda delle condizioni disponibili per il loro calcolo. La statistica utilizzata per la verifica delle ipotesi, quando la deviazione standard della popolazione non è nota, è il rapporto t 99 in cui (µ1 – µ2) è il valore atteso sulla base dell’ipotesi nulla. La t di Student richiede una stima corretta di sx1-x2 perciò le formule precedentemente introdotte possono essere usate per calcolare sx1-x2 La tavola fornisce i valori critici della t, necessari per determinare la significatività del test ai vari livelli di a. Poiché i gradi di libertà di ogni campione sono pari rispettivamente ad n1-1 e n2-1, il numero totale di gl sarà pari ad n1 + n2 – 2. Problema Un ricercatore è interessato a determinare se un dato farmaco ha effetto sul rendimento di alcuni soggetti impegnati in un compito di coordinazione psico-motoria. Si scelgono 9 soggetti per il gruppo 1 (gruppo sperimentale) ai quali prima della prova si somministra il farmaco. Contemporaneamente i 10 soggetti del gruppo 2 (gruppo di controllo) ricevono del placebo. Poniamo questo problema in termini statistici. I risultati dell’esperimento sono presentati nella tabella 10.1 Tab. 10.1 - Punteggio di due gruppi di soggetti in un test di coordinazione psico-motoria . Ipotesi nulla (H0): Non c’è alcuna differenza a livello di popolazione tra le medie del gruppo di coloro che hanno assunto il farmaco nel test di coordinazione psico-motoria; cioè µ1 = µ2 o µ1 – µ2 = 0. Ipotesi alternativa (H1): Esiste una qualche differenza a livello di popolazione tra le medie dei punteggi ottenuti dai due gruppi nel test di coordinazione psico-motoria. Noterete che la nostra ipotesi alternativa è non direzionale. Pertanto, dovremo usare un test di significatività di tipo bidirezionale, cioè µ1 ? µ2. Test statistico: Dovendo confrontare due medie campionarie, nella presunzione che esse provengano da popolazioni distribuite normalmente e con uguale varianza, è appropriato l’uso del test della t di Student, relativamente al caso di due campioni. Livello di significatività: a = 0,05. Distribuzione campionaria: La distribuzione campionaria è data dalla distribuzione della t di 100 Student con gl n1 + n2 - 2, cioè 9 + 10 - 2 = 17. Regione critica: Poiché H1 è un’ipotesi non direzionale, la regione critica è costituita da tutti i valori di t minori o uguali a -2,110 e maggiori o uguali a 2,110. Essendo n1 ? n ed avendo supposto le varianze uguali, utilizzeremo la formula per stimare l’errore standard della differenza tra le medie. La somma dei quadrati del gruppo 1 è: Analogamente, la somma dei quadrati nel gruppo 2 è: Pertanto il valore di t è dato da Decisione: Poiché la t che abbiamo ottenuto cade entro le regione critica, respingiamo l’ipotesi H0. Il valore negativo di t sta semplicemente ad indicare che la media del gruppo 2 è maggiore della media del gruppo 1. Nell’utilizzare la Tavola B, non teniamo conto del segno di t. 2. Il caso relativo al confronto tra le medie di due campioni dipendenti, cioè correlati tra di loro. Uno dei maggiori problemi che deve affrontare lo studioso del comportamento è l’estrema variabilità dei suoi dati. In effetti, è proprio a causa di questa variabilità che egli è costretto a far ricorso agli strumenti dell’inferenza statistica. Allorché un esperimento viene effettuato e quindi si ottengono i dati relativi a due o più gruppi ed inoltre si trova una certa differenza dei valori medi nei due gruppi stessi, ci si pone la seguente domanda: «La differenza che noi abbiamo osservato è così grande da risultare improbabile la sua attribuzione a fattori puramente casuali?» Come abbiamo visto, la semplice ispezione visiva dei dati non è generalmente sufficiente per rispondere alla domanda precedente, proprio a causa di una certa sovrapposizione dei gruppi sperimentali, dal punto di vista delle risposte. Questa sovrapposizione, d’altra parte, è da attribuire al fatto che i soggetti stessi rispondono in maniera estremamente variabile alle condizioni sperimentali. In un dato esperimento, i punteggi di ciascun soggetto sulla variabile risposta possono essere considerati come la risultante di tre fattori: (1) l’attitudine del soggetto stesso e/o la sua abilità nel compito assegnatogli; (2) gli effetti della variabile sperimentale; e (3) l’errore casuale dovuto ad un’ampia gamma di differenti cause, quali la variabilità delle condizioni sperimentali 101 stesse, da esperimento ad esperimento, oppure le fluttuazioni momentanee di elementi, quali possono essere, l’attenzione del soggetto, le motivazioni del soggetto stesso nell’esperimento, e così via. Per quanto riguarda l’errore casuale non c’è gran che da fare, se non cercare di controllare al massimo le condizioni sperimentali stesse. Per quanto riguarda invece gli effetti della variabile sperimentale, essa costituisce proprio l’oggetto della nostra ricerca. Nella maggior parte delle ricerche, la differenza individuale tra i soggetti costituisce di gran lunga il fattore più importante dell’intrinseca variabilità dei punteggi sulla variabile risposta. Tutto ciò che possiamo fare in questo caso è di tenere conto di questo tipo di variabilità cercando di rimuoverla per quanto è possibile, così da poter evidenziare l’effetto della variabile sperimentale stessa sulla risposta dei soggetti. Questo capitolo è dedicato alle tecniche comunemente impiegate per raggiungere questo obiettivo e che possiamo comprendere nel termine di: campioni correlati. Nella nostra precedente discussione sulla t di Student abbiamo presentato la formula per la stima dell’errore standard della differenza tra le medie, cioè In effetti questa non è la formula più generale per il calcolo dell’errore standard della differenza, in quanto essa è la seguente: L’ultimo termine della precedente formula viene eliminato ogni qual volta i soggetti del campione sono assegnati con una procedura casuale alle varie condizioni sperimentali; questo fatto comporta che allorché i punteggi vengono associati in maniera puramente casuale la correlazione tra i due campioni dovrà essere zero. Qualunque correlazione che si potrà ritrovare in questi casi dovrà essere considerata come spuria, nella misura in cui l’associazione tra i punteggi è stata effettuata in maniera puramente casuale. Conseguentemente, allorché i soggetti sono assegnati alle condizioni sperimentali in maniera puramente casuale, l’ultimo termine si riduce a zero (in quanto si ha r = 0). Tuttavia si danno parecchie situazioni sperimentali in cui noi non assegniamo i soggetti in maniera casuale alle condizioni sperimentali La maggior parte di queste situazioni può essere classificata in due gruppi. 1. Piano sperimentale del tipo prima - dopo. L’osservazione su un soggetto viene effettuata sia prima che dopo l’introduzione della variabile sperimentale. L’assunzione fondamentale è che ciascun individuo rimanga relativamente coerente con se stesso nel corso di tutto l’esperimento. In questo caso esisterà indubbiamente una correlazione tra il campione dei punteggi rilevati prima ed il campione dei punteggi rilevati dopo l’introduzione della variabile sperimentale. 2. Piano sperimentale per gruppi appaiati. Gli individui appartenenti sia al gruppo sperimentale che al gruppo di controllo vengono accoppiati sulla base di una stessa variabile che risulta essere correlata alla variabile dipendente, cioè alla variabile risposta. Così se siamo interessati a determinare l’effetto di un certo farmaco sulla capacità degli individui di risolvere un problema matematico, possiamo appaiare gli individui sulla base della stima del loro quoziente di intelligenza, oppure in base al loro addestramento in matematica oppure in base all’anno di iscrizione ad una data facoltà od anche in base al loro rendimento nella soluzione di altri problemi matematici. Un tale piano sperimentale presenta due vantaggi: a) Ci assicura che i gruppi sperimentali si trovino nelle stesse condizioni, per quanto riguarda le 102 loro capacità di base; b) Consente di avvantaggiarsi della correlazione della variabile risposta con le capacità di base suddette, e pertanto ci dà l’opportunità di rimuovere in concreto una sorgente di errore nelle nostre misurazioni. Al fine di comprendere i vantaggi dell’uso di campioni correlati, prendiamo in considerazione un problema di campionamento e calcoliamo l’errore standard della differenza tra le medie, utilizzando la formula basata su gruppi non appaiati e utilizzando, poi, la formula che prende invece in considerazione la correlazione tra i gruppi. Tab. 10.2 - Punteggi di due gruppi di soggetti in un esperimento basato su un piano a gruppi appaiati. La Tabella 10.2 ci presenta i dati relativi a due gruppi di soggetti appaiati sulla base di una variabile notoriamente correlata alla variabile risposta. I membri di ciascuna coppia sono assegnati, con una procedura casuale, alle condizioni sperimentali. I seguenti passi sono utilizzati nel calcolo dell’errore standard della differenza tra le medie nel caso di campioni non appaiati. PASSO 1 - La somma dei quadrati del gruppo 1 PASSO 2 - La deviazione standard del gruppo 1 è PASSO 3 - L’errore standard della media del gruppo 1 è PASSO 4 - Analogamente l’errore standard della media del gruppo 2 è PASSO 5 - L’errore standard della differenza tra le medie per campioni indipendenti è 103 Per calcolare l’errore standard della differenza tra le medie nel caso di campioni appaiati, dobbiamo utilizzare il seguente procedimento. PASSO 1 - Utilizzando la formula per trovare il coefficiente di correlazione troviamo che la correlazione tra i due gruppi è PASSO 2 - L’errore standard della differenza tra le medie, per il caso di gruppi appaiati è Si può notare che la formula, in cui un termine è caratterizzato dalla presenza del coefficiente di correlazione, ci dà una netta riduzione dell’errore standard stesso. In altri termini essa ci fornisce un test più sensibile alla differenza tra le medie e quindi ci dà una maggior opportunità di arrivare al rifiuto dell’ipotesi nulla, quando questa è falsa. Nel linguaggio dell’inferenza statistica diciamo che è un test più potente. Naturalmente la maggior potenza, o sensibilità della formula, è direttamente correlata alla nostra capacità di associare i soggetti su una variabile che sia correlata con la variabile risposta. In effetti se r tende a crescere, sx1-x2 tenderà a diventare, in corrispondenza, piuttosto piccolo, mentre se r si avvicina allo zero, il vantaggio di usare campioni correlati tende progressivamente a svanire. Un bilanciamento della migliore sensibilità dell’errore standard della differenza tra le medie, per r molto grande, è dato dalla perdita dei gradi di libertà. Infatti mentre il numero di gradi di libertà nel caso di campioni non appaiati è n1 + n2 – 2, il numero dei gradi di libertà di un campione costituito da due sottogruppi correlati è dato dal numero delle coppie – 1, cioè n = 1. Questa differenza nei gradi di libertà può risultare critica allorché il loro numero diventa eccessivamente piccolo, in quanto, come abbiamo visto, sono necessari dei valori della t di Student molto più alti per ottenere un test significativo. 104