PSICOMETRIA II 1 (la presente dispensa riprende i contenuti del modulo riferito alla teoria ed alla parte del corso riferita alla verifica delle ipotesi Utile per fare esercizi e familiarizzare con le tavole è il testo “esercitazione di psicometria” 1 Le caratteristiche dell’indagine scientifica Nei nostri esperimenti visto che lavoriamo con delle variabili, sia esse indipendenti o dipendenti, occorre che siano formulate ed espresse in termini operazionali. Spesso noi lavoriamo con dei costrutti e questi in qualche modo occorre che siano formulati in modo operazionale, quindi misurabile, per cui l’ansia per esempio la renderà operazionale tenendo conto del ritmo cardiaco o la mimica facciale o le ore di sonno ecc.. La variabile dipendente (quindi VD ) se lavoro con costrutti o comportamenti per essere operazionalizzata deve avere • Un buon indicatore che appunto mi indichi con chiarezza il comportamento oggetto di studio (un indicatore che mi faccia capire che quella è ansia e non invece euforia!) • Tra la VD ed il fenomeno studiato deve esserci una connessione concettuale diretta • La VD deve essere facilmente quantificabile e quindi non in modo approssimativo o cavilloso • Deve essere sufficientemente sensibile alle variazioni della V.I. (immagine una VD che “si attiva” per esempio solo con un alto dosaggio di un farmaco o una elevata esposizione ad uno stimolo) Quali sono le differenze fondamentali tra VI e VD? La VI è quella che il ricercatore controlla e manipola, operazione che dovrebbe avere un effetto sulla VD È quella che quella che misuriamo dopo aver manipolato la VI Negli esperimenti spesso i soggetti sono divisi in gruppo sperimentale e gruppo di controllo. Occorre anche tenere conto quando parliamo della VI dei livelli, ossia succede che quando io applico una manipolazione della VI possa agire non una sola operazione o scelte, ma anche più di una. Per esempio voglio vedere se un disturbo depressivo regredisce con il solo trattamento farmacologico e con il trattamento integrato ossia psico terapia e farmaci. In gruppo applico solo la terapia farmacologica in un altro quello integrato. Allora la VI che io manipolerò nel primo gruppo ha un solo livello (solo farmaci) nel secondo gruppo ha due livelli (farmaco+trattamento integrato). Quando facciamo un esperimento non abbiamo sola l’azione di VI che modificano i valori e gli effetti di una VD, possono esservi anche delle variabili di disturbo che possono intervenire e che possono essere più o meno controllabili ed isolabili. Per esempio: voglio misurare quante parole i componenti di un gruppo riescono a ricordare se nell’ascoltarle hanno un rumore di sottofondo. Il disturbo non è il rumore che sentono ma il fatto che tra le parole ascoltate e quelle ricordate non solo interviene il rumore ma ad esempio interviene anche il fattore età dei soggetti, come anche il grado di studio. Sono tutti elementi che fanno sentire il loro peso negli effetti per cui le VD che misurerò non dipenderanno allora solo dal livello di memoria dei soggetti ma da altre situazioni che modificano le capacità mnemoniche dei soggetti. 2 2 Ora vediamo come possono essere tratte negli esperimenti le variabili Il modo K: (K= costante) si tratta di mantenere le variabili costanti per tutte le osservazioni, per esempio l’età dei soggetti del campione deve essere solo ed esclusivamente di soggetti 25enni. Questo modo di trattare le variabili riduce la variabilità tra i gruppi stessi (between) ma limita molto la generalizzazione dei risultati se infatti ho usato solo soggetto di 25 anni è improbabile che i risultati ottenuti possa applicarli anche per i 50enni o se ho studiato l’atteggiamento verso i contraccettivi nelle donne, non posso applicare quel risultato per gli uomini. 3 Il modo X= si tratta di controllare la variabile in modo che in una sottoinsieme abbia un certo valore ed in un altro sottoinsieme un altro valore: per esempio in un gruppo somministro una certa posologia di farmaco, in un altro lo stesso farmaco ma con posologie diverse. Di solito questo tipo di modalità di trattamento delle variabili è tipico del lavoro psicologico quando si suddivide un campione in due gruppi quello sperimentale e quello di controllo che hanno caratteristiche comuni ma quello sperimentale è sottoposto a trattamento, cosa che non accade per il gruppo di controllo. Il modo M: questa lettera M sta per matching, è un modo di trattare i gruppi facendo in modo che una data variabile sia presente in entrambi i gruppi allo stesso modo, per esempio se il mio campione è composto da diverse età faccio in modo che tutti e due i gruppi siano composti dallo stesso numero di soggetti con le medesime età (gruppo A: soggetti con anni 21, 45, 27, 33, 16; gruppo B: idem ossia soggetti con anni 21, 45, 27, 33, 16). In questo modo accadrà che i entrambi i gruppi abbiano la stessa media Come per K anche questo modo M di trattare i campioni riduce molto la variabilità tra i gruppi che sono quindi composti in modo molto omogeneo. Questo modo cerca di eliminare l’influenza di altre variabili oltre quelle che interessano al ricercatore. Modo Y: è il modo livero, ossia lascio che la variabile assuma qualsiasi valore, a me interesserà solo osservare e registrare tale variabile che chiamerò appunto osservata Il modo R: ossia Randomizzato. I soggetti che compongono i sottogruppi sono scelti a caso in modo che le variabili agiscano in modo equivalente nei gruppi, questo però è un buon metodo solo se il campione è molto numeroso. Il modo Z: viene chiamato non-metodo perché consiste nell’ignorare la variabile Questi i modi di gestire le variabili, ma perché un’indagine produca veramente informazioni occorre che almeno una variabile sia trattata in modo Y, gli altri modo infatti se hai prestato attenzione noterai che implicano una certa azione del ricercatore sulle variabili influenzando i valori che esse assumono. Se ci troviamo in una ricerca dove andiamo a misurare una sola variabile che liberamente (modo Y) assume i suoi valori allora siamo in una studio chiamato descrittivo (per esempio voglio misurare il consumo medio di cannabis nella popolazione adolescente di un quartiere di periferia. Per farlo non manipolo nessuna variabile ma semplicemente rilevo come questa variabile “di suo” è presente tra quei ragazzi) 3 Può accadere anche che mi interessa vedere cosa succede quando varia la variabile che sto studiando, ossia è possibile che ci sia una variabile che cambiando di valori influenze un’altra variabile. Attenzione non stiamo qui parlando del rapporto tra variabile indipendente e variabile dipendente ma di variabili correlazionali In questi studi correlazionali le variabili devono essere trattate una in modo Y (ossia libera e quindi solo osservata e non manipolata) e l’altra in modo X (ossia manipolandola), questa variabile può però anche essere tratta in modo X ossia libero per cui registro i valori che assume che però dipendono, sono appunto correlati alla prima variabile, ossia quando una è presente è presente anche l’altra e l’intensità di una implica l’intensità di presenza dell’altra. Per esempio sono correlazionali la presenza del disturbo di ansia e la presenza dei bias attentivi ed interpretativi, e più è alto il livello di ansia di tratto più attivi sono questi bias 4 L’indagine descrittiva L’indagine empirica può essere ti tipo descrittivo, si tratta di indagine che vuole semplicemente dare un quadro accurato dei comportamenti, dei vissuti emotivi, delle cognizioni, si tratta praticamente di osservare e registrare. Per esempio osservo quanto i bambini dormono nel primo anno di vita per cui misuro le ore di sonno giornaliere per un lasso di tempo di 12 mesi. L’indagine descrittiva può aprire nuove domande ed ulteriori livelli di indagine, per esempio mi chiedo se le ore di sonno dipendono da quanto tempo le madri passano con i figli. Passo allora un altro livello di indagine L’indagine correlazionale Si tratta di individuare come quei comportamenti, emozioni o cognizioni descritti nel primo livello di indafgine dipendono e sono quindi messi in relazioni con altre variabili , per cui osserverò le ore di sonno dei bambini e le ore di gioco con le madri, potrò notare a livello di osservazioni l’entità della relazione, ma non posso dire di aver effettuato anche una indagine di tipo causale. Posso forse notare un rapporto positivo tra ore di gioco ed ore di sonno ma non posso dire se è il comportamento più disponibile della madre ad influenzare il sonno dei bambini L’indagine sperimentale Esso è il terzo livello e cerca di individuare le relazioni causali tra le variabili, è in questo caso che si usa manipolare una VI mentre la variabile Dipendente viene osservata prima e dopo la manipolazione della stessa. In questo caso si lavora anche con i due tipi di gruppo ossia quello sperimentale e quello di controllo. La validità delle indagine empiriche Lo scopo della ricerca è quello di raggiungere conclusioni che siano fondate. La validità non è una sola ma abbiamo diversi tipi di essa 1. La validità interna. Essa significa che l’intervento da noi compiuto è il responsabile dei risultati ottenuti e non perché altre cause siano intervenute. Abbiamo quindi veramente stabilito la relazione causale tra VI e VD? Noi riusciremo ad evitare l’azione di altre cause se il nostro disegno di ricerca è ben fatto. Validità interna quindi significa che un esperimenti riesce a dare una sola spiegazione alla causa di effetto e non che possano esservi altre spiegazioni e quindi che non siano intervenute altre cause. Il discorso non è così peregrino infatti negli esperimenti tante altre cause possono intervenire a maggior ragione quando si lavora con persone, esseri umani che hanno la loro età, stanchezza, tensione, ecc.. possono essere diverse cause che possono sopravvenire ed influenzare i risultati 4 • • • • • • • • • La maturazione, ossia nelle misurazioni ripetute nel tempo succede che i soggetti crescono, evolvono, diventano più vecchi o più esperti L’effetto delle prove: test ripetuti fanno si che quelli iniziali abbiano un effetto sulle successive prove Strumentazione, si tratta delle variabili che intervengono proprio a motivo degli strumenti e delle procedure usate per fare le misurazioni. Le tavole per dare i punteggi per esempio evolvono nel tempo, e per evitare problemi di strumenti occorre cercare di usare strumenti ben tarati e magari automatizzati Regressione statistica, è un effetto che si nota nei test compiti due volte, ossia i punteggi estremi al secondo test tendono ad indirizzarsi verso la media, inoltre se si usa sempre lo stesso strumento per ripetute misurazioni i punteggi tendono a disporsi intorno alla media della distribuzione Criteri di selezione, quando si formano i gruppi S e C occorre che questi abbiano le stesse caratteristiche, siano uguali, non con differenze apriori al fine di avere la certezza che veramente le differenze successive sia effetto della VI . questo tipo di uguaglianza che evita le differenze apriori la si ottiene con l’assegnazione casuale ai gruppi Abbandono o mortalità sperimentale. Può succedere che nel corso di un esperimento alcuni soggetti abbandonino i gruppi, come si può altresi notare una certa mortalità. Di essa occorre chiedersi se dipende dall’azione della VI specie se la mortalità è solo nel gruppo sperimentale, bisogna anche appurare se invece la mortalità nell’uno o nell’altro gruppo dipende da fattori che non ho considerato e che non hanno reso omogenei i gruppi (per esempio persone depresse ma non ho tenuto contro che in uno dei due gruppi c’erano presenti anche depressi oncologici) Effetto diffusione, accade quando informazioni sul trattamento effettuato sul gruppo sperimentale arrivano al gruppo di controllo e lo influenzano Reazione ai controlli, può accadere che il gruppo di controllo proprio perché non ha alcun trattamento abbia dei cambiamenti nella sua prestazione, occorre perciò somministrare un trattamento compensativo. Combinazione degli effetti di selezione con altre minacce, la migliore distribuzione nei gruppi è quella casuale, ma quando i gruppi non sono formati in questo modo ma con altri criteri è possibile che proprio queste procedure minaccino la validità interna (per esempio se i soggetti sono stati selezionati per storia e altri per maturazione, due criteri che si confondono molto tra di essi) 5 5 2. La validità esterna È la possibilità di estendere i risultati di una ricerca a soggetti e situazioni diverse Come otteniamo questo? • Facendo in modo che il campione sia rappresentativo per cui usare un modo casuale per formare il campione e cercando avere un campione di una certa numerosità La popolazione a cui possiamo estendere i nostri risultati è quella bersaglio, ossia quella che vorremmo raggiungere, ma spesso noi lavoriamo più con una popolazione accessibile ossia quella che effettivamente possiamo raggiungere Perché ci sia validità esterna occorre che ci sia una validità temporale ossia che i nostri risultati siano stabili nel tempo La validità esterna è minacciata. Da cosa? • • • • • • • Caratteristiche del campione: ossia se il campione non è rappresentativo della popolazione Le caratteristiche dello stimolo, ossia lo stimolo presentato da persone e situazioni in un modo particolare da non permettere la generalizzabilità dei risultati Le caratteristiche contestuali ossia il contesto nel quale svolgiamo la nostra sperimentazione che è troppo singolare impedendo la generalizzazione ad altri contesti Interferenza dovuta ai trattamenti multipli L’effetto novità ossia il campione sperimentale risponde in un certo modo non solo per effetto del trattamento ma proprio perché il trattamento è saliente, infrequente e quindi nuovo da suscitare una risposta nel campione che non è solo attribuibile al trattamento in se stesso Le procedute di valutazione ossia ▪ La reattività alla valutazione: sapere di essere valutati porta i soggetti del campione ad una risposta che non darebbero in condizioni normali ▪ La sensibilità al test dovuta ad un eventuale pre test che nel preparare i soggetti al test vero e proprio li ha comunque sensibilizzati e predisposti Il momento della somministrazione del trattamento: ossia il tempo in cui uno stimolo viene somministrato ha una sua influenza, una cosa infatti può essere la risposta data subito dopo la fine per esempio di un trattamento psicoterapeutico, un’altra quella data dopo tanto tempo dalla fine di quel trattamento 3. La validità di costrutto Essa la possiamo ottenere solo in seguito alla validità interna, ossia stabilito che i risultati ottenuti sul campione nella nostra sperimentazione sono dovuti e quindi spiegati come causati solo dalla nostra variabile indipendente (e non perché sono intervenute altre cause), noi andiamo ad interpretare le relazioni causali. Cosa significa questo? 6 6 1. Ho stabilito che manipolando la V.I. ho un effetto e che questo effetto dipende solo ed esclusivamente dall’azione della V.I e non dal sopraggiungere di altre cause. 2. La mia ricerca ricordiamo che è partita da una ipotesi e quindi ha un piano. Il piano della ricerca si basa su quello che noi chiamiamo costrutto. Il costrutto è per esempio il tratto di personalità, un comportamento, uno stato emotivo, cognitivo o comportamentale. Perché ci sia validità di costrutto occorre che il piano della mia ricerca sia costruito in modo tale che l’esperimento che ho pensato e somministrato davvero rilevi il costrutto che mi interessa e sia connesso ad esso. Se per esempio faccio una ricerca sull’aggressività devo “pensare” un esperimento che sia connesso a rilevare e misurare il livello di aggressività per evitare che invece di stare a misurare l’aggressività io formuli un piano sperimentale che in pratica va a misurare per esempio la stanchezza dei soggetti o la motivazione. 3. Quindi validità di costrutto è chiedersi quale è il costrutto che sottostà all’effetto? Per avere una buona validità di costrutto occorre che • Le variabili siano ben definite in modo operazionale. È importante l’operazionalizzazione perché significa individuare quell’indicatore connesso al costrutto che mi interessa e che posso misurare. L’ansia o l’intelligenza non sono materiali misurabili con peso e metro, sono costrutti che si manifestano mediante comportamenti che sono appunto gli indicatori ed io devo saper individuare per i costrutti che mi interessano buoni indicatori osservabili e misurabili. Allora per l’ansia per esempio prenderò come indicatore il battito cardiaco, le ore di sonno, la mimica Quindi validità di costrutto significa corrispondenza tra livello teorico e livello misurabile. Ciò permette che i risultati ottenuti posso interpretarli grazie al modello teorico di riferimento (nei miei soggetti rivelo che c’è un battito cardiaco accellerato: lo interpreto come dovuto ad un tratto di ansia) Cosa minaccia la validità di costrutto? • L’attenzione ai rapporti con i clienti: è possibile che il risultato ottenuto su di un campione sia dovuto al rapporto instaurato tra il ricercatore ed i clienti o il cliente, quindi il risultato non è dovuto alla sola somministrazione dello stimolo o alla misurazione ma all’influenza devoluta ai soggetti del campione (per esempio un tratto più gentile ed accogliente verso alcune clienti ansiose può aver stabilizzato un ritmo cardiaco che invece senza quel modo benevolo sarebbe stato più naturale e quindi più accellerato) • Le aspettative dello sperimentatore: talvolta le attese dello sperimentatore influenzano le prestazioni dei soggetti . tali aspettative però possono anche essere “più pericolosi” se lo sperimentare interpreta i dati alla luce delle sua aspettative e non per la solo oggettività dei risultati arrivando così ad alterare la validità di costrutto Come può “passare” l’aspettativa che lo sperimentare ha da questi al gruppo sperimentale? - Con la postura, il tono della cove, le espressioni del volto, e tutta una serie di segnali non verbali. Segnali che provengono dalla situazione sperimentale e che associati all’intervento possono influenzare i risultati che si otterranno per esempio: ▪ Le informazioni che vengono date ai soggetti prima della partecipazione all’esperimento* ▪ Tutte le istruzioni e le procedure e le situazioni sperimentali che vengono presentate ai soggetti che dovrebbero essere 7 7 presentare come casuali ma invece vengono offerte in modo che le risposte alle sperimentazioni siano invece influenzate * Per evitare tutto ciò si può per esempio esplicitare in anticipo le aspettative dello sperimentatore oppure somministrare il trattamento mediante l’azione di più ricercatori 8 8 4. La validità statistica La validità statistica ha lo scopo di verificare se la relazione trovata tra le variabili sperimentali è o meno di tipo casuale, ovvero se l’effetto è significativamente da quello che si sarebbe ottenuto per caso. La validità statistica si occupa di controllare la variabilità dovuta al caso, tramite il calcolo delle probabilità e dell’inferenza statistica. (definizione presa da slide università di Bergamo) Si riferisce alla valutazione quantitativa dei risultati, si tratta cioè di “quantizzare” la relazione tra le variabili al fine di stabilire che la relazione tra due variabili ha una significatività statistica o meno, per esempio che le media di due gruppi messi a paragone sono uguale oppure differenti o che la media di un campione è uguale a quella di una popolazione o differente. Ecco allora che usiamo a tal riguardo dei termini come • Ipotesi nulla: si intende con questa espressione dire che tra due gruppi non ci sono differenze significative • Test statistici sono quelle procedure che usiamo per stabilire se tra le medie di due gruppi ci sono o meno delle differenze significative Circa la validità statistica possiamo sempre commettere due tipi di errore • L’errore di primo tipo: chiamato errore alfa ossia rifiutare l’ipotesi nulla quando è vera e quindi dire che c’è una differenza tra due gruppo quando invece non c’è • L’errore di secondo tipo ossia l’errore Beta il che significa accettare l’ipotesi nulla quando invece questa sarebbe da rifiutare a favore dell’ipotesi alternativa Un altro errore è quello dovuto all’effetto dimensione ossia all’impatto dell’intervento sulla ricerca. si tratta dell’errore standard Es che si calcola sommando le medie dei due gruppi e dividendo il tutto per la somma delle deviazioni standard dei due gruppi. Più grande è questo valore delle somma delle deviazioni standard minore è l’errore dell’effetto dimensione, minore sono le deviazioni standar maggiore l’effetto. La validità statistica può essere compromessa quando abbiamo una bassa potenza statistica. Cosa è? E’ la probabilità che un test statistico ha di falsificare l’ipotesi nulla quando l’ipotesi nulla è effettivamente falsa. In altre parole, la Potenza di un test è la sua capacità di cogliere delle differenze, quando queste differenze esistono. Se la potenza statistica è bassa allora vuol dire che è alta la probabilità che io rifiuti l’ipotesi nulla quando è vera e che io affermi che non ci sono differenze tra due gruppi quando invece tale differenza esiste. Un altro errore che può compromettere la validità statistica è quello relativo alla variabilità delle procedure ossia a quello che accade in ogni campione (sperimentale o di controllo). Cosa significa? I gruppi non sono uguali tra di loro non solo perché uno è sperimentale ed uno è di controllo e quindi uno è sottoposto a trattamento e l’altro no, ci sono anche altre differenze (parliamo di persone non di oggetti stampati e le persone hanno sempre le loro singolarità: una classe di prima elementare non è uguale ad un'altra anche se hanno lo stesso numero di scolari). Inoltre ci sono differenze, variabilità, all’interno dello stesso gruppo e proprio questa variabilità “dentro” il gruppo può aver concorso ad un certo risultato e quindi la differenza tra S e C (sperimentale e controllo) non dipende solo dal trattamento ma anche dalla differenze entro i gruppi. Perché i nostri risultati siano quindi adducibili solo al trattamento somministrato dobbiamo ridurre al minimo la differenza “ad intra” per cui dobbiamo prestare molta attenzione a o o o 9 Differenze individuali dei componenti dei gruppi Evitare le differenze di somministrazione dei trattamenti Prestare attenzione alle differenze nell’esecuzione delle procedure sperimentali 9 L’eterogeneità dei soggetti cosa comporta? Quando io “creo” due gruppi da confrontare se i componenti di questi gruppi sono eterogenei allora è molto probabile che non ci siano differenze significative tra le medie dei due gruppi, se invece tendo a formare gruppi omogenei è molto probabile che le differenze tra le medie siano notevoli, pensiamo per esempio alla differenze che di sicuro riscontrerei tra due gruppi dei quali uno tutto di giovani l’altro tutto di anziani, o uno tutto maschile e l’altro tutto femminile, o uno tutto di classe medio bassa e l’altro di classe alta. I gruppo omogenei forse permettono di registrare differenze significative nei confronti con altri gruppi ma non permettono di poter estendere, generalizzare, i risultati quindi comprometterei la validità esterna. Altro errore della validità statistica è l’inaffidabilità delle misure. Le prestazioni dei soggetti devono essere misurate in modo consistente. Nota mia:mi pare di capire, nel grande caos e nel modo scarno della nostra dispensa, che un parametro fondamentale che assicura la validità statistica dei risultati di un esperimento, è quello della variabilità, quel famoso S che spesso ci ritroviamo ad usare nei nostri calcoli su campioni e medie. Tenere conto di S significa che teniamo conto della variabilità, ossia del fatto che i campioni con cui lavoriamo non sono omogenei. Lavorare con grandi gruppi (campioni) significa che avremmo a che fare con un effetto dimensione che “conteniamo” se teniamo conto della S, del valore della variabilità. Maggiore è S minore sarà l’effetto dimensione e la usa minaccia alla validità dei nostri risultati. Ulteriori minacce alla validità delle nostre indagini Quando occorre effettuare confronti multipli usiamo diversi test e non solo un test, a volte infatti sono più varabili dipendenti che concorrono in una certa situazione. Per esempio se misuro la demenza è bene tenere conto di test diversi (uno per memoria, uno per l’attenzione, uno per il linguaggio, ecc..). l’uso di questi diversi test permette di avere un confronto multiplo ma anche un aumento di errori, specie di primo tipo. Per ovviare a tutto questo si effettua una analisi multivariata per stabilire la differenza tra il gruppo C ed S come si differenziano ognuno per ogni variabile che considero. 10 10 Le strategie di ricerca Per svolgere il nostro lavoro dobbiamo stabilire una strategia, tra quelle più comunemente usate abbiamo • • • • • Gli studi sul campo Gli esperimenti sul campo Le simulazioni sperimentali Gli esperimenti di laboratorio Le indagini campionarie 1. Studi sul campo: in questo tipo di ricerca si osservano i comportamenti naturali così come si manifestano. Non c’è un controllo delle variabili che sono trattate in modo Y ossia libero. Quindi ci si limita ad osservare e misurare. Raccolti i dati si può trasformare la variabile osservata in varibiabile di disegno ma le relazioni causali non potremmo stabilirle visto che l’unica azione nostra è l’osservazione 2. Gli esperimenti sul campo: si tratta sempre dell’ambiente naturale nel quale osserviamo delle variabili che sono lasciate nel modo Y ma una variabile la manipoliamo quindi agiamo in modo X. questo tipo di esperimento lo si usa nelle ricerche quasi sperimentali, visto che possiamo manipolare una variabile risalire a delle inferenze causali piuttosto sicure. 3. La simulazione sperimentale: si tratta di creare un ambiente artificiale quindi il livello di intrusione è piuttosto elevato. Il contesto è preparato apposta per la ricerca ed i soggetti accettano di stare nella situazione creata. Nell’esperimento di laboratorio il ricercatore agisce in prima persona e manipola le variabili, ma in questo caso invece subentra il comportamento dei soggetti coinvolti che seguono anche le regole e le indicazioni ma poi attivano il loro comportamento. La struttura è complessa ed articolata e questo ci fa capire che non è facile isolare delle variabili e valutarne gli effetti. 4. Esperimenti di laboratorio: è la strategia che permette il massimo controllo sulle condizioni nelle quali avviene il comportamento studiato. Interessa poco il contesto ma proprio il controllo delle variabili e la misurazione del comportamento. Spesso questa strategia viene considerata come l’unica veramente scientifica, il problema però proprio per via del rigore delle manipolazioni avulse dal contesto è quello della generalizzazione dei risultati e quindi della validità esterna i risultati infatti non è facile estenderli ad altri contesti differenti dalla situazione dell’esperimento. 5. L’indagine campionaria ed i compiti valutativi: si tratta dello studio dei resoconti che i soggetti danno circa se stessi, i loro comportamenti o preferenze, le informazioni ecc.. i soggetti coinvolti vengono sottoposti a degli stimoli o a delle domande, quindi non è tanto una reazione o un comportamento ad un contesto ma delle risposte date al ricercatore. Non osserviamo quindi comportamenti-contesto, e le procedure che possiamo usare sono due • Indagine campionaria: si somministrano stimoli familiari per avere risposte familiari e si scelgono contesti familiari come la casa, il lavoro, la strada. Il linguaggio è semplice • Compiti valutativi: in questo caso non c’è familiarità nel senso che si chiede lo svolgimento di un compito che non appartiene al quotidiano dell’esperienza, questo non accade poi in ambiente familiare ma in una situazione di laboratorio. La generalizzabilità: le due forme non hanno la stessa generalizzabilità L’indagine campionaria mira a generalizzare i risultati attraverso i soggetti (l’opinione degli italiani su un dato argomento….) o I compiti valutativi generalizzano attraverso gli stimoli La raccolta delle informazioni: fatte le nostre indagini raccogliamo il materiale per verificare o falsificare la nostra ipotesi. Occorre lavorare in modo operativo ossia numerico ed in psicologia questo passaggio è estremamente delicato in quanto lavoriamo con dei costrutti e non con misure materialmente quantificabili. Quindi due sono le cose necessarie: 11 o 11 • La validità degli strumenti di misura • E la fedeltà/attendibilità delle misure Quando usiamo uno strumento in psicologia (un test proiettivo, una scala di item ecc..) ci dobbiamo chiedere ▪ ▪ È valido lo strumento? (ossia misura effettivamente la variabile concettuale che ci interessa?) È attendibile? Rispondiamo alla prima domanda. Cosa può rendere invalida una misura? • • • Il soggetto coinvolto nell’esperimento: è possibile che la persona intervistata o comunque sottoposta allo stimolo sapendo di essere osservata risponda per compiacere o per boicottare Il ricercatore: il rapporto stabilito con i soggetti, anche il sesso, l’età. L’affaticamento o l’affinamento del ricercatore con la sua esperienza, tutto questo può alterare l’oggettività della misura Le procedure del campionamento: possiamo a tal riguardo commettere tre errori • La limitatezza della popolazione raggiungibile con il nostro strumento oppure limitata proprio per il tipo di campionamento stabilito • La popolazione instabile che non possiamo raggiungere in tempi successivi • L’instabilità della popolazione in aree diverse ▪ È fondamentale la stabilità della popolazione per poter generalizzare i risultati e per usare gli stessi strumenti in applicazioni diverse. Quando cambia la popolazione potremmo erroneamente pensare che ci siano delle differenze nella variabile misurata, che il fattore storia o maturazione abbia inciso sul campione ma in realtà stiamo a misure in un tempo A e poi in uno B due popolazioni diverse Le misure hanno quattro tipi di validità 1. Validità di contenuto: si intende che il nostro strumento contiene un campione rappresentativo del comportamento che si vuole studiare, questo mi permetterò di generalizzare le misure. Io devo costruire uno strumento che permetta di cogliere le diverse manifestazioni del costrutto che voglio misurare, quindi se misuro l’aggressività formulare uno strumento che sia articolato e colga le diverse manifestazioni con cui l’aggressività si può manifestare È necessario poi che sia corretto il campionamento e questo avviene solo se è chiara quale è la definizione della popolazione di stimoli dalla quale estrarre un campione. Devo sapere bene cosa è l’aggressività, cosa manifesta la persona aggressiva così da scegliere dentro la popolazione degli aggressivi il mio campione. Trovata la popolazione sulla quale c’è concordanza anche nella definizione di tale popolazione allora posso campionare in modo causale ed avere il mio campione 2. La validità convergente: quando misuro lo stesso costrutto con strumenti diversi il risultato deve essere lo stesso, c’è da dire in psicologia che non ci sono molti strumenti che misurano lo stesso costrutto 3. Validità predittiva: è la possibilità che ho di poter prevedere quanto sarà la misura B che dipende da una misura A che io ho misurato, per cui se ho misurato in modo corretto A e la variabile B dipende dalle variazioni di A, posso prevedere in base ad A quanto sarà B ipotetico 4. La validità concettuale o teorica: la nostra misura deve essere in relazione con dei concetti, ossia noi vogliamo misurare un concetto, questo in base alla teoria che abbiamo e da cui partiamo è collegato con altri concetti, abbiamo anche delle ipotesi che cercano di spiegare il legame tra il nostro concetto e gli altri e quindi sottoponiamo queste ipotesi alle verifiche empiriche. Questo tipo di validità insieme a quella predittiva vediamo che tengono conto non solo del concetto in se ma anche delle sue relazioni che possono essere più o meno complesse. 12 12 Ci chiedevamo anche l’attendibilità sulla attendibilità dello strumento. È attendibile lo strumento che usato in tempi diversi o da persone diverse da lo stesso risultato. Non mancano gli errori, dovuti a cosa? o • L’uso maldestro/irregolare dello strumento • L’alterazione dello strumento • Distorsioni che lo strumento provoca quando viene usato Per capire se uno strumento è attendibile occorre ripetere le misure, le stesse, con altro strumento, ma un psicologia non è facile fare tutto questo e quindi si usano altre strategie - La prima strategia appena accennata sarebbe quella di ripetere le misure ma come già detto in psicologia non è facile che ripetendo una misura si ha lo stesso risultato proprio per la “natura” di ciò che misuriamo - Una strategia usata è quella del test-retest: si tratta della ripetizione della misurazione ma ci sono delle minacce alla validità interna a motivo sia della maturazione che della storia. La differenze di misure che si hanno effettuando la stessa misura a distanza di tempo infatti può erroneamente farci pensare che le misure siano cambiate o che ci sia un errore, in realtà si è presentato il fenomeno della maturazione del campione - Metodo delle forme parallele: si tratta di costruire uno strumento in due versioni con caratteristiche statistiche specifiche, non è facile però costruire uno strumento simile in doppia versione, il rischio è anche quello di costruirli entrambi con un errore sistematico - Metodo dello spilt-half (ossia divisione a metà). Si tratta di usare un solo strumento diviso a metà su due campioni (per esempio degli item suddivisi in pari e dispari al gruppo 1 ed al gruppo 2) - La matrice multitratto-multimetodo. Si tratta di uno strumento per misurare due tratti di personalità sullo stesso campione usando anche due metodi come il test proiettivo ed il questionario. Quindi il paradigma di questo metodo prevede che • Gli stessi soggetti sono sottoposti a due metodi diversi • Gli stessi soggetti in tempi diversi misurati con lo stesso strumento • Ogni soggetto quindi avrà otto misurazioni Possiamo quindi costruire una vera e propria tabella a doppia entrata dove noi riporteremo i dati delle osservazioni secondo questo tipo di codice R: le caselle dove c’è correlazione ossia dati di misurazione dello stesso tratto con lo stesso metodo nei due tempi diversi M: dati relativi alle misurazioni di tratti diversi con lo stesso metodo C. dati relativi alle misurazioni dello stesso tratto con metodi diversi H: dati relativi a tratti diversi misurati con metodi diversi Importante è che ci sia fedeltà nelle correlazioni, ossia che stesso tratto e stesso metodo, o stesso tratto e metodo diverso in qualche modo deve esserci una congruenza. 13 13 La verifica delle ipotesi Il concetto di parametri e di indicatori La statistica ha come scopo quello di risalire ai valori di un dato elemento che ci interessa su di una intera popolazione, per esempio l’uso di hashish su tutta la popolazione adolescenziale italiana. La popolazione come in questo stesso esempio che ho fatto adesso è troppo vasta per essere intervistata nella sua interezza, ecco perché esiste la statistica ovvero sia quella scienza matematica che lavorare sui campioni estratti da una popolazione cosicchè dai dati del campione si possa risalire a quella dell’intera popolazione. Come si arriva quindi ai dati di una intera popolazione? Tramite il calcolo matematico inferendo, ossia passando con passaggi matematici dai dati ottenuti sul campione a quelli relativi all’intera popolazione. La prima differenza dunque è tra parametro ed indicatore • L’indicatore è il valore x (minuscolo) sul campione (quanta cannabis viene usata da un campione di 100 ragazzi) • Il parametro è il valore X sulla popolazione (quanta cannabis viene usata dagli adolescenti italiani) Come si lavora con gli indicatori? Il primo passaggio è la formazione del campione. Prendo una popolazione N (che significa il numero degli individui quindi per esempio le migliaia di adolescenti italiani) e da questa estraggo un campione n (per esempio 100 adolescenti) Il campione è quindi un numero di soggetti limitato e di esso il valore che mi interessa, per esempio l’uso di canne, ha un valore medio 𝑥⃑. Dal campione estraggo ulteriori porzioni di campione di N elementi, per esempio dai 100 ragazzi estraggo dei sottogruppi di 3 ragazzi per volta. Di ogni gruppetto di questi calcolo la relativa media. Questi diversi valori si dispongono secondo un certo andamento, questa disposizione delle medie di tutti questi gruppetti di ragazzi viene chiamata la distribuzione delle medie e la media di tutti questi valori è la media della distribuzione campionaria. La statistica ha potuto constatare che quando il numero del campione si avvicina al numero totale della popolazione, la media dei diversi piccoli campioni si distribuisce in un modo simmetrico e ben ordinato, a campana, e questo ha permesso di poter creare delle tavole teoriche di riferimento che ci risparmiano tempo quanto alla formulazione dei calcoli perché avendo noi dei valori di riferimento possiamo consultare queste tavole e quindi trovare senza molti calcoli altri valori che ci interessano. Quando abbiamo modo di lavorare su grandi campioni il cui numero è vicino a quello della popolazione ovvero sia quando abbiamo N (popolazione)= n (campione) la media della distribuzione campionaria coincide con la media del campione e quindi abbiamo che µ= µ ⃑⃑ 14 14 questa è la cosiddetta legge dei grandi numeri, quindi per essa vale questo assunto ossia che più è grande il campione preso da una popolazione, più è vicino il suo numero al numero totale della popolazione e più la media del campione è vicina come valore alla media del campione stesso, fino ad arrivare alla coincidenza dei valori quando n=N quando il numero del campione è uguale al numero della totale popolazione (un campione grande quanto tutti gli adolescenti italiani altro non è che la somma di tutti gli adolescenti italiani: chiaro fino ad ora?!!) se ti è chiaro, puoi andare avanti. Altrimenti o rileggi e capisci, o mi scrivi e ti spiego a voce, oppure lascia tutto e dedicati all’agricoltura. il concetto di varianza o di variabilità Un concetto importante è quello di varianza o di variabilità. Abbiamo detto che la distribuzione campionaria delle medie è costituita dall’andamento delle medie dei campioni che si dispongono una dietro l’altra. Ogni media non coincide perfettamente con la media della popolazione, c’è quindi una sorta di scarto, di differenza tra la media dei campioni e la media della popolazione, questo scarto è la varianza. Se il campione come numero coincide con il numero totale della popolazione questo scarto o differenza non esiste perché come già detto, media della distribuzione campionaria e media della popolazione coincidono. Dicevamo poco fa che questa è la “legge dei grandi numeri”: più aumenta n (avvicinandosi quindi ad N) più la variabilità assume un valore vicino allo zero. Quando poi abbiamo dei campioni che superano le 30 unità allora si realizza anche il teorema del limite centrale ovvero sia la distribuzione delle medie si presenta con l’andamento normale ossia una curva anche detta curva di Gauss. Ora, per entrare più nel dettaglio di alcuni passaggi matematici dobbiamo prima di tutto tenere conto di un assunto: noi spesso non possiamo conoscere direttamente i valori di una intera popolazione ma solo quelli dei campioni, quindi spesso succede che non conosciamo alcuni valori che vengono identificati con dei simboli specifici. Vediamo quali sono questi simboli e cosa significano 1) 𝜎 2 sarebbe la varianza della popolazione ovvero sia come si distribuiscono le medie dei campioni presi della popolazione, o per dirlo con altre parole, questo valore mi dice di quanto le medie dei campioni presi dalla popolazione variano dal valore delle media di tutta la popolazione Cerchiamo di capire bene cosa è la varianza. Essa non è la media ed abbiamo bisogno della media per definirla. La media di una popolazione di N elementi è data dalla somma dei valori di ogni singolo elemento divisa per il numero di elementi (es: ragazzo A fuma 3 spinelli, ragazzo B fuma 4 spinelli, ragazzo C fuma 2 spinelli, ragazzo D fuma 6 spinelli, la media è data da 3+4+2+6/4). la differenza di ogni singolo valore dalla media si chiama scarto, la media dei quadrati degli scarti è la varianza (così troviamo nella definizione: In statistica, con riferimento a una serie di valori, la media dei quadrati degli scarti dei singoli valori dalla loro media aritmetica) 2) 𝜎𝑥̅2 = questo simbolo indica la varianza della distribuzione campionaria Cosa significa? A questo livello non stiamo più lavorando con una intera popolazione ma con un campione dal quale ho preso diversi altri sotto campioni, quindi cosa ho fatto? Ho calcolato la media 15 15 di ogni campione, ho poi calcolato la media delle medie dei campioni. La varianza della distribuzione campionaria è quel valore che mi dice di quanto ogni singola media dei campioni si distanzia dalla media della distribuzione campionaria. 3) 𝑠 2 = si tratta della varianza del singolo campione Questi tre valori sono in relazione tra di essi e questo permette di risalire da un valore all’altro: per esempio se conosco la varianza di un campione posso arrivare a calcolare la varianza della distribuzione campionaria tramite appunto calcoli matematici. 16 Vediamo già una regola matematica. Come posso calcolare la varianza del campione? Ossia quale è la distanza di un campione dalla media? 𝑠2= ̅̅̅ 2 ∑(𝑥−𝑥) 𝑛 ricordiamo che 𝑥̅ = ∑𝑥 𝑛 Con questo risultato posso calcolare la varianza della distribuzione campionaria che si ottiene con questa formula 𝜎𝑥̅2 = 𝑠2 𝑛−1 A cosa mi serve tutto questo? Mi serve a risalire dal valore del campione a quello della popolazione sempre per il fatto che io la popolazione nella sua interezza non posso valutarla. Se allora io ho un campione che ha un certo indicatore 𝑥 posso dire che esso viene, ossia è stato estratto da una popolazione con parametro 𝑥̂? Allo stesso modo posso anche chiedermi quale può essere la media della popolazione µ se ho una media del campione che è 𝑥̅ . Facciamo un esempio. Ho un campione di 50 soggetti quindi n=50, so che il valore di 𝑥̅ è 19 e che la varianza del campione è s= 1,8. Quale può essere la media della popolazione da cui il campione è stato estratto? La prima cosa che faccio è calcolare la variabilità della distribuzione campionaria chiamato anche errore standard della distribuzione campionaria 𝜎𝑥̅ 𝑠2 √ = 𝑛−1 16 Quindi con i valori che possiedo abbiamo che sigma di x medio, ossia l’errore standard della 1.82 distribuzione delle medie è =√ = 50−1 1,8 = 0,26 √50−1 Prima di procedere consiglio a questo punto di svolgere l’esercizio di pag 170, il 6.1 (testo esercitazioni di psicometria) perché esso permette di capire meglio questi passaggi e questi calcoli. L’esercizio permette di capire bene la differenza che c’è nel calcolare la media e la varianza della popolazione (prende come esempio una popolazione fittizia di 5 elementi con valore pari a 2,4,6,8,10) e poi passa a lavorare sui campioni presi da questa popolazione, campioni di numerosità N=2. È interessante ed importante notare che quando si lavora con i campioni subentra anche il concetto e quindi il valore della frequenza. Inseriamo un altro concetto: il rischio A questo punto interviene il concetto di rischio. Voglio stimare quanto è la media della popolazione da cui ho estratto il campione, non la conosco e quindi posso stimare un intervallo dentro il quale potrebbe cadere il valore della media che cerco. Non arrivo ad un numero definito ma arrivo a stabilire un intervallo dentro il quale più o meno dovrebbe cadere la media della popolazione da cui ho estratto il campione. Come faccio a definire tutto questo? Siccome ho un campione che supera le 30 unità posso avvalermi della legge dei grandi numeri e supporre che la media si disponga secondo una curva normale che ha delle caratteristiche ma soprattutto è tabulata. Ora questa tavola come si legge? Su di essa si cerca lo z ossia un valore che mi permette di calcolare l’intervallo dentro il quale potrebbe cadere la media che cerco. Non ho calcoli definitivi ma probabilistici quindi assumo una fiducia del 95% o del 99%, ossia corro un rischio che al 5% o all’1% che io mi sbagli e la media che troverò non cade per davvero in quell’intervallo che calcolo. Allora poiché la curva di Gauss o normale è simmetrica in base ai tabulati posso vedere che con un rischio pari a 0.05 che sarebbe quello relativo ad una fiducia del 95%, io devo dividere per via della simmetria 95% diviso 2, ossia 0,95/2= 0.475 al quale corrisponde sulla tavola uno z pari a 1,96 Ora posso calcolare l’intervallo dentro il quale cade la media da cui è stato estratto il campione. Siccome c’è la formula che dice che Z= 𝑥̅ − µ 𝜎𝑥̅ ottengo che µ= 𝑥̅ ± z (𝜎𝑥̅ ) Per cui alla fine ottengo un intervallo dentro il quale, più o meno, cade la media che cerco e quindi definisco l’estremo superiore e quello inferiore dell’intervallo in cui cade la media Limite superiore: µ= 𝑥̅ + z (𝜎𝑥̅ ) Limite inferiore: µ= 𝑥̅ − z (𝜎𝑥̅ ) 17 17 E se il campione con cui lavoro è inferiore a 30 elementi? Quando il campione con cui lavoro è inferiore ai 30 elementi allora non si lavora con la tavola della distribuzione normale ma con quella t student, quindi invece dello z devo calcolare quanto è la t area in base al rischio che ho assunto se del 95% o del 99% La formula matematica è la stessa per il calcolo dell’intervallo in cui cade la media, l’unica cosa che al posto di z ho il valore di t. 18 18 Lezione 2 Ho un indicatore X preso da un campione. La statistica inferenziale abbiamo detto che vuole sempre arrivare ai valori della popolazione partendo dai campioni, per cui mi chiedo: questo campione che ha un valore X viene da una popolazione che ha un certo parametro che chiamo Xgrande? Noi lavoriamo sempre sulle ipotesi per cui in merito alla popolazione formulo una ipotesi ovvero sia mi attendo che una data popolazione abbia un certo parametro, visto però che lavoro solo sul campione e mai direttamente su tutta la popolazione, fatti tutti i dovuti calcoli, arrivato a stabilire matematicamente il valore del parametro, mi chiedo alla fine se questo valore che ho ottenuto con i calcoli è vicino a quello che io mi attendevo. C’è una distanza? L’ipotesi che io avevo formulato viene confermata dai calcoli che ho poi eseguito? Mettiamo caso che tra l’ipotesi di partenza che avevo formulato ed i risultati ottenuti c’è una distanza. A cosa posso attribuirla? La risposta può essere una di queste due. 1. Al caso. L’ipotesi che io avevo formulato è vera, la distanza che ho ottenuta è tale, ossia così irrilevante che posso dire che la mia ipotesi iniziale o nulla1 è vera 2. La distanza invece può succedere che sia notevole quindi non è possibile che la differenza sia una semplice causalità ma c’è una causa ben precisa, quindi la mia ipotesi nulla va allontanata e quindi devo optare per una ipotesi alternativa. Capiamo allora che la questione cruciale è proprio questa distanza tra valore calcolato e valore atteso. Quanto deve essere, che dimensioni devo avere per regolarmi se l’ipotesi nulla è da tenere o da confutare? Immaginiamo che faccio una intervista sulla pillola a 10 persone. Mi attendo che i si ed i no si equivalgano, la mia ipotesi nulla quindi è che la probabilità di risposte che indico con la sigla p sia uguale a ½ del campione quindi uguale a 0.5 Siccome la risposta alla domanda è si o no, la variabile la chiamo dicotomica e quindi binominale Volendo formulare con i simboli il caso in esempio dico che 1. L’ipotesi nulla 𝐻0 è che i si ed i no si equivalgono quindi p=0.5 2. Ipotesi alternativa 𝐻1 è che la probabilità delle risposte non sia pari alla metà ma che la probabilità di risposte sia p>di 0,50 L’ipotesi che formulo è che nella media la probabilità di risposte tra si e no sia di np ossia di n per p e quindi di 10 per 0.5= 5 Succede che ad un certo punto ho un certo campione di persone a cui somministro le domande circa il si o il no alla pillola, come posso stabilire se questo campione proviene dalla popolazione nella quale io mi attendo che le risposte di si e di no saranno del 50% per ognuna? Quindi, per essere più chiari 1 La parola “nulla” non deve trarre in inganno, il senso infatti non significa falsa o errata, ma ipotesi zero, iniziale, di partenza (spiegazione mia) 19 19 Punto di partenza: ho una popolazione nella quale ipotizzo che la percentuale delle persone favorevoli e di quelle contrarie alla pillola è del 50%. Secondo momento: ho un campione a cui somministrando le domande su dieci persone non si verifica che 5 dicono si e 5 dicono no, ma 6 dicono di no. Questo campione viene dalla popolazione iniziale o appartiene a tutt’altra popolazione? Nel mio campione ho ottenuto 6 no, quindi cosa faccio? Applico l’equazione binominale ossia F(x)= 𝑛∁x 𝑝 𝑥 𝑞 𝑛−𝑥 Cosa sono questi fattori? 20 nCx è il numero dei modi in cui si possono combinare x successi e n-x prove. Questo fattore lo si calcola in questo modo nCx= 𝑛! 𝑥!(𝑛−𝑥)! n! si chiama enne fattoriale e x! È x fattoriale come si calcola questa formula? n = 10 x= 6 quindi nCx ossia 10C6= 10𝑥9𝑥8𝑥7𝑥6𝑥5𝑥4𝑥3𝑥2𝑥1 10! = = (6𝑥5𝑥4𝑥3𝑥2𝑥1)(10−6)! 6!4! 0,2051 approsimiamo a 0,20= 20% Devo fare per forza tutto questo lungo calcolo con i valori fattoriali? Non c’è bisogno di questo lungo calcolo probabilistico visto che abbiamo a disposizione le tavole delle distribuzioni normali per cui conoscendo i valori di p e di n posso risalire tramite le tavole della distribuzione binominale a stabilire la percentuale alla quale corrisponde il numero di risposte che ho ottenuto sul complesso delle n interviste che ho fatto. Questa percentuale mi dice che posso ancora dire che quel campione viene da una popolazione dove presumo che i si ed i no sono di un p=0.5? Mi serve un riferimento con il quale comparare il mio risultato al fine di capire se l’ipotesi mia iniziale (ossia che il campione che ho in possesso viene da una popolazione dove ho un certo parametro) posso ancora accettarla o rifiutarla. Questo valore critico viene chiamato α ossia una probabilità critica che può essere del 5% o dell’1%. Se il valore che ho trovato ossia la probabilità in base a p ed n è superiore allo 0.05 allora posso accettare l’ipotesi nulla. Dalle tavole binominali risulta che con un n pari e 10 ed un p pari a 6 il valore di probalità che ottengo è di 0,20 che è maggiore di 0,05 (0,20 significa che ho il 20% di probabilità che il campione appartiene alla popolazione di riferimento, mi ero dato un alfa pari al 5% quindi la probabilità effettiva è molto superiore al limite minimo che mi ero posto) posso quindi accettare che la differenza tra i si ed no è irrilevante quindi affermare che quel campione viene dalla popolazione dove secondo la mia ipotesi iniziale mi attendevo un valore di probabilità di divisione tra i si e no del 50%. 20 Se invece avessi un altro campione che mi da 9 no, vedrò che il valore che ottengo per un n pari a 10 ed un p pari a 9 è 0, 0977 che approssimato è 0,01 quindi inferiore a 0.05 quindi devo rifiutare l’ipotesi nulla ed accettare una ipotesi alternativa. Praticamente succede che i calcoli mi hanno detto che ho una percentuale dell’1% che quel campione viene dalla popolazione dove i si ed i no erano equamente divisi, ma io mi ero dato un margine di rischio di 0,05 ossia del 5%. La percentuale che quel campione appartenga alla popolazione è inferiore al margine di rischio, quindi rifiuto la prima ipotesi ossia che il campione viene dalla popolazione di riferimento ed accetto un’altra ipotesi detta alternativa, ossia che quel campione viene da un’altra popolazione. Possiamo capire quanto importante sia α. Esso è un valore decisionale perché in base ad esso stabilisco la significatività di un risultato ossia in base ad esso decido se accettare o rifiutare l’ipotesi nulla. Alfa è quindi anche un margine di rischio perché in base ad esso decido se accettare o confutare l’ipotesi Hzero e quindi il rischio di rifiutarla se per caso fosse vera. Possiamo allora a questo punto capire che ci sono due tipi di errore che è possibile commettere 1: l’errore di primo tipo ossia rifiutare Hzero quando è vera. Questo tipo di errore lo si chiama errore α 2: l’errore di secondo tipo ossia accettare Hzero quando è falsa. Questo tipo di errore si chiama β I due errori α e β sono complementari, più basso è alfa maggiore è la possibilità di cadere nell’errore beta. Le ipotesi poi si classificano nel seguente modo 1. Ipotesi di uguaglianza (esempi dei quesiti: la media del campione è uguale alla media della popolazione, la quota di si è uguale alla quota dei no, la percentuale dei maschi è uguale alla percentuale delle donne) 2. Le ipotesi alternative sono sempre ipotesi che implicano una differenza appunto tra due ipotesi ed è bidirezionale (es: la media dei maschi è differente dalla media delle femmine) 3. Ipotesi monodirezionale destra: la media dei maschi è maggiore della media delle femmine 4. Ipotesi monodirezionale sinistra: la media dei maschi è minore di quella delle femmine Proviamo a fare un esercizio e cerchiamo di capire bene cosa è l’intervallo di fiducia (aggiunta mia) Quando io formulo delle ipotesi dico che assumo un rischio del 5% o dell’1% quindi che prendo una fiducia del 95% o del 99%. Cosa significa tutto questo? Significa che io sto cercando di verificare una ipotesi, quindi sto cercando un valore che nella distribuzione nominale spero che cada dentro un intervallo di fiducia. Non ho certezze, ho probabilità. Allora cerchiamo di capire anche cosa è un intervallo di fiducia e di avere una “visione” concreta in qualche modo, dell’intervallo di fiducia I valori si dispongono secondo la distribuzione nominale secondo una curva. Prendiamo l’esempio di un esercizio della dispensa per capire meglio. Mi viene chiesto di calcolare gli estremi dell’intervallo 21 21 di fiducia al 95% per un campione che ha Numerosità n=100, deviazione standard ơ=25, e un xmedio= 24. Cosa mi sta chiedendo l’esercizio? Mi sta chiedendo praticamente di andare ad individuare sul diagramma dove devo collocare la media. Io praticamente sto lavorando su di un campione e di questo so che la media del campione preso è 24 ma la media della popolazione intera invece dove cade, ossia a quanto corrisponde? Un valore esatto non riesco a trovarlo, posso solo trovare un valore orientativo, posso cioè dire più o meno a quanto corrisponderà la media della popolazione, ma non quando è nello specifico, questo più o meno altro non è che l’intervallo di fiducia. Allora passo ai calcoli. Posso lavorare con i tabulati della distribuzione normale perché il mio campione è superiore a 30. Lavoro prima assumendo l’intervallo di fiducia al 95% quindi la domanda è: con una probabilità (fiducia) del 95% quando sarà il valore della media della popolazione intera se la media presa da un suo campione è pari a 24? Devo provare sulla tavola i valori degli Z1 e Z2, quindi il procediamento è questo. La percentuale 95% corrisponde al valore 95/100 ossia 0,95. Tenendo conto dei due assi perpendicolari della curva normale vuol dire che questo “pezzo” di 0,95 è diviso in due parti che valgono 0,95/2= 0,475. Sulle tavole del libro di testo, quelle della curva normale, vedo che questo valore 0,475 corrisponde a 1,96. Cosa è questo valore? È lo Z per cui posso trovare l’intervallo di valori dentro il quale con una probabilità del 95% mi cade il valore della media della popolazione. Come calcolo l’intevallo? Esso ha due estremi, per applicare mi servono alcuni dati che già possiedo ed altri posso calcolarli. La formula è µ= 𝑥̅ +/- z (s) xmedio ce l’ho, z l’ho trovato, s= ơ √𝑛 = 25/√100 = 2,5 Estremo primo ossia µ= 𝑥̅ + 𝑧 (𝑠)= 24+1,96 x 2,5= 28,9 Estremo secondo µ2= 𝑥̅ − 𝑧 (𝑠)= 24- 1,96 (2,5)= 19,1 Quindi con una probalità del 95% e quindi con il rischio di aver sbagliato del 5% il valore della media della popolazione da cui ho estratto il campione che ha media 24, cade in una range di valori compresi tra 28.9 e 19.1. E con la propabilità del 99%? Il rischio di sbagliarmi è allora più ristretto ossia all’1%. Anche qui, devo trovare z, per cui 0,99/2= 0,495 che sulle tavole corrisponde a z= 2.58 Applicando le stesse formule sopra viste allora ottengo questo risultato ossia che con una probabilità del 99% ed un rischio dell’1% la media della popolazione da cui ho estratto il campione con xmedio pari a 24 avrà un valore compreso tra 17,55 e 30,35 Facciamo un altro esercizio sulla verifica delle ipotesi: la media di intelligenza italiana è pari a 100. Ho un campione di persone pari a 85 persone che presentano però una media pari a 110,5 e c’è una deviazione standard pari ossia s=5,7. Mi pongo 22 22 questa domanda: il campione è preso dalla popolazione italiana oppure questi 85 tizi sono di altra nazione? La domanda con i simboli la formulo così 𝐻0 : la media della popolazione italiana è uguale alla media della popolazione da cui ho estratto il campione quindi µ=µ𝑥̿𝑥 = 100 oppure µ≠ µ𝑥̅ ≠ 100 Il quesito vuole che la fiducia sia del 99% quindi del 0.99. come fatto prima divido questo per due ed ottengo il valore 0.495 a cui corrisponde sulle tavole uno z=2,58 Cosa significa tutto questo? Significa che la media della popolazione italiana cade in un intervallo di zcritico che va da -2,58 a +2,58. Per capire se il mio campione appartiene agli italiani o meno non basta che confronto le medie, esse infatti sono diverse gli italiani hanno 100 di media e questi invece hanno 100,6 (saranno calabresi?). per fare un confronto corretto devo considerare lo zcritico di questo campione, lo devo calcolare. E come si calcola? Z= ̅̅̅̅̅̅ 𝑥−µ 𝑠 √𝑛−1 = 1𝑜0,6−100 5,7 √ 85−1 = 0,60 = 0,60/0,62= 0,97 5,7/9,16 Confrontiamo i risultati abbia che lo zcritico del campione è 0,97 quindi minore dello zcritico della media italiana che è 2,58 siccome lo zcritico del campione “sta dentro” lo zcritico della nostra fiducia, ossia non supera quel valore di zcritico corrispondente al 99% di fiducia, allora posso dire che la media del campione da cui ho estratto il campione è uguale alla media della popolazione di riferimento. 23 23 Lezione 3 La verifica delle ipotesi nel caso di un campione L’esercizio illustrato nella pagina precedente aiuterà meglio a capire tutto ciò che viene illustrato a questo punto. Inoltre avremo modo di capire meglio come si usa la tavola t di student. Di cosa parliamo in questa lezione? Si tratta del confronto che vado ad effettuare tra il parametro di una popolazione da cui estraggo un campione ed un’altra popolazione con la quale devo effettuare il confronto. La domanda che mi pongo in pratica è questa: ho un campione e devo valutare se il campione su cui lavoro è preso da una sola popolazione di riferimento oppure appartiene ad una altra popolazione (per esempio ho un campione di ragazzi che ha una media di voti del 9, voglio capire se è stato preso da una certa popolazione a cui mi riferisco per esempio la popolazione della scuola dove insegno, oppure questo campione appartiene alla popolazione di un’altra scuola). Per fare questi confronti ho bisogno di due valori fondamentali: la media e la varianza. Teniamo sempre conto dei simboli con i quali indichiamo certi valori ossia 𝜎 2 = varianza della popolazione 𝜎𝑥2 = deviazione standard della distribuzione campionaria che si ottiene con questa formula (𝜎 è la varianza della popolazione) 𝜎𝑥2 = 𝑠2 𝑛−1 Dove 𝑠 2 = deviazione standard del campione Come faccio il confronto tra popolazione e campioni? Prendiamo un esempio. Gli studenti delle scuole tecniche di Roma hanno un punteggio in una attività scolastica che ha come media 100 (µ=100). Si pensa che se gli studenti vengono sottoposti ad un corso di formazione specifico tale punteggio aumenti. Prendo quindi un campione di 80 soggetti che hanno seguito un corso di formazione. La media di questo campione mi risulta 𝑥. ̅= 105,62 La varianza 𝑠 2 = 20 Quale è l’ipotesi che voglio stabilire? Voglio dimostrare che questo campione viene da una popolazione sottoposta a trattamento di formazione e non da una popolazione senza trattamento che aveva come media 100. Siccome il mio campione ha media 105,62 allora posso ipotizzare che questo campione non venga da popolazione con media 100 ma da popolazione diversa ossia sottoposta a trattamento. 24 24 E’ possibile però che si stia realizzando un altro caso ossia, che questo valore diverso di media non dipenda da trattamento, che questo campione di ragazzi non abbia avuto una media di 105,62 perché sottoposto a trattamento (un corso di approfondimento e di potenziamento per esempio). E’ cioè possibile che questi ragazzi non appartengano a popolazione diversa da quella di riferimento ma che sia semplicemente un caso che la media del campione sia piu’ alta. Posso allora formulare le mie ipotesi 𝐻0 : la media della popolazione da cui è estratto il campione è uguale a quella di riferimento quindi è solo un caso che il campione ha una media un po più alta 𝐻1 = la media della popolazione da cui è estratto il campione è maggiore di quella della popolazione di riferimento per cui il campione viene da altra popolazione ossia da un gruppo di studenti che hanno avuto un corso di formazione e di potenziamento questo concetto della seconda ipotesi posso scriverlo, usando i simboli, in questo modo µ𝑥̅ > µ La direzione maggiore indica la destra quindi l’ipotesi alternativa la definisco monodirezionale destra Devo scegliere a questo punto il rischio di errore di primo tipo ossia il rischio di rifiutare l’ipotesi nulla quando è invece vera per cui stabilisco che esso è del 5% che corrisponde ad una fiducia del 95% quindi dico che 𝛼 = 0,005 Come faccio a dare risposta a questi criteri? Cosa devo confrontare per avere una risposta e quindi stabilire se è vera la prima o la seconda ipotesi? Quello che dovrò fare è riuscire a calcolare lo zcritico della popolazione della scuola e poi lo zcritico del campione, il loro confronto mi permetterà di trovare le risposte che cerco (manco fossi Indiana Jons…..) Che dati ho? Conosco la media del campione ossia 105,62 Conosco il numero del campione ossia 80 soggetti Conosco la varianza del campione ossia s= 20 La prima cosa che faccio è conoscere la varianza della distribuzione campionaria ossia 𝜎𝑥̅ 𝜎𝑥̅ = 𝑠 √𝑛−1 Questo valore chiamato anche errore standard mi serve per poter andare sulle tavole per arrivare a conoscere quello che è il cosiddetto zeta critico ossia 𝑧𝑐 25 25 Cosa significa tutto questo? Devo fare dei confronti tra zeta critici il che significa: 1. Con i calcoli ho ottenuto l’errore standard del mio campione (in questo caso esso è di 2,25) 2. Io ho accettato di assumere un margine di rischio dello 0,05. Questo valore in una distribuzione normale che z critico ha? Per calcolarlo devo fare questo calcolo: 1 2 – α = 0,5 -0,05 = 0,45 26 Vado a controllare 0,45 sulla tavola a quale 𝑧𝑐 corrisponde e vedo che esso corrisponde a 1,64 1,64 è lo zcritico della popolazione riferito al margine di fiducia che mi sono prefissato Ora devo calcolare lo 𝑧𝑐 del mio campione, come posso avere questo valore? La formula è Z= 𝑥̅ - µ𝑥̅ / 𝜎𝑥̅ Questo valore che nel caso dei miei valori dell’esempio è di 2,49 lo confronto con lo zeta critico dell’errore prefissato e cosa ottengo? Ottengo che 2,49 è > di 1,64 quindi rifiuto l’ipotesi nulla e accetto l’ipotesi alternativa, quindi il campione di studenti con media 105,62 non veniva da una popolazione normale di studenti ma da una popolazione di studenti sottoposta a trattamento di corso di formazione che he ha aumentato le competenze. Per essere più chiari: se lo zcritico del campione era uguale o inferiore a quello relativo la margine di fiducia che mi ero stabilito allora significava che il campione viene dalla popolazione scolastica e che la media era alta nel campione per puro caso (erano tutti ragazzi di origine calabrese) Siccome lo zcritico del campione è maggiore, esce dal margine di fiducia, allora vuol dire che questi ragazzi del campione vengono non dai ciucci di tutta la scuola, ma appartengono a quegli sfigati secchioni che si sono fatti un corso di potenziamento guidato da un insegnante calabrese. Per capire ancora meglio Quando in un quesito mi viene chiesto di individuare se un campione appartiene o meno ad una popolazione di riferimento, posso avere alcuni valori ed altri no. Ricordiamo che per capire se un campione viene da una popolazione oppure da un’altra io devo sempre fare un confronto tra gli zcritici ossia tra quello della popolazione di riferimento e quello del campione. Ora facciamo un esempio 26 i bambini di terza elementare facendo un test di lettura hanno una media di punteggio pari a 100 e la deviazione standard è di 10. Ho un campione di 150 bambini che frequentano al nord e voglio 27 Capiamo meglio come funziona la tavola di tstudent Il lavoro fatto finora aveva a che fare con campione di numero superiore ai 30, ma se ho un campione con n elementi pari o inferiori alle 30 unità che procedimento devo usare? In questo caso non mi rifaccio alla tabulazione della distribuzione normale con i valori di zcritico ma alla tavola t di student. t: 𝑥̅ − µ𝑥̅ 𝜎𝑥̅ 27 il valore 𝜎𝑥̅ visto che lavoriamo con la t di student implica il concetto di gradi di libertà. Per capire facciamo un esempio ho 17 alunni di terza media. Il livello di apprendimento dell’intera popolazione della terza media è di µ = 20 il mio campione dei 17 alunni ha un xmedio di 21,52 ed una varianza s= 5.2 le ipotesi quali sono? Hzero: la media della popolazione da cui è estratto il campione è la stessa del campione e la differenza di medie è solo casuale, ossia i 17 ragazzi sono stati presi dalla mia popolazione di riferimento H1: il campione non appartiene alla popolazione di riferimento quindi sono 17 ragazzi presi da altra scuola o semplicemente rispetto agli altri hanno fatto un corso che gli altri non hanno sostenuto Anche in questo caso si assume un margine di errore ossia accetto il rischio di sbagliarmi e quindi di rifiutare l’ipotesi nulla anche se è vera con una percentuale del 5% Il mio alfa allora è 0.05 La prima cosa che faccio è sempre il calcolo del mio errore standard del campione il famoso 𝜎𝑥̅ . 𝑠 𝜎𝑥̅ = = 5,2/ √17 − 1 = 1,3 √𝑛−1 Calcolo adesso il mio t critico, quello proprio del mio campione con x medio di 21,52 e con la media della popolazione totale pari a 20. Applico la formula per calcolare lo tc critico del campione t: : 𝑥̅ − µ𝑥̅ 𝜎𝑥̅ = 21,52−20 1,3 = 1,17 Otterrò che il t critico del mio campione è pari a 1,17 Il concetto di gradi di libertà per consultare la tavola tstudent Avevo preso come range di rischio di errore lo 0.05. sulla tavole t di student a quanto è pari lo z critico di 0,05? Per individuarlo devo tenere conto dei gradi di libertà del mio campione. I ragazzi erano 17, i gdl sono n-1 quindi 16. I gradi di libertà di un campione sono sempre n-1 dove n è il numero del campione. Quindi sulla tavola di tstuden sulla colonna di sinistra trovo i gradi di libertà per il mio campione mentre sulla barra in alto devo considerare se sto lavorando con ipotesi monodirezionale o bidirezionale 28 28 Con 16 gdl e un alfa di 0.05 ho uno t pari a 1,746 Posso compare i due tcritici: quello del mio campione = 1,17 quello di alfa 0.05 = 1, 746 poiché lo t del mio campione è minore di quello di alfa allora accetto l’ipotesi Hzero, la media del mio campione è leggermente superiore a quella della popolazione di riferimento, ma di poco per cui posso presumere con il rischio di sbagliarmi pari al 5% delle possibilità che i 17 ragazzi sono stati presi da quella scuola con media 100 ed il fatto che abbiano avuto una media leggermente superiore è a motivo di culo e non di corso di formazione ed approfondimento frequentato. Con Ipotesi bidirezionale Finora abbiamo visto il caso di ipotesi monodirezionale, consideriamo ora l’esempio di una ipotesi bidirezionale. Nella popolazione la media di gradimento di un programma televisivo è µ= 4.41 Viene preso un campione di 30 ragazzi sotto i 19 anni e si ottengono questi risultati in merito al gradimento del programma ossia la media di gradimento (ossia l’𝑥̅ ) è 3.73 mentre s= 1.58. questi ragazzi sono stati estratti dalla popolazione di riferimento o da altra popolazione? Il margine di errore è anche questa volta 0.05 Prima di tutto vado a vedere con un alfa di 0.05 e con gdl 30-1 a quale valore corrisponde lo t critico: esso è pari a 2.045 (sulla tavola devo guardare la riga detta bidirezionale) Calcolo lo t critico del mio campione, per applicare la formula 𝑥̅ - µ𝑥̅ / 𝜎𝑥̅ mi serve il valore di 𝜎𝑥̅ So però che 𝜎𝑥̅ = s/√𝑛 − 1 Ottengo un valore di t del mio campione pari a -2,34 valore che è maggiore di tcritico allora vuol dire che cade nella zona di rifiuto della ipotesi Hzero per cui la popolazione del campione dei ragazzi è diversa da quella di riferimento del programma gradito che avevo preso come riferimento. 29 29 Quarta lezione Consideriamo ora la verifica delle ipotesi tenendo conto della forma della distribuzione. Finora abbiamo lavorato tenendo conto della popolazione e di un campione e se i dati del campione erano riferibili o meno ad un certa popolazione. Ora però facciamo un passo in avanti e vogliamo tenere conto di come un certo valore si distribuisce nel campione e nella popolazione. L’esempio ci aiuterà a capire meglio. Abbiamo un gruppo di giovani che possono scegliere di leggere tre tipi di quotidiano: A,B,C. chiediamo di scegliere quale quotidiano preferiscono tra i tre. Chiamiamo K il numero di scelte ovvero 3. Avremmo allora questa distribuzione Giornale A B C Frequenza (ossia quante preferenze) 5 15 22 Totale delle frequenze: 42 (ossia 42 ragazzi) Formulo le mie ipotesi da verificare ponendomi delle domande e cioè: nel campione che ho in mano le preferenze ai diversi quotidiani si sono distribuite così come il tabulato sopra scritto mi ha indicato, ma nella popolazione più ampia le preferenze si distribuiranno come è avvenuto nel campione? Si distribuiranno equamente e non in modo differente come è accaduto nel campione? Queste domande le pongo ancora una volta con un linguaggio statistico formulando quindi le cosiddette Hzero ed Huno 𝐻0= la popolazione da cui è estratto il campione ha delle frequenze di preferenza uguali 𝐻1 = nella popolazione da cui è stato estratto il campione le frequenze sono diverse e non egualmente distribuite La prima ipotesi è quella riferita alla distribuzione che io teoricamente presumo si verifichi e quindi la chiamo distribuzione teorica, la seconda distribuzione che invece si può presentare la chiamo distribuzione empirica. Il riferimento statistico che uso in questo caso è quello del test del chi quadro 𝐶ℎ𝑖 2 . Vuol dire che c’è un valore che è appunto il 𝐶ℎ𝑖 2 che devo calcolare: il confronto del 𝐶ℎ𝑖 2 mi permetterà di dare risposte alle mie domande (che di certo mi faranno perdere il sonno se non trovo ad esse una risposta….) la formula per calcolare il chiquadro è 30 30 𝑘 2 𝐶ℎ𝑖 = ∑ (𝑓0−𝑓1 ) 1 2 𝑓𝑡 𝑓𝑜= frequenza osservata 𝑓𝑡 = frequenza teorica 31 La prima ipotesi la posso praticamente esprimere in questo modo ossia 𝐻0: 𝑓𝐴= 𝑓𝐵=𝑓 ossia sono tutte e tre uguali 𝑐 Se questa ipotesi fosse vera se cioè fosse vera Hzero allora la frequenza uguale per tutti dovrebbe essere 14, questo tipo di frequenza costituisce quella che chiamo Frequenza Teorica e la sua formula è 𝑓𝑡= 𝑛 = 𝑘 42 = 14 3 Anche in questo caso devo scegliere una percentuale di rischio o di errore che accetto di correre di rifiutare l’ipotesi nulla. Mi do quindi un errore alfa che è ancora una volta pari al 5% e quindi uguale a 0.05. vado a controllare sulla scala del 𝐶ℎ𝑖 2 a quanto corrisponde un 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 avendo come valori di riferimento alfa pari a 0.05 e gdl pari a k-1 ossia 3-1= 2 (tavola pagina 355 del testo Elementi di statistica per la psicologia) Il valore di 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 che trovo è di 5,99 Io però ho visto che le frequenze si sono distribuite sul mio campione per cui calcolo il 𝐶ℎ𝑖 2 del mio campione usando la formula su scritta 𝐶ℎ𝑖 2 = ∑𝑘1 (𝑓0−𝑓 ) 2 1 𝑓𝑡 = 10.43 (controllare sulla dispensa lo svolgimento del calcolo e quindi relativa sostituzione dei numeri ai simboli) Devo comparare 𝐶ℎ𝑖 2 e 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 e trovo che 10.43>5,99 per cui rifiuto l’ipotesi nulla ed ammetto che il mio campione non ha delle frequenze equamente distribuite in effetti è il quotidiano C che ha le maggiori preferenze rispetto agli altri, quindi come accaduto nel campione anche nella popolazione le preferenze non si distribuiranno equamente ma in modo differente, ossia almeno una sarà diversa dalla altre preferenze. 31 A questo punto occorre inserire una differenza di concetti ossia proprio quello della forma della distribuzione 𝐶ℎ𝑖 2 noi diciamo che è una forma di distribuzione discreta ossia è composta da una sequenza definita di categorie nominali o ordinali (nomi e numeri) Esiste però una forma di distribuzione che non è discreta, non è composta da elementi separati ed allineati ma è continua, questa forma si chiama Lamda il simbolo è χ2 Per rendere il valore del Chi quadro vicino a quello di lamda occorre effettuare la correzione di Yates che si effettua con questa formula (una specificazione delle formula del 𝐶ℎ𝑖 2 ) 𝑘 2 𝐶ℎ𝑖 = ∑ (𝑓0−𝑓1 −0.5) 2 𝑓𝑡 1 Per poter usare come riferimento della distribuzione delle frequenze il calcolo dello 𝐶ℎ𝑖 2 devo tenere conto però di alcune limitazioni. Non posso usarlo infatti se • • • Le categorie K sono completamente indipendenti l’una dall’altra e non esiste possibilità di confronto Le categorie K sono solo due e le frequenze teoriche minori di 5 Le categorie K sono superiori a 2 ma le frequenze teoriche non possono essere inferiori di 1 in nessuna categoria e possono essere minori di 5 in non più del 20% Facciamo questo esempio Abbiamo 15 soggetti e si chiede ad essi quanto sono in accordo con una certa affermazione Abbiamo allora Frequenza osservata A Moltissimo 2 B Molto 2 C Abbastanza 1 D Poco 2 La frequenza teorica di quanto dovrebbe essere? 15/6= 2,5 32 E Pochissimo 6 F Per niente 2 32 Accade che oltre il 20% è inferiore a 5 quindi per usare il procedimento del 𝐶ℎ𝑖 2 come posso fare? Unisco ossia compatto le categorie simili arrivando ad avere non 6 categorie ma 3 unendo quelle simili Molto: composta da moltissimo più molto e quindi f=4 Mediamente: composta da abbastanza e poco con f=3 Per niente: composta da pochissimo e per niente e con f=8 La frequenza teorica ora diventa 15 diviso 3 e non più sei come prima il che significa che 𝑓𝑜=5 33 Per ottenere 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 devo ricordare sempre riferito ai gradi di libertà che sono pari a K-1, in questo caso con la compattazione delle categorie che ora sono sei o gdl sono 2 (k-1=3-1=2). Il valore sulle tavole è per α= 0.05 e gdl 2 ottengo un valore di Applico poi il calcolo del 𝐶ℎ𝑖 2 𝐶ℎ𝑖 2 = ∑𝑘1 (𝑓0−𝑓 ) 2 1 𝑓𝑡 = 2,8 Confronto i dati vedo che 𝐶ℎ𝑖 2 < 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 per cui accetto l’ipotesi nulla e confermo che il gradimento nelle popolazione di un qualcosa di chi ho chiesto è equamente distribuito. Formule utili per gli esercizi t: Z= 𝑥̅ − µ 𝜎𝑥̅ ottengo che 𝑥̅ − µ𝑥̅ 𝜎𝑥̅ µ= 𝑥̅ ± z (𝜎𝑥̅ ) formula per calcolare i limiti inferiori e superiori Altre formule sono quelle per calcolare s ossia lo scarto quadratico medio ̿̿̿̿̿̿̿̿ 2 ∑(𝑥−𝑥) S= √ 𝑛 − ̿̿̿̿̿̿ 𝑥 2 𝑠= 33 𝑠 √𝑛−1 Lezione cinque La verifica delle ipotesi nel caso di due campioni indipendenti (numerati le pagine di questa lezione al fine di andare a controllare le pagine a cui ti rimanderò) È un tipo di verifica molto usato in campo psicologico, si tratta del confronto tra le medie di due campioni differenti tra di essi per verificare se le medie delle rispettive popolazioni da cui i campioni provengono, sono differenti tra di esse e quanto differiscono l’una dall’altra. Per esempio i francesi si lavano più o meno degli italiani? Quante docce settimanali fanno in media i francesi? Quanto gli italiani? (sicuramente senza spese di molti soldi per fare indagini scopriremo che i francesi non si lavano molto perché quando venivano nella casa di esercizi spirituali di Ciampino dove stavo io lasciavano una puzza che altri mai lasciavano…) Allora come faccio a fare questi confronti tra popolazioni differenti? Seguendo un esempio cerchiamo di capire passo dopo passo come si effettua questo tipo di confronto. Immaginiamo che uno psicologo abbia lavorato con due campioni, uno di maschi ed uno di femminucce. I dati che ha attenuto su questi due campioni per misurare il tratto della dominanza sono questi Sesso Numero del X medio campione Maschi 15 4,9 Femmine 15 3,8 Varianza s 1,39 2,11 Varianza quadrato𝑠 2 1,93 4,45 al Quali sono le ipotesi con cui lavoro Hzero: la media della popolazione dei maschi è uguale alla media della popolazione delle femmine ossia con i simboli µ1=µ2 H1: la media delle femmine è minore della media dei maschi µ2< µ1 A questo punto cosa devo fare? Prima di tutto stabilito il margine di errore 𝛼 = 0,05 devo trovare lo tcritico. Come faccio a trovarlo? Devo considerare i gradi di libertà. Però sto lavorando con due campioni quindi i gradi di libertà saranno pari a numero del campione 1, più numero del campione 2, meno 2 N1+N2-2 Con un alfa pari 0,05 controllo sulla scade t di student e vedo che il mio tcritico di riferimento con il quale dovrò confrontare quel tcritico che tra poco calcolerò in base ai dati dei miei due campioni. Il mio tcritico di riferimento da quanto mi appare sulla tavola è di -1,701 (perché meno dirai? Perché nell’ipotesi H1 se fai caso e guardi il segno di minore indicala sinistra, quindi sinistra meno, destra più….semplice no? Se non hai capito ricorda che c’è sempre l’allevamento di mucche alpine come valida alternativa a psicologia….) Ora cosa devo fare? Devo prestare attenzione alla varianza. Io ho la varianza dei due campioni ma non quella della popolazione. Ci si pone allora una domanda: è possibile che la varianza delle due 34 34 popolazioni siano uguali? Saranno diverse? Non le conosco, come posso confrontarle? Possiedo solo la varianza dei campioni. Posso però stabilire in modo matematico che tipo di rapporto esiste tra le varianze proprio usando quelle dei due campioni che ho in mano. Esiste una tavola e quindi una distribuzione chiamata di Ficher che con una formuletta mi permette di calcolare questo rapporto tra le varianze, valore che mi è necessario per decidere che passi fare ulteriormente. Quindi ora devo calcolare il rapporto tra le varianze, rapporto che chiamo 2 F= 𝑠 𝑚𝑎𝑥 𝑠 2𝑚𝑖𝑛 Cosa significa questa formula? Vuol dire che faccio una divisione tra la varianza maggiore (maggiore come valore) e la varianza minore , se guardo i valori allora diventa 4,45 1,93 In realtà questa formula di F deve essere come dire “specificata”, il valore che devo ottenere deve essere più preciso per cui la formula per calcolare F diventa… 𝑛 2 1𝑠1 𝑛1−1 F= 𝑛 2 2𝑠2 𝑛2−1 15𝑥4,45 15−1 sostituendo i valori ho 15𝑥1,93 15−1 = 4,82 = 2,32 2,07 N.B: fai attenzione a non confonderti con i simboli ricorda che al numeratore (sopra) vanno sempre i valori della varianza maggiore (più grande), al denominatore (sotto) vanno i valori della varianza più piccola. (Quindi non è che dici chi sta sopra? Chi sta sotto? Amò oggi cambiamo posizione, non qui la regola è sempre questa…) A questo punto mi chiedo, a cosa mi serve questo valore F che ho trovato? Mi serve per andare a controllare la distribuzione di Fischer, tavola che trovo a pag 356 e seguenti del libro di testo. Come si legge questa tavola? A sinistra c’è una colonna (con numeri da 1 a 38) in alto una riga (con numeri da 1 a 500). Per controllarla devo fare prima di tutto questo passaggio Numero di campioni n1= 15 i gradi di libertà sono pari a n1-1= 14 Numero di campioni n2=15 i gradi di libertà sono n2-1= 14 In questo caso abbiamo 14 e 14 ma se avessi avuto valori diversi sulla colonna dovevo cercare il nimero minore, sulla riga il numero maggiore Per gdl 14 e 14 la F corrispondente è: 2,48 Fcritico= 2,48 confronto i due F F dei campioni= 2,42 quindi Fcritico < 𝐹 35 35 Cosa significa questo confronto? Se ricordi all’inizio del percorso ti ho detto che dovevamo confrontare le varianze per capire se le varianze dei due differenti campioni erano omogenee. È proprio questo calcolo degli “F” che mi permette di capire se le varianze sono omogenee. Allora fai attenzione a questo schema Se Fcritico (trovato sulla tavola di Fischer) è maggiore dell’F calcolato con la formula che hai visto allora le varianze sono omogenee Se Fcrtico (trovato sulla tavola di Fisher) è minore dell’F calcolato allora le varianze non sono omogenee. 36 Ora tu dirai. Che me frega sta storia delle varianze omogenee o meno? È importante invece perché noi ancora dobbiamo calcolare lo t relativo ai due campioni quindi se le varianze sono omogenee uno una formula, se non sono omogenee ne uso un’altra. Se le varianze sono uguali ̅̅̅̅̅̅̅̅̅ 𝑥2−𝑥1 t= 2+𝑛 2 2𝑠2 𝑛1+𝑛2 𝑛1𝑠 √ 1 ( ) 𝑛1+𝑛2−2 𝑛1𝑛2 per vederla più chiaramente guarda sulla dispensa (pag7) se le varianze non sono uguali abbiamo un’altra formula (pagine 7-8!) se ricordi avevamo già visto quanto era il t critico di riferimento (-1,701) ricordi come avevamo fatto? Con la formula N1+N2-2 e con 28 gradi di libertà avevo visto che t critico sulla scal t di student era per un alfa di 0,05. Ritornando ai miei campioni e visto che F era maggiore di F critico quindi uso la formula per varianze non omogenee. Sostituisco alla formula di pagina 8 i miei dati per calcolare t ed otterrò che −1,1 = √𝑜,46 −1,1 0,68 = 1,62 Il mio t è minore di t critico, non lo supero, resto nel margine indicato da tcritico, quindi accetto l’ipotesi nulla (ossia quella iniziale) e quindi confermo che tra la media maschile e quella femminile della oppositività non ci sono molte differenze. 36 La verifica delle ipotesi nel caso di due campioni indipendenti Seconda parte Finora abbia visto tutta una serie di calcoli che possono essere compiuti sui campioni quando le misura che possiamo fare su di essi sono di tipo quantitativo. Ma quando sui campioni e sulle popolazioni non possiamo misurare delle quantità ma delle “qualità” ossia dei costrutti psicolopgici come possono essere l’aggressività, l’oppositività, l’amicalità, come possiamo fare? Per fare tutto questo noi usiamo una scala riferita la test di Mann e Whitney. Vediamo come si usa. Prima di tutto occorre fare una fondamentale precisazione. Per usare questa scala occorre considerare il numero del campione ossia se i campioni con cui lavoriamo sono inferiori a 10, a 20 o superiori a 20. Altra cosa importante: non dimenticare mai che stiamo lavorando sul confronto tra dati di due campioni, ossia ho due campioni indipendenti (per esempio bambini che vengono da scuole diverse, adolescenti che vengono da zone italiane diverse, donne o uomini di fasce di età diverse). Vediamo un primo esempio e lavoriamo già con la prima tipologia del confronto ossia con campioni inferiori a 9 elementi ciascuno. Ho due gruppi di bambini di prima elementare A: sono 7 bambini che hanno frequentato l’asilo prima di essere iscritti in prima elementare B: 5 bambini, le mamme iperprottettive, pazze isteriche non li hanno mandati all’asilo volendo tenere quanto più possibile vicino a loro i loro cuccioli. Mi domando: i bambini con esperienza di asilo sono più socievoli di quella che non sono andati all’asilo? La socievolezza è uguale nei due campioni con o senza asilo? Formulo in modo scientifico lipotesi Hzero: socievolezza A=socievolezza B H1: socievolezza A> 𝑠𝑜𝑐𝑖𝑒𝑣𝑜𝑙𝑒𝑧𝑧𝑎 𝐵 Prima di andare oltre dobbiamo riprendere qui il concetto di RANGO? Cosa è? Quando io posso misurare quante sigarette fumano in media degli adolescenti io ho dei numeri quindi associo ad ogni soggetto il suo relativo numero di sigarette quotidiane e quindi ho una serie di numeri. Quando abbiamo a che fare coni costrutti le gerarchie, l’ordine dei soggetti, non posso farlo con numeri esattamente stabiliti, ma devo comunque stabilire un ordine. Posso quindi dire che per esempio Fabio è più aggressivo di Alessandra, alessandra più aggressiva di Barbara, Barbara di Agnese, Agnese di eleonora, Eleonora di Franco quindi sto facendo un ordine in base a maggiore o minore. Oppure posso creare anche un altro ordine ossia per esempio usando una classificazione ordinale o con delle lettere Fabio A Alessandra B oppure 1 2 37 37 Barbara C 3 Agnese D 4 Eleonora E 5 Franco F 6 Per cui se nel gruppo misura con i miei strumenti l’aggressività di Pasquale che mi risulta aggressivo quanto Agnese allora Pasquale ed Agnese stanno nello stesso rango 38 Andiamo ora ai nostri bambini . con la logica dei ranghi ho valutato e dato un punteggio ad ogni bambino Gruppo A Gruppo B soggetto A b C d e f punteggio 20 24 30 34 37 42 soggetto G h I l m 19 20 23 31 punteggio 18 N o Ora metto in ordine crescente i punteggi ed accanto ad ogni punteggio inserisco la sigla A oppure B a seconda se quel punteggio è corrisponde a quello di un Bambino del gruppo A oppure B. in ordine i punteggi sono (li metto in colonna) 18 accanto metto anche la sigla di riferimento del gruppo 19 B B 38 20 B 21 A 23 B 24 A 30 A 31 B 34 A 37 A 38 A 42 A Se osservo come si suggono B ed A, faccio questo piccolo escamotage matematico, tengo conto da quante A sono precedute Le B. le prime tre B non hanno nessuna A quinti diciamo che hanno 0 A, ma se considero la B corrispondente al valore 23 questa ha una A davanti che la precede e quindi scrivo +1, se vado a vedere la successiva B questa è preceduta da 3 A, una già contata e due che sono immediatamente precedenti, quindi questa B vale +3 Quindi ottengo questa formula 0+0+0+1+3= 4 questo è il valore di U che è il parametro di confronto con l’U critico che vado a cercare sulla relativa tavola per cui vado su di essa e considerando il numero dei campioni N1= 5 ed N2=7 trovo un valore di riferimento pari a 0.015, questo differisce dall’U= 4, per cui rifiuto l’ipotesi zero ed affermo l’ipotesi alternativa ossia che le due popolazioni differiscono tra loro e quindi le esperienze prescolari dell’asilo influiscono sulla socialità che i bambini dimostrano alle elementari. Che succede quado ho campioni con una numerosità tra 9 e 20 elementi? Facciamo un esempio. Ho due gruppi di bambini, uno ha frequentato l’asilo, l’altro no. Sono così distribuiti N1 sono 10 bambini N2 sono 15 bambini 39 39 li osservo per un periodo utile a fare delle considerazioni e poi con un margine di probabilità critica pari a 0,05 formulo le mie ipotesi Hzero: la socievolezza dei bambini è uguale per i due gruppi nonostante l’asilo H1: i bambini del secondo gruppo hanno un grado di socievolezza maggiore rispetto a quelli del primo gruppo che non hanno fatto asilo prima della scuola elementare Faccio i miei rilievi e per ogni bambino trovo un grado di socievolezza che indico con un punteggio. Faccio di tabelle, in una metto in orfine i bambini segnati con le lettere, acconto ci metto il relativo punteggio bambino A punteggio 2 B 3 bambino K Punteggio 6 C 10 L 8 M 7 N 22 D 11 O 4 E 12 P 13 Q 15 F 17 R 14 G 20 S 23 T 25 H 9 U 16 I 5 V 18 W 24 40 j 1 x 19 y 21 Chiamo R1 la somma dei punteggi del gruppo 1 ed R2 la somma dei punteggi del gruppo 2 a questo punto posso calcolare il valore U1 ed U2 U1=N1 x N2 + U2= N1 x N2 + 𝑁1 (𝑁1+!) 2 –R1= 115 𝑁2 (𝑁2+1) 2 – R2=35 Il valore di U che considero è quello minore quindi 35 Vado sulle tavole con i miei N1 ed N2 ossia con valore 10 e 15 cerco per un margine critico pari allo 0,05 quale è il valore critico di U. prendo la tavola che trovo a pagina 360 ossia la Tavola F. trovo un U critico pari a 44, confronto U critico ed U relativo ai campioni che abbiamo visto è 35. U< 𝑈 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 𝑞𝑢𝑖𝑛𝑑𝑖 𝑟𝑒𝑠𝑝𝑖𝑛𝑔𝑜 𝑙′ 𝑖𝑝𝑜𝑡𝑒𝑠𝑖 𝐻𝑧𝑒𝑟𝑜 𝑒 𝑐𝑜𝑛𝑓𝑒𝑟𝑚𝑜 𝑙′ 𝑖𝑝𝑜𝑡𝑒𝑠𝑖 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎. Il mio U “sta dentro” U critico, non esce fuori per essere molto concreto, quindi vuol dire che la scolarizzazione previa alla scuola elementare incide sulla socialità. Consideriamo ora quando lavoriamo con campioni di numerosità superiore ai 20 elementi. I procedimenti sono un po’ più complessi. Lavoriamo sempre con un esempio Abbiamo fatto una indagine sull’essere favorevoli o contrari all’aborto, ed abbiamo intervistato delle donne di fasce di età diversa Campione Numero Fasci a di età 40 A 10 Tra i 20 ed il 45 anni B 15 Tra i 46 ed i 70 anni 41 Le donne del primo gruppo si dispongono quanto all’essere favorevoli o contrarie in questo modo F C C F F F C F F FF Le donne del secondo gruppo si dispongono così C C C F C C F C C C F F C C C Posso creare una tabella a doppia entrata che mi facilita le cose….. speriamo Favo età contr totale 25-45 7 f1 3 f2 10 N1 46-70 4 f3 11 f4 15 N2 11 a1 14 a2 N= 25 totale Con questa tabella posso fare ora alcuni calcoli. Prima di tutto devo calcolare le frequenze teoriche che ottengo moltiplicando facendo in questo mod Prima frequenza teorica= Seconda frequenza teorica: 𝑎1 𝑥 𝑛1 𝑁𝑡𝑜𝑡𝑎𝑙𝑒 = 4,4 𝑎2 𝑥 𝑛1 = 5.6 𝑁𝑡𝑜𝑡 41 Terza: Quarta: 𝑎1 𝑥 𝑛2 = 6.6 𝑁𝑡𝑜𝑡 𝑎2 𝑥 𝑛2 𝑁𝑡𝑜𝑡 = 8,4 Ora creo un’altra tabella per riportarmi tutti i dati in ordine, in una colonna ci saranno i valori delle frequenze osservate, accanto i valori delle loro rispettive frequenze teoriche, poi accanto il risultato della frequenza osservata meno la teorica, acconto il quadrato ed accanto ancora il quadrato diviso la frquenza teorica Fo 7 3 4 11 ft 4.4 5.6 6.6 8,4 𝒇𝒐− 𝒇𝒕 2,6 -2,6 -2,6 2,6 (fo-ft) 𝟐 6,76 6,76 6,76 6,76 Totale (fo-ft) 1.54 1.21 1.02 0.80 4,57 𝟐 / ft Cosa è il risultato di questa tabella? È il 𝐶ℎ𝑖 2 risultante dei miei due campioni, ma devo cofrontarlo con un un Chi quadro critico, come lo trovo? Ho bisogno dei cossidetti gradi di liberà per calcolarlo. Come li ottengo? Se ci penso bene disponendo i valori in una tabella avrei creato una tabella con due righe e due colonne, ossia nelle due righe le fasce di età e nelle due colonne quanti erano favorevoli e quanto contrarie Età Età Quanti favorevoli? Quanto contrarie? I gradi di libertà si calcolano in questo modo (numero colonne-1) (numero righe-1)= (2-1) (2-1)= 1 2 Con un alfa di 0.05 ed 1 grado di libertà il 𝐶ℎ𝑖 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 è 3,84 Confronto i due Chi, quello dei miei campioni è maggiore del critico per cui rifiuto l’ipotesi nulla: le donne di età 46-70 sono non maggiormente contrarie all’aborto rispetto alle giovani. 42 42 La verifica delle ipotesi sui coefficienti di correlazione Prima di entrare in questa lezione, ti prego di numerare le pagine della dispensa così che tu possa individuare alcune formule direttamente dalla dispensa senza scriverle qui (sono piuttosto complesse e non possiedo l’opportuno programma) Finora abbiamo lavorato con un solo campione o con due campioni, e quando lavoravamo su di essi prendevamo in considerazione una sola variabile, per esempio o di una sola classe di ragazzi o di due classi a confronto (quindi o di un solo campione o di due) andavo a misurare per esempio il livello di aggressività o l’effetto di un corso di potenziamento in matematica. Ma se sullo stesso campione vado a misurare non una ma due variabili? E soprattutto, queste due variabili sono in rapporto tra di esse cosicchè se caria una varia anche l’altra? (la famosa coovariazione delle variabili: non fare il finto tonto perché in altre materie ne né parlato a meno che tu non sia arrivato a questo livello di studi superando gli esami con i punti del mulino bianco)… Per avere una rappresentazione grafica del variare di queste due variabili facciamo in questo modo: sull’asse delle x inserisco i valori della variabile x, sull’asse delle y inserisco i valori dell’altra variabile che misuro, sull’asse z avrò modo di individuare se veramente al variare di una c’è una variazione dell’altra e quindi se stanno in un rapporto di coovariazione La distribuzione secondo questo modello si chiama distribuzione normale bivariata, e per questa distribuzione abbiamo un coefficiente di riferimento, appunto il coefficiente di correlazione r detto anche di Bravais-Paerson. Esso permette di quantificare la relazione che esiste tra le due variabili che ho misurato, misure che ho fatto a scale di intervalli o di rapporti. Questo coefficiente non ha valori elevatissimi, tieni in mente che il suo valore si aggira tra – 1 e +1. Ora se vai a pagina 3 di questa lezione trovi la formula che devi ricordare per calcolare il coefficiente r, non dovrebbe esserti proprio estranea perché già in psicometria 1 hai studiato una formula simile. Ora lavoriamo su di un esempio. Sei un psicologo (poracci quando lo diventerai quelli che ti capiteranno sotto le mani) ed hai lavorato con 8 sorridenti e mocciolosi bambini. Le loro straordinarie mamme milf ti hanno dato il consenso e tu hai misurato con apposito test la presenza di due variabili X: disturbo dell’apprendimento ti domandi se esiste una relazione positiva tra le due variabili ossia se la variare di una Per applicare la formula di Bravais Paerson devi avere alcuni dativaria che til’altra tabuli Y: deficit verbale Sogg Deficit appre 𝑋 Deficit verbale 𝑌 𝑋𝑌 43 𝑋2 𝑌2 43 A B C D E F G H 10 14 140 9 12 108 10 16 160 7 11 77 8 11 88 11 15 165 9 13 117 7 10 70 Somma delle Somma delle Somma x= 71 Y= 102 xy=925 100 81 100 49 64 121 81 49 di Somma delle 𝑥 2 = 645 196 144 256 121 121 225 169 100 Somma delle 𝑌 2 = 1332 44 Con questi valori applico la formula di Bravais-Pearson per calcolare il mio r r= 0.90 Ricordi che l’intervallo di r deve essere tra -1 e + 1? Il nostro r è di 0,90, quindi piuttosto alto vuol dire che la relazione esiste, ma è significativa? Io con quella formula ho calcolato il mio r, quello relativo ai dati del mio campione, ora devo trovare un rcritico con cui confrontarlo? Come trovo questo r critico? Ci fissiamo sempre un margine di errore, di rischio (mi è necvessario perché òe tavole chiedono sempre e danno valori riferiti ad un certo alfa critico che scelgo di assumere). Mi prendo come errore un α= 0,01 (99% di fiducia!) uso la tavola di pag 364 del libro di testo la Tavola G. per leggere mi chiede alfa ma anche i gradi di libertà. Quanti sono? Siccome ho un solo campione ma due variabili (delle quali voglio stabilire se hanno un rapporto…) i gdl sono Gdl= n-2 gdl=8-2= 6 con α=0.01 e gdl= 6 rcritico= 0,789 Confronto i due r risulta che r> 𝑟𝑐𝑟𝑖𝑡𝑖𝑐𝑜 quindi se il mio r fosse stato minore di r critico non ci sarebbe stata correlazione tra le variabili, visto che il mio r è maggiore di r critico esiste correlazione, ossia esiste una relazione significativa tra le due variabili. Tieni conto che la tavola G può essere si monodirezionale che bidirezionale nel senso che se dovessi controllare l’ipotesi bidirezione il mio alfa lo devo dividere per 2 quindi l’alfa di 𝛼 0.01 2 2 riferimento diventerebbe = = 0,005 Passare da r a t (dal coefficiente di Pearson alla t di Student) Parlando gradi di libertà è probabile che ti sia venuta in mente un’altra tavola dove si parla di gdl ossia la tavola t di student. In effetti i due coeffienti ossia r e t, Pearson e Student pare che siano in 44 relazione. Esiste infatti una formula che permette di trasformare r in t, passare da Pearson a Student praticamente, eccola 𝑛−2 8−2 t= r√ = nel nostro caso ho t= 0.90 √1−0,90 2 = 5,06 2 1− 𝑟 Ho il mio t i gradi di libertà sono n-2 ossia 6 alfa è sempre 0.01 e quindi vado sul mio testo e controllo la tavola E (pag 359), dove con un alfa di 0,01 6 gdl con ipotesi monodirezionale ho un tcritico di 3.143 confronto i due t ed osservo che t> 𝑡𝑐𝑟𝑖𝑡𝑖𝑐𝑜 = 5,06 > 3,143 significa che respingo l’ipotesi nulla con la quale sostenevo che non esiste correlazione tra le due variabili ed accetto l’ipotesi alternativa, ossia tra le due variabili c’è correlazione. 45 45 Il coefficiente di correlazione di Spearmann 𝒓𝒔 Per capire questo coefficiente e quando si usa teniamo conto che esso lo usiamo quando vogliamo quantificare la relazione tra due variabili che per essere quantificate era necessario usare o una scala ordinale, oppure una scala ad intervalli oppure abbiamo usato la quantificazione in base ai ranghi. Facciamo un esempio per capire meglio, non è difficile, occorre solo la pazienza di trovarsi i dati. Una insegnante di danza stila una graduatoria delle sue allieve in base alla attitudine che ogni allieva possiede per un certo tipo di danza, per esempio la danza classica che diventa X ed il jazz che diventa per noi Y. Effettua le sue considerazioni e quindi stabilisce questa graduatoria dando un punteggio 1 (ossia il rango 1) alla più brava ed un punteggio 10(ossia il rango 10) alla più scarsetta. Danza Classica X Rango per le X Jazz Y Rango per le Y Silvia 1 Alessia 1 Rita 2 Rita e silvia 2.5 Alessia 3 gianna 4 Emanuela 4 Simona 5 Gianna 5 Emanuela 6 Daniela 6 Francesca 7 Natialia 7 Natalia 8 Simona 8 Daniela e valeria 9,5 Francesca 9 Valeria 10 Prima di procedere oltre ti chiederai come nella classifica del jazz ci sono due coppie di ragazze con un valore di rango in decimi, da dove arriva quel valore? Nel fare l’attribuzione di rango la maestra di danza Gallina Uvalova si è accorta che Rita ed Alessia sono a pari merito, se fossero state con meriti diversi una avrebbe avuto il rango 2 e l’altro il rango 3. Quando c’è pari merito allora i due si fa in questo modo, faccio questo calcolo rango2+rango 3/ diviso due, faccio la media dei due ranghi quindi 2+3/2= 2,5. È come se il rango 2 ed il 3 venisse equamente spartito in un unico rango, ecco perché poi dopo il 2,5 non ho un rango 3 ma passo direttamente al 4, poiché al posto del rango 2 e del 3 ci ho messo la loro media. La stessa cosa vale per Daniela e Valeria che a pari merito si prendono entrambe il rango 9 e 10 e se lo dividono per due prendendosi il rango 9.5. Ora devo fare un altro passaggio. Prendo la prima tavole di ranghi quella della classica e la paragono a quella del jazz, nel senso che faccio un elenco per ogni allieva avendo come riferimento la prima tavola e ci metto accanto il rango della prima tavola e quello del rango della seconda tavola Allieva Silvia Rita Alessia Emanuela Gianna Daniela Natalia Simona Francesca Rango di X 1 2 3 4 5 6 7 8 9 Rango di Y 2,5 2,5 1 6 4 9,5 8 5 7 46 46 Valeria 10 9,5 Distribuiti così i valori posso calcolare le differenze tra i ranghi, quindi per ogni allieva calcolo rango di X-rango di Y ed ogni differenza la calcolo poi al quadrato quindi ho questa tabella Allieva Silvia Rita Alessia Emanuela Gianna Daniela Natalia Simona Francesca Valeria (X-Y) -1,5 -0,5 2 -2 1 -3,5 -1 3 2 0,5 𝒅𝟐 ossia d 2,25 O,25 4 4 1 12,25 1 9 4 0,25 Somma di 𝑑 2 = 38 N. B: : Quando calcolo le differenze tra i ranghi se per ogni soggetto ottengo 0 allora si dice che c’è una correlazione positiva perfetta, se invece i soggetti hanno delle posizioni in graduatoria opposte (incrociate ossia il primo della prima graduatoria è l’ultimo della seconda, il secondo della prima è penultimo della seconda graduatoria e così via) si dice che c’è una correlazione negativa perfetta Ora posso usare la tavola per calcolare il coefficiente di Spearmann ossia 𝒓𝒔 𝒓𝒔 = 1- 𝟔 ∑ 𝒅𝟐 = 1- 𝒏(𝒏−𝟏) 𝟔𝒙𝟑𝟖 =1- 𝟏𝟎(𝟏𝟎−𝟏) 𝟐𝟐𝟖 = 0.77 𝟗𝟗𝟎 Come per gli altri coefficienti il coefficiente 𝒓𝒔 ha un valore che va tra -1 e +1 A questo punto cosa devo fare? Devo tenere conto del numero del campione e mi pongo questa domanda: i soggetti del campione sono meno o uguali a 30? N≤ 30? Se sono uguali o meno di 30 allora ho una tavola da consultare che ha come riferimento il livello di 𝛼 che mi sono posto ossia se è pari a 0.01 oppure pari a 0,05. Quindi con n≤ 𝟑𝟎 𝒆 𝜶 = 𝟎. 𝟎𝟏 𝒐𝒑𝒑𝒖𝒓𝒆 𝒄𝒐𝒏 𝜶 = 𝟎, 𝟎𝟓 𝒖𝒔𝒐 𝒍𝒂 𝒕𝒂𝒗𝒐𝒍𝒂 𝑯 (𝒑𝒂𝒈 𝟑𝟔𝟓) Vado all’esempio che facevamo N=10 con alfa= 0.05 𝑟𝑐𝑟𝑖𝑡𝑖𝑐𝑜 = 0.564 47 47 Confronto i miei rs e vedo che 𝑟𝑠>𝑟𝑐𝑟𝑖𝑡𝑖𝑐𝑜 0,77> 0,564 quindi posso rifiutare l’ipotesi nulla ed affermare che esiste una relazione positiva significativa tra le due variabili E se n fosse stato maggiore di 30? Allora anche in questo caso esiste una relazione tra 𝒓𝒔 𝒆 𝒕 𝑺𝒕𝒖𝒅𝒆𝒏𝒕 Devo cioè “trasformare” 𝒓𝒔 in t student t= 𝒓𝒔 √ 𝒏−𝟐 se per esempio le allieve fossero state 32 usando gli stessi dati avrei avuto che 𝟏−𝒓𝟐𝒔 32−2 t= 0.77√ 1−0,772 = 6,58 confronto di due t tcritico per alfa=0.05 e n-2 di gdl sulla tavola student è 1,697 6,58> 𝑡𝑐𝑟𝑖𝑡𝑖𝑐𝑜 𝑜𝑠𝑠𝑖𝑎 1,697 𝑞𝑢𝑖𝑛𝑑𝑖 𝑡𝑟𝑎 𝑙𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑖𝑙𝑖 𝑐 ′ è𝑟𝑒𝑙𝑎𝑧𝑖𝑜𝑛𝑒 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑎! Il coefficiente di t di Kendall Altro coefficiente di correlazione tra ranghi è il T di Kendall. Anche questo coefficiente varia tra +1 e -1. Come lo usiamo? Ricorda che lo usiamo quando i valori di un campione li disponiamo per ranghi, quindi quando formuliamo delle graduatorie per esempio su dei costrutti, quindi dal più aggressivo al meno aggressivo, da più socievole al meno socievole e così via. Ricorda poi che su di uno stesso campione non consideriamo una sola caratteristica ma due, ecco perché abbiamo bisogno di questi coefficienti che “correlano” ossia ci aiutino a stabilire se esiste o meno una relazione tra il variare di una proprietà in un soggetto ed il variare di un’altra proprietà sempre nello stesso soggetto (o campione). Per esempio su di un campione di 20 ragazzi l’aggressività è correlata con la responsabilità? E’ possibile che un ragazzo se è più aggressivo diventa anche più irresponsabile? Andiamo ora ad un esempio per capire come usare il coefficiente di Kendall Ho un campione e creo una prima graduatoria su di un certa caratteristica x e la dispongo in ordine crescente. Ad ogni soggetto della prima graduatoria accanto al suo X metto anche il valore di Y che lo stesso soggetto ha per una altra caratteristica. E cominciando dal primo confrontiamo via via i valori con quelli che lo seguono. Riprendiamo l’esempio delle nostre allieve di danza della maestra Gallina Uvalova. Facciamo prima la graduatoria di X ossia dispongo le ragazze in ordine di bravura nella danza classica allieva Rango X Silvia 1 Rita 2 48 48 Alessia 3 Emanuela 4 Gianna 5 Daniela 6 Fatto questo accanto ai valori di X Metto i valori di Y ossia accanto ad ogni Natalia 7 Ragazza ci metto quel valore di Y che gli 49 Compete Simona 8 Francesca 9 Valeria 10 allieva Rango X Rango Y Silvia 1 2,5 Rita 2 2,5 Alessia 3 1 Emanuela 4 6 Gianna 5 4 Daniela 6 9,5 Natalia 7 8 Simona 8 5 Francesca 9 7 49 Valeria 10 9,5 Silvia-rita 0 Silvia alessia -1 Fatta questa tavola considera la lista delle Y e confronto il primo posto (silvia) con ogni altra posizione, seguendo l’ordine naturalmente. Se il valore che silvia ha del suo Y è pari a quello di un’altra ragazza allora io metterò uno zero, se il valore Y di silvia è maggiore di quello di un’altra ragazza allora sarà un ordine non corretto (chi viene dopo dovrebbe avere un valore maggiore non minore della prima) se invece la ragazza che viene dopo ha un valore del suo Y maggiore di quello di silvia allora l’ordine è corretto perché in una graduatoria crescente chi viene dopo deve avere un valore maggiore di chi viene prima. L’ordine corretto vale +1 quello non corretto vale -1 Silvia emanuela +1 Silvia gianna +1 Silvia daniela +1 Silvia natalia +1 Silvia simona +1 50 La cosa “noiosa” è che il confronto che hai fatto tra silvia e le altre ragazze, le dovrai fare per ognuna delle ragazzeposizione con quelle che le seguono, fino ad arrivare a francesca che si confronterà solo con Valeria, e poi nulla, valeria non la confronti con nessuno, avrai quindi nove righe di valori mentre le girls sono 10. Capito? Silvia francesca +1 Silvia valeria 0 -1 -1 +1 1 1 1 1 1 1 -1 1 1 1 +1 +1 1 1 1 +1 +1 50 1 1 1 -1 +1 1 1 1 +1 +1 1 1 1 +1 +1 -1 -1 -1 -1 -1 +1 0 +1 +1 0 Sommando tutti gli 0 con tutti i +1 ed i – 1 ottengo che S= 25 Posso finalmente calcolare l’r di Kendall per questo campione T= 1 2 𝑆 𝑛 (𝑛−1) = 25 0,5𝑥 10𝑥9 = 0,56 51 questo T devo confrontarlo con un T critico. Come faccio adesso? Kendall ha individuato che se il campione ha una numerosità compresa tra 4 e 10 si usa una tavola che è la tavola I del libro di testo pag 366. Questa tavola si usa considerando S calcolata ed n del campione. Nel nostro caso per s= 25 ed n=10 Tcritico è = 0.014 ne desumiamo che il nostro T è maggiore del Tcritico quindi la relazione tra le due caratteristiche del campione è positiva. Rifiuto Hzero che sostiene che non c’è relazione ed affermo H1 ossia c’è relazione. E se il campione fosse maggiore di 10 elementi? Allora il tutto funziona come se fosse una distribuzione normale? Ricordi quando abbiamo parlato di distribuzione campionarie? In quel caso però noi avevamo alcuni valori che ci servivano per i nostri calcoli ossia la media della distribuzione campionaria e la deviazione standard ossia µ e ơ. In questo caso come possiamo avere questi valori? Allora per il t (sarebbe il simbolo tau) di Kendall quando abbiamo un campione con n> 10 lavoriamo come se avessimo una media di t µ𝑡 = 0,00 ed una 2(2𝑛+5) ơ𝑡 = √1 𝑛(𝑛−1) 2 Per fare un esempio mettiamo il caso che il campione delle nostre ragazze fosse stato maggiore di 10. Lo T di Kendall per il campione lo calcolo sempre con il lavoro illustrato prima, facciamo che dopo i nostri calcoli T era appunto pari a 0.56. Siccome il campione è maggiore di 10 non uso la tavola I di Kendall ma la tavola della distribuzione normale standard quindi la tavola A di pag 349. Non posso confrantare degli T la tavola infatti, questa tavola A permette il confronto con gli z dei campioni e lo z critico relativo all’errore alfa che mi sono preposto. Quindi cosa faccio? 51 1. Sulla tavola vado a trovarmi quale è lo zcritico di riferimeto con un alfa che in questo caso per esempio stabilisco che sia dello 0,05. È distribuzione binominale, per cui faccio il solito Digitare l'equazione qui.calcolo della fiducia diviso 100 diviso 2 (il 95% di fiducia vuol dire che ho una fiducia paria a 95:100= 0,95 che : 2 = 0,475). Sulla tavola 0.475 corrisponde ad uno zcritico di ±1,96 52 2. Ora devo trovare il mio z quello relativo al campione. Come lo ottengo? Con il solito calcolo della z quando possiedo µ𝑡 𝑒 ơ𝑡 ossia Z= 𝑡−µ 0.56−0 ơ 0.25 = 2(2𝑛+5) 2(2𝑥10+5) ơ𝑡 = √ 1 =√ = 0,25 0,5𝑥10𝑥9 𝑛(𝑛−1) 2 Quindi Z= 𝑡−µ 0.56−0 ơ 0.25 = = 0,56 = 2,24 0,25 3. Ora posso confrontare i due z quello critico e quello calcolato . z del campione è maggiore di z critico, quindi accetto l’ipotesi alternativa affermo che c’è correlazione e rifiuto l’ipotesi nulla che affermava che non c’era correlazione. 52 il coefficiente di correlazione punto biseriale 𝒓𝒑𝒃 Stiamo sempre parlando di confronti tra proprietà diverse di uno stesso campione (proprietà intesa come caratteristiche per essere più chiari). Questo coefficiente lo usiamo quando vogliamo confrontare e quindi stabilire se esiste una relazione tra una variabile dicotomica (ossia che varia secondo due livelli) ed una altra variabile che abbiamo misurato su scala di rapporti o intervalli equivalenti. Cosa significa che una variabile è dicotomica a due livelli? Una variabile simile è in genere sessuale che può avere solo il livello maschile o femminile. Quindi ho un campione nel quale ogni soggetto ha due caratteristiche, una si muove solo su due livelli, l’altra può assumere valori diversi sul di una determinata scala di misurazione. Lavoriamo su esempi per capire meglio come si usa questo coefficiente. Sei uno straordinario psicologo, le persone che hanno avuto il tuo servizio si sono tutte suicidate e comunque ti ritrovi 12 studenti dei quali hai misurato il tratto di amicalità e ti domandi tra i tanti interrogativi dell’esistenza, se oltre ad una vita dopo la morte, oltre a chiederti chi siamo, dove veniamo, perché esistiamo, o se essere e non essere, ti domandi anche se esiste una relazione tra il tratto “amicalità” ed il genere sessuale dei soggetti del campione. Hai 5 maschi e 7 femmine, uno dei maschietti, Giorgio, si veste di rosa e porta un completino aderente, ma nonostante i dubbi lo metti tra i maschi mentre, claudia che fuma il sigaro e si gratta come un muratore la lasci tra le ragazze. Vuoi quindi stabilire se esiste una relazione tra il genere (variabile dicotomica) ed amicalità (variabile continua). Costruisci una tabella molto semplice Soggetto Genere Punteggio amicalità 1 F 12 2 F 11 3 M 12 4 G 14 5 M 10 6 M 11 7 F 13 8 F 11 9 M 10 10 F 12 11 F 15 53 53 12 M 13 A questo punto devo dividere i maschi dalle femmine (già qualcuno cominciava a limonare….) e per e calcolo per ogni valore di X ossia dell’amicalità il quadrato. Di questi “quadrati” mi servità il totale generale ed il totale dei quadrati dei maschi e quello delle femmine. Segui la tabella 𝑿𝟐 𝒎𝒂𝒔𝒄𝒉𝒊 Maschi (punteggio) femmine 𝑿𝟐 𝒇𝒆𝒎𝒎𝒊𝒏𝒆 12 144 12 144 10 100 11 121 11 121 14 196 10 100 13 169 13 169 11 121 12 144 15 225 Somma Xfemmine= 88 Somma di Xmaschi ed X femmine= 144 Somma 𝑿𝒎𝒂𝒔𝒄𝒉𝒊 = 56 Sommo i quadrati dei maschi e quelle delle femmine ∑ 𝑿𝟐 = 1754 Ora devo trovare alcuni dati che sono l’amicalità media di tutto il campione, quello medio dei maschi, e quello medio delle femmine quindi: 𝑋̅𝑡𝑜𝑡𝑎𝑙𝑒=144 = 12 12 54 54 𝑋̅𝑚𝑎𝑠𝑐ℎ𝑖=56/5 = 12,20 88 𝑋̅𝑓𝑒𝑚𝑚𝑖𝑛𝑒 = = 12.57 7 Posso ora trovare lo scarto quadratico medio delle X che chiamo 𝑆𝑥 Uso la formula dello scarto quadratico medio 55 ∑ 𝑥2 𝑆𝑥 = √ 𝑛 - 𝑥̅ 2 = √1754 - 144= 1.47 12 (n.B: tutta la formula sta sotto la radice quadra, il programma ha messo fuori il 144 ma tutto sta sotto radice quadra!!!!!) Ora posso finalmente calcolare il mio coefficiente punto biseriale, come? Con questa formula 𝑟 𝑝𝑏= ̅ 𝑋 ̅ 𝑎−𝑋 𝑛 𝑏 √ 𝑛𝑎 𝑥 𝑛𝑏 𝑛 = 11,20−12,57 1,47 √ 5 7 12 12 = - 0.46 𝑆𝑋 A questo punto che mi serve questo coefficiente? Come posso dare una risposta alla mia domanda se il tratto amicalità è in relazione al genere sessuale? Ho bisogno di fare un confronto tra un qualche dato del campione ed i riferimenti di qualche tabulato. Fisso un α= 0,01 fisso cioè sempre un rischio ed una fiducia. Il coefficiente rpb che ho trovato mi serve per calcolare i t del mio campione. Quindi uso questa formula t= 𝑟 𝑝𝑏 𝑛−2 √1− 𝑟 2 𝑝𝑏 = 0,46 √ 12−2 1−(−0,462 = -5,82 siccome ho calcolato un t vuol dire che il mio riferimento è la tavola T di student? Ricordi come si legge? Serve sempre un alfa di riferimento che in questo caso è 0,01 e dei gradi di libertà. I gdl in questo caso saranno pari a n- il numero delle variabili su cui lavoriamo, sono 2 quindi gdl= n-2= 12-2= 10 55 per alfa 0,001 e gdl 10 nell’ipotesi bidirezionale con la tavola di pagina 359 ho un tcritico pari a ±3,169 𝑐𝑜𝑛𝑓𝑟𝑜𝑛𝑡𝑜 𝑔𝑙𝑖 𝑡 𝑒 𝑣𝑒𝑑𝑜 𝑐ℎ𝑒 𝑡 > 𝑡𝑐𝑟𝑖𝑡𝑖𝑐𝑜 accetto l’ipotesi alternativa ossia affermo che tra amicalità e genere sessuale esiste una relazione significativa. 56 56 il coefficiente di correlazione tra variabili dicotomiche rf (il simbolo effettivo è la “fi” greca) quando usiamo questo coefficiente? Quando uno stesso campione lo intervistiamo misurando due item e le risposte che i soggetti danno devono essere risposte dato in modo dicotomico ad entrambe le domande, per essere molto più semplici immagina di intervistare 10 soggetti ai quali poni due domande 1. Sei favorevole o contrario a scaccolarsi in pubblico? 2. Sei favorevole o contrario al rutto libero? E dopo aver speso tempo e soldi per fare queste domande ti chiedi se tra i due item di risposte che sono date dagli stessi soggetti esiste una correlazione. Ora facciamo i seri e facciamo un esempio concreto: hai 10 soggetti ad ognuno di essi hai posto due domande, ad ognuna di esse loro dovevano risponde o SI oppure No, o anche favorevole o contrario 1. X: sei favorevole alla patente a punti? 3. Y: sei favorevole al divieto di fumo nei locali pubblici? Con le risposte crei una tabella Soggetto Risposta ad X Risposta ad Y A F F B F F C F C D C C E F F F C F G F F H F F I C F L C C Costruisci una tabella a doppia entrata. Ricorda che è molto importante costruirla bene per non avere errori nei calcoli successivi che farai 57 57 Calcola prima di tutti quanti sono Nel riquadro a ci metti quelli che sono FX e FY Nel b ci vanno i Fx e Cy Nel c i Cx e Fy Nel d ci vanno i CX e CY 58 totali F C a b 1 F 5 c 6 (p) d 2 C 2 totali 4 (q) 7 (p’) 3 (q’) 10 Frequenze: fa= 5 Rphi= fb=1 𝑓𝑎𝑓𝑑−𝑓𝑏𝑓𝑐 √ 𝑝′𝑝𝑥𝑞′𝑞 fc= 2 fd= 2 = 5𝑥2−1𝑥2 √ 7𝑥6𝑥3𝑥4 = 0.36 Ottenuto questo valore di rphila tavola che userò sarà quella del 𝐶ℎ𝑖 2 che useremo in questo modo. Prima di tutto devo trovarmi il 𝐶ℎ𝑖 2 critico di riferimento per cui uso la tavola avendo come Valori di riferimento alfa ed i gradi di libertà Alfa= 0,01 I gdl sono pari al numero delle possibilità di risposta meno 1, per entrambe le opzioni erano 2 ossia F oppure C quindi gdl= (2-1) (n-1)= 1 58 2 Con questi valori il 𝐶ℎ𝑖𝑐𝑟𝑖𝑡𝑖𝑐𝑜=6,64 Ed il 𝐶ℎ𝑖 2 del mio campione? Esso lo ottengo con questo calcolo 2 𝐶ℎ𝑖 2 = 𝑟𝑝ℎ𝑖 x n= 0,362 𝑥 10 = 1,3 2 Confronto i due 𝐶ℎ𝑖 2 𝑒 𝑣𝑒𝑑𝑜 𝑐ℎ𝑒 𝐶ℎ𝑖𝑐𝑟𝑖𝑡𝑖𝑐𝑜=6,64 > 𝑑𝑖 𝐶ℎ𝑖 2 𝑑𝑒𝑙 𝑚𝑖𝑜 𝑐𝑎𝑚𝑝𝑖𝑜𝑛𝑒 per cui rifiuto l’ipotesi alternativa e confermo l’ipotesi Hzero ossia tra i due item di risposte non esiste correlazione significativa. 59 59 La regressione bivariata e campioni correlati Il concetto di regressione è legato a quello di previsione. Stiamo parlando di due variabili e del rapporto che esiste tra di esse, abbiamo visto in precedente quando queste sono correlate e quindi quando la variazione di una significa la variazione di un’altra. Regredire e prevedere significa che al variare di una variabile un’altra a queste correlata varia anch’essa. Si tratta di una sorta di causa ed effetto, di rapporto tra antecedente e susseguente. Succede allora che data una certa variabile X che è detta “variabile indipendente” e che precede un’altra variabile Y che viene detta “dipendente”, la variazione di X spiega ed influenza il variare di Y. Facciamo un esempio. Abbiamo dei ragazzi e la loro capacità di ragionamento astratto quindi matematico e la chiamiamo X, questa variabile è quella che chiamiamo indipendente ed anche “predittore”. Il voto in matematica sarebbe per noi la variabile dipendente detta anche criterio. Noi quindi cosa supponiamo? Che maggiore è il predittore maggiore è il criterio, quindi se varia il predittore, la variabile indipendente, varia anche la variabile dipendente. Il variare di Y quindi viene spiegato ed anche influenzato da X, il ragazzo è più o meno bravo in matematica ed i suoi voti in matematica sono più o meno buoni in base a quanto alta o bassa sia la sua capacità di ragionamento astratto. Il rapporto è univoco tra X ed Y nel senso che l’aumento del voto in matematica non aumenta la capacità di ragionamento astratto (se io aumento il voto del campiono non c’è magicamente un aumento di capacità di astrazione, è vero invece il contrario!) Nel parlare di regressione a cosa ci riferiamo? Il titolo della lezione infatti parla di regressione bivariata. Significa che con una analisi della regressione riusciamo a stabilire se e quanto i valori di Y dipendono dai valori di X, questo concetto allora è legato a quello di previsione, ossia se riesco a stabilire che il valore di Y dipende da X, ossia i suoi cambiamento sono spiegati dalle variazioni di X allora posso prevedere che ai cambiamenti di X corrisponderanno anche dei cambiamenti di Y. Quindi stabilito che variando X varia anche Y, se riesco a capire una variazione di X quanto farà variare Y posso già in sede teorica, con un certo margine di errore riuscire a stabilire quale sarà il valore ipotetico di Y se vario di una certa misura X, per cui in base ad una variazione di X posso ipotizzare quanto sarà Y, un valore che chiamerò Y predetto. Queste previsioni non sono fatte a naso, ma con passaggi di formule matematiche e con quella che è chiamata l’equazione di regressione. Quindi dato un certo X per prevedere il valore di Y uso l’equazione di regressione che è praticamente l’equazione di una retta. Che cosa stiamo dicendo? Stiamo parlando di variazioni di valore di una variabile che appunto variano perché una variabile indipendente varia ed il suo variare fa variare il valore della variabile dipendente. Se scrivo su un asse della ascisse (ossia l’asse orizzontale) i valori della variabile indipendente e sull’asse delle ordinate i valori della Y costruisco un diagramma. Ora procediamo con ordine 1. Se io conoscessi i valori di X ed i valori di Y basterebbe che li indicassi sui rispetti assi e tutto andrebbe bene senza fare calcoli e supposizioni di previsione 2. Ma io sto parlando di previsione, nel senso che non so quanto sono i valori effettivi di Y o meglio non so se esiste una relazione tale tra X ed Y che al variare di X varia anche Y, sto infatti dicendo che cerco di prevedere tramite dei calcoli quali possono essere i valori che una ipotetica Y assumerebbe in relazione al variare di una certa X. 60 60 3. Se io conoscessi i reali valori di X e di Y unendo i punti di intersezione che queste variabili via via otterrei avrei una retta che ha un suo angolo 4. Ma se io i valori di Y non li ho ossia non possiedo i valori ipotetici di Y, significa che se riesco a “definire” la retta posso a partire da essa capire i valori di Y. Ho quindi bisogno di ottenere una retta, tramite una opportuna equazione L’equazione di una retta è questa: Y= a+bX L’equazione della retta di regressione è Y’= a+bX 61 cosa sono “a” e “b”? 1. b è il coefficiente di regressione. Cosa significa? Significa che è l’inclinazione della retta ossia l’angolo che questa forma con l’asse delle ascisse. Il suo valore oscilla tra -1 e +1, e quindi il segno + o – indica se l’incremento è positivo oppure negativo e quindi se la retta va a salire o a scendere. b si ottiene con questa formula b= ∑ 𝑥𝑦−∑ 𝑥 ∑ 𝑦 𝑁 ∑ 𝑋 2 −(∑ 𝑌)2 per noi è importante questo valore perché ci dice quanto x incide su y, ossia ci da la misura di quanto il variare di X fa variare Y 2. a è l’intercetta sull’asse delle ordinate ossia è la distanza tra il punto in cui ascisse ed ordinate si uniscono (punto zero) ed il punto in cui la retta taglia l’asse delle ordinat a Come si calcola a? a= ̅̅̅̅̅̅̅̅̅ 𝑌 − 𝑏𝑋̅ una volta che abbiamo calcola a e b, che sono parametri del campione, possiamo risalire ai valori dell’intera popolazione. Poso sopra si diceva quanto è importante per noi coefficiente b. esso infatti se dovesse avere come valore 0 significherebbe che le due variabili x ed Y non hanno alcuna relazione tra di esse, sono indipendenti l’una dall’altra ed il variare di X non porta alcun effetto su Y. Se invece il valore di b è diverso da zero allora vuol dire che esiste una correlazione tra X ed Y e soprattutto che il variare di X non è indifferente per Y ma implica una variazione in Y. Quindi il valore di b può essere maggiore di zero o minore di zero. 61 Ora passiamo ad un esempio per chiarirci meglio le idee. Abbiamo misurato su di un campione l’aggressività e la pressione sanguigna. Ci domandiamo se il variare dell’aggressività porta al variare della pressione, e quindi vorrei capire se variando l’aggressività quanto posso ipotizzare che varierà la pressione? Costruisco la mia tabella X Y 115 17 160 29 140 25 120 19 155 28 120 24 145 27 120 25 130 21 150 30 Con questi dati devo trovare la retta, quindi uso la formula della retta b= ∑ 𝑥𝑦−∑ 𝑥 ∑ 𝑦 𝑁 ∑ 𝑋 2 −(∑ 𝑌)2 1355 245 Da questi dati scritti qui sopra ottengo anche due dati che dopo mi serviranno ossia Xmedio ed Y medio che sono rispettivamente 𝑋̅ = 135.5 𝑌̅= 24.5 X Y 𝑿𝟐 115 17 13225 1955 160 29 25600 4640 140 25 19600 3500 XY 62 62 120 19 14400 2280 155 28 24025 4340 120 24 14400 2880 145 27 21025 3915 120 25 14400 3000 130 21 16900 2730 150 30 22500 4500 1355 245 Se sostituisco alla formula per il calcolo di b tutti questi dati otterò che b = 0,22 63 186075 33740 avendo b posso calcolare anche a che si ottiene con la formula a= ymedio-b per xmedio (scritto con i simboli …. a= ̅̅̅̅̅̅̅̅̅ 𝑌 − 𝑏𝑋̅)= = 24.5- 0.22 (135.5)= -5,18 perché sono importanti questi due valori? Perché grazie ad essi posso calcolare la regressione di Y, ossia per ogni valore di X posso calcolare il corrispondente Y ipotetico infatti esso si ottiene Y’= a+b X Ora però devo fare un’altra cosa, sia per le X che per le Y devo calcolare lo scarto quadratico medio. La formula ricordiamo che è S= √ ∑ 𝑋2 𝑛 − 𝑋̅ 2 la stessa formula valore per trovare lo scarto quadratico medio di Y Perché calcolo 𝑆𝑋 ed 𝑆𝑦 ? 𝑝𝑒𝑟𝑐ℎè 𝑞𝑢𝑒𝑠𝑡𝑖 𝑣𝑎𝑙𝑜𝑟𝑖 𝑚𝑖 𝑠𝑒𝑟𝑣𝑜𝑛𝑜 𝑝𝑒𝑟 𝑐𝑎𝑙𝑐𝑜𝑙𝑎𝑟𝑒 𝑖𝑙 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑟 Cosa è questo coefficiente r? è quello di Pearson. Ed avendo i due scarti quadratici posso applicare questa formula ossia 63 𝑟=𝑏 𝑆𝑋 𝑆𝑦 Questo r si chiama anche coefficiente di determinazione esso infatti mi permette di stabilire la relazione che esiste tra X ed Y ossia tra predittore e criterio. Capisco allora che trovare il valore di a e di b mi permette di applicare queste formule che mi permetto di individuare quanto “vale” una Y’ (ipotetica) per un certo valore di X e quale è il valore r, ossia il valore di relazione che esiste tra X ed Y. 64 Arrivato al calcolo di r non mi fermo qui, devo fare qualche ulteriore passo in avanti, ossia devo calcolare il quadrato di r 𝑟 2 Per quale motivo? Perché ora io devo calcolare un altro dato importante ossia l’errore standard del coefficiente di regressione 𝐸𝑆 𝑏= 𝑆𝑥 𝑆𝑦 1−𝑟 2 √ 𝑛−2 con questo valore posso calcolare il t del mio campione relativo ai valori delle x che delle y ossia t= 𝑏 𝐸𝑆𝑏 con questo t quindi posso confrontare un t critico che vado a trovarmi sulle tavole t di student usando come parametri di riferimento l’errore alfa ed i gdl pari al numero del campione meno il numero delle variabili che sono due in questo caso (x ed y) quindi i gdl sono n-2= 8 se il t calcolato è maggiore del tcritico allora noi rifiutiamo l’ipotesi Hzero che sostiene che non esiste relazione tra le due variabili ed accettiamo l’ipotesi alternativa ossia affermiamo che il variare della pressione sanguigna fa aumentare il punteggio dell’aggressività. Finora noi abbiamo visto esempi di lavoro su due variabili indipendenti e soprattutto su campioni indipendenti come può essere il gruppo sperimentale e quello di controllo, oppure i maschi e le femmine, gli introversi e gli estroversi, le milf e le drag quee…). Cioè finora abbiamo visto quando si cerca misura una stessa variabile X su due campioni differenti e si confrontano i valori, oppure lavorando sullo stesso campione si misuravano due diverse variabili e ci si chiedeva se le due variabili 64 nei soggetti del campione erano correlate e si influenzavano a vicenda. A volte invece il ricercatore si ritrova a lavorare con campioni correlati ossia può accedere che • • • Misuri la stessa variabile X sullo stesso campione ma due volte (per esempio a distanza di giorni) Misuri una variabile X su delle coppie prese una per volta (per esempio l’aggressività in diverse coppie di gemelli) Oppure ancora la rilevazione di coppie di misure sugli stessi soggetti ossia una variabilile X ed una Y su ogni soggetto di un campione di N persone Una situazione nella quale ci possiamo trovare è quella di calcolare una stessa variabile X sullo stesso campione di soggetti ma con la differenza del “prima e del dopo”. Facciamo un esempio : si vuole misurare l’atteggiamento verso gli extracomunitari su due gruppi di soggetti. Ad entrami i gruppi verrà somministrata una scala per misurare l’atteggiamento • • Il primo viene portato a visitare un centro di accoglienza per immigrati e dopo gli eviene somministrata la scala Il secondo viene sottoposto alla scala senza la previa visita al centro immigrati Potrei pensare in sede di ipotesi che il primo gruppo sarà di sicuro meno emarginante del secondo proprio per via della visita fatta al centro, quindi supporrò che il mio trattamento (visita al centro) manipoli la variabile “atteggiamento emarginante”. Ma tanto per sfrantumarci le balle ci poniamo un sottile dubbio fastidioso come un ditino nel…È possibile che il primo gruppo, quello che ha fatto la visita al centro immigrati sia meno emarginante del secondo già di suo? Forse i due gruppi sono non omogenei già in partenza, ossia che il primo gruppo (quello che ha visitato il centro) sia già meno emarginante rispetto al secondo per motivi suoi, ancor prima del trattamento (visita al centro). Ed allora che faccio per togliere questo dubbio atroce che flagella le mie notti insonni? Usiamo il modello dei campioni correlati. Come faccio? Prendo un gruppo di n soggetti e faccio compilare il campione prima della visita al centro e la stessa scala dopo aver visitato il centro. Se avrò differenze di risultati tra gli esiti del test ante visita e quelli del test post visita, allora la differenza sarà da attribuire al trattamento. I campioni dai quali prenderò le misurare della variabile “atteggiamento” sono gli stessi soggetti, quindi sono campioni non indipendenti ma correlati. Facciamo che il mio campione sia di 8 soggetti. Li sottopongo a misura dell’atteggiamento di emarginazione prima e dopo la visita al centro, e chiamo Xprima ed Xdopo il risultato ottenuto di punteggio di “atteggiamento di emarginazione” Soggetto 1 2 3 4 5 Xprima 20 17 15 12 20 X dopo 20 15 10 10 18 Calcolo la differenza per ogni X tra il valore di prima e dopo e poi riporto 65 d 0 2 5 2 2 𝒅𝟐 0 4 25 4 4 65 6 7 8 somme 18 17 20 139 19 19 16 127 tutto quadrato al 1 2 4 12 1 4 16 58 Fatti questi calcoli devo trovare la 𝑑̿ quindi la somma delle d la divido per N il numero del campione, ∑ 𝑑 12 la formula è 𝑑̅= = = 1,5 𝑁 8 Fatto questo calcolo lo scarto quadratico medio delle d, la formula la conosciamo perché vista tante altre volte essa comunque sarà 𝑠𝑑 = √ ∑ 𝑑2 − 𝑑̅2 = √ 𝑛 58 8 − 1,52 = 2,24 Se ricordi, nelle primissime lezioni parlavamo del calcolo dell’errore standard che era ottenuto prendendo la scarto quadratico medio e “rivedendolo” ossia usiamo questa formula anch’essa conosciuta 𝑠𝑑̅ = 𝑠𝑑 = 8 − 1 = 0.84 √𝑛−1 Perché ho fatto tutto questo? Perché per darmi delle risposte in modo statistico ho sempre bisogno di fare riferimento a dei tabulati, e questa volta la risposta la trovo usando la tavola t di Student, quindi devo trovare un t, che appunto calcolerò grazie al mio errore standard or ora trovato. T t= ̅̅̅̅̅̅̅̅̅ 𝑑− µ𝑑 ̅ 𝑠𝑑 ̅ = ossia detto a parole, d medio, meno la media della differenze, diviso il tutto per l’errore standard della media delle differenze. Ti chiederai: cosa è a questo punto quel µ𝑑̅ ? è 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎 𝑑𝑒𝑙𝑙𝑒 𝑑𝑖𝑓𝑓𝑒𝑟𝑒𝑛𝑧𝑒 𝑐ℎ𝑒 𝑛𝑜𝑖 𝑠𝑢𝑝𝑝𝑜𝑛𝑖𝑎𝑚𝑜 𝑝𝑒𝑟 𝑖𝑝𝑜𝑡𝑒𝑠𝑖 𝑚𝑎𝑡𝑒𝑚𝑎𝑡𝑖𝑐𝑎 𝑐ℎ𝑒 𝑠𝑖𝑎 𝑝𝑎𝑟𝑖 𝑎 𝑧𝑒𝑟𝑜! Quindi t= 1,5−0 0.84 = 1,786 Questo è il mio t. con quale tcritico lo confronto? Con quello che trovo sulla scala Student per un alfa pari a 0.05 ed n-1 gdl. N-1 perché la variabile in questo caso anche se misurata in due momenti diversi è solo una. Sulla scala trovo che il tcritico è 1,895 Confrontandoli cosa ottengo? Ottengo che t< 𝑡𝑐𝑟𝑖𝑡𝑖𝑐𝑜, quindi la visita non ha prodotto modifiche nell’atteggiamento di emarginazione nei soggetti del campione. 66 66 L’analisi della varianza L’analisi della varianza: un po’ di teoria per capire meglio Quando parliamo di analisi della varianza parliamo di una tecnica di elaborazione dei dati attuabile solo se la ricerca che noi facciamo è stata pianificata in modo accurato ossia cercando di “tenere sotto controllo” tutte le variabili di disturbo ed avere l’azione solo di quelle variabili che ci interessa che agiscano nel nostro esperimento. L’analisi della varianza significa che lavoriamo con il confronto di medie di due o più campioni tenendo conto contemporaneamente di più variabili. Quando parliamo di analisi della varianza si intende dire che la varianza totale di un campione noi la scomponiamo in due parti 1. La variabilità sperimentale che dipende dall’azione delle variabili introdotto dallo sperimentatore 2. La variabilità accidentale o residua dovuta all’azione di quelle altre variabili intervenienti ma che noi non siamo riusciti a “tenere” a bada. Prendiamo un esempio utile per capire: vogliamo verificare se le istruzioni impartite in modo amichevole inducano nei soggetti migliori prestazioni. Organizziamo il nostro piano di ricerca nel quale la nostra variabile sperimentale è “istruzioni impartite”. La variabile avrà due livelli 1. Modalità amichevole (quella sperimentale) 2. Modalità neutra (controllo) È ovvio che al ricercatore interesserà misurare e quindi verificare se una migliore prestazione dei soggetti dipenderà o meno dalla modalità in cui hanno ricevuto le istruzioni. Mi serve quindi una qualche forma di controllo per verificare se l’effetto prestazione è causato dalla modalità delle istruzioni. Quale è la situazione ideale? Che la mia variabile indipendente ossia “istruzioni amichevoli” sia la sola ad agire sulla variabile dipendente “prestazioni”, sicchè se queste sono migliori posso dire che la causa è la mia variabile indipendente. Quindi l’ideale è che tra l’azione della V.I. e l’effetto ossia la V.D. non intervengano altre variabili di disturbo che possano interferire sulla V.D. il rischio infatti è che se io non riconosco la presenza dell’azione di queste variabili di disturbo possa attribuire tutti gli effetti dell’esperimento alla mia V.I. che erroneamente classificherei come sola causa degli effetti. Quando facciamo esperimenti che coinvolgono persone dobbiamo sempre tenere conto dell’intervenire di variabili di disturbo, quindi anche se il nostro piano di ricerca è ottimo e preciso, se abbiamo a che fare con persone umane ci sono tanti altri fattori che sfuggono al nostro controllo, che agiscono e quindi gli effetti che otteniamo non possono essere tutti attribuiti solo e soltanto alla nostra variabile sperimentale. Potremmo dire allora che l’analisi della varianza è una modalità saggia di trattare i dati ottenuti con un esperimento perché essa implica proprio la scomposizione della varianza generale in due parti • • Una attribuibile alla variabile sperimentale Un’altra attribuibile alle altre variabili e che possiamo considerare varianza residua Torniamo al nostro campione che dividiamo in due gruppi: uno sperimentale ed uno di controllo. Il campione totale è di 10 soggetti divisi in due sottogruppi (sperimentale e controllo) di 5 soggetti ciascuno. Con modo amichevole ricordiamo ai soggetti che ad essi verrà somministrata una lista di parole e che loro dovranno ricordare, ma questo modo amichevole, variabile indipendente, viene usato solo con il gruppo sperimentale, mentre a quello di controllo l’istruzione viene data in modo neutro. Formuliamo le nostre ipotesi Hzero= la media del gruppo sperimentale sarà uguale alla media del gruppo di controllo H1: la media del gruppo sperimentale sarà maggiore del gruppo di controllo 67 67 Se Hzero è vera sigfnificherà che i due gruppi provengono dalla stessa popolazione. Tu dirai: ma lo sono, venivano dallo stesso unico gruppo di 10 diviso poi due. In questo non ti devi confondere perché il concetto di popolazione differente non significa che il gruppo sperimentale e controllo provengono fin dall’inizio da appartenenze diverse, ma la diversità di popolazione sta nell’effetto dell’esperimento. E’ la variabile indipendente manipolata che producendo un effetto sul gruppo sperimentale, effetto che non c’è nel gruppo controllo, porta alla differenza di popolazione. Quale lavoro statistico faremo su questo unico campione diviso in due sottogruppi S e C? La prima cosa calcoleremo la media e la varianza totali2. La media verrà calcolata calcolando prima la media del gruppo S poi la media del gruppo C, sommando queste due medie e dividendo per due: questa sarà la media totale ossia 𝑋̅𝑇 ̿ La varianza di tutto il campione di 10 soggetti la calcoleremo lavorando prima sul gruppo S e poi sul gruppo C, per cui da ogni singolo valore di S sottrarremo 𝑋̅𝑇 . E lo stesso faremo per ogni singolo valore di C. ogni singolo risultato di queste sottrazioni verrà elevato al quadrato finchè otterrò due sommatorie di quadrati che sommerò insieme in una unica somma totale. Ora questo percorso matematico mi ha portato a calcolare la variazione totale di tutto il campione di 10 soggetti. Ma in realtà io ho due gruppi che differiscono tra di essi perché hanno condizioni diverse uno appunto è sperimentale e l’altro è di controllo. La variazione totale quindi altro non è che la somma di due variazioni che la compongono, una sarebbe la variazione tra i due gruppi e l’altra quella presente dentro i singoli due gruppi. Una è between e l’altra è withing. Come faccio a trovare questi due valori? La prima cosa che devo fare è riuscire a calcolare la variazione esistente tra i gruppi ossia quella between, il che significa che gli individuo di ogni gruppo che sono diversi tra di loro devo renderli uguali tra di loro ed uguali alla media del gruppo. Come si fa? Segui questo procedimento3 • • • • • • Prendo il gruppo sperimentale: di esso calcolo la media (𝑋̿𝑠 ) Ho già calcolato 𝑋̅𝑇 di entrambi i gruppi S e C Ora uguagliare i singoli dati del gruppo sperimentale (che sono diversi di per sé l’uno dall’altro) significa che li “sostituisco” ognuno (sono5) da un valore unico che si ripete per cinque volte, ossia dal risultato della sottrazione di 𝑋̿𝑠 - 𝑋̅𝑇 La stessa cosa la faccio per il gruppo di controllo: calcolo la media 𝑋̅𝑐 Ogni singolo calore dei gruppo controllo viene sostituito da 𝑋̅𝑐 − 𝑋̅𝑇 I cinque risultato per S ed i cinque risultati per C (saranno cinque risultati per S ed altri cinque uguali per C), li eleverò al quadrato, ne farò le due somme e queste due somme le addizionerò tra loro. Per il calcolo della varianza dentro i gruppi i gdl saranno pari a K-1 dove K è il numero dei sottogruppi ossia 2 in questo caso visto che ho solo un S ed un C. La somma totale diviso i gradi di libertà mi darà la variazione tra i gruppo ossia between. Ora calco la variazione esistente entro i gruppo anche chiama within anche chiamata “residua”. Come la ottengo?4 • Prendo il gruppo sperimentale e di esso conosco già la media 𝑋̅𝑠 2 Controlla la tabella 7.2. di pag 268 del testo per avere la visibilità di questo esempio Cfr tabella 7.2.a di pagina 269 del testo 4 Cfr. tabella 7.2.b di pagina 269 del libro di testo 3 68 68 • • • • Per ogni singolo valore del gruppo S faccio una sottrazione ossia sottraggo da ogni 𝑋𝑖 il valore di 𝑋̅𝑠 (Xi è ogni singolo valore dei componenti il gruppo S) Il prodotto di queste sottrazioni viene elevato al quadrato e tutto viene sommato La stessa cosa ho già fatto con il gruppo di controllo infatti già possiedo quanto vale 𝑋̅𝑐 Da Ogni singolo 𝑋𝑖 del gruppo di controllo viene sottratto 𝑋̅𝑐 . I prodotti elevati al quadrato e sommati. Mi ritrovo con una somma totale, ho bisogno dei gradi di libertà che questa volta sono dati da (𝑛𝑠 -1)+(𝑛𝑐 -1) La sommatoria totale fratto i gdl mi darà il valore della variazione entro ognuno dei gruppi ossai whitin Potro quindi calcolare un valore finale F che mi sarà utile per consultare la tavola di Fischer, e questo valore F sarà dato da F= 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑟𝑎 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖 = 𝑏𝑒𝑡𝑤𝑒𝑒𝑛 𝑤𝑖𝑡ℎ𝑖𝑛 = Questo valore lo confronterò con un Fcritico dato da un alfa che mi sarà prefissato e dai due dati di gdl che ho già individuato per calcolare sia between che within. Il capitoletto che seguirà riprende un esempio della dispensa ed avrai modo di capire meglio questi passaggi 69 69 Ed ora studiamo dalla dispensa Spesso come psicologi ci capiterà di dover confrontare la media non di un solo campione di soggetti ma di più campioni. Di solito quando i campioni sono due o comunque due sono le medie da confrontare la tavola statistica di riferimento è quella di Student e quindi i percorsi matematici che faremo saranno quelli necessari a trovare uno “t” da confrontare con un tcritico. Quando le media sono diverse invece si una il procedimento statistico dell’analisi della varianza ossia ANOVA. T di Student potremmo quindi considerarlo come una sorta di caso particolare di analisi della varianza. Per ciò che riguarda ANOVA il lavoro da compiere è quello della scomposizione della variabilità totale dei dati. Consideriamo per esempio uno studio condotto su due gruppi, uno sperimentale ed uno di controllo. I due gruppi presenteranno delle diversità tra di loro, usando un linguaggio statistico diciamo che presentano delle variabilità. Per quale motivo ci sono queste variabilità? 1. Perché il gruppo sperimentale è stato sottoposto ad un trattamento che ha avuto un effetto quindi c’è una variabilità che chiamo sperimentale, quindi una “diversità” tra i due gruppi ossia between subjects. 2. Un’altra variabilità sarà dentro ogni gruppo perché saranno intervenute casualmente delle variabili su cui non ho avuto controllo quindi la chiamo within subjects. Le due variabilità mi daranno una variabilità che definisco come variabilità totale. L’analisi della varianza si basa sulla scomposizione della variabilità totale dei dati, quindi una varianza appunto totale che è “composta” in due varianze visto che esiste una variabile indipendente che ho manipolato agendo sul gruppo sperimentale e possono esistere altre variabili non controllate ma che aimè sono intervenute. Perché faccio l’analisi della varianza? Le domande sono due estremamente connesse una all’altra 1. La varianza tra i gruppi (between) è sufficientemente diversa da quella dentro i gruppi tanto da considerare effettivamente diverse le medie dei due gruppi? (cioè se le medie dei gruppi sono diverse è perché ha “fatto effetto” il mio esperimento e non perché sono intervenuti altri fattori?) 2. E possibile che la differenza tra i due gruppi dipende dunque da fattori sperimentali per cui questi due gruppi appartengono a popolazioni diverse rese “diverse” proprio perché su di uno ho agito con il mio esperimento e l’altro no? (le due domande sono praticamente la stessa cosa….) Detto in termini di ipotesi allora propongo una Ho ed una H1 secondo questo ragionamento 𝐻0 : la varibilità tra i gruppi e quella dentro ogni gruppo sono molto simili 𝐻1 : l’ipotesi nulla è falsa perché la variabilità tra i gruppi è molto diversa La tavola di riferimento che uso per l’analisi della varianza è la tavola Fiscer (tavola D pag 356 del testo). Avrò quindi un “F” da confrontare con quello che troverò sulla tavola. Se il mio “F” sarà superiore a quello di confronto allora trarrò le mie conclusioni. Il primo passo allora è capire come calcolo questo F. esso è un valore che ottengo scomponendo la varianza generale dei due campioni e confrontando le due varianze che la compongono. Ti ho detto infatti che la varianza generale o totale tra i due campioni è data da quella tra gruppi più quella dentro 70 70 i gruppi, da betwenn+within, quindi F lo otterrò proprio scomponendo e mettendo in confronto i due dati ossia 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑏𝑒𝑡𝑤𝑒𝑒𝑛 F= 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑤𝑖𝑡ℎ𝑖𝑛 In realtà quando vado a calcolare F non farò il rapporto tra le varianze ma tra le devianze. Per capire meglio questo concetto l’esempio che tra poco faremo ti aiuterà a comprendere. Intanto considera che F lo calcolerai con questa formula F= 𝑠𝑐𝑎𝑟𝑡𝑜 (𝑑𝑒𝑣𝑖𝑎𝑛𝑧𝑎)𝑏𝑒𝑡𝑤𝑒𝑒𝑛 𝑔𝑑𝑙 𝑠𝑐𝑎𝑟𝑡𝑜 (𝑑𝑒𝑣𝑖𝑎𝑛𝑧𝑎)𝑤𝑖𝑡ℎ𝑖𝑛/𝑔𝑑𝑙 𝑔𝑑𝑙 71 Non preoccuparti di capire subito questa formula: facciamo un esempio per capire meglio tutto questo. Abbiamo un gruppo di 6 soggetti e vogliamo sperimentare se un farmaco aumenti il sonno REM. Dividiamo il gruppo in due campioni, di 3 e 3 e su di uno sperimentale somministriamo il farmaco, su di un altro diamo un farmaco placebo (acqua). Facciamo le nostre misurazioni ed otteniamo che i punteggi di fasi REM sono riassunti in questa tabella Gruppo di controllo Gruppo sperimentale 2 4 3 5 4 6 Media: 3 Media: 5 Quale è Hzero? L’ipotesi nulla è che i soggetti vengono dalla stessa popolazione e quindi il farmaco non produce nessun effetto ossia non da variazioni significative di fasi Rem H1: i soggetti sono popolazioni differenti (resi differenti dall’esperiemento) e quindi il farmaco produce differenze significative Per proseguire il nostro lavoro di calcolo ci calcoleremo la media delle due medie, poi anche i quadrai degli scarti? Cosa sono? Ti spiego subito. Tu hai calcolato la media dei punteggi sia del gruppo di controllo che del gruppo sperimentale. Hai ottenuto quindi due valori e di essi hai fatto la media. La µ1 era di 3, la µ2 era di 4, la media di µ1+µ2/2= (3+5)/2= 4 (per comodità questo valore lo chiamo µ1𝑒2) . Prendi quindi questa media delle due medie e la confronti con ogni singolo valore (punteggio) sia del gruppo sperimentale che quello di controllo, dopo di che questo valore ottenuto da ogni sottrazione lo elevi al quadrato. Riprendiamo la tabella e vediamo il tutto. Gruppo di controllo Gruppo sperimentale 71 Scarti gruppo controllo Scarti gruppo sperimentale 2 4 4- Quad= 4-4=0 0 2=2 4 3 5 4- 1 3=1 4-5=-1 1 4 6 4- 0 4=0 4-6= - 4 2 Media: 3 (𝑠𝑎𝑟𝑒𝑏𝑏𝑒 µ1) Media: 5 (𝑜𝑠𝑠𝑖𝑎 µ2 ) tot Media della due medie: 4 µ𝑑𝑖 1 𝑒2 5 5 Somma dei quadrati degli scarti= 5+5=10 Questa operazione ti serve per individuare la variabilità all’interno di ogni sottogruppo La cosa che più ti deve importare per ora di questa tabella è che la somma dei quadrati è 10 che ti è necessaria per calcolare la varianza totale di tutto il campione composto da SPERIMENTALE+CONTROLLO, e questa varianza ti è data dalla somma dei due quadri diviso i gdl che corrispondono ad N-1= 6-1= 5 gdl. Ricorda quanto ti veniva detto su ossia che la varianza totale è data dalla varianza indipendente (quella tra i gruppi) e da quella indipendente ossia dentro ogni gruppo. Questi due valori li devi trovare. A. Andiamo a caccia prima di tutto della variabilità tra i gruppi (between), quella detta indipendente. Tu hai calcolato la media sia del gruppo di controllo che del gruppo sperimentale, ed hai anche calcolato la media delle due medie. Ora devi confrontare la media di ogni sottogruppo con la media delle due medie, e questa operazione la fai per tante volte quanti sono i diversi soggetti di ogni singolo sottogruppo. Perché devi fare questo? Perché devi individuare la variabilità che esiste tra i due sottogruppi, per cui togli dalla variabilità totale la variabilità all’interno dei gruppi. Media gruppo Media gruppo Scarti media Sperimentale controllo S µ𝟏 -µ𝟏𝒆𝟐 5 3 5-4=1 5 3 5-4=1 5 3 5-4=1 Scarti media Quadrati di S C µ𝟐 -µ𝟏𝒆𝟐 Quadrati di C 3-4=-1 3-4=-1 3-4=1 Somme 1 1 1 3 1 1 1 3 Con questi valori che ho trovato posso calcolare la deviazione standard tra i due gruppi avendo come riferimento la somma dei quadrati di S e C e i gdl che sono dati dal numero dei campione totale (ossia quanti gruppi ho nel mio campione in questo caso sono 2) meno 1. Quindi 6 la somma e n-1= 21=1gdl 72 72 B. Ti serve adesso definire la variabilità dentro ogni sotto gruppo (within), e come fai? Prendi la media di ogni sottogruppo e la confronti con ogni singolo valore del sottogruppo a cui la singola media si riferisce Gruppo Media µ𝟏 - Quadrato sperimentale valore 4 5-4=1 1 5 5-5=0 0 6 5-6=-1 1 73 Somma 2 Mediaµ𝟏 - =5 Gruppo controllo Mediavalore Quadrato 2 3-2=1 1 3 3-3=0 0 4 3-4=-1 1 Media µ𝟐 = 3 Somma 2 Lavoro con la prima tabella, quindi prendo la media del primo sotto gruppo, ossia il gruppo sperimentale e la sottraggo da valore del singolo soggetto (sog-µ1 ) Gruppo Scarto sperimentale della media S(=5) 4 4-5= -1 5 5-5= 0 6 6-5=1 Quadrato Gruppo di Scarto controllo della media C(=3) 2 2-3=-1 3 3-3= 0 4 4-3= 1 1 0 1 Somma 2 quadrati 1 0 1 Somma 2 Posso allora calcolare la devianza entro i gruppi che è data dalle somme dei quadrati ed i gradi di libertà invece sono dati da (Ns-1)+(Nc-1) ossia 4 ed i gdl= (3-1)+(3-1)= 4 Quindi per riepilogare: • Varianza tra i gruppi= scarto tra i gruppi/gdl 73 • Varianza entro i gruppi (dentro i gruppi)= scarto entro i gruppi/gdl Ora puoi applicare quella formula dalla quale siamo partiti ossia F= 𝑠𝑐𝑎𝑟𝑡𝑜 (𝑑𝑒𝑣𝑖𝑎𝑛𝑧𝑎)𝑏𝑒𝑡𝑤𝑒𝑒𝑛 𝑔𝑑𝑙 𝑠𝑐𝑎𝑟𝑡𝑜 (𝑑𝑒𝑣𝑖𝑎𝑛𝑧𝑎)𝑤𝑖𝑡ℎ𝑖𝑛/𝑔𝑑𝑙 𝑔𝑑𝑙 6 E quindi F= 14 = 6/1= 6 74 4 Ora devo prendere la mia scala di Fisher, mi serve un alfa che mi pongo allo 0,05 e ben due riferimenti di gdl che sono proprio 1 e 4, vado a pagina 356 per gdl 4 sulla colonna ed 1 sulla riga e con alfa 0,05 ho Fcritico pari a 7,71. Controllo i due F. il mio F è minore di Fcritico quindi accetto l’ipotesi nulla ossia l’assunzione del farmaco non comporta nessun incremento di fasi REM del sonno. 74 Per proseguire il nostro meraviglioso discorso facciamo ora un esempio. Ossia che abbia tre gruppi di 4 soggetti ciascuno 1. Gruppo di controllo 2. Gruppo sperimentale che assume un dosaggio del farmaco 3. Gruppo sperimentale che assume un dosaggio più alto di farmaco Poniamo di aver avuto un F=46.74 confrontandolo con Fcritico che vado a cercare sulla tavola fischer con un alfa di o,05 e 2 e 9 gdl avrei questo confronto ossia F> 𝐹𝑐𝑟𝑖𝑡𝑖𝑐𝑜 il che significa che i gruppo sono appartenenti a popolazioni molto diverse tra di loro. Sono tre i gruppi, quali tra di essi sono quelli maggiormente diversi tra di loro? L’1 ed il 2? Il 2 ed il 3? L’1 ed il 3? Il dubbio ci divora, la vita diventa difficile, tutto si ferma, dobbiamo rispondere quindi per comprendere le differenze tra i gruppi si usa la tecnica della scomposizione degli effetti. Questa tecnica si applica usando due tipi di test: ▪ ▪ Test a posteriori (post hoc) Test a priori (pianificati) Test post hoc: le medie si confrontano a due a due (la dispensa non da esempio e non è facile capire il procedimento di questo tipo di test) Test a priori. Si chiama in questo modo perché vengono formulate delle ipotesi e dei confronti già pianificati all’inizio della ricerca. i confronti che possono essere fatti sono di tue tipi 1. Prendo un campione e periodicamente a distanza di tempo sempre sugli stessi soggetti ripeto una misurazione (per esempio in una ricerca longitudinale quando un valore su di un gruppo viene misurato ogni tot di mesi o di anni) 2. Misura una variabile su blocchi di persone che sono legate tra di loro per esempio una certa variabile misurata sui diversi membri di una stesso nucleo familiare. Prendiamo l’esempio di una misurazione di variabile su di un gruppo di bambini che vengono sottoposti a misurazione ogni anno a partire dal quarto anno di vita fino al settimo. 75 75