caricato da Utente4501

psicometria dispensa-2

annuncio pubblicitario
PSICOMETRIA II
1
(la presente dispensa riprende i contenuti del modulo riferito alla teoria ed alla parte del corso
riferita alla verifica delle ipotesi
Utile per fare esercizi e familiarizzare con le tavole è il testo “esercitazione di psicometria”
1
Le caratteristiche dell’indagine scientifica
Nei nostri esperimenti visto che lavoriamo con delle variabili, sia esse indipendenti o dipendenti, occorre che
siano formulate ed espresse in termini operazionali. Spesso noi lavoriamo con dei costrutti e questi in qualche
modo occorre che siano formulati in modo operazionale, quindi misurabile, per cui l’ansia per esempio la
renderà operazionale tenendo conto del ritmo cardiaco o la mimica facciale o le ore di sonno ecc..
La variabile dipendente (quindi VD ) se lavoro con costrutti o comportamenti per essere operazionalizzata
deve avere
•
Un buon indicatore che appunto mi indichi con chiarezza il comportamento
oggetto di studio (un indicatore che mi faccia capire che quella è ansia e non
invece euforia!)
• Tra la VD ed il fenomeno studiato deve esserci una connessione concettuale
diretta
• La VD deve essere facilmente quantificabile e quindi non in modo approssimativo
o cavilloso
• Deve essere sufficientemente sensibile alle variazioni della V.I. (immagine una
VD che “si attiva” per esempio solo con un alto dosaggio di un farmaco o una
elevata esposizione ad uno stimolo)
Quali sono le differenze fondamentali tra VI e VD?
La VI è quella che il ricercatore
controlla e manipola,
operazione che dovrebbe avere
un effetto sulla VD
È quella che quella che misuriamo dopo
aver manipolato la VI
Negli esperimenti spesso i soggetti sono divisi in gruppo sperimentale e gruppo di controllo. Occorre anche
tenere conto quando parliamo della VI dei livelli, ossia succede che quando io applico una manipolazione della
VI possa agire non una sola operazione o scelte, ma anche più di una. Per esempio voglio vedere se un disturbo
depressivo regredisce con il solo trattamento farmacologico e con il trattamento integrato ossia psico terapia e
farmaci. In gruppo applico solo la terapia farmacologica in un altro quello integrato. Allora la VI che io
manipolerò nel primo gruppo ha un solo livello (solo farmaci) nel secondo gruppo ha due livelli
(farmaco+trattamento integrato).
Quando facciamo un esperimento non abbiamo sola l’azione di VI che modificano i valori e gli effetti di una
VD, possono esservi anche delle variabili di disturbo che possono intervenire e che possono essere più o meno
controllabili ed isolabili. Per esempio: voglio misurare quante parole i componenti di un gruppo riescono a
ricordare se nell’ascoltarle hanno un rumore di sottofondo. Il disturbo non è il rumore che sentono ma il fatto
che tra le parole ascoltate e quelle ricordate non solo interviene il rumore ma ad esempio interviene anche il
fattore età dei soggetti, come anche il grado di studio. Sono tutti elementi che fanno sentire il loro peso negli
effetti per cui le VD che misurerò non dipenderanno allora solo dal livello di memoria dei soggetti ma da altre
situazioni che modificano le capacità mnemoniche dei soggetti.
2
2
Ora vediamo come possono essere tratte negli esperimenti le variabili
Il modo K: (K= costante) si tratta di mantenere le variabili costanti per tutte le osservazioni, per esempio l’età
dei soggetti del campione deve essere solo ed esclusivamente di soggetti 25enni.
Questo modo di trattare le variabili riduce la variabilità tra i gruppi stessi (between) ma limita molto la
generalizzazione dei risultati se infatti ho usato solo soggetto di 25 anni è improbabile che i risultati ottenuti
possa applicarli anche per i 50enni o se ho studiato l’atteggiamento verso i contraccettivi nelle donne, non
posso applicare quel risultato per gli uomini.
3
Il modo X= si tratta di controllare la variabile in modo che in una sottoinsieme abbia un certo valore ed in un
altro sottoinsieme un altro valore: per esempio in un gruppo somministro una certa posologia di farmaco, in
un altro lo stesso farmaco ma con posologie diverse.
Di solito questo tipo di modalità di trattamento delle variabili è tipico del lavoro psicologico quando si
suddivide un campione in due gruppi quello sperimentale e quello di controllo che hanno caratteristiche comuni
ma quello sperimentale è sottoposto a trattamento, cosa che non accade per il gruppo di controllo.
Il modo M: questa lettera M sta per matching, è un modo di trattare i gruppi facendo in modo che una data
variabile sia presente in entrambi i gruppi allo stesso modo, per esempio se il mio campione è composto da
diverse età faccio in modo che tutti e due i gruppi siano composti dallo stesso numero di soggetti con le
medesime età (gruppo A: soggetti con anni 21, 45, 27, 33, 16; gruppo B: idem ossia soggetti con anni 21, 45,
27, 33, 16). In questo modo accadrà che i entrambi i gruppi abbiano la stessa media
Come per K anche questo modo M di trattare i campioni riduce molto la variabilità tra i gruppi che sono quindi
composti in modo molto omogeneo. Questo modo cerca di eliminare l’influenza di altre variabili oltre quelle
che interessano al ricercatore.
Modo Y: è il modo livero, ossia lascio che la variabile assuma qualsiasi valore, a me interesserà solo osservare
e registrare tale variabile che chiamerò appunto osservata
Il modo R: ossia Randomizzato. I soggetti che compongono i sottogruppi sono scelti a caso in modo che le
variabili agiscano in modo equivalente nei gruppi, questo però è un buon metodo solo se il campione è molto
numeroso.
Il modo Z: viene chiamato non-metodo perché consiste nell’ignorare la variabile
Questi i modi di gestire le variabili, ma perché un’indagine produca veramente informazioni occorre che
almeno una variabile sia trattata in modo Y, gli altri modo infatti se hai prestato attenzione noterai che
implicano una certa azione del ricercatore sulle variabili influenzando i valori che esse assumono. Se ci
troviamo in una ricerca dove andiamo a misurare una sola variabile che liberamente (modo Y) assume i suoi
valori allora siamo in una studio chiamato descrittivo (per esempio voglio misurare il consumo medio di
cannabis nella popolazione adolescente di un quartiere di periferia. Per farlo non manipolo nessuna variabile
ma semplicemente rilevo come questa variabile “di suo” è presente tra quei ragazzi)
3
Può accadere anche che mi interessa vedere cosa succede quando varia la variabile che sto studiando, ossia è
possibile che ci sia una variabile che cambiando di valori influenze un’altra variabile. Attenzione non stiamo
qui parlando del rapporto tra variabile indipendente e variabile dipendente ma di variabili correlazionali
In questi studi correlazionali le variabili devono essere trattate una in modo Y (ossia libera e quindi solo
osservata e non manipolata) e l’altra in modo X (ossia manipolandola), questa variabile può però anche essere
tratta in modo X ossia libero per cui registro i valori che assume che però dipendono, sono appunto correlati
alla prima variabile, ossia quando una è presente è presente anche l’altra e l’intensità di una implica l’intensità
di presenza dell’altra. Per esempio sono correlazionali la presenza del disturbo di ansia e la presenza dei bias
attentivi ed interpretativi, e più è alto il livello di ansia di tratto più attivi sono questi bias
4
L’indagine descrittiva
L’indagine empirica può essere ti tipo descrittivo, si tratta di indagine che vuole semplicemente dare un quadro
accurato dei comportamenti, dei vissuti emotivi, delle cognizioni, si tratta praticamente di osservare e
registrare. Per esempio osservo quanto i bambini dormono nel primo anno di vita per cui misuro le ore di sonno
giornaliere per un lasso di tempo di 12 mesi.
L’indagine descrittiva può aprire nuove domande ed ulteriori livelli di indagine, per esempio mi chiedo se le
ore di sonno dipendono da quanto tempo le madri passano con i figli. Passo allora un altro livello di indagine
L’indagine correlazionale
Si tratta di individuare come quei comportamenti, emozioni o cognizioni descritti nel primo livello di indafgine
dipendono e sono quindi messi in relazioni con altre variabili , per cui osserverò le ore di sonno dei bambini e
le ore di gioco con le madri, potrò notare a livello di osservazioni l’entità della relazione, ma non posso dire di
aver effettuato anche una indagine di tipo causale. Posso forse notare un rapporto positivo tra ore di gioco ed
ore di sonno ma non posso dire se è il comportamento più disponibile della madre ad influenzare il sonno dei
bambini
L’indagine sperimentale
Esso è il terzo livello e cerca di individuare le relazioni causali tra le variabili, è in questo caso che si usa
manipolare una VI mentre la variabile Dipendente viene osservata prima e dopo la manipolazione della stessa.
In questo caso si lavora anche con i due tipi di gruppo ossia quello sperimentale e quello di controllo.
La validità delle indagine empiriche
Lo scopo della ricerca è quello di raggiungere conclusioni che siano fondate. La validità non è una sola ma
abbiamo diversi tipi di essa
1. La validità interna. Essa significa che l’intervento da noi compiuto è il responsabile dei risultati
ottenuti e non perché altre cause siano intervenute. Abbiamo quindi veramente stabilito la relazione
causale tra VI e VD? Noi riusciremo ad evitare l’azione di altre cause se il nostro disegno di ricerca è
ben fatto. Validità interna quindi significa che un esperimenti riesce a dare una sola spiegazione alla
causa di effetto e non che possano esservi altre spiegazioni e quindi che non siano intervenute altre
cause. Il discorso non è così peregrino infatti negli esperimenti tante altre cause possono intervenire a
maggior ragione quando si lavora con persone, esseri umani che hanno la loro età, stanchezza,
tensione, ecc.. possono essere diverse cause che possono sopravvenire ed influenzare i risultati
4
•
•
•
•
•
•
•
•
•
La maturazione, ossia nelle misurazioni ripetute nel tempo succede che i soggetti
crescono, evolvono, diventano più vecchi o più esperti
L’effetto delle prove: test ripetuti fanno si che quelli iniziali abbiano un effetto
sulle successive prove
Strumentazione, si tratta delle variabili che intervengono proprio a motivo degli
strumenti e delle procedure usate per fare le misurazioni. Le tavole per dare i
punteggi per esempio evolvono nel tempo, e per evitare problemi di strumenti
occorre cercare di usare strumenti ben tarati e magari automatizzati
Regressione statistica, è un effetto che si nota nei test compiti due volte, ossia i
punteggi estremi al secondo test tendono ad indirizzarsi verso la media, inoltre se
si usa sempre lo stesso strumento per ripetute misurazioni i punteggi tendono a
disporsi intorno alla media della distribuzione
Criteri di selezione, quando si formano i gruppi S e C occorre che questi abbiano
le stesse caratteristiche, siano uguali, non con differenze apriori al fine di avere la
certezza che veramente le differenze successive sia effetto della VI . questo tipo
di uguaglianza che evita le differenze apriori la si ottiene con l’assegnazione
casuale ai gruppi
Abbandono o mortalità sperimentale. Può succedere che nel corso di un
esperimento alcuni soggetti abbandonino i gruppi, come si può altresi notare una
certa mortalità. Di essa occorre chiedersi se dipende dall’azione della VI specie se
la mortalità è solo nel gruppo sperimentale, bisogna anche appurare se invece la
mortalità nell’uno o nell’altro gruppo dipende da fattori che non ho considerato e
che non hanno reso omogenei i gruppi (per esempio persone depresse ma non ho
tenuto contro che in uno dei due gruppi c’erano presenti anche depressi
oncologici)
Effetto diffusione, accade quando informazioni sul trattamento effettuato sul
gruppo sperimentale arrivano al gruppo di controllo e lo influenzano
Reazione ai controlli, può accadere che il gruppo di controllo proprio perché non
ha alcun trattamento abbia dei cambiamenti nella sua prestazione, occorre perciò
somministrare un trattamento compensativo.
Combinazione degli effetti di selezione con altre minacce, la migliore distribuzione
nei gruppi è quella casuale, ma quando i gruppi non sono formati in questo modo
ma con altri criteri è possibile che proprio queste procedure minaccino la validità
interna (per esempio se i soggetti sono stati selezionati per storia e altri per
maturazione, due criteri che si confondono molto tra di essi)
5
5
2. La validità esterna
È la possibilità di estendere i risultati di una ricerca a soggetti e situazioni diverse
Come otteniamo questo?
•
Facendo in modo che il campione sia rappresentativo per cui usare un modo
casuale per formare il campione e cercando avere un campione di una certa
numerosità
La popolazione a cui possiamo estendere i nostri risultati è quella bersaglio, ossia quella che vorremmo
raggiungere, ma spesso noi lavoriamo più con una popolazione accessibile ossia quella che effettivamente
possiamo raggiungere
Perché ci sia validità esterna occorre che ci sia una validità temporale ossia che i nostri risultati siano stabili
nel tempo
La validità esterna è minacciata. Da cosa?
•
•
•
•
•
•
•
Caratteristiche del campione: ossia se il campione non è rappresentativo della
popolazione
Le caratteristiche dello stimolo, ossia lo stimolo presentato da persone e situazioni
in un modo particolare da non permettere la generalizzabilità dei risultati
Le caratteristiche contestuali ossia il contesto nel quale svolgiamo la nostra
sperimentazione che è troppo singolare impedendo la generalizzazione ad altri
contesti
Interferenza dovuta ai trattamenti multipli
L’effetto novità ossia il campione sperimentale risponde in un certo modo non solo
per effetto del trattamento ma proprio perché il trattamento è saliente, infrequente
e quindi nuovo da suscitare una risposta nel campione che non è solo attribuibile
al trattamento in se stesso
Le procedute di valutazione ossia
▪ La reattività alla valutazione: sapere di essere valutati porta i
soggetti del campione ad una risposta che non darebbero in
condizioni normali
▪ La sensibilità al test dovuta ad un eventuale pre test che nel
preparare i soggetti al test vero e proprio li ha comunque
sensibilizzati e predisposti
Il momento della somministrazione del trattamento: ossia il tempo in cui uno
stimolo viene somministrato ha una sua influenza, una cosa infatti può essere la
risposta data subito dopo la fine per esempio di un trattamento psicoterapeutico,
un’altra quella data dopo tanto tempo dalla fine di quel trattamento
3. La validità di costrutto
Essa la possiamo ottenere solo in seguito alla validità interna, ossia stabilito che i risultati ottenuti sul campione
nella nostra sperimentazione sono dovuti e quindi spiegati come causati solo dalla nostra variabile indipendente
(e non perché sono intervenute altre cause), noi andiamo ad interpretare le relazioni causali. Cosa significa
questo?
6
6
1. Ho stabilito che manipolando la V.I. ho un effetto e che questo effetto dipende
solo ed esclusivamente dall’azione della V.I e non dal sopraggiungere di altre
cause.
2. La mia ricerca ricordiamo che è partita da una ipotesi e quindi ha un piano. Il
piano della ricerca si basa su quello che noi chiamiamo costrutto. Il costrutto
è per esempio il tratto di personalità, un comportamento, uno stato emotivo,
cognitivo o comportamentale. Perché ci sia validità di costrutto occorre che il
piano della mia ricerca sia costruito in modo tale che l’esperimento che ho
pensato e somministrato davvero rilevi il costrutto che mi interessa e sia
connesso ad esso. Se per esempio faccio una ricerca sull’aggressività devo
“pensare” un esperimento che sia connesso a rilevare e misurare il livello di
aggressività per evitare che invece di stare a misurare l’aggressività io formuli
un piano sperimentale che in pratica va a misurare per esempio la stanchezza
dei soggetti o la motivazione.
3. Quindi validità di costrutto è chiedersi quale è il costrutto che sottostà
all’effetto?
Per avere una buona validità di costrutto occorre che
•
Le variabili siano ben definite in modo operazionale.
È importante
l’operazionalizzazione perché significa individuare quell’indicatore connesso al
costrutto che mi interessa e che posso misurare. L’ansia o l’intelligenza non sono
materiali misurabili con peso e metro, sono costrutti che si manifestano mediante
comportamenti che sono appunto gli indicatori ed io devo saper individuare per i
costrutti che mi interessano buoni indicatori osservabili e misurabili. Allora per
l’ansia per esempio prenderò come indicatore il battito cardiaco, le ore di sonno,
la mimica
Quindi validità di costrutto significa corrispondenza tra livello teorico e livello misurabile. Ciò permette che i
risultati ottenuti posso interpretarli grazie al modello teorico di riferimento (nei miei soggetti rivelo che c’è un
battito cardiaco accellerato: lo interpreto come dovuto ad un tratto di ansia)
Cosa minaccia la validità di costrutto?
•
L’attenzione ai rapporti con i clienti: è possibile che il risultato ottenuto su di un
campione sia dovuto al rapporto instaurato tra il ricercatore ed i clienti o il cliente,
quindi il risultato non è dovuto alla sola somministrazione dello stimolo o alla
misurazione ma all’influenza devoluta ai soggetti del campione (per esempio un
tratto più gentile ed accogliente verso alcune clienti ansiose può aver stabilizzato
un ritmo cardiaco che invece senza quel modo benevolo sarebbe stato più naturale
e quindi più accellerato)
• Le aspettative dello sperimentatore: talvolta le attese dello sperimentatore
influenzano le prestazioni dei soggetti . tali aspettative però possono anche essere
“più pericolosi” se lo sperimentare interpreta i dati alla luce delle sua aspettative
e non per la solo oggettività dei risultati arrivando così ad alterare la validità di
costrutto
Come può “passare” l’aspettativa che lo sperimentare ha da questi al gruppo sperimentale?
-
Con la postura, il tono della cove, le espressioni del volto, e tutta una serie di segnali non verbali.
Segnali che provengono dalla situazione sperimentale e che associati all’intervento possono
influenzare i risultati che si otterranno per esempio:
▪ Le informazioni che vengono date ai soggetti prima della
partecipazione all’esperimento*
▪ Tutte le istruzioni e le procedure e le situazioni sperimentali
che vengono presentate ai soggetti che dovrebbero essere
7
7
presentare come casuali ma invece vengono offerte in modo
che le risposte alle sperimentazioni siano invece influenzate
* Per evitare tutto ciò si può per esempio esplicitare in anticipo le aspettative dello sperimentatore oppure somministrare il trattamento mediante
l’azione di più ricercatori
8
8
4. La validità statistica
La validità statistica ha lo scopo di verificare se la relazione trovata tra le variabili sperimentali è
o meno di tipo casuale, ovvero se l’effetto è significativamente da quello che si sarebbe ottenuto
per caso. La validità statistica si occupa di controllare la variabilità dovuta al caso, tramite il
calcolo delle probabilità e dell’inferenza statistica. (definizione presa da slide università di
Bergamo)
Si riferisce alla valutazione quantitativa dei risultati, si tratta cioè di “quantizzare” la relazione tra le variabili
al fine di stabilire che la relazione tra due variabili ha una significatività statistica o meno, per esempio che le
media di due gruppi messi a paragone sono uguale oppure differenti o che la media di un campione è uguale a
quella di una popolazione o differente. Ecco allora che usiamo a tal riguardo dei termini come
•
Ipotesi nulla: si intende con questa espressione dire che tra due gruppi non ci
sono differenze significative
• Test statistici sono quelle procedure che usiamo per stabilire se tra le medie
di due gruppi ci sono o meno delle differenze significative
Circa la validità statistica possiamo sempre commettere due tipi di errore
•
L’errore di primo tipo: chiamato errore alfa ossia rifiutare l’ipotesi nulla
quando è vera e quindi dire che c’è una differenza tra due gruppo quando
invece non c’è
• L’errore di secondo tipo ossia l’errore Beta il che significa accettare l’ipotesi
nulla quando invece questa sarebbe da rifiutare a favore dell’ipotesi
alternativa
Un altro errore è quello dovuto all’effetto dimensione ossia all’impatto dell’intervento sulla ricerca. si tratta
dell’errore standard Es che si calcola sommando le medie dei due gruppi e dividendo il tutto per la somma
delle deviazioni standard dei due gruppi. Più grande è questo valore delle somma delle deviazioni standard
minore è l’errore dell’effetto dimensione, minore sono le deviazioni standar maggiore l’effetto.
La validità statistica può essere compromessa quando abbiamo una bassa potenza statistica. Cosa è? E’ la
probabilità che un test statistico ha di falsificare l’ipotesi nulla quando l’ipotesi nulla è effettivamente falsa. In
altre parole, la Potenza di un test è la sua capacità di cogliere delle differenze, quando queste differenze
esistono. Se la potenza statistica è bassa allora vuol dire che è alta la probabilità che io rifiuti l’ipotesi nulla
quando è vera e che io affermi che non ci sono differenze tra due gruppi quando invece tale differenza esiste.
Un altro errore che può compromettere la validità statistica è quello relativo alla variabilità delle procedure
ossia a quello che accade in ogni campione (sperimentale o di controllo). Cosa significa? I gruppi non sono
uguali tra di loro non solo perché uno è sperimentale ed uno è di controllo e quindi uno è sottoposto a
trattamento e l’altro no, ci sono anche altre differenze (parliamo di persone non di oggetti stampati e le persone
hanno sempre le loro singolarità: una classe di prima elementare non è uguale ad un'altra anche se hanno lo
stesso numero di scolari). Inoltre ci sono differenze, variabilità, all’interno dello stesso gruppo e proprio questa
variabilità “dentro” il gruppo può aver concorso ad un certo risultato e quindi la differenza tra S e C
(sperimentale e controllo) non dipende solo dal trattamento ma anche dalla differenze entro i gruppi. Perché i
nostri risultati siano quindi adducibili solo al trattamento somministrato dobbiamo ridurre al minimo la
differenza “ad intra” per cui dobbiamo prestare molta attenzione a
o
o
o
9
Differenze individuali dei componenti dei
gruppi
Evitare le differenze di somministrazione dei
trattamenti
Prestare
attenzione
alle
differenze
nell’esecuzione delle procedure sperimentali
9
L’eterogeneità dei soggetti cosa comporta? Quando io “creo” due gruppi da confrontare se i componenti di
questi gruppi sono eterogenei allora è molto probabile che non ci siano differenze significative tra le medie dei
due gruppi, se invece tendo a formare gruppi omogenei è molto probabile che le differenze tra le medie siano
notevoli, pensiamo per esempio alla differenze che di sicuro riscontrerei tra due gruppi dei quali uno tutto di
giovani l’altro tutto di anziani, o uno tutto maschile e l’altro tutto femminile, o uno tutto di classe medio bassa
e l’altro di classe alta. I gruppo omogenei forse permettono di registrare differenze significative nei confronti
con altri gruppi ma non permettono di poter estendere, generalizzare, i risultati quindi comprometterei la
validità esterna.
Altro errore della validità statistica è l’inaffidabilità delle misure. Le prestazioni dei soggetti devono essere
misurate in modo consistente.
Nota mia:mi pare di capire, nel grande caos e nel modo scarno della nostra dispensa, che un parametro fondamentale che assicura la validità statistica
dei risultati di un esperimento, è quello della variabilità, quel famoso S che spesso ci ritroviamo ad usare nei nostri calcoli su campioni e medie. Tenere
conto di S significa che teniamo conto della variabilità, ossia del fatto che i campioni con cui lavoriamo non sono omogenei. Lavorare con grandi gruppi
(campioni) significa che avremmo a che fare con un effetto dimensione che “conteniamo” se teniamo conto della S, del valore della variabilità. Maggiore
è S minore sarà l’effetto dimensione e la usa minaccia alla validità dei nostri risultati.
Ulteriori minacce alla validità delle nostre indagini
Quando occorre effettuare confronti multipli usiamo diversi test e non solo un test, a volte infatti sono più
varabili dipendenti che concorrono in una certa situazione. Per esempio se misuro la demenza è bene tenere
conto di test diversi (uno per memoria, uno per l’attenzione, uno per il linguaggio, ecc..). l’uso di questi diversi
test permette di avere un confronto multiplo ma anche un aumento di errori, specie di primo tipo.
Per ovviare a tutto questo si effettua una analisi multivariata per stabilire la differenza tra il gruppo C ed S
come si differenziano ognuno per ogni variabile che considero.
10
10
Le strategie di ricerca
Per svolgere il nostro lavoro dobbiamo stabilire una strategia, tra quelle più comunemente usate abbiamo
•
•
•
•
•
Gli studi sul campo
Gli esperimenti sul campo
Le simulazioni sperimentali
Gli esperimenti di laboratorio
Le indagini campionarie
1. Studi sul campo: in questo tipo di ricerca si osservano i comportamenti naturali così come si
manifestano. Non c’è un controllo delle variabili che sono trattate in modo Y ossia libero. Quindi ci si
limita ad osservare e misurare. Raccolti i dati si può trasformare la variabile osservata in varibiabile
di disegno ma le relazioni causali non potremmo stabilirle visto che l’unica azione nostra è
l’osservazione
2. Gli esperimenti sul campo: si tratta sempre dell’ambiente naturale nel quale osserviamo delle variabili
che sono lasciate nel modo Y ma una variabile la manipoliamo quindi agiamo in modo X. questo tipo
di esperimento lo si usa nelle ricerche quasi sperimentali, visto che possiamo manipolare una variabile
risalire a delle inferenze causali piuttosto sicure.
3. La simulazione sperimentale: si tratta di creare un ambiente artificiale quindi il livello di intrusione è
piuttosto elevato. Il contesto è preparato apposta per la ricerca ed i soggetti accettano di stare nella
situazione creata. Nell’esperimento di laboratorio il ricercatore agisce in prima persona e manipola le
variabili, ma in questo caso invece subentra il comportamento dei soggetti coinvolti che seguono anche
le regole e le indicazioni ma poi attivano il loro comportamento. La struttura è complessa ed articolata
e questo ci fa capire che non è facile isolare delle variabili e valutarne gli effetti.
4. Esperimenti di laboratorio: è la strategia che permette il massimo controllo sulle condizioni nelle quali
avviene il comportamento studiato. Interessa poco il contesto ma proprio il controllo delle variabili e
la misurazione del comportamento. Spesso questa strategia viene considerata come l’unica veramente
scientifica, il problema però proprio per via del rigore delle manipolazioni avulse dal contesto è quello
della generalizzazione dei risultati e quindi della validità esterna i risultati infatti non è facile estenderli
ad altri contesti differenti dalla situazione dell’esperimento.
5. L’indagine campionaria ed i compiti valutativi: si tratta dello studio dei resoconti che i soggetti danno
circa se stessi, i loro comportamenti o preferenze, le informazioni ecc.. i soggetti coinvolti vengono
sottoposti a degli stimoli o a delle domande, quindi non è tanto una reazione o un comportamento ad
un contesto ma delle risposte date al ricercatore. Non osserviamo quindi comportamenti-contesto, e le
procedure che possiamo usare sono due
• Indagine campionaria: si somministrano stimoli familiari per avere
risposte familiari e si scelgono contesti familiari come la casa, il lavoro,
la strada. Il linguaggio è semplice
• Compiti valutativi: in questo caso non c’è familiarità nel senso che si
chiede lo svolgimento di un compito che non appartiene al quotidiano
dell’esperienza, questo non accade poi in ambiente familiare ma in una
situazione di laboratorio.
La generalizzabilità: le due forme non hanno la stessa generalizzabilità
L’indagine campionaria mira a generalizzare i risultati attraverso i soggetti (l’opinione
degli italiani su un dato argomento….)
o I compiti valutativi generalizzano attraverso gli stimoli
La raccolta delle informazioni: fatte le nostre indagini raccogliamo il materiale per verificare o falsificare la
nostra ipotesi. Occorre lavorare in modo operativo ossia numerico ed in psicologia questo passaggio è
estremamente delicato in quanto lavoriamo con dei costrutti e non con misure materialmente quantificabili.
Quindi due sono le cose necessarie:
11
o
11
• La validità degli strumenti di misura
• E la fedeltà/attendibilità delle misure
Quando usiamo uno strumento in psicologia (un test proiettivo, una scala di item ecc..) ci dobbiamo chiedere
▪
▪
È valido lo strumento? (ossia misura effettivamente la variabile concettuale che
ci interessa?)
È attendibile?
Rispondiamo alla prima domanda. Cosa può rendere invalida una misura?
•
•
•
Il soggetto coinvolto nell’esperimento: è possibile che la persona intervistata o comunque
sottoposta allo stimolo sapendo di essere osservata risponda per compiacere o per boicottare
Il ricercatore: il rapporto stabilito con i soggetti, anche il sesso, l’età. L’affaticamento o
l’affinamento del ricercatore con la sua esperienza, tutto questo può alterare l’oggettività della
misura
Le procedure del campionamento: possiamo a tal riguardo commettere tre errori
• La limitatezza della popolazione raggiungibile con il nostro strumento
oppure limitata proprio per il tipo di campionamento stabilito
• La popolazione instabile che non possiamo raggiungere in tempi
successivi
• L’instabilità della popolazione in aree diverse
▪ È fondamentale la stabilità della popolazione per poter generalizzare i risultati e
per usare gli stessi strumenti in applicazioni diverse. Quando cambia la
popolazione potremmo erroneamente pensare che ci siano delle differenze nella
variabile misurata, che il fattore storia o maturazione abbia inciso sul campione
ma in realtà stiamo a misure in un tempo A e poi in uno B due popolazioni diverse
Le misure hanno quattro tipi di validità
1. Validità di contenuto: si intende che il nostro strumento contiene un campione rappresentativo del
comportamento che si vuole studiare, questo mi permetterò di generalizzare le misure. Io devo
costruire uno strumento che permetta di cogliere le diverse manifestazioni del costrutto che voglio
misurare, quindi se misuro l’aggressività formulare uno strumento che sia articolato e colga le diverse
manifestazioni con cui l’aggressività si può manifestare
È necessario poi che sia corretto il campionamento e questo avviene solo se è chiara quale è la
definizione della popolazione di stimoli dalla quale estrarre un campione. Devo sapere bene cosa è
l’aggressività, cosa manifesta la persona aggressiva così da scegliere dentro la popolazione degli
aggressivi il mio campione. Trovata la popolazione sulla quale c’è concordanza anche nella
definizione di tale popolazione allora posso campionare in modo causale ed avere il mio campione
2. La validità convergente: quando misuro lo stesso costrutto con strumenti diversi il risultato deve essere
lo stesso, c’è da dire in psicologia che non ci sono molti strumenti che misurano lo stesso costrutto
3. Validità predittiva: è la possibilità che ho di poter prevedere quanto sarà la misura B che dipende da
una misura A che io ho misurato, per cui se ho misurato in modo corretto A e la variabile B dipende
dalle variazioni di A, posso prevedere in base ad A quanto sarà B ipotetico
4. La validità concettuale o teorica: la nostra misura deve essere in relazione con dei concetti, ossia noi
vogliamo misurare un concetto, questo in base alla teoria che abbiamo e da cui partiamo è collegato
con altri concetti, abbiamo anche delle ipotesi che cercano di spiegare il legame tra il nostro concetto
e gli altri e quindi sottoponiamo queste ipotesi alle verifiche empiriche. Questo tipo di validità insieme
a quella predittiva vediamo che tengono conto non solo del concetto in se ma anche delle sue relazioni
che possono essere più o meno complesse.
12
12
Ci chiedevamo anche l’attendibilità sulla attendibilità dello strumento. È attendibile lo strumento che usato in
tempi diversi o da persone diverse da lo stesso risultato. Non mancano gli errori, dovuti a cosa?
o
• L’uso maldestro/irregolare dello strumento
• L’alterazione dello strumento
• Distorsioni che lo strumento provoca quando viene usato
Per capire se uno strumento è attendibile occorre ripetere le misure, le stesse, con altro
strumento, ma un psicologia non è facile fare tutto questo e quindi si usano altre strategie
-
La prima strategia appena accennata sarebbe quella di ripetere le misure ma come già detto in
psicologia non è facile che ripetendo una misura si ha lo stesso risultato proprio per la “natura” di ciò
che misuriamo
- Una strategia usata è quella del test-retest: si tratta della ripetizione della misurazione ma ci sono delle
minacce alla validità interna a motivo sia della maturazione che della storia. La differenze di misure
che si hanno effettuando la stessa misura a distanza di tempo infatti può erroneamente farci pensare
che le misure siano cambiate o che ci sia un errore, in realtà si è presentato il fenomeno della
maturazione del campione
- Metodo delle forme parallele: si tratta di costruire uno strumento in due versioni con caratteristiche
statistiche specifiche, non è facile però costruire uno strumento simile in doppia versione, il rischio è
anche quello di costruirli entrambi con un errore sistematico
- Metodo dello spilt-half (ossia divisione a metà). Si tratta di usare un solo strumento diviso a metà su
due campioni (per esempio degli item suddivisi in pari e dispari al gruppo 1 ed al gruppo 2)
- La matrice multitratto-multimetodo. Si tratta di uno strumento per misurare due tratti di personalità
sullo stesso campione usando anche due metodi come il test proiettivo ed il questionario. Quindi il
paradigma di questo metodo prevede che
• Gli stessi soggetti sono sottoposti a due metodi diversi
• Gli stessi soggetti in tempi diversi misurati con lo stesso strumento
• Ogni soggetto quindi avrà otto misurazioni
Possiamo quindi costruire una vera e propria tabella a doppia entrata dove noi riporteremo i dati delle
osservazioni secondo questo tipo di codice
R: le caselle dove c’è correlazione ossia dati di misurazione dello stesso tratto con lo stesso metodo nei due
tempi diversi
M: dati relativi alle misurazioni di tratti diversi con lo stesso metodo
C. dati relativi alle misurazioni dello stesso tratto con metodi diversi
H: dati relativi a tratti diversi misurati con metodi diversi
Importante è che ci sia fedeltà nelle correlazioni, ossia che stesso tratto e stesso metodo, o stesso tratto e metodo
diverso in qualche modo deve esserci una congruenza.
13
13
La verifica delle ipotesi
Il concetto di parametri e di indicatori
La statistica ha come scopo quello di risalire ai valori di un dato elemento che ci interessa su di una
intera popolazione, per esempio l’uso di hashish su tutta la popolazione adolescenziale italiana.
La popolazione come in questo stesso esempio che ho fatto adesso è troppo vasta per essere
intervistata nella sua interezza, ecco perché esiste la statistica ovvero sia quella scienza matematica
che lavorare sui campioni estratti da una popolazione cosicchè dai dati del campione si possa risalire
a quella dell’intera popolazione. Come si arriva quindi ai dati di una intera popolazione? Tramite il
calcolo matematico inferendo, ossia passando con passaggi matematici dai dati ottenuti sul campione
a quelli relativi all’intera popolazione.
La prima differenza dunque è tra parametro ed indicatore
• L’indicatore è il valore x (minuscolo) sul campione (quanta cannabis viene usata da un
campione di 100 ragazzi)
• Il parametro è il valore X sulla popolazione (quanta cannabis viene usata dagli adolescenti
italiani)
Come si lavora con gli indicatori?
Il primo passaggio è la formazione del campione. Prendo una popolazione N (che significa il numero
degli individui quindi per esempio le migliaia di adolescenti italiani) e da questa estraggo un
campione n (per esempio 100 adolescenti)
Il campione è quindi un numero di soggetti limitato e di esso il valore che mi interessa, per esempio
l’uso di canne, ha un valore medio 𝑥⃑.
Dal campione estraggo ulteriori porzioni di campione di N elementi, per esempio dai 100 ragazzi
estraggo dei sottogruppi di 3 ragazzi per volta. Di ogni gruppetto di questi calcolo la relativa media.
Questi diversi valori si dispongono secondo un certo andamento, questa disposizione delle medie di
tutti questi gruppetti di ragazzi viene chiamata la distribuzione delle medie e la media di tutti questi
valori è la media della distribuzione campionaria.
La statistica ha potuto constatare che quando il numero del campione si avvicina al numero totale
della popolazione, la media dei diversi piccoli campioni si distribuisce in un modo simmetrico e ben
ordinato, a campana, e questo ha permesso di poter creare delle tavole teoriche di riferimento che ci
risparmiano tempo quanto alla formulazione dei calcoli perché avendo noi dei valori di riferimento
possiamo consultare queste tavole e quindi trovare senza molti calcoli altri valori che ci interessano.
Quando abbiamo modo di lavorare su grandi campioni il cui numero è vicino a quello della
popolazione ovvero sia quando abbiamo N (popolazione)= n (campione) la media della distribuzione
campionaria coincide con la media del campione e quindi abbiamo che
µ= µ
⃑⃑
14
14
questa è la cosiddetta legge dei grandi numeri, quindi per essa vale questo assunto ossia che più è
grande il campione preso da una popolazione, più è vicino il suo numero al numero totale della
popolazione e più la media del campione è vicina come valore alla media del campione stesso, fino
ad arrivare alla coincidenza dei valori quando n=N quando il numero del campione è uguale al numero
della totale popolazione (un campione grande quanto tutti gli adolescenti italiani altro non è che la
somma di tutti gli adolescenti italiani: chiaro fino ad ora?!!)
se ti è chiaro, puoi andare avanti. Altrimenti o rileggi e capisci, o mi scrivi e ti spiego a voce, oppure
lascia tutto e dedicati all’agricoltura.
il concetto di varianza o di variabilità
Un concetto importante è quello di varianza o di variabilità. Abbiamo detto che la distribuzione
campionaria delle medie è costituita dall’andamento delle medie dei campioni che si dispongono una
dietro l’altra. Ogni media non coincide perfettamente con la media della popolazione, c’è quindi una
sorta di scarto, di differenza tra la media dei campioni e la media della popolazione, questo scarto è
la varianza. Se il campione come numero coincide con il numero totale della popolazione questo
scarto o differenza non esiste perché come già detto, media della distribuzione campionaria e media
della popolazione coincidono.
Dicevamo poco fa che questa è la “legge dei grandi numeri”: più aumenta n (avvicinandosi quindi
ad N) più la variabilità assume un valore vicino allo zero.
Quando poi abbiamo dei campioni che superano le 30 unità allora si realizza anche il teorema del
limite centrale ovvero sia la distribuzione delle medie si presenta con l’andamento normale ossia una
curva anche detta curva di Gauss.
Ora, per entrare più nel dettaglio di alcuni passaggi matematici dobbiamo prima di tutto tenere conto
di un assunto: noi spesso non possiamo conoscere direttamente i valori di una intera popolazione ma
solo quelli dei campioni, quindi spesso succede che non conosciamo alcuni valori che vengono
identificati con dei simboli specifici. Vediamo quali sono questi simboli e cosa significano
1) 𝜎 2 sarebbe la varianza della popolazione ovvero sia come si distribuiscono le medie dei
campioni presi della popolazione, o per dirlo con altre parole, questo valore mi dice di quanto
le medie dei campioni presi dalla popolazione variano dal valore delle media di tutta la
popolazione
Cerchiamo di capire bene cosa è la varianza. Essa non è la media ed abbiamo bisogno della media per definirla.
La media di una popolazione di N elementi è data dalla somma dei valori di ogni singolo elemento divisa per
il numero di elementi (es: ragazzo A fuma 3 spinelli, ragazzo B fuma 4 spinelli, ragazzo C fuma 2 spinelli,
ragazzo D fuma 6 spinelli, la media è data da 3+4+2+6/4). la differenza di ogni singolo valore dalla media si
chiama scarto, la media dei quadrati degli scarti è la varianza
(così troviamo nella definizione: In statistica, con riferimento a una serie di valori, la media dei quadrati degli
scarti dei singoli valori dalla loro media aritmetica)
2) 𝜎𝑥̅2 = questo simbolo indica la varianza della distribuzione campionaria
Cosa significa? A questo livello non stiamo più lavorando con una intera popolazione ma con un
campione dal quale ho preso diversi altri sotto campioni, quindi cosa ho fatto? Ho calcolato la media
15
15
di ogni campione, ho poi calcolato la media delle medie dei campioni. La varianza della distribuzione
campionaria è quel valore che mi dice di quanto ogni singola media dei campioni si distanzia dalla
media della distribuzione campionaria.
3) 𝑠 2 = si tratta della varianza del singolo campione
Questi tre valori sono in relazione tra di essi e questo permette di risalire da un valore all’altro: per
esempio se conosco la varianza di un campione posso arrivare a calcolare la varianza della
distribuzione campionaria tramite appunto calcoli matematici.
16
Vediamo già una regola matematica. Come posso calcolare la varianza del campione? Ossia quale è
la distanza di un campione dalla media?
𝑠2=
̅̅̅ 2
∑(𝑥−𝑥)
𝑛
ricordiamo che 𝑥̅ =
∑𝑥
𝑛
Con questo risultato posso calcolare la varianza della distribuzione campionaria che si ottiene con
questa formula
𝜎𝑥̅2 =
𝑠2
𝑛−1
A cosa mi serve tutto questo? Mi serve a risalire dal valore del campione a quello della popolazione
sempre per il fatto che io la popolazione nella sua interezza non posso valutarla. Se allora io ho un
campione che ha un certo indicatore 𝑥 posso dire che esso viene, ossia è stato estratto da una
popolazione con parametro 𝑥̂?
Allo stesso modo posso anche chiedermi quale può essere la media della popolazione µ se ho una
media del campione che è 𝑥̅ .
Facciamo un esempio. Ho un campione di 50 soggetti quindi n=50, so che il valore di 𝑥̅ è 19 e che la
varianza del campione è s= 1,8. Quale può essere la media della popolazione da cui il campione è
stato estratto?
La prima cosa che faccio è calcolare la variabilità della distribuzione campionaria chiamato anche
errore standard della distribuzione campionaria
𝜎𝑥̅
𝑠2
√
=
𝑛−1
16
Quindi con i valori che possiedo abbiamo che sigma di x medio, ossia l’errore standard della
1.82
distribuzione delle medie è =√
=
50−1
1,8
= 0,26
√50−1
Prima di procedere consiglio a questo punto di svolgere l’esercizio di pag 170, il 6.1 (testo
esercitazioni di psicometria) perché esso permette di capire meglio questi passaggi e questi calcoli.
L’esercizio permette di capire bene la differenza che c’è nel calcolare la media e la varianza della
popolazione (prende come esempio una popolazione fittizia di 5 elementi con valore pari a 2,4,6,8,10)
e poi passa a lavorare sui campioni presi da questa popolazione, campioni di numerosità N=2. È
interessante ed importante notare che quando si lavora con i campioni subentra anche il concetto e
quindi il valore della frequenza.
Inseriamo un altro concetto: il rischio
A questo punto interviene il concetto di rischio. Voglio stimare quanto è la media della popolazione
da cui ho estratto il campione, non la conosco e quindi posso stimare un intervallo dentro il quale
potrebbe cadere il valore della media che cerco. Non arrivo ad un numero definito ma arrivo a stabilire
un intervallo dentro il quale più o meno dovrebbe cadere la media della popolazione da cui ho estratto
il campione. Come faccio a definire tutto questo?
Siccome ho un campione che supera le 30 unità posso avvalermi della legge dei grandi numeri e
supporre che la media si disponga secondo una curva normale che ha delle caratteristiche ma
soprattutto è tabulata. Ora questa tavola come si legge? Su di essa si cerca lo z ossia un valore che mi
permette di calcolare l’intervallo dentro il quale potrebbe cadere la media che cerco.
Non ho calcoli definitivi ma probabilistici quindi assumo una fiducia del 95% o del 99%, ossia corro
un rischio che al 5% o all’1% che io mi sbagli e la media che troverò non cade per davvero in
quell’intervallo che calcolo.
Allora poiché la curva di Gauss o normale è simmetrica in base ai tabulati posso vedere che con un
rischio pari a 0.05 che sarebbe quello relativo ad una fiducia del 95%, io devo dividere per via della
simmetria 95% diviso 2, ossia 0,95/2= 0.475 al quale corrisponde sulla tavola uno z pari a 1,96
Ora posso calcolare l’intervallo dentro il quale cade la media da cui è stato estratto il campione.
Siccome c’è la formula che dice che
Z=
𝑥̅ − µ
𝜎𝑥̅
ottengo che µ= 𝑥̅ ± z (𝜎𝑥̅ )
Per cui alla fine ottengo un intervallo dentro il quale, più o meno, cade la media che cerco e quindi
definisco l’estremo superiore e quello inferiore dell’intervallo in cui cade la media
Limite superiore: µ= 𝑥̅ + z (𝜎𝑥̅ )
Limite inferiore: µ= 𝑥̅ − z (𝜎𝑥̅ )
17
17
E se il campione con cui lavoro è inferiore a 30 elementi?
Quando il campione con cui lavoro è inferiore ai 30 elementi allora non si lavora con la tavola della
distribuzione normale ma con quella t student, quindi invece dello z devo calcolare quanto è la t area
in base al rischio che ho assunto se del 95% o del 99%
La formula matematica è la stessa per il calcolo dell’intervallo in cui cade la media, l’unica cosa che
al posto di z ho il valore di t.
18
18
Lezione 2
Ho un indicatore X preso da un campione. La statistica inferenziale abbiamo detto che vuole sempre
arrivare ai valori della popolazione partendo dai campioni, per cui mi chiedo: questo campione che
ha un valore X viene da una popolazione che ha un certo parametro che chiamo Xgrande? Noi
lavoriamo sempre sulle ipotesi per cui in merito alla popolazione formulo una ipotesi ovvero sia mi
attendo che una data popolazione abbia un certo parametro, visto però che lavoro solo sul campione
e mai direttamente su tutta la popolazione, fatti tutti i dovuti calcoli, arrivato a stabilire
matematicamente il valore del parametro, mi chiedo alla fine se questo valore che ho ottenuto con i
calcoli è vicino a quello che io mi attendevo. C’è una distanza? L’ipotesi che io avevo formulato
viene confermata dai calcoli che ho poi eseguito?
Mettiamo caso che tra l’ipotesi di partenza che avevo formulato ed i risultati ottenuti c’è una distanza.
A cosa posso attribuirla? La risposta può essere una di queste due.
1. Al caso. L’ipotesi che io avevo formulato è vera, la distanza che ho ottenuta è tale, ossia così
irrilevante che posso dire che la mia ipotesi iniziale o nulla1 è vera
2. La distanza invece può succedere che sia notevole quindi non è possibile che la differenza sia
una semplice causalità ma c’è una causa ben precisa, quindi la mia ipotesi nulla va allontanata
e quindi devo optare per una ipotesi alternativa.
Capiamo allora che la questione cruciale è proprio questa distanza tra valore calcolato e valore
atteso. Quanto deve essere, che dimensioni devo avere per regolarmi se l’ipotesi nulla è da tenere
o da confutare?
Immaginiamo che faccio una intervista sulla pillola a 10 persone. Mi attendo che i si ed i no si
equivalgano, la mia ipotesi nulla quindi è che la probabilità di risposte che indico con la sigla p
sia uguale a ½ del campione quindi uguale a 0.5
Siccome la risposta alla domanda è si o no, la variabile la chiamo dicotomica e quindi binominale
Volendo formulare con i simboli il caso in esempio dico che
1. L’ipotesi nulla 𝐻0 è che i si ed i no si equivalgono quindi p=0.5
2. Ipotesi alternativa 𝐻1 è che la probabilità delle risposte non sia pari alla metà ma che la
probabilità di risposte sia p>di 0,50
L’ipotesi che formulo è che nella media la probabilità di risposte tra si e no sia di np ossia di n
per p e quindi di 10 per 0.5= 5
Succede che ad un certo punto ho un certo campione di persone a cui somministro le domande
circa il si o il no alla pillola, come posso stabilire se questo campione proviene dalla popolazione
nella quale io mi attendo che le risposte di si e di no saranno del 50% per ognuna?
Quindi, per essere più chiari
1
La parola “nulla” non deve trarre in inganno, il senso infatti non significa falsa o errata, ma ipotesi zero, iniziale, di
partenza (spiegazione mia)
19
19
Punto di partenza: ho una popolazione nella quale ipotizzo che la percentuale delle persone
favorevoli e di quelle contrarie alla pillola è del 50%.
Secondo momento: ho un campione a cui somministrando le domande su dieci persone non si
verifica che 5 dicono si e 5 dicono no, ma 6 dicono di no. Questo campione viene dalla
popolazione iniziale o appartiene a tutt’altra popolazione?
Nel mio campione ho ottenuto 6 no, quindi cosa faccio? Applico l’equazione binominale ossia
F(x)= 𝑛∁x 𝑝 𝑥 𝑞 𝑛−𝑥
Cosa sono questi fattori?
20
nCx è il numero dei modi in cui si possono combinare x successi e n-x prove. Questo fattore lo si
calcola in questo modo
nCx=
𝑛!
𝑥!(𝑛−𝑥)!
n! si chiama enne fattoriale e x! È x fattoriale
come si calcola questa formula?
n = 10
x= 6 quindi
nCx ossia 10C6=
10𝑥9𝑥8𝑥7𝑥6𝑥5𝑥4𝑥3𝑥2𝑥1 10!
= =
(6𝑥5𝑥4𝑥3𝑥2𝑥1)(10−6)!
6!4!
0,2051 approsimiamo a 0,20= 20%
Devo fare per forza tutto questo lungo calcolo con i valori fattoriali?
Non c’è bisogno di questo lungo calcolo probabilistico visto che abbiamo a disposizione le tavole
delle distribuzioni normali per cui conoscendo i valori di p e di n posso risalire tramite le tavole della
distribuzione binominale a stabilire la percentuale alla quale corrisponde il numero di risposte che ho
ottenuto sul complesso delle n interviste che ho fatto. Questa percentuale mi dice che posso ancora
dire che quel campione viene da una popolazione dove presumo che i si ed i no sono di un p=0.5?
Mi serve un riferimento con il quale comparare il mio risultato al fine di capire se l’ipotesi mia iniziale
(ossia che il campione che ho in possesso viene da una popolazione dove ho un certo parametro)
posso ancora accettarla o rifiutarla.
Questo valore critico viene chiamato α ossia una probabilità critica che può essere del 5% o dell’1%.
Se il valore che ho trovato ossia la probabilità in base a p ed n è superiore allo 0.05 allora posso
accettare l’ipotesi nulla. Dalle tavole binominali risulta che con un n pari e 10 ed un p pari a 6 il
valore di probalità che ottengo è di 0,20 che è maggiore di 0,05 (0,20 significa che ho il 20% di
probabilità che il campione appartiene alla popolazione di riferimento, mi ero dato un alfa pari al
5% quindi la probabilità effettiva è molto superiore al limite minimo che mi ero posto) posso
quindi accettare che la differenza tra i si ed no è irrilevante quindi affermare che quel campione
viene dalla popolazione dove secondo la mia ipotesi iniziale mi attendevo un valore di probabilità
di divisione tra i si e no del 50%.
20
Se invece avessi un altro campione che mi da 9 no, vedrò che il valore che ottengo per un n pari
a 10 ed un p pari a 9 è 0, 0977 che approssimato è 0,01 quindi inferiore a 0.05 quindi devo
rifiutare l’ipotesi nulla ed accettare una ipotesi alternativa. Praticamente succede che i calcoli mi
hanno detto che ho una percentuale dell’1% che quel campione viene dalla popolazione dove i si
ed i no erano equamente divisi, ma io mi ero dato un margine di rischio di 0,05 ossia del 5%. La
percentuale che quel campione appartenga alla popolazione è inferiore al margine di rischio,
quindi rifiuto la prima ipotesi ossia che il campione viene dalla popolazione di riferimento ed
accetto un’altra ipotesi detta alternativa, ossia che quel campione viene da un’altra popolazione.
Possiamo capire quanto importante sia α. Esso è un valore decisionale perché in base ad esso
stabilisco la significatività di un risultato ossia in base ad esso decido se accettare o rifiutare
l’ipotesi nulla. Alfa è quindi anche un margine di rischio perché in base ad esso decido se accettare
o confutare l’ipotesi Hzero e quindi il rischio di rifiutarla se per caso fosse vera.
Possiamo allora a questo punto capire che ci sono due tipi di errore che è possibile commettere
1: l’errore di primo tipo ossia rifiutare Hzero quando è vera. Questo tipo di errore lo si chiama
errore α
2: l’errore di secondo tipo ossia accettare Hzero quando è falsa. Questo tipo di errore si chiama β
I due errori α e β sono complementari, più basso è alfa maggiore è la possibilità di cadere
nell’errore beta.
Le ipotesi poi si classificano nel seguente modo
1. Ipotesi di uguaglianza (esempi dei quesiti: la media del campione è uguale alla media della
popolazione, la quota di si è uguale alla quota dei no, la percentuale dei maschi è uguale alla
percentuale delle donne)
2. Le ipotesi alternative sono sempre ipotesi che implicano una differenza appunto tra due ipotesi
ed è bidirezionale (es: la media dei maschi è differente dalla media delle femmine)
3. Ipotesi monodirezionale destra: la media dei maschi è maggiore della media delle femmine
4. Ipotesi monodirezionale sinistra: la media dei maschi è minore di quella delle femmine
Proviamo a fare un esercizio e cerchiamo di capire bene cosa è l’intervallo di fiducia (aggiunta
mia)
Quando io formulo delle ipotesi dico che assumo un rischio del 5% o dell’1% quindi che prendo una
fiducia del 95% o del 99%. Cosa significa tutto questo? Significa che io sto cercando di verificare
una ipotesi, quindi sto cercando un valore che nella distribuzione nominale spero che cada dentro un
intervallo di fiducia. Non ho certezze, ho probabilità. Allora cerchiamo di capire anche cosa è un
intervallo di fiducia e di avere una “visione” concreta in qualche modo, dell’intervallo di fiducia
I valori si dispongono secondo la distribuzione nominale secondo una curva. Prendiamo l’esempio di
un esercizio della dispensa per capire meglio. Mi viene chiesto di calcolare gli estremi dell’intervallo
21
21
di fiducia al 95% per un campione che ha Numerosità n=100, deviazione standard ơ=25, e un xmedio=
24. Cosa mi sta chiedendo l’esercizio? Mi sta chiedendo praticamente di andare ad individuare sul
diagramma dove devo collocare la media. Io praticamente sto lavorando su di un campione e di questo
so che la media del campione preso è 24 ma la media della popolazione intera invece dove cade, ossia
a quanto corrisponde? Un valore esatto non riesco a trovarlo, posso solo trovare un valore orientativo,
posso cioè dire più o meno a quanto corrisponderà la media della popolazione, ma non quando è nello
specifico, questo più o meno altro non è che l’intervallo di fiducia. Allora passo ai calcoli.
Posso lavorare con i tabulati della distribuzione normale perché il mio campione è superiore a 30.
Lavoro prima assumendo l’intervallo di fiducia al 95% quindi la domanda è: con una probabilità
(fiducia) del 95% quando sarà il valore della media della popolazione intera se la media presa da un
suo campione è pari a 24?
Devo provare sulla tavola i valori degli Z1 e Z2, quindi il procediamento è questo. La percentuale
95% corrisponde al valore 95/100 ossia 0,95. Tenendo conto dei due assi perpendicolari della curva
normale vuol dire che questo “pezzo” di 0,95 è diviso in due parti che valgono 0,95/2= 0,475.
Sulle tavole del libro di testo, quelle della curva normale, vedo che questo valore 0,475 corrisponde
a 1,96. Cosa è questo valore? È lo Z per cui posso trovare l’intervallo di valori dentro il quale con
una probabilità del 95% mi cade il valore della media della popolazione. Come calcolo l’intevallo?
Esso ha due estremi, per applicare mi servono alcuni dati che già possiedo ed altri posso calcolarli.
La formula è
µ= 𝑥̅ +/- z (s)
xmedio ce l’ho, z l’ho trovato, s=
ơ
√𝑛
= 25/√100 = 2,5
Estremo primo ossia µ= 𝑥̅ + 𝑧 (𝑠)= 24+1,96 x 2,5= 28,9
Estremo secondo µ2= 𝑥̅ − 𝑧 (𝑠)= 24- 1,96 (2,5)= 19,1
Quindi con una probalità del 95% e quindi con il rischio di aver sbagliato del 5% il valore della media
della popolazione da cui ho estratto il campione che ha media 24, cade in una range di valori compresi
tra 28.9 e 19.1.
E con la propabilità del 99%? Il rischio di sbagliarmi è allora più ristretto ossia all’1%.
Anche qui, devo trovare z, per cui 0,99/2= 0,495 che sulle tavole corrisponde a z= 2.58
Applicando le stesse formule sopra viste allora ottengo questo risultato ossia che con una probabilità
del 99% ed un rischio dell’1% la media della popolazione da cui ho estratto il campione con xmedio
pari a 24 avrà un valore compreso tra 17,55 e 30,35
Facciamo un altro esercizio sulla verifica delle ipotesi:
la media di intelligenza italiana è pari a 100. Ho un campione di persone pari a 85 persone che
presentano però una media pari a 110,5 e c’è una deviazione standard pari ossia s=5,7. Mi pongo
22
22
questa domanda: il campione è preso dalla popolazione italiana oppure questi 85 tizi sono di altra
nazione? La domanda con i simboli la formulo così
𝐻0 : la media della popolazione italiana è uguale alla media della popolazione da cui ho estratto il
campione quindi µ=µ𝑥̿𝑥 = 100 oppure µ≠ µ𝑥̅ ≠ 100
Il quesito vuole che la fiducia sia del 99% quindi del 0.99. come fatto prima divido questo per due
ed ottengo il valore 0.495 a cui corrisponde sulle tavole uno z=2,58
Cosa significa tutto questo? Significa che la media della popolazione italiana cade in un intervallo di
zcritico che va da -2,58 a +2,58. Per capire se il mio campione appartiene agli italiani o meno non
basta che confronto le medie, esse infatti sono diverse gli italiani hanno 100 di media e questi invece
hanno 100,6 (saranno calabresi?). per fare un confronto corretto devo considerare lo zcritico di questo
campione, lo devo calcolare. E come si calcola?
Z=
̅̅̅̅̅̅
𝑥−µ
𝑠
√𝑛−1
=
1𝑜0,6−100
5,7
√ 85−1
=
0,60
= 0,60/0,62= 0,97
5,7/9,16
Confrontiamo i risultati abbia che lo zcritico del campione è 0,97 quindi minore dello zcritico della
media italiana che è 2,58 siccome lo zcritico del campione “sta dentro” lo zcritico della nostra fiducia,
ossia non supera quel valore di zcritico corrispondente al 99% di fiducia, allora posso dire che la
media del campione da cui ho estratto il campione è uguale alla media della popolazione di
riferimento.
23
23
Lezione 3
La verifica delle ipotesi nel caso di un campione
L’esercizio illustrato nella pagina precedente aiuterà meglio a capire tutto ciò che viene illustrato a
questo punto. Inoltre avremo modo di capire meglio come si usa la tavola t di student.
Di cosa parliamo in questa lezione? Si tratta del confronto che vado ad effettuare tra il parametro di
una popolazione da cui estraggo un campione ed un’altra popolazione con la quale devo effettuare il
confronto. La domanda che mi pongo in pratica è questa: ho un campione e devo valutare se il
campione su cui lavoro è preso da una sola popolazione di riferimento oppure appartiene ad una altra
popolazione (per esempio ho un campione di ragazzi che ha una media di voti del 9, voglio capire se
è stato preso da una certa popolazione a cui mi riferisco per esempio la popolazione della scuola dove
insegno, oppure questo campione appartiene alla popolazione di un’altra scuola).
Per fare questi confronti ho bisogno di due valori fondamentali: la media e la varianza.
Teniamo sempre conto dei simboli con i quali indichiamo certi valori ossia
𝜎 2 = varianza della popolazione
𝜎𝑥2 = deviazione standard della distribuzione campionaria che si ottiene con questa formula
(𝜎 è la varianza della popolazione)
𝜎𝑥2 =
𝑠2
𝑛−1
Dove 𝑠 2 = deviazione standard del campione
Come faccio il confronto tra popolazione e campioni? Prendiamo un esempio. Gli studenti delle
scuole tecniche di Roma hanno un punteggio in una attività scolastica che ha come media 100
(µ=100). Si pensa che se gli studenti vengono sottoposti ad un corso di formazione specifico tale
punteggio aumenti. Prendo quindi un campione di 80 soggetti che hanno seguito un corso di
formazione. La media di questo campione mi risulta 𝑥.
̅= 105,62
La varianza 𝑠 2 = 20
Quale è l’ipotesi che voglio stabilire? Voglio dimostrare che questo campione viene da una
popolazione sottoposta a trattamento di formazione e non da una popolazione senza trattamento che
aveva come media 100. Siccome il mio campione ha media 105,62 allora posso ipotizzare che questo
campione non venga da popolazione con media 100 ma da popolazione diversa ossia sottoposta a
trattamento.
24
24
E’ possibile però che si stia realizzando un altro caso ossia, che questo valore diverso di media non
dipenda da trattamento, che questo campione di ragazzi non abbia avuto una media di 105,62 perché
sottoposto a trattamento (un corso di approfondimento e di potenziamento per esempio). E’ cioè
possibile che questi ragazzi non appartengano a popolazione diversa da quella di riferimento ma che
sia semplicemente un caso che la media del campione sia piu’ alta.
Posso allora formulare le mie ipotesi
𝐻0 : la media della popolazione da cui è estratto il campione è uguale a quella di riferimento quindi è
solo un caso che il campione ha una media un po più alta
𝐻1 = la media della popolazione da cui è estratto il campione è maggiore di quella della popolazione
di riferimento per cui il campione viene da altra popolazione ossia da un gruppo di studenti che hanno
avuto un corso di formazione e di potenziamento
questo concetto della seconda ipotesi posso scriverlo, usando i simboli, in questo modo
µ𝑥̅ > µ
La direzione maggiore indica la destra quindi l’ipotesi alternativa la definisco monodirezionale destra
Devo scegliere a questo punto il rischio di errore di primo tipo ossia il rischio di rifiutare l’ipotesi
nulla quando è invece vera per cui stabilisco che esso è del 5% che corrisponde ad una fiducia del
95% quindi dico che
𝛼 = 0,005
Come faccio a dare risposta a questi criteri? Cosa devo confrontare per avere una risposta e quindi
stabilire se è vera la prima o la seconda ipotesi? Quello che dovrò fare è riuscire a calcolare lo zcritico
della popolazione della scuola e poi lo zcritico del campione, il loro confronto mi permetterà di
trovare le risposte che cerco (manco fossi Indiana Jons…..)
Che dati ho?
Conosco la media del campione ossia 105,62
Conosco il numero del campione ossia 80 soggetti
Conosco la varianza del campione ossia s= 20
La prima cosa che faccio è conoscere la varianza della distribuzione campionaria ossia 𝜎𝑥̅
𝜎𝑥̅ =
𝑠
√𝑛−1
Questo valore chiamato anche errore standard mi serve per poter andare sulle tavole per arrivare a
conoscere quello che è il cosiddetto zeta critico ossia 𝑧𝑐
25
25
Cosa significa tutto questo?
Devo fare dei confronti tra zeta critici il che significa:
1. Con i calcoli ho ottenuto l’errore standard del mio campione (in questo caso esso è di 2,25)
2. Io ho accettato di assumere un margine di rischio dello 0,05. Questo valore in una
distribuzione normale che z critico ha? Per calcolarlo devo fare questo calcolo:
1
2
– α = 0,5 -0,05 = 0,45
26
Vado a controllare 0,45 sulla tavola a quale 𝑧𝑐 corrisponde e vedo che esso corrisponde a 1,64
1,64 è lo zcritico della popolazione
riferito al margine di fiducia che mi
sono prefissato
Ora devo calcolare lo 𝑧𝑐 del mio campione, come posso avere questo valore? La formula è
Z= 𝑥̅ - µ𝑥̅ / 𝜎𝑥̅
Questo valore che nel caso dei miei valori dell’esempio è di 2,49 lo confronto con lo zeta critico
dell’errore prefissato e cosa ottengo? Ottengo che 2,49 è > di 1,64 quindi rifiuto l’ipotesi nulla e
accetto l’ipotesi alternativa, quindi il campione di studenti con media 105,62 non veniva da una
popolazione normale di studenti ma da una popolazione di studenti sottoposta a trattamento di corso
di formazione che he ha aumentato le competenze.
Per essere più chiari: se lo zcritico del campione era uguale o inferiore a quello relativo la margine di
fiducia che mi ero stabilito allora significava che il campione viene dalla popolazione scolastica e che
la media era alta nel campione per puro caso (erano tutti ragazzi di origine calabrese)
Siccome lo zcritico del campione è maggiore, esce dal margine di fiducia, allora vuol dire che questi
ragazzi del campione vengono non dai ciucci di tutta la scuola, ma appartengono a quegli sfigati
secchioni che si sono fatti un corso di potenziamento guidato da un insegnante calabrese.
Per capire ancora meglio
Quando in un quesito mi viene chiesto di individuare se un campione appartiene o meno ad una
popolazione di riferimento, posso avere alcuni valori ed altri no. Ricordiamo che per capire se un
campione viene da una popolazione oppure da un’altra io devo sempre fare un confronto tra gli
zcritici ossia tra quello della popolazione di riferimento e quello del campione. Ora facciamo un
esempio
26
i bambini di terza elementare facendo un test di lettura hanno una media di punteggio pari a 100 e
la deviazione standard è di 10. Ho un campione di 150 bambini che frequentano al nord e voglio
27
Capiamo meglio come funziona la tavola di tstudent
Il lavoro fatto finora aveva a che fare con campione di numero superiore ai 30, ma se ho un campione
con n elementi pari o inferiori alle 30 unità che procedimento devo usare?
In questo caso non mi rifaccio alla tabulazione della distribuzione normale con i valori di zcritico ma
alla tavola t di student.
t:
𝑥̅ − µ𝑥̅
𝜎𝑥̅
27
il valore 𝜎𝑥̅ visto che lavoriamo con la t di student implica il concetto di gradi di libertà. Per capire
facciamo un esempio
ho 17 alunni di terza media. Il livello di apprendimento dell’intera popolazione della terza media è di
µ = 20
il mio campione dei 17 alunni ha un xmedio di 21,52 ed una varianza s= 5.2
le ipotesi quali sono?
Hzero: la media della popolazione da cui è estratto il campione è la stessa del campione e la differenza
di medie è solo casuale, ossia i 17 ragazzi sono stati presi dalla mia popolazione di riferimento
H1: il campione non appartiene alla popolazione di riferimento quindi sono 17 ragazzi presi da altra
scuola o semplicemente rispetto agli altri hanno fatto un corso che gli altri non hanno sostenuto
Anche in questo caso si assume un margine di errore ossia accetto il rischio di sbagliarmi e quindi di
rifiutare l’ipotesi nulla anche se è vera con una percentuale del 5%
Il mio alfa allora è 0.05
La prima cosa che faccio è sempre il calcolo del mio errore standard del campione il famoso 𝜎𝑥̅ .
𝑠
𝜎𝑥̅ =
= 5,2/ √17 − 1 = 1,3
√𝑛−1
Calcolo adesso il mio t critico, quello proprio del mio campione con x medio di 21,52 e con la media
della popolazione totale pari a 20. Applico la formula per calcolare lo tc critico del campione
t: :
𝑥̅ − µ𝑥̅
𝜎𝑥̅
=
21,52−20
1,3
= 1,17
Otterrò che il t critico del mio campione è pari a 1,17
Il concetto di gradi di libertà per consultare la tavola tstudent
Avevo preso come range di rischio di errore lo 0.05. sulla tavole t di student a quanto è pari lo z
critico di 0,05? Per individuarlo devo tenere conto dei gradi di libertà del mio campione. I ragazzi
erano 17, i gdl sono n-1 quindi 16.
I gradi di libertà di un campione sono sempre
n-1 dove n è il numero del campione. Quindi sulla tavola di tstuden sulla
colonna di sinistra trovo i gradi di libertà per il mio campione mentre sulla
barra in alto devo considerare se sto lavorando con ipotesi monodirezionale
o bidirezionale
28
28
Con 16 gdl e un alfa di 0.05 ho uno t pari a 1,746
Posso compare i due tcritici:
quello del mio campione = 1,17
quello di alfa 0.05 = 1, 746
poiché lo t del mio campione è minore di quello di alfa allora accetto l’ipotesi Hzero, la media del
mio campione è leggermente superiore a quella della popolazione di riferimento, ma di poco per cui
posso presumere con il rischio di sbagliarmi pari al 5% delle possibilità che i 17 ragazzi sono stati
presi da quella scuola con media 100 ed il fatto che abbiano avuto una media leggermente superiore
è a motivo di culo e non di corso di formazione ed approfondimento frequentato.
Con Ipotesi bidirezionale
Finora abbiamo visto il caso di ipotesi monodirezionale, consideriamo ora l’esempio di una ipotesi
bidirezionale.
Nella popolazione la media di gradimento di un programma televisivo è µ= 4.41
Viene preso un campione di 30 ragazzi sotto i 19 anni e si ottengono questi risultati in merito al
gradimento del programma ossia la media di gradimento (ossia l’𝑥̅ ) è 3.73 mentre s= 1.58. questi
ragazzi sono stati estratti dalla popolazione di riferimento o da altra popolazione?
Il margine di errore è anche questa volta 0.05
Prima di tutto vado a vedere con un alfa di 0.05 e con gdl 30-1 a quale valore corrisponde lo t critico:
esso è pari a 2.045 (sulla tavola devo guardare la riga detta bidirezionale)
Calcolo lo t critico del mio campione, per applicare la formula 𝑥̅ - µ𝑥̅ / 𝜎𝑥̅ mi serve il valore di 𝜎𝑥̅
So però che 𝜎𝑥̅ = s/√𝑛 − 1
Ottengo un valore di t del mio campione pari a -2,34 valore che è maggiore di tcritico allora vuol dire
che cade nella zona di rifiuto della ipotesi Hzero per cui la popolazione del campione dei ragazzi è
diversa da quella di riferimento del programma gradito che avevo preso come riferimento.
29
29
Quarta lezione
Consideriamo ora la verifica delle ipotesi tenendo conto della forma della distribuzione. Finora
abbiamo lavorato tenendo conto della popolazione e di un campione e se i dati del campione erano
riferibili o meno ad un certa popolazione. Ora però facciamo un passo in avanti e vogliamo tenere
conto di come un certo valore si distribuisce nel campione e nella popolazione. L’esempio ci aiuterà
a capire meglio.
Abbiamo un gruppo di giovani che possono scegliere di leggere tre tipi di quotidiano: A,B,C.
chiediamo di scegliere quale quotidiano preferiscono tra i tre. Chiamiamo K il numero di scelte
ovvero 3. Avremmo allora questa distribuzione
Giornale
A
B
C
Frequenza (ossia quante preferenze)
5
15
22
Totale delle frequenze: 42 (ossia 42 ragazzi)
Formulo le mie ipotesi da verificare ponendomi delle domande e cioè: nel campione che ho in mano
le preferenze ai diversi quotidiani si sono distribuite così come il tabulato sopra scritto mi ha indicato,
ma nella popolazione più ampia le preferenze si distribuiranno come è avvenuto nel campione? Si
distribuiranno equamente e non in modo differente come è accaduto nel campione? Queste domande
le pongo ancora una volta con un linguaggio statistico formulando quindi le cosiddette Hzero ed Huno
𝐻0= la popolazione da cui è estratto il campione ha delle frequenze di preferenza uguali
𝐻1 = nella popolazione da cui è stato estratto il campione le frequenze sono diverse e non egualmente
distribuite
La prima ipotesi è quella riferita alla distribuzione che io teoricamente presumo si verifichi e quindi
la chiamo distribuzione teorica, la seconda distribuzione che invece si può presentare la chiamo
distribuzione empirica.
Il riferimento statistico che uso in questo caso è quello del test del chi quadro 𝐶ℎ𝑖 2 . Vuol dire che c’è
un valore che è appunto il 𝐶ℎ𝑖 2 che devo calcolare: il confronto del 𝐶ℎ𝑖 2 mi permetterà di dare
risposte alle mie domande (che di certo mi faranno perdere il sonno se non trovo ad esse una
risposta….)
la formula per calcolare il chiquadro è
30
30
𝑘
2
𝐶ℎ𝑖 = ∑
(𝑓0−𝑓1 )
1
2
𝑓𝑡
𝑓𝑜= frequenza osservata
𝑓𝑡 = frequenza teorica
31
La prima ipotesi la posso praticamente esprimere in questo modo ossia
𝐻0:
𝑓𝐴= 𝑓𝐵=𝑓
ossia sono tutte e tre uguali
𝑐
Se questa ipotesi fosse vera se cioè fosse vera Hzero allora la frequenza uguale per tutti dovrebbe
essere 14, questo tipo di frequenza costituisce quella che chiamo Frequenza Teorica e la sua formula
è
𝑓𝑡= 𝑛 =
𝑘
42
= 14
3
Anche in questo caso devo scegliere una percentuale di rischio o di errore che accetto di correre di
rifiutare l’ipotesi nulla. Mi do quindi un errore alfa che è ancora una volta pari al 5% e quindi uguale
a 0.05. vado a controllare sulla scala del 𝐶ℎ𝑖 2 a quanto corrisponde un 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 avendo come
valori di riferimento alfa pari a 0.05 e gdl pari a k-1 ossia 3-1= 2 (tavola pagina 355 del testo Elementi
di statistica per la psicologia)
Il valore di 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 che trovo è di 5,99
Io però ho visto che le frequenze si sono distribuite sul mio campione per cui calcolo il 𝐶ℎ𝑖 2 del mio
campione usando la formula su scritta
𝐶ℎ𝑖 2 = ∑𝑘1
(𝑓0−𝑓 ) 2
1
𝑓𝑡
=
10.43 (controllare sulla dispensa lo svolgimento del calcolo e quindi
relativa sostituzione dei numeri ai simboli)
Devo comparare 𝐶ℎ𝑖 2 e 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 e trovo che 10.43>5,99 per cui rifiuto l’ipotesi nulla ed ammetto
che il mio campione non ha delle frequenze equamente distribuite in effetti è il quotidiano C che ha
le maggiori preferenze rispetto agli altri, quindi come accaduto nel campione anche nella popolazione
le preferenze non si distribuiranno equamente ma in modo differente, ossia almeno una sarà diversa
dalla altre preferenze.
31
A questo punto occorre inserire una differenza di concetti ossia proprio quello della forma della
distribuzione
𝐶ℎ𝑖 2 noi diciamo che è una forma di distribuzione discreta ossia è composta da una sequenza definita
di categorie nominali o ordinali (nomi e numeri)
Esiste però una forma di distribuzione che non è discreta, non è composta da elementi separati ed
allineati ma è continua, questa forma si chiama Lamda il simbolo è χ2
Per rendere il valore del Chi quadro vicino a quello di lamda occorre effettuare la correzione di Yates
che si effettua con questa formula (una specificazione delle formula del 𝐶ℎ𝑖 2 )
𝑘
2
𝐶ℎ𝑖 = ∑
(𝑓0−𝑓1 −0.5)
2
𝑓𝑡
1
Per poter usare come riferimento della distribuzione delle frequenze il calcolo dello 𝐶ℎ𝑖 2 devo tenere
conto però di alcune limitazioni. Non posso usarlo infatti se
•
•
•
Le categorie K sono completamente indipendenti l’una dall’altra e non esiste possibilità di
confronto
Le categorie K sono solo due e le frequenze teoriche minori di 5
Le categorie K sono superiori a 2 ma le frequenze teoriche non possono essere inferiori di 1
in nessuna categoria e possono essere minori di 5 in non più del 20%
Facciamo questo esempio
Abbiamo 15 soggetti e si chiede ad essi quanto sono in accordo con una certa affermazione
Abbiamo allora
Frequenza
osservata
A
Moltissimo
2
B
Molto
2
C
Abbastanza
1
D
Poco
2
La frequenza teorica di quanto dovrebbe essere? 15/6= 2,5
32
E
Pochissimo
6
F
Per niente
2
32
Accade che oltre il 20% è inferiore a 5 quindi per usare il procedimento del 𝐶ℎ𝑖 2 come posso fare?
Unisco ossia compatto le categorie simili arrivando ad avere non 6 categorie ma 3 unendo quelle
simili
Molto: composta da moltissimo più molto e quindi f=4
Mediamente: composta da abbastanza e poco con f=3
Per niente: composta da pochissimo e per niente e con f=8
La frequenza teorica ora diventa 15 diviso 3 e non più sei come prima il che significa che 𝑓𝑜=5
33
Per ottenere 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 devo ricordare sempre riferito ai gradi di libertà che sono pari a K-1, in questo
caso con la compattazione delle categorie che ora sono sei o gdl sono 2 (k-1=3-1=2). Il valore sulle
tavole è per α= 0.05 e gdl 2 ottengo un valore di
Applico poi il calcolo del 𝐶ℎ𝑖 2
𝐶ℎ𝑖 2 = ∑𝑘1
(𝑓0−𝑓 ) 2
1
𝑓𝑡
= 2,8
Confronto i dati vedo che 𝐶ℎ𝑖 2 < 𝐶ℎ𝑖 2 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 per cui accetto l’ipotesi nulla e confermo che il
gradimento nelle popolazione di un qualcosa di chi ho chiesto è equamente distribuito.
Formule utili per gli esercizi t:
Z=
𝑥̅ − µ
𝜎𝑥̅
ottengo che
𝑥̅ − µ𝑥̅
𝜎𝑥̅
µ= 𝑥̅ ± z (𝜎𝑥̅ ) formula per calcolare i limiti inferiori e superiori
Altre formule sono quelle per calcolare s ossia lo scarto quadratico medio
̿̿̿̿̿̿̿̿
2
∑(𝑥−𝑥)
S= √
𝑛
− ̿̿̿̿̿̿
𝑥 2
𝑠=
33
𝑠
√𝑛−1
Lezione cinque
La verifica delle ipotesi nel caso di due campioni indipendenti
(numerati le pagine di questa lezione al fine di andare a controllare le pagine a cui ti rimanderò)
È un tipo di verifica molto usato in campo psicologico, si tratta del confronto tra le medie di due
campioni differenti tra di essi per verificare se le medie delle rispettive popolazioni da cui i campioni
provengono, sono differenti tra di esse e quanto differiscono l’una dall’altra. Per esempio i francesi
si lavano più o meno degli italiani? Quante docce settimanali fanno in media i francesi? Quanto gli
italiani? (sicuramente senza spese di molti soldi per fare indagini scopriremo che i francesi non si
lavano molto perché quando venivano nella casa di esercizi spirituali di Ciampino dove stavo io
lasciavano una puzza che altri mai lasciavano…)
Allora come faccio a fare questi confronti tra popolazioni differenti? Seguendo un esempio cerchiamo
di capire passo dopo passo come si effettua questo tipo di confronto.
Immaginiamo che uno psicologo abbia lavorato con due campioni, uno di maschi ed uno di
femminucce. I dati che ha attenuto su questi due campioni per misurare il tratto della dominanza
sono questi
Sesso
Numero del X medio
campione
Maschi
15
4,9
Femmine 15
3,8
Varianza s
1,39
2,11
Varianza
quadrato𝑠 2
1,93
4,45
al
Quali sono le ipotesi con cui lavoro
Hzero: la media della popolazione dei maschi è uguale alla media della popolazione delle femmine
ossia con i simboli µ1=µ2
H1: la media delle femmine è minore della media dei maschi µ2< µ1
A questo punto cosa devo fare? Prima di tutto stabilito il margine di errore 𝛼 = 0,05 devo trovare lo
tcritico. Come faccio a trovarlo? Devo considerare i gradi di libertà. Però sto lavorando con due
campioni quindi i gradi di libertà saranno pari a numero del campione 1, più numero del campione 2,
meno 2
N1+N2-2
Con un alfa pari 0,05 controllo sulla scade t di student e vedo che il mio tcritico di riferimento con il
quale dovrò confrontare quel tcritico che tra poco calcolerò in base ai dati dei miei due campioni. Il
mio tcritico di riferimento da quanto mi appare sulla tavola è di -1,701 (perché meno dirai? Perché
nell’ipotesi H1 se fai caso e guardi il segno di minore indicala sinistra, quindi sinistra meno, destra
più….semplice no? Se non hai capito ricorda che c’è sempre l’allevamento di mucche alpine come
valida alternativa a psicologia….)
Ora cosa devo fare? Devo prestare attenzione alla varianza. Io ho la varianza dei due campioni ma
non quella della popolazione. Ci si pone allora una domanda: è possibile che la varianza delle due
34
34
popolazioni siano uguali? Saranno diverse? Non le conosco, come posso confrontarle? Possiedo solo
la varianza dei campioni. Posso però stabilire in modo matematico che tipo di rapporto esiste tra le
varianze proprio usando quelle dei due campioni che ho in mano.
Esiste una tavola e quindi una distribuzione chiamata di Ficher che con una formuletta mi permette
di calcolare questo rapporto tra le varianze, valore che mi è necessario per decidere che passi fare
ulteriormente. Quindi ora devo calcolare il rapporto tra le varianze, rapporto che chiamo
2
F=
𝑠 𝑚𝑎𝑥
𝑠 2𝑚𝑖𝑛
Cosa significa questa formula? Vuol dire che faccio una divisione tra la varianza maggiore (maggiore
come valore) e la varianza minore , se guardo i valori allora diventa
4,45
1,93
In realtà questa formula di F deve essere come dire “specificata”, il valore che devo ottenere deve
essere più preciso per cui la formula per calcolare F diventa…
𝑛 2
1𝑠1
𝑛1−1
F= 𝑛 2
2𝑠2
𝑛2−1
15𝑥4,45
15−1
sostituendo i valori ho 15𝑥1,93
15−1
=
4,82
= 2,32
2,07
N.B: fai attenzione a non confonderti con i simboli ricorda che al numeratore (sopra) vanno sempre i
valori della varianza maggiore (più grande), al denominatore (sotto) vanno i valori della varianza più
piccola. (Quindi non è che dici chi sta sopra? Chi sta sotto? Amò oggi cambiamo posizione, non qui
la regola è sempre questa…)
A questo punto mi chiedo, a cosa mi serve questo valore F che ho trovato? Mi serve per andare a
controllare la distribuzione di Fischer, tavola che trovo a pag 356 e seguenti del libro di testo. Come
si legge questa tavola? A sinistra c’è una colonna (con numeri da 1 a 38) in alto una riga (con numeri
da 1 a 500). Per controllarla devo fare prima di tutto questo passaggio
Numero di campioni n1= 15 i gradi di libertà sono pari a n1-1= 14
Numero di campioni n2=15 i gradi di libertà sono n2-1= 14
In questo caso abbiamo 14 e 14 ma se avessi avuto valori diversi sulla colonna dovevo cercare il
nimero minore, sulla riga il numero maggiore
Per gdl 14 e 14 la F corrispondente è: 2,48
Fcritico= 2,48
confronto i due F
F dei campioni= 2,42 quindi Fcritico < 𝐹
35
35
Cosa significa questo confronto? Se ricordi all’inizio del percorso ti ho detto che dovevamo
confrontare le varianze per capire se le varianze dei due differenti campioni erano omogenee. È
proprio questo calcolo degli “F” che mi permette di capire se le varianze sono omogenee. Allora fai
attenzione a questo schema
Se Fcritico (trovato sulla tavola di Fischer) è maggiore dell’F calcolato con la formula che hai visto
allora le varianze sono omogenee
Se Fcrtico (trovato sulla tavola di Fisher) è minore dell’F calcolato allora le varianze non sono
omogenee.
36
Ora tu dirai. Che me frega sta storia delle varianze omogenee o meno? È importante invece perché
noi ancora dobbiamo calcolare lo t relativo ai due campioni quindi se le varianze sono omogenee uno
una formula, se non sono omogenee ne uso un’altra.
Se le varianze sono uguali
̅̅̅̅̅̅̅̅̅
𝑥2−𝑥1
t=
2+𝑛 2
2𝑠2
𝑛1+𝑛2
𝑛1𝑠
√ 1
(
)
𝑛1+𝑛2−2 𝑛1𝑛2
per vederla più chiaramente guarda sulla dispensa (pag7)
se le varianze non sono uguali abbiamo un’altra formula (pagine 7-8!)
se ricordi avevamo già visto quanto era il t critico di riferimento (-1,701) ricordi come avevamo
fatto? Con la formula N1+N2-2 e con 28 gradi di libertà avevo visto che t critico sulla scal t di
student era per un alfa di 0,05.
Ritornando ai miei campioni e visto che F era maggiore di F critico quindi uso la formula per varianze
non omogenee. Sostituisco alla formula di pagina 8 i miei dati per calcolare t ed otterrò che
−1,1
=
√𝑜,46
−1,1
0,68
= 1,62
Il mio t è minore di t critico, non lo supero, resto nel margine indicato da tcritico, quindi accetto
l’ipotesi nulla (ossia quella iniziale) e quindi confermo che tra la media maschile e quella femminile
della oppositività non ci sono molte differenze.
36
La verifica delle ipotesi nel caso di due campioni indipendenti
Seconda parte
Finora abbia visto tutta una serie di calcoli che possono essere compiuti sui campioni quando le
misura che possiamo fare su di essi sono di tipo quantitativo. Ma quando sui campioni e sulle
popolazioni non possiamo misurare delle quantità ma delle “qualità” ossia dei costrutti psicolopgici
come possono essere l’aggressività, l’oppositività, l’amicalità, come possiamo fare?
Per fare tutto questo noi usiamo una scala riferita la test di Mann e Whitney. Vediamo come si usa.
Prima di tutto occorre fare una fondamentale precisazione. Per usare questa scala occorre considerare
il numero del campione ossia se i campioni con cui lavoriamo sono inferiori a 10, a 20 o superiori a
20.
Altra cosa importante: non dimenticare mai che stiamo lavorando sul confronto tra dati di due
campioni, ossia ho due campioni indipendenti (per esempio bambini che vengono da scuole diverse,
adolescenti che vengono da zone italiane diverse, donne o uomini di fasce di età diverse).
Vediamo un primo esempio e lavoriamo già con la prima tipologia del confronto ossia con
campioni inferiori a 9 elementi ciascuno.
Ho due gruppi di bambini di prima elementare
A: sono 7 bambini che hanno frequentato l’asilo prima di essere iscritti in prima elementare
B: 5 bambini, le mamme iperprottettive, pazze isteriche non li hanno mandati all’asilo volendo tenere
quanto più possibile vicino a loro i loro cuccioli.
Mi domando: i bambini con esperienza di asilo sono più socievoli di quella che non sono andati
all’asilo? La socievolezza è uguale nei due campioni con o senza asilo?
Formulo in modo scientifico lipotesi
Hzero: socievolezza A=socievolezza B
H1: socievolezza A> 𝑠𝑜𝑐𝑖𝑒𝑣𝑜𝑙𝑒𝑧𝑧𝑎 𝐵
Prima di andare oltre dobbiamo riprendere qui il concetto di RANGO? Cosa è? Quando io posso
misurare quante sigarette fumano in media degli adolescenti io ho dei numeri quindi associo ad ogni
soggetto il suo relativo numero di sigarette quotidiane e quindi ho una serie di numeri. Quando
abbiamo a che fare coni costrutti le gerarchie, l’ordine dei soggetti, non posso farlo con numeri
esattamente stabiliti, ma devo comunque stabilire un ordine. Posso quindi dire che per esempio Fabio
è più aggressivo di Alessandra, alessandra più aggressiva di Barbara, Barbara di Agnese, Agnese di
eleonora, Eleonora di Franco quindi sto facendo un ordine in base a maggiore o minore. Oppure posso
creare anche un altro ordine ossia per esempio usando una classificazione ordinale o con delle lettere
Fabio
A
Alessandra B
oppure
1
2
37
37
Barbara
C
3
Agnese
D
4
Eleonora
E
5
Franco
F
6
Per cui se nel gruppo misura con i miei strumenti l’aggressività di Pasquale che mi risulta aggressivo
quanto Agnese allora Pasquale ed Agnese stanno nello stesso rango
38
Andiamo ora ai nostri bambini . con la logica dei ranghi ho valutato e dato un punteggio ad ogni
bambino
Gruppo A
Gruppo B
soggetto
A
b
C
d
e
f
punteggio
20
24
30
34
37
42
soggetto
G
h
I
l
m
19
20
23
31
punteggio 18
N
o
Ora metto in ordine crescente i punteggi ed accanto ad ogni punteggio inserisco la sigla A oppure B
a seconda se quel punteggio è corrisponde a quello di un Bambino del gruppo A oppure B. in ordine
i punteggi sono (li metto in colonna)
18
accanto metto anche la sigla di riferimento del gruppo
19
B
B
38
20
B
21
A
23
B
24
A
30
A
31
B
34
A
37
A
38
A
42
A
Se osservo come si suggono B ed A, faccio questo piccolo escamotage matematico, tengo conto da
quante A sono precedute Le B. le prime tre B non hanno nessuna A quinti diciamo che hanno 0 A,
ma se considero la B corrispondente al valore 23 questa ha una A davanti che la precede e quindi
scrivo +1, se vado a vedere la successiva B questa è preceduta da 3 A, una già contata e due che sono
immediatamente precedenti, quindi questa B vale +3
Quindi ottengo questa formula
0+0+0+1+3= 4 questo è il valore di U che è il parametro di confronto con l’U critico che vado a
cercare sulla relativa tavola per cui vado su di essa e considerando il numero dei campioni N1= 5 ed
N2=7 trovo un valore di riferimento pari a 0.015, questo differisce dall’U= 4, per cui rifiuto l’ipotesi
zero ed affermo l’ipotesi alternativa ossia che le due popolazioni differiscono tra loro e quindi le
esperienze prescolari dell’asilo influiscono sulla socialità che i bambini dimostrano alle elementari.
Che succede quado ho campioni con una numerosità tra 9 e 20 elementi?
Facciamo un esempio. Ho due gruppi di bambini, uno ha frequentato l’asilo, l’altro no. Sono così
distribuiti
N1 sono 10 bambini
N2 sono 15 bambini
39
39
li osservo per un periodo utile a fare delle considerazioni e poi con un margine di probabilità critica
pari a 0,05 formulo le mie ipotesi
Hzero: la socievolezza dei bambini è uguale per i due gruppi nonostante l’asilo
H1: i bambini del secondo gruppo hanno un grado di socievolezza maggiore rispetto a quelli del
primo gruppo che non hanno fatto asilo prima della scuola elementare
Faccio i miei rilievi e per ogni bambino trovo un grado di socievolezza che indico con un punteggio.
Faccio di tabelle, in una metto in orfine i bambini segnati con le lettere, acconto ci metto il relativo
punteggio
bambino A
punteggio 2
B
3
bambino
K
Punteggio 6
C
10
L
8
M
7
N
22
D
11
O
4
E
12
P
13
Q
15
F
17
R
14
G
20
S
23
T
25
H
9
U
16
I
5
V
18
W
24
40
j
1
x
19
y
21
Chiamo R1 la somma dei punteggi del gruppo 1 ed R2 la somma dei punteggi del gruppo 2 a questo
punto posso calcolare il valore U1 ed U2
U1=N1 x N2 +
U2= N1 x N2 +
𝑁1 (𝑁1+!)
2
–R1= 115
𝑁2 (𝑁2+1)
2
– R2=35
Il valore di U che considero è quello minore quindi 35
Vado sulle tavole con i miei N1 ed N2 ossia con valore 10 e 15 cerco per un margine critico pari allo
0,05 quale è il valore critico di U. prendo la tavola che trovo a pagina 360 ossia la Tavola F. trovo un
U critico pari a 44, confronto U critico ed U relativo ai campioni che abbiamo visto è 35.
U< 𝑈 𝑐𝑟𝑖𝑡𝑖𝑐𝑜 𝑞𝑢𝑖𝑛𝑑𝑖 𝑟𝑒𝑠𝑝𝑖𝑛𝑔𝑜 𝑙′ 𝑖𝑝𝑜𝑡𝑒𝑠𝑖 𝐻𝑧𝑒𝑟𝑜 𝑒 𝑐𝑜𝑛𝑓𝑒𝑟𝑚𝑜 𝑙′ 𝑖𝑝𝑜𝑡𝑒𝑠𝑖 𝑎𝑙𝑡𝑒𝑟𝑛𝑎𝑡𝑖𝑣𝑎. Il mio U
“sta dentro” U critico, non esce fuori per essere molto concreto, quindi vuol dire che la scolarizzazione
previa alla scuola elementare incide sulla socialità.
Consideriamo ora quando lavoriamo con campioni di numerosità superiore ai 20 elementi. I
procedimenti sono un po’ più complessi. Lavoriamo sempre con un esempio
Abbiamo fatto una indagine sull’essere favorevoli o contrari all’aborto, ed abbiamo intervistato delle
donne di fasce di età diversa
Campione Numero Fasci a
di età
40
A
10
Tra i 20
ed il 45
anni
B
15
Tra i 46
ed i 70
anni
41
Le donne del primo gruppo si dispongono quanto all’essere favorevoli o contrarie in questo modo
F C C F F F C F F FF
Le donne del secondo gruppo si dispongono così
C C C F C C F C C C F F C C C
Posso creare una tabella a doppia entrata che mi facilita le cose….. speriamo
Favo
età
contr
totale
25-45
7
f1
3
f2
10
N1
46-70
4
f3
11
f4
15
N2
11
a1
14
a2
N= 25
totale
Con questa tabella posso fare ora alcuni calcoli. Prima di tutto devo calcolare le frequenze teoriche
che ottengo moltiplicando facendo in questo mod
Prima frequenza teorica=
Seconda frequenza teorica:
𝑎1 𝑥 𝑛1
𝑁𝑡𝑜𝑡𝑎𝑙𝑒
= 4,4
𝑎2 𝑥 𝑛1
= 5.6
𝑁𝑡𝑜𝑡
41
Terza:
Quarta:
𝑎1 𝑥 𝑛2
= 6.6
𝑁𝑡𝑜𝑡
𝑎2 𝑥 𝑛2
𝑁𝑡𝑜𝑡
= 8,4
Ora creo un’altra tabella per riportarmi tutti i dati in ordine, in una colonna ci saranno i valori delle
frequenze osservate, accanto i valori delle loro rispettive frequenze teoriche, poi accanto il risultato
della frequenza osservata meno la teorica, acconto il quadrato ed accanto ancora il quadrato diviso la
frquenza teorica
Fo
7
3
4
11
ft
4.4
5.6
6.6
8,4
𝒇𝒐− 𝒇𝒕
2,6
-2,6
-2,6
2,6
(fo-ft) 𝟐
6,76
6,76
6,76
6,76
Totale
(fo-ft)
1.54
1.21
1.02
0.80
4,57
𝟐
/ ft
Cosa è il risultato di questa tabella? È il 𝐶ℎ𝑖 2 risultante dei miei due campioni, ma devo cofrontarlo
con un un Chi quadro critico, come lo trovo? Ho bisogno dei cossidetti gradi di liberà per calcolarlo.
Come li ottengo? Se ci penso bene disponendo i valori in una tabella avrei creato una tabella con due
righe e due colonne, ossia nelle due righe le fasce di età e nelle due colonne quanti erano favorevoli
e quanto contrarie
Età
Età
Quanti favorevoli?
Quanto contrarie?
I gradi di libertà si calcolano in questo modo (numero colonne-1) (numero righe-1)= (2-1) (2-1)= 1
2
Con un alfa di 0.05 ed 1 grado di libertà il 𝐶ℎ𝑖 𝑐𝑟𝑖𝑡𝑖𝑐𝑜
è 3,84
Confronto i due Chi, quello dei miei campioni è maggiore del critico per cui rifiuto l’ipotesi nulla: le
donne di età 46-70 sono non maggiormente contrarie all’aborto rispetto alle giovani.
42
42
La verifica delle ipotesi sui coefficienti di correlazione
Prima di entrare in questa lezione, ti prego di numerare le pagine della dispensa così che tu possa individuare alcune formule direttamente dalla
dispensa senza scriverle qui (sono piuttosto complesse e non possiedo l’opportuno programma)
Finora abbiamo lavorato con un solo campione o con due campioni, e quando lavoravamo su di essi
prendevamo in considerazione una sola variabile, per esempio o di una sola classe di ragazzi o di due
classi a confronto (quindi o di un solo campione o di due) andavo a misurare per esempio il livello di
aggressività o l’effetto di un corso di potenziamento in matematica. Ma se sullo stesso campione vado
a misurare non una ma due variabili? E soprattutto, queste due variabili sono in rapporto tra di esse
cosicchè se caria una varia anche l’altra? (la famosa coovariazione delle variabili: non fare il finto
tonto perché in altre materie ne né parlato a meno che tu non sia arrivato a questo livello di studi
superando gli esami con i punti del mulino bianco)…
Per avere una rappresentazione grafica del variare di queste due variabili facciamo in questo modo:
sull’asse delle x inserisco i valori della variabile x, sull’asse delle y inserisco i valori dell’altra
variabile che misuro, sull’asse z avrò modo di individuare se veramente al variare di una c’è una
variazione dell’altra e quindi se stanno in un rapporto di coovariazione
La distribuzione secondo questo modello si chiama distribuzione normale bivariata, e per questa
distribuzione abbiamo un coefficiente di riferimento, appunto il coefficiente di correlazione r detto
anche di Bravais-Paerson. Esso permette di quantificare la relazione che esiste tra le due variabili che
ho misurato, misure che ho fatto a scale di intervalli o di rapporti.
Questo coefficiente non ha valori elevatissimi, tieni in mente che il suo valore si aggira tra – 1 e +1.
Ora se vai a pagina 3 di questa lezione trovi la formula che devi ricordare per calcolare il coefficiente
r, non dovrebbe esserti proprio estranea perché già in psicometria 1 hai studiato una formula simile.
Ora lavoriamo su di un esempio. Sei un psicologo (poracci quando lo diventerai quelli che ti
capiteranno sotto le mani) ed hai lavorato con 8 sorridenti e mocciolosi bambini. Le loro straordinarie
mamme milf ti hanno dato il consenso e tu hai misurato con apposito test la presenza di due variabili
X: disturbo dell’apprendimento
ti domandi se esiste una relazione
positiva tra le due variabili ossia se la
variare
di una
Per applicare la formula di Bravais Paerson devi avere
alcuni
dativaria
che til’altra
tabuli
Y: deficit verbale
Sogg
Deficit
appre 𝑋
Deficit
verbale 𝑌
𝑋𝑌
43
𝑋2
𝑌2
43
A
B
C
D
E
F
G
H
10
14
140
9
12
108
10
16
160
7
11
77
8
11
88
11
15
165
9
13
117
7
10
70
Somma delle Somma delle Somma
x= 71
Y= 102
xy=925
100
81
100
49
64
121
81
49
di Somma delle
𝑥 2 = 645
196
144
256
121
121
225
169
100
Somma delle
𝑌 2 = 1332
44
Con questi valori applico la formula di Bravais-Pearson per calcolare il mio r
r= 0.90
Ricordi che l’intervallo di r deve essere tra -1 e + 1? Il nostro r è di 0,90, quindi piuttosto alto vuol
dire che la relazione esiste, ma è significativa? Io con quella formula ho calcolato il mio r, quello
relativo ai dati del mio campione, ora devo trovare un rcritico con cui confrontarlo? Come trovo
questo r critico?
Ci fissiamo sempre un margine di errore, di rischio (mi è necvessario perché òe tavole chiedono
sempre e danno valori riferiti ad un certo alfa critico che scelgo di assumere). Mi prendo come errore
un α= 0,01 (99% di fiducia!) uso la tavola di pag 364 del libro di testo la Tavola G. per leggere mi
chiede alfa ma anche i gradi di libertà. Quanti sono? Siccome ho un solo campione ma due variabili
(delle quali voglio stabilire se hanno un rapporto…) i gdl sono
Gdl= n-2
gdl=8-2= 6
con α=0.01 e gdl= 6 rcritico= 0,789
Confronto i due r risulta che r> 𝑟𝑐𝑟𝑖𝑡𝑖𝑐𝑜 quindi se il mio r fosse stato minore di r critico non ci
sarebbe stata correlazione tra le variabili, visto che il mio r è maggiore di r critico esiste correlazione,
ossia esiste una relazione significativa tra le due variabili.
Tieni conto che la tavola G può essere si monodirezionale che bidirezionale nel senso che
se dovessi controllare l’ipotesi bidirezione il mio alfa lo devo dividere per 2 quindi l’alfa di
𝛼
0.01
2
2
riferimento diventerebbe =
= 0,005
Passare da r a t (dal coefficiente di Pearson alla t di Student)
Parlando gradi di libertà è probabile che ti sia venuta in mente un’altra tavola dove si parla di gdl
ossia la tavola t di student. In effetti i due coeffienti ossia r e t, Pearson e Student pare che siano in
44
relazione. Esiste infatti una formula che permette di trasformare r in t, passare da Pearson a Student
praticamente, eccola
𝑛−2
8−2
t= r√
= nel nostro caso ho t= 0.90 √1−0,90
2 = 5,06
2
1− 𝑟
Ho il mio t i gradi di libertà sono n-2 ossia 6 alfa è sempre 0.01 e quindi vado sul mio testo e controllo
la tavola E (pag 359), dove con un alfa di 0,01 6 gdl con ipotesi monodirezionale ho un tcritico di
3.143
confronto i due t ed osservo che
t> 𝑡𝑐𝑟𝑖𝑡𝑖𝑐𝑜 = 5,06 > 3,143 significa che respingo l’ipotesi nulla con la quale sostenevo che
non esiste correlazione tra le due variabili ed accetto l’ipotesi alternativa, ossia tra le due variabili c’è
correlazione.
45
45
Il coefficiente di correlazione di Spearmann
𝒓𝒔
Per capire questo coefficiente e quando si usa teniamo conto che esso lo usiamo quando vogliamo
quantificare la relazione tra due variabili che per essere quantificate era necessario usare o una scala
ordinale, oppure una scala ad intervalli oppure abbiamo usato la quantificazione in base ai ranghi.
Facciamo un esempio per capire meglio, non è difficile, occorre solo la pazienza di trovarsi i dati.
Una insegnante di danza stila una graduatoria delle sue allieve in base alla attitudine che ogni allieva
possiede per un certo tipo di danza, per esempio la danza classica che diventa X ed il jazz che diventa
per noi Y. Effettua le sue considerazioni e quindi stabilisce questa graduatoria dando un punteggio 1
(ossia il rango 1) alla più brava ed un punteggio 10(ossia il rango 10) alla più scarsetta.
Danza Classica X
Rango per le X
Jazz Y
Rango per le Y
Silvia
1
Alessia
1
Rita
2
Rita e silvia
2.5
Alessia
3
gianna
4
Emanuela
4
Simona
5
Gianna
5
Emanuela
6
Daniela
6
Francesca
7
Natialia
7
Natalia
8
Simona
8
Daniela e valeria
9,5
Francesca
9
Valeria
10
Prima di procedere oltre ti chiederai come nella classifica del jazz ci sono due coppie di ragazze con
un valore di rango in decimi, da dove arriva quel valore? Nel fare l’attribuzione di rango la maestra
di danza Gallina Uvalova si è accorta che Rita ed Alessia sono a pari merito, se fossero state con
meriti diversi una avrebbe avuto il rango 2 e l’altro il rango 3. Quando c’è pari merito allora i due si
fa in questo modo, faccio questo calcolo rango2+rango 3/ diviso due, faccio la media dei due ranghi
quindi 2+3/2= 2,5. È come se il rango 2 ed il 3 venisse equamente spartito in un unico rango, ecco
perché poi dopo il 2,5 non ho un rango 3 ma passo direttamente al 4, poiché al posto del rango 2 e del
3 ci ho messo la loro media. La stessa cosa vale per Daniela e Valeria che a pari merito si prendono
entrambe il rango 9 e 10 e se lo dividono per due prendendosi il rango 9.5.
Ora devo fare un altro passaggio. Prendo la prima tavole di ranghi quella della classica e la paragono
a quella del jazz, nel senso che faccio un elenco per ogni allieva avendo come riferimento la prima
tavola e ci metto accanto il rango della prima tavola e quello del rango della seconda tavola
Allieva
Silvia
Rita
Alessia
Emanuela
Gianna
Daniela
Natalia
Simona
Francesca
Rango di X
1
2
3
4
5
6
7
8
9
Rango di Y
2,5
2,5
1
6
4
9,5
8
5
7
46
46
Valeria
10
9,5
Distribuiti così i valori posso calcolare le differenze tra i ranghi, quindi per ogni allieva calcolo rango
di X-rango di Y ed ogni differenza la calcolo poi al quadrato quindi ho questa tabella
Allieva
Silvia
Rita
Alessia
Emanuela
Gianna
Daniela
Natalia
Simona
Francesca
Valeria
(X-Y)
-1,5
-0,5
2
-2
1
-3,5
-1
3
2
0,5
𝒅𝟐
ossia d
2,25
O,25
4
4
1
12,25
1
9
4
0,25
Somma di 𝑑 2 = 38
N. B: : Quando calcolo le differenze tra i ranghi se per ogni soggetto ottengo 0 allora
si dice che c’è una correlazione positiva perfetta, se invece i soggetti hanno delle
posizioni in graduatoria opposte (incrociate ossia il primo della prima graduatoria è
l’ultimo della seconda, il secondo della prima è penultimo della seconda graduatoria
e così via) si dice che c’è una correlazione negativa perfetta
Ora posso usare la tavola per calcolare il coefficiente di Spearmann ossia 𝒓𝒔
𝒓𝒔 = 1-
𝟔 ∑ 𝒅𝟐
= 1-
𝒏(𝒏−𝟏)
𝟔𝒙𝟑𝟖
=1-
𝟏𝟎(𝟏𝟎−𝟏)
𝟐𝟐𝟖
= 0.77
𝟗𝟗𝟎
Come per gli altri coefficienti il coefficiente 𝒓𝒔 ha un valore che va tra
-1 e +1
A questo punto cosa devo fare? Devo tenere conto del numero del campione e mi pongo questa
domanda: i soggetti del campione sono meno o uguali a 30? N≤ 30?
Se sono uguali o meno di 30 allora ho una tavola da consultare che ha come riferimento il livello di
𝛼 che mi sono posto ossia se è pari a 0.01 oppure pari a 0,05.
Quindi con n≤ 𝟑𝟎 𝒆 𝜶 = 𝟎. 𝟎𝟏 𝒐𝒑𝒑𝒖𝒓𝒆 𝒄𝒐𝒏 𝜶 = 𝟎, 𝟎𝟓 𝒖𝒔𝒐 𝒍𝒂 𝒕𝒂𝒗𝒐𝒍𝒂 𝑯 (𝒑𝒂𝒈 𝟑𝟔𝟓)
Vado all’esempio che facevamo N=10
con alfa= 0.05 𝑟𝑐𝑟𝑖𝑡𝑖𝑐𝑜 = 0.564
47
47
Confronto i miei rs e vedo che 𝑟𝑠>𝑟𝑐𝑟𝑖𝑡𝑖𝑐𝑜 0,77> 0,564 quindi posso rifiutare l’ipotesi nulla ed
affermare che esiste una relazione positiva significativa tra le due variabili
E se n fosse stato maggiore di 30?
Allora anche in questo caso esiste una relazione tra 𝒓𝒔 𝒆 𝒕 𝑺𝒕𝒖𝒅𝒆𝒏𝒕
Devo cioè “trasformare” 𝒓𝒔 in t student
t= 𝒓𝒔 √
𝒏−𝟐
se per esempio le allieve fossero state 32 usando gli stessi dati avrei avuto che
𝟏−𝒓𝟐𝒔
32−2
t= 0.77√
1−0,772
= 6,58
confronto di due t
tcritico per alfa=0.05 e n-2 di gdl sulla tavola student è 1,697
6,58> 𝑡𝑐𝑟𝑖𝑡𝑖𝑐𝑜 𝑜𝑠𝑠𝑖𝑎 1,697 𝑞𝑢𝑖𝑛𝑑𝑖 𝑡𝑟𝑎 𝑙𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑖𝑙𝑖 𝑐 ′ è𝑟𝑒𝑙𝑎𝑧𝑖𝑜𝑛𝑒 𝑝𝑜𝑠𝑖𝑡𝑖𝑣𝑎!
Il coefficiente di t di Kendall
Altro coefficiente di correlazione tra ranghi è il T di Kendall. Anche questo coefficiente varia tra +1
e -1. Come lo usiamo?
Ricorda che lo usiamo quando i valori di un campione li disponiamo per ranghi, quindi quando
formuliamo delle graduatorie per esempio su dei costrutti, quindi dal più aggressivo al meno
aggressivo, da più socievole al meno socievole e così via. Ricorda poi che su di uno stesso campione
non consideriamo una sola caratteristica ma due, ecco perché abbiamo bisogno di questi coefficienti
che “correlano” ossia ci aiutino a stabilire se esiste o meno una relazione tra il variare di una proprietà
in un soggetto ed il variare di un’altra proprietà sempre nello stesso soggetto (o campione). Per
esempio su di un campione di 20 ragazzi l’aggressività è correlata con la responsabilità? E’ possibile
che un ragazzo se è più aggressivo diventa anche più irresponsabile?
Andiamo ora ad un esempio per capire come usare il coefficiente di Kendall
Ho un campione e creo una prima graduatoria su di un certa caratteristica x e la dispongo in ordine
crescente. Ad ogni soggetto della prima graduatoria accanto al suo X metto anche il valore di Y che
lo stesso soggetto ha per una altra caratteristica. E cominciando dal primo confrontiamo via via i
valori con quelli che lo seguono. Riprendiamo l’esempio delle nostre allieve di danza della maestra
Gallina Uvalova. Facciamo prima la graduatoria di X ossia dispongo le ragazze in ordine di bravura
nella danza classica
allieva
Rango
X
Silvia
1
Rita
2
48
48
Alessia
3
Emanuela 4
Gianna
5
Daniela
6
Fatto questo accanto ai valori di X
Metto i valori di Y ossia accanto ad ogni
Natalia
7
Ragazza ci metto quel valore di Y che gli
49
Compete
Simona
8
Francesca 9
Valeria
10
allieva
Rango
X
Rango
Y
Silvia
1
2,5
Rita
2
2,5
Alessia
3
1
Emanuela 4
6
Gianna
5
4
Daniela
6
9,5
Natalia
7
8
Simona
8
5
Francesca 9
7
49
Valeria
10
9,5
Silvia-rita
0
Silvia alessia
-1
Fatta questa tavola considera
la lista delle Y e confronto il
primo posto (silvia) con ogni
altra posizione, seguendo
l’ordine naturalmente. Se il
valore che silvia ha del suo Y è
pari a quello di un’altra
ragazza allora io metterò uno
zero, se il valore Y di silvia è
maggiore di quello di un’altra
ragazza allora sarà un ordine
non corretto (chi viene dopo
dovrebbe avere un valore
maggiore non minore della
prima) se invece la ragazza
che viene dopo ha un valore
del suo Y maggiore di quello
di silvia allora l’ordine è
corretto perché in una
graduatoria crescente chi
viene dopo deve avere un
valore maggiore di chi viene
prima. L’ordine corretto vale
+1 quello non corretto vale -1
Silvia emanuela +1
Silvia gianna
+1
Silvia daniela
+1
Silvia natalia
+1
Silvia simona
+1
50
La cosa “noiosa” è che il confronto che
hai fatto tra silvia e le altre ragazze, le
dovrai fare per ognuna delle ragazzeposizione con quelle che le seguono, fino
ad arrivare a francesca che si confronterà
solo con Valeria, e poi nulla, valeria non
la confronti con nessuno, avrai quindi
nove righe di valori mentre le girls sono
10. Capito?
Silvia francesca +1
Silvia valeria
0
-1
-1
+1
1
1
1
1
1
1
-1
1
1
1
+1
+1
1
1
1
+1
+1
50
1
1
1
-1
+1
1
1
1
+1
+1
1
1
1
+1
+1
-1
-1
-1
-1
-1
+1
0
+1
+1
0
Sommando tutti gli 0 con tutti i +1 ed i – 1 ottengo che S= 25
Posso finalmente calcolare l’r di Kendall per questo campione
T= 1
2
𝑆
𝑛 (𝑛−1)
=
25
0,5𝑥 10𝑥9
= 0,56
51
questo T devo confrontarlo con un T critico. Come faccio adesso?
Kendall ha individuato che se il campione ha una numerosità compresa tra 4 e
10 si usa una tavola che è la tavola I del libro di testo pag 366.
Questa tavola si usa considerando S calcolata ed n del campione.
Nel nostro caso per s= 25 ed n=10 Tcritico è = 0.014 ne desumiamo che il nostro T è maggiore del
Tcritico quindi la relazione tra le due caratteristiche del campione è positiva. Rifiuto Hzero che
sostiene che non c’è relazione ed affermo H1 ossia c’è relazione.
E se il campione fosse maggiore di 10 elementi? Allora il tutto funziona come se fosse
una distribuzione normale? Ricordi quando abbiamo parlato di distribuzione
campionarie? In quel caso però noi avevamo alcuni valori che ci servivano per i nostri
calcoli ossia la media della distribuzione campionaria e la deviazione standard ossia µ
e ơ. In questo caso come possiamo avere questi valori?
Allora per il t (sarebbe il simbolo tau) di Kendall quando abbiamo un campione con n>
10 lavoriamo come se avessimo una media di t µ𝑡 = 0,00 ed una
2(2𝑛+5)
ơ𝑡 = √1
𝑛(𝑛−1)
2
Per fare un esempio mettiamo il caso che il campione delle nostre ragazze fosse stato maggiore di 10.
Lo T di Kendall per il campione lo calcolo sempre con il lavoro illustrato prima, facciamo che dopo
i nostri calcoli T era appunto pari a 0.56.
Siccome il campione è maggiore di 10 non uso la tavola I di Kendall ma la tavola della distribuzione
normale standard quindi la tavola A di pag 349. Non posso confrantare degli T la tavola infatti, questa
tavola A permette il confronto con gli z dei campioni e lo z critico relativo all’errore alfa che mi sono
preposto. Quindi cosa faccio?
51
1. Sulla tavola vado a trovarmi quale è lo zcritico di riferimeto con un alfa che in questo caso
per esempio stabilisco che sia dello 0,05. È distribuzione binominale, per cui faccio il solito
Digitare l'equazione qui.calcolo della fiducia diviso 100 diviso 2 (il 95% di fiducia vuol dire
che ho una fiducia paria a 95:100= 0,95 che : 2 = 0,475). Sulla tavola 0.475 corrisponde ad
uno zcritico di ±1,96
52
2. Ora devo trovare il mio z quello relativo al campione. Come lo ottengo? Con il solito calcolo
della z quando possiedo µ𝑡 𝑒 ơ𝑡 ossia
Z=
𝑡−µ
0.56−0
ơ
0.25
=
2(2𝑛+5)
2(2𝑥10+5)
ơ𝑡 = √ 1
=√
= 0,25
0,5𝑥10𝑥9
𝑛(𝑛−1)
2
Quindi
Z=
𝑡−µ
0.56−0
ơ
0.25
=
=
0,56
= 2,24
0,25
3. Ora posso confrontare i due z quello critico e quello calcolato . z del campione è maggiore di
z critico, quindi accetto l’ipotesi alternativa affermo che c’è correlazione e rifiuto l’ipotesi
nulla che affermava che non c’era correlazione.
52
il coefficiente di correlazione punto biseriale 𝒓𝒑𝒃
Stiamo sempre parlando di confronti tra proprietà diverse di uno stesso campione (proprietà intesa
come caratteristiche per essere più chiari). Questo coefficiente lo usiamo quando vogliamo
confrontare e quindi stabilire se esiste una relazione tra una variabile dicotomica (ossia che varia
secondo due livelli) ed una altra variabile che abbiamo misurato su scala di rapporti o intervalli
equivalenti.
Cosa significa che una variabile è dicotomica a due livelli? Una variabile simile è in genere sessuale
che può avere solo il livello maschile o femminile. Quindi ho un campione nel quale ogni soggetto
ha due caratteristiche, una si muove solo su due livelli, l’altra può assumere valori diversi sul di una
determinata scala di misurazione. Lavoriamo su esempi per capire meglio come si usa questo
coefficiente.
Sei uno straordinario psicologo, le persone che hanno avuto il tuo servizio si sono tutte suicidate e
comunque ti ritrovi 12 studenti dei quali hai misurato il tratto di amicalità e ti domandi tra i tanti
interrogativi dell’esistenza, se oltre ad una vita dopo la morte, oltre a chiederti chi siamo, dove
veniamo, perché esistiamo, o se essere e non essere, ti domandi anche se esiste una relazione tra il
tratto “amicalità” ed il genere sessuale dei soggetti del campione. Hai 5 maschi e 7 femmine, uno dei
maschietti, Giorgio, si veste di rosa e porta un completino aderente, ma nonostante i dubbi lo metti
tra i maschi mentre, claudia che fuma il sigaro e si gratta come un muratore la lasci tra le ragazze.
Vuoi quindi stabilire se esiste una relazione tra il genere (variabile dicotomica) ed amicalità (variabile
continua). Costruisci una tabella molto semplice
Soggetto
Genere
Punteggio amicalità
1
F
12
2
F
11
3
M
12
4
G
14
5
M
10
6
M
11
7
F
13
8
F
11
9
M
10
10
F
12
11
F
15
53
53
12
M
13
A questo punto devo dividere i maschi dalle femmine (già qualcuno cominciava a limonare….) e per
e calcolo per ogni valore di X ossia dell’amicalità il quadrato. Di questi “quadrati” mi servità il totale
generale ed il totale dei quadrati dei maschi e quello delle femmine. Segui la tabella
𝑿𝟐 𝒎𝒂𝒔𝒄𝒉𝒊
Maschi
(punteggio)
femmine
𝑿𝟐 𝒇𝒆𝒎𝒎𝒊𝒏𝒆
12
144
12
144
10
100
11
121
11
121
14
196
10
100
13
169
13
169
11
121
12
144
15
225
Somma
Xfemmine= 88
Somma
di
Xmaschi ed X
femmine= 144
Somma 𝑿𝒎𝒂𝒔𝒄𝒉𝒊 = 56
Sommo i quadrati dei maschi e quelle delle femmine ∑ 𝑿𝟐 = 1754
Ora devo trovare alcuni dati che sono l’amicalità media di tutto il campione, quello medio dei maschi,
e quello medio delle femmine quindi:
𝑋̅𝑡𝑜𝑡𝑎𝑙𝑒=144 = 12
12
54
54
𝑋̅𝑚𝑎𝑠𝑐ℎ𝑖=56/5 = 12,20
88
𝑋̅𝑓𝑒𝑚𝑚𝑖𝑛𝑒 = = 12.57
7
Posso ora trovare lo scarto quadratico medio delle X che chiamo 𝑆𝑥
Uso la formula dello scarto quadratico medio
55
∑ 𝑥2
𝑆𝑥 = √
𝑛
- 𝑥̅ 2 = √1754
- 144= 1.47
12
(n.B: tutta la formula sta sotto la radice quadra, il programma ha messo
fuori il 144 ma tutto sta sotto radice quadra!!!!!)
Ora posso finalmente calcolare il mio coefficiente punto biseriale, come? Con questa formula
𝑟
𝑝𝑏=
̅
𝑋
̅
𝑎−𝑋
𝑛
𝑏
√ 𝑛𝑎 𝑥
𝑛𝑏
𝑛
=
11,20−12,57
1,47
√
5
7
12
12
= - 0.46
𝑆𝑋
A questo punto che mi serve questo coefficiente? Come posso dare una risposta alla mia domanda se
il tratto amicalità è in relazione al genere sessuale? Ho bisogno di fare un confronto tra un qualche
dato del campione ed i riferimenti di qualche tabulato.
Fisso un α= 0,01 fisso cioè sempre un rischio ed una fiducia. Il coefficiente rpb che ho trovato mi
serve per calcolare i t del mio campione. Quindi uso questa formula
t= 𝑟
𝑝𝑏
𝑛−2
√1− 𝑟 2
𝑝𝑏
= 0,46 √
12−2
1−(−0,462
= -5,82
siccome ho calcolato un t vuol dire che il mio riferimento è la tavola T di student? Ricordi come si
legge? Serve sempre un alfa di riferimento che in questo caso è 0,01 e dei gradi di libertà. I gdl in
questo caso saranno pari a n- il numero delle variabili su cui lavoriamo, sono 2 quindi
gdl= n-2= 12-2= 10
55
per alfa 0,001 e gdl 10 nell’ipotesi bidirezionale con la tavola di pagina 359 ho un tcritico pari a
±3,169 𝑐𝑜𝑛𝑓𝑟𝑜𝑛𝑡𝑜 𝑔𝑙𝑖 𝑡 𝑒 𝑣𝑒𝑑𝑜 𝑐ℎ𝑒 𝑡 > 𝑡𝑐𝑟𝑖𝑡𝑖𝑐𝑜
accetto l’ipotesi alternativa ossia affermo che tra amicalità e genere sessuale esiste una relazione
significativa.
56
56
il coefficiente di correlazione tra variabili dicotomiche rf (il simbolo effettivo è la “fi” greca)
quando usiamo questo coefficiente? Quando uno stesso campione lo intervistiamo misurando due
item e le risposte che i soggetti danno devono essere risposte dato in modo dicotomico ad entrambe
le domande, per essere molto più semplici immagina di intervistare 10 soggetti ai quali poni due
domande
1. Sei favorevole o contrario a scaccolarsi in pubblico?
2. Sei favorevole o contrario al rutto libero?
E dopo aver speso tempo e soldi per fare queste domande ti chiedi se tra i due item di risposte che
sono date dagli stessi soggetti esiste una correlazione.
Ora facciamo i seri e facciamo un esempio concreto: hai 10 soggetti ad ognuno di essi hai posto due
domande, ad ognuna di esse loro dovevano risponde o SI oppure No, o anche favorevole o contrario
1. X: sei favorevole alla patente a punti?
3. Y: sei favorevole al divieto di fumo nei locali pubblici?
Con le risposte crei una tabella
Soggetto
Risposta ad X
Risposta ad Y
A
F
F
B
F
F
C
F
C
D
C
C
E
F
F
F
C
F
G
F
F
H
F
F
I
C
F
L
C
C
Costruisci una tabella a doppia entrata. Ricorda che è molto importante costruirla bene per non avere
errori nei calcoli successivi che farai
57
57
Calcola prima di tutti quanti sono
Nel riquadro a ci metti quelli che sono FX e FY
Nel b ci vanno i Fx e Cy
Nel c i Cx e Fy
Nel d ci vanno i CX e CY
58
totali
F
C
a
b
1
F
5
c
6 (p)
d
2
C
2
totali
4 (q)
7 (p’) 3 (q’)
10
Frequenze: fa= 5
Rphi=
fb=1
𝑓𝑎𝑓𝑑−𝑓𝑏𝑓𝑐
√ 𝑝′𝑝𝑥𝑞′𝑞
fc= 2 fd= 2
=
5𝑥2−1𝑥2
√ 7𝑥6𝑥3𝑥4
= 0.36
Ottenuto questo valore di rphila tavola che userò sarà quella del 𝐶ℎ𝑖 2 che useremo in questo modo.
Prima di tutto devo trovarmi il
𝐶ℎ𝑖 2 critico di riferimento per cui uso la tavola avendo come
Valori di riferimento alfa ed i gradi di libertà
Alfa= 0,01
I gdl sono pari al numero delle possibilità di risposta meno 1, per entrambe le opzioni erano 2 ossia
F oppure C quindi gdl= (2-1) (n-1)= 1
58
2
Con questi valori il 𝐶ℎ𝑖𝑐𝑟𝑖𝑡𝑖𝑐𝑜=6,64
Ed il 𝐶ℎ𝑖 2 del mio campione? Esso lo ottengo con questo calcolo
2
𝐶ℎ𝑖 2 = 𝑟𝑝ℎ𝑖
x n= 0,362 𝑥 10 = 1,3
2
Confronto i due 𝐶ℎ𝑖 2 𝑒 𝑣𝑒𝑑𝑜 𝑐ℎ𝑒 𝐶ℎ𝑖𝑐𝑟𝑖𝑡𝑖𝑐𝑜=6,64
> 𝑑𝑖 𝐶ℎ𝑖 2 𝑑𝑒𝑙 𝑚𝑖𝑜 𝑐𝑎𝑚𝑝𝑖𝑜𝑛𝑒 per cui rifiuto
l’ipotesi alternativa e confermo l’ipotesi Hzero ossia tra i due item di risposte non esiste
correlazione significativa.
59
59
La regressione bivariata e campioni correlati
Il concetto di regressione è legato a quello di previsione. Stiamo parlando di due variabili e del
rapporto che esiste tra di esse, abbiamo visto in precedente quando queste sono correlate e quindi
quando la variazione di una significa la variazione di un’altra. Regredire e prevedere significa che al
variare di una variabile un’altra a queste correlata varia anch’essa. Si tratta di una sorta di causa ed
effetto, di rapporto tra antecedente e susseguente.
Succede allora che data una certa variabile X che è detta “variabile indipendente” e che precede
un’altra variabile Y che viene detta “dipendente”, la variazione di X spiega ed influenza il variare di
Y.
Facciamo un esempio. Abbiamo dei ragazzi e la loro capacità di ragionamento astratto quindi
matematico e la chiamiamo X, questa variabile è quella che chiamiamo indipendente ed anche
“predittore”. Il voto in matematica sarebbe per noi la variabile dipendente detta anche criterio. Noi
quindi cosa supponiamo? Che maggiore è il predittore maggiore è il criterio, quindi se varia il
predittore, la variabile indipendente, varia anche la variabile dipendente. Il variare di Y quindi viene
spiegato ed anche influenzato da X, il ragazzo è più o meno bravo in matematica ed i suoi voti in
matematica sono più o meno buoni in base a quanto alta o bassa sia la sua capacità di ragionamento
astratto. Il rapporto è univoco tra X ed Y nel senso che l’aumento del voto in matematica non aumenta
la capacità di ragionamento astratto (se io aumento il voto del campiono non c’è magicamente un
aumento di capacità di astrazione, è vero invece il contrario!)
Nel parlare di regressione a cosa ci riferiamo? Il titolo della lezione infatti parla di regressione
bivariata. Significa che con una analisi della regressione riusciamo a stabilire se e quanto i valori di
Y dipendono dai valori di X, questo concetto allora è legato a quello di previsione, ossia se riesco a
stabilire che il valore di Y dipende da X, ossia i suoi cambiamento sono spiegati dalle variazioni di
X allora posso prevedere che ai cambiamenti di X corrisponderanno anche dei cambiamenti di Y.
Quindi stabilito che variando X varia anche Y, se riesco a capire una variazione di X quanto farà
variare Y posso già in sede teorica, con un certo margine di errore riuscire a stabilire quale sarà il
valore ipotetico di Y se vario di una certa misura X, per cui in base ad una variazione di X posso
ipotizzare quanto sarà Y, un valore che chiamerò Y predetto.
Queste previsioni non sono fatte a naso, ma con passaggi di formule matematiche e con quella che è
chiamata l’equazione di regressione. Quindi dato un certo X per prevedere il valore di Y uso
l’equazione di regressione che è praticamente l’equazione di una retta. Che cosa stiamo dicendo?
Stiamo parlando di variazioni di valore di una variabile che appunto variano perché una variabile
indipendente varia ed il suo variare fa variare il valore della variabile dipendente. Se scrivo su un asse
della ascisse (ossia l’asse orizzontale) i valori della variabile indipendente e sull’asse delle ordinate i
valori della Y costruisco un diagramma. Ora procediamo con ordine
1. Se io conoscessi i valori di X ed i valori di Y basterebbe che li indicassi sui rispetti assi e tutto
andrebbe bene senza fare calcoli e supposizioni di previsione
2. Ma io sto parlando di previsione, nel senso che non so quanto sono i valori effettivi di Y o
meglio non so se esiste una relazione tale tra X ed Y che al variare di X varia anche Y, sto
infatti dicendo che cerco di prevedere tramite dei calcoli quali possono essere i valori che una
ipotetica Y assumerebbe in relazione al variare di una certa X.
60
60
3. Se io conoscessi i reali valori di X e di Y unendo i punti di intersezione che queste variabili
via via otterrei avrei una retta che ha un suo angolo
4. Ma se io i valori di Y non li ho ossia non possiedo i valori ipotetici di Y, significa che se riesco
a “definire” la retta posso a partire da essa capire i valori di Y. Ho quindi bisogno di ottenere
una retta, tramite una opportuna equazione
L’equazione di una retta è questa:
Y= a+bX
L’equazione della retta di regressione è
Y’= a+bX
61
cosa sono “a” e “b”?
1. b è il coefficiente di regressione. Cosa significa?
Significa che è l’inclinazione della retta ossia l’angolo che questa forma con l’asse delle ascisse. Il
suo valore oscilla tra -1 e +1, e quindi il segno + o – indica se l’incremento è positivo oppure negativo
e quindi se la retta va a salire o a scendere.
b si ottiene con questa formula
b=
∑ 𝑥𝑦−∑ 𝑥 ∑ 𝑦
𝑁 ∑ 𝑋 2 −(∑ 𝑌)2
per noi è importante questo valore perché ci dice quanto x incide su y, ossia ci da la misura di quanto il variare
di X fa variare Y
2. a è l’intercetta sull’asse delle ordinate ossia è la distanza tra il punto in cui ascisse ed ordinate
si uniscono (punto zero) ed il punto in cui la retta taglia l’asse delle ordinat
a
Come si calcola a?
a= ̅̅̅̅̅̅̅̅̅
𝑌 − 𝑏𝑋̅
una
volta che abbiamo calcola a e b, che sono parametri del campione, possiamo risalire ai valori
dell’intera popolazione. Poso sopra si diceva quanto è importante per noi coefficiente b. esso infatti
se dovesse avere come valore 0 significherebbe che le due variabili x ed Y non hanno alcuna relazione
tra di esse, sono indipendenti l’una dall’altra ed il variare di X non porta alcun effetto su Y. Se invece
il valore di b è diverso da zero allora vuol dire che esiste una correlazione tra X ed Y e soprattutto
che il variare di X non è indifferente per Y ma implica una variazione in Y. Quindi il valore di b può
essere maggiore di zero o minore di zero.
61
Ora passiamo ad un esempio per chiarirci meglio le idee. Abbiamo misurato su di un campione
l’aggressività e la pressione sanguigna. Ci domandiamo se il variare dell’aggressività porta al variare
della pressione, e quindi vorrei capire se variando l’aggressività quanto posso ipotizzare che varierà
la pressione?
Costruisco la mia tabella
X
Y
115
17
160
29
140
25
120
19
155
28
120
24
145
27
120
25
130
21
150
30
Con questi dati devo trovare la retta, quindi uso
la formula della retta
b=
∑ 𝑥𝑦−∑ 𝑥 ∑ 𝑦
𝑁 ∑ 𝑋 2 −(∑ 𝑌)2
1355 245
Da questi dati scritti qui sopra ottengo anche due dati che dopo mi serviranno ossia Xmedio ed Y
medio che sono rispettivamente
𝑋̅ = 135.5
𝑌̅= 24.5
X
Y
𝑿𝟐
115
17
13225
1955
160
29
25600
4640
140
25
19600
3500
XY
62
62
120
19
14400
2280
155
28
24025
4340
120
24
14400
2880
145
27
21025
3915
120
25
14400
3000
130
21
16900
2730
150
30
22500
4500
1355 245
Se
sostituisco alla formula per il calcolo di b tutti questi dati
otterò che b = 0,22
63
186075 33740
avendo b posso calcolare
anche a che si ottiene con la formula
a= ymedio-b per xmedio (scritto con i simboli …. a= ̅̅̅̅̅̅̅̅̅
𝑌 − 𝑏𝑋̅)=
= 24.5- 0.22 (135.5)= -5,18
perché sono importanti questi due valori? Perché grazie ad essi posso calcolare la regressione di Y,
ossia per ogni valore di X posso calcolare il corrispondente Y ipotetico infatti esso si ottiene
Y’= a+b X
Ora però devo fare un’altra cosa, sia per le X che per le Y devo calcolare lo scarto quadratico
medio. La formula ricordiamo che è
S= √
∑ 𝑋2
𝑛
− 𝑋̅ 2
la stessa formula valore per trovare lo scarto quadratico medio di Y
Perché calcolo 𝑆𝑋 ed 𝑆𝑦 ? 𝑝𝑒𝑟𝑐ℎè 𝑞𝑢𝑒𝑠𝑡𝑖 𝑣𝑎𝑙𝑜𝑟𝑖 𝑚𝑖 𝑠𝑒𝑟𝑣𝑜𝑛𝑜 𝑝𝑒𝑟 𝑐𝑎𝑙𝑐𝑜𝑙𝑎𝑟𝑒 𝑖𝑙 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒 𝑟
Cosa è questo coefficiente r? è quello di Pearson. Ed avendo i due scarti quadratici posso applicare
questa formula ossia
63
𝑟=𝑏
𝑆𝑋
𝑆𝑦
Questo r si chiama anche coefficiente di determinazione esso infatti mi permette di stabilire la
relazione che esiste tra X ed Y ossia tra predittore e criterio. Capisco allora che trovare il valore di a
e di b mi permette di applicare queste formule che mi permetto di individuare quanto “vale” una Y’
(ipotetica) per un certo valore di X e quale è il valore r, ossia il valore di relazione che esiste tra X ed
Y.
64
Arrivato al calcolo di r non mi fermo qui, devo fare qualche ulteriore passo in avanti, ossia devo
calcolare il quadrato di r 𝑟 2
Per quale motivo? Perché ora io devo calcolare un altro dato importante ossia l’errore standard del
coefficiente di regressione
𝐸𝑆
𝑏=
𝑆𝑥
𝑆𝑦
1−𝑟 2
√
𝑛−2
con questo valore posso calcolare il t del mio campione relativo ai valori delle x che delle y ossia
t=
𝑏
𝐸𝑆𝑏
con questo t quindi posso confrontare un t critico che vado a trovarmi sulle tavole t di
student usando come parametri di riferimento l’errore alfa ed i gdl pari al numero del campione meno
il numero delle variabili che sono due in questo caso (x ed y) quindi i gdl sono n-2= 8
se il t calcolato è maggiore del tcritico allora noi rifiutiamo l’ipotesi Hzero che sostiene che non esiste
relazione tra le due variabili ed accettiamo l’ipotesi alternativa ossia affermiamo che il variare della
pressione sanguigna fa aumentare il punteggio dell’aggressività.
Finora noi abbiamo visto esempi di lavoro su due variabili indipendenti e soprattutto su campioni
indipendenti come può essere il gruppo sperimentale e quello di controllo, oppure i maschi e le
femmine, gli introversi e gli estroversi, le milf e le drag quee…). Cioè finora abbiamo visto quando
si cerca misura una stessa variabile X su due campioni differenti e si confrontano i valori, oppure
lavorando sullo stesso campione si misuravano due diverse variabili e ci si chiedeva se le due variabili
64
nei soggetti del campione erano correlate e si influenzavano a vicenda. A volte invece il ricercatore
si ritrova a lavorare con campioni correlati ossia può accedere che
•
•
•
Misuri la stessa variabile X sullo stesso campione ma due volte (per esempio a distanza di
giorni)
Misuri una variabile X su delle coppie prese una per volta (per esempio l’aggressività in
diverse coppie di gemelli)
Oppure ancora la rilevazione di coppie di misure sugli stessi soggetti ossia una variabilile X
ed una Y su ogni soggetto di un campione di N persone
Una situazione nella quale ci possiamo trovare è quella di calcolare una stessa variabile X sullo stesso
campione di soggetti ma con la differenza del “prima e del dopo”.
Facciamo un esempio : si vuole misurare l’atteggiamento verso gli extracomunitari su due gruppi di
soggetti. Ad entrami i gruppi verrà somministrata una scala per misurare l’atteggiamento
•
•
Il primo viene portato a visitare un centro di accoglienza per immigrati e dopo gli eviene
somministrata la scala
Il secondo viene sottoposto alla scala senza la previa visita al centro immigrati
Potrei pensare in sede di ipotesi che il primo gruppo sarà di sicuro meno emarginante del secondo
proprio per via della visita fatta al centro, quindi supporrò che il mio trattamento (visita al centro)
manipoli la variabile “atteggiamento emarginante”.
Ma tanto per sfrantumarci le balle ci poniamo un sottile dubbio fastidioso come un ditino nel…È
possibile che il primo gruppo, quello che ha fatto la visita al centro immigrati sia meno emarginante
del secondo già di suo? Forse i due gruppi sono non omogenei già in partenza, ossia che il primo
gruppo (quello che ha visitato il centro) sia già meno emarginante rispetto al secondo per motivi suoi,
ancor prima del trattamento (visita al centro). Ed allora che faccio per togliere questo dubbio atroce
che flagella le mie notti insonni?
Usiamo il modello dei campioni correlati. Come faccio? Prendo un gruppo di n soggetti e faccio
compilare il campione prima della visita al centro e la stessa scala dopo aver visitato il centro. Se avrò
differenze di risultati tra gli esiti del test ante visita e quelli del test post visita, allora la differenza
sarà da attribuire al trattamento. I campioni dai quali prenderò le misurare della variabile
“atteggiamento” sono gli stessi soggetti, quindi sono campioni non indipendenti ma correlati.
Facciamo che il mio campione sia di 8 soggetti. Li sottopongo a misura dell’atteggiamento di
emarginazione prima e dopo la visita al centro, e chiamo Xprima ed Xdopo il risultato ottenuto di
punteggio di “atteggiamento di emarginazione”
Soggetto
1
2
3
4
5
Xprima
20
17
15
12
20
X dopo
20
15
10
10
18
Calcolo
la
differenza per
ogni X tra il
valore
di
prima e dopo e
poi
riporto
65
d
0
2
5
2
2
𝒅𝟐
0
4
25
4
4
65
6
7
8
somme
18
17
20
139
19
19
16
127
tutto
quadrato
al 1
2
4
12
1
4
16
58
Fatti questi calcoli devo trovare la 𝑑̿ quindi la somma delle d la divido per N il numero del campione,
∑ 𝑑 12
la formula è
𝑑̅= = = 1,5
𝑁
8
Fatto questo calcolo lo scarto quadratico medio delle d, la formula la conosciamo perché vista tante
altre volte essa comunque sarà
𝑠𝑑 = √
∑ 𝑑2
− 𝑑̅2 = √
𝑛
58
8
− 1,52
= 2,24
Se ricordi, nelle primissime lezioni parlavamo del calcolo dell’errore standard che era ottenuto
prendendo la scarto quadratico medio e “rivedendolo” ossia usiamo questa formula anch’essa
conosciuta
𝑠𝑑̅ =
𝑠𝑑
= 8 − 1 = 0.84
√𝑛−1
Perché ho fatto tutto questo? Perché per darmi delle risposte in modo statistico ho sempre bisogno di
fare riferimento a dei tabulati, e questa volta la risposta la trovo usando la tavola t di Student, quindi
devo trovare un t, che appunto calcolerò grazie al mio errore standard or ora trovato.
T t=
̅̅̅̅̅̅̅̅̅
𝑑− µ𝑑
̅
𝑠𝑑
̅
= ossia detto a parole, d medio, meno la media della differenze, diviso il tutto per l’errore
standard della media delle differenze.
Ti chiederai: cosa è a questo punto quel µ𝑑̅ ?
è 𝑙𝑎 𝑚𝑒𝑑𝑖𝑎 𝑑𝑒𝑙𝑙𝑒 𝑑𝑖𝑓𝑓𝑒𝑟𝑒𝑛𝑧𝑒 𝑐ℎ𝑒 𝑛𝑜𝑖 𝑠𝑢𝑝𝑝𝑜𝑛𝑖𝑎𝑚𝑜 𝑝𝑒𝑟 𝑖𝑝𝑜𝑡𝑒𝑠𝑖 𝑚𝑎𝑡𝑒𝑚𝑎𝑡𝑖𝑐𝑎 𝑐ℎ𝑒 𝑠𝑖𝑎 𝑝𝑎𝑟𝑖 𝑎 𝑧𝑒𝑟𝑜!
Quindi t=
1,5−0
0.84
= 1,786
Questo è il mio t. con quale tcritico lo confronto? Con quello che trovo sulla scala Student per un alfa
pari a 0.05 ed n-1 gdl.
N-1 perché la variabile in questo caso anche se misurata in due momenti
diversi è solo una. Sulla scala trovo che il tcritico è 1,895
Confrontandoli cosa ottengo? Ottengo che t< 𝑡𝑐𝑟𝑖𝑡𝑖𝑐𝑜, quindi la visita non ha prodotto modifiche
nell’atteggiamento di emarginazione nei soggetti del campione.
66
66
L’analisi della varianza
L’analisi della varianza: un po’ di teoria per capire meglio
Quando parliamo di analisi della varianza parliamo di una tecnica di elaborazione dei dati attuabile solo se la
ricerca che noi facciamo è stata pianificata in modo accurato ossia cercando di “tenere sotto controllo” tutte le
variabili di disturbo ed avere l’azione solo di quelle variabili che ci interessa che agiscano nel nostro
esperimento. L’analisi della varianza significa che lavoriamo con il confronto di medie di due o più campioni
tenendo conto contemporaneamente di più variabili.
Quando parliamo di analisi della varianza si intende dire che la varianza totale di un campione noi la
scomponiamo in due parti
1. La variabilità sperimentale che dipende dall’azione delle variabili introdotto dallo sperimentatore
2. La variabilità accidentale o residua dovuta all’azione di quelle altre variabili intervenienti ma che noi
non siamo riusciti a “tenere” a bada.
Prendiamo un esempio utile per capire: vogliamo verificare se le istruzioni impartite in modo amichevole
inducano nei soggetti migliori prestazioni.
Organizziamo il nostro piano di ricerca nel quale la nostra variabile sperimentale è “istruzioni impartite”. La
variabile avrà due livelli
1. Modalità amichevole (quella sperimentale)
2. Modalità neutra (controllo)
È ovvio che al ricercatore interesserà misurare e quindi verificare se una migliore prestazione dei soggetti
dipenderà o meno dalla modalità in cui hanno ricevuto le istruzioni. Mi serve quindi una qualche forma di
controllo per verificare se l’effetto prestazione è causato dalla modalità delle istruzioni.
Quale è la situazione ideale? Che la mia variabile indipendente ossia “istruzioni amichevoli” sia la sola ad
agire sulla variabile dipendente “prestazioni”, sicchè se queste sono migliori posso dire che la causa è la mia
variabile indipendente. Quindi l’ideale è che tra l’azione della V.I. e l’effetto ossia la V.D. non intervengano
altre variabili di disturbo che possano interferire sulla V.D. il rischio infatti è che se io non riconosco la
presenza dell’azione di queste variabili di disturbo possa attribuire tutti gli effetti dell’esperimento alla mia
V.I. che erroneamente classificherei come sola causa degli effetti.
Quando facciamo esperimenti che coinvolgono persone dobbiamo sempre tenere conto dell’intervenire di
variabili di disturbo, quindi anche se il nostro piano di ricerca è ottimo e preciso, se abbiamo a che fare con
persone umane ci sono tanti altri fattori che sfuggono al nostro controllo, che agiscono e quindi gli effetti che
otteniamo non possono essere tutti attribuiti solo e soltanto alla nostra variabile sperimentale. Potremmo dire
allora che l’analisi della varianza è una modalità saggia di trattare i dati ottenuti con un esperimento perché
essa implica proprio la scomposizione della varianza generale in due parti
•
•
Una attribuibile alla variabile sperimentale
Un’altra attribuibile alle altre variabili e che possiamo considerare varianza residua
Torniamo al nostro campione che dividiamo in due gruppi: uno sperimentale ed uno di controllo. Il campione
totale è di 10 soggetti divisi in due sottogruppi (sperimentale e controllo) di 5 soggetti ciascuno. Con modo
amichevole ricordiamo ai soggetti che ad essi verrà somministrata una lista di parole e che loro dovranno
ricordare, ma questo modo amichevole, variabile indipendente, viene usato solo con il gruppo sperimentale,
mentre a quello di controllo l’istruzione viene data in modo neutro. Formuliamo le nostre ipotesi
Hzero= la media del gruppo sperimentale sarà uguale alla media del gruppo di controllo
H1: la media del gruppo sperimentale sarà maggiore del gruppo di controllo
67
67
Se Hzero è vera sigfnificherà che i due gruppi provengono dalla stessa popolazione. Tu dirai: ma lo sono,
venivano dallo stesso unico gruppo di 10 diviso poi due. In questo non ti devi confondere perché il concetto di
popolazione differente non significa che il gruppo sperimentale e controllo provengono fin dall’inizio da
appartenenze diverse, ma la diversità di popolazione sta nell’effetto dell’esperimento. E’ la variabile
indipendente manipolata che producendo un effetto sul gruppo sperimentale, effetto che non c’è nel gruppo
controllo, porta alla differenza di popolazione.
Quale lavoro statistico faremo su questo unico campione diviso in due sottogruppi S e C?
La prima cosa calcoleremo la media e la varianza totali2.
La media verrà calcolata calcolando prima la media del gruppo S poi la media del gruppo C, sommando queste
due medie e dividendo per due: questa sarà la media totale ossia 𝑋̅𝑇 ̿
La varianza di tutto il campione di 10 soggetti la calcoleremo lavorando prima sul gruppo S e poi sul gruppo
C, per cui da ogni singolo valore di S sottrarremo 𝑋̅𝑇 . E lo stesso faremo per ogni singolo valore di C. ogni
singolo risultato di queste sottrazioni verrà elevato al quadrato finchè otterrò due sommatorie di quadrati che
sommerò insieme in una unica somma totale.
Ora questo percorso matematico mi ha portato a calcolare la variazione totale di tutto il campione di 10
soggetti. Ma in realtà io ho due gruppi che differiscono tra di essi perché hanno condizioni diverse uno appunto
è sperimentale e l’altro è di controllo. La variazione totale quindi altro non è che la somma di due variazioni
che la compongono, una sarebbe la variazione tra i due gruppi e l’altra quella presente dentro i singoli due
gruppi. Una è between e l’altra è withing. Come faccio a trovare questi due valori?
La prima cosa che devo fare è riuscire a calcolare la variazione esistente tra i gruppi ossia quella between, il
che significa che gli individuo di ogni gruppo che sono diversi tra di loro devo renderli uguali tra di loro ed
uguali alla media del gruppo. Come si fa? Segui questo procedimento3
•
•
•
•
•
•
Prendo il gruppo sperimentale: di esso calcolo la media (𝑋̿𝑠 )
Ho già calcolato 𝑋̅𝑇 di entrambi i gruppi S e C
Ora uguagliare i singoli dati del gruppo sperimentale (che sono diversi di per sé l’uno dall’altro)
significa che li “sostituisco” ognuno (sono5) da un valore unico che si ripete per cinque volte,
ossia dal risultato della sottrazione di 𝑋̿𝑠 - 𝑋̅𝑇
La stessa cosa la faccio per il gruppo di controllo: calcolo la media 𝑋̅𝑐
Ogni singolo calore dei gruppo controllo viene sostituito da 𝑋̅𝑐 − 𝑋̅𝑇
I cinque risultato per S ed i cinque risultati per C (saranno cinque risultati per S ed altri cinque
uguali per C), li eleverò al quadrato, ne farò le due somme e queste due somme le addizionerò tra
loro.
Per il calcolo della varianza dentro i gruppi i gdl saranno pari a K-1 dove K è il numero dei sottogruppi ossia
2 in questo caso visto che ho solo un S ed un C.
La somma totale diviso i gradi di libertà mi darà la variazione tra i gruppo ossia between.
Ora calco la variazione esistente entro i gruppo anche chiama within anche chiamata “residua”. Come la
ottengo?4
•
Prendo il gruppo sperimentale e di esso conosco già la media 𝑋̅𝑠
2
Controlla la tabella 7.2. di pag 268 del testo per avere la visibilità di questo esempio
Cfr tabella 7.2.a di pagina 269 del testo
4
Cfr. tabella 7.2.b di pagina 269 del libro di testo
3
68
68
•
•
•
•
Per ogni singolo valore del gruppo S faccio una sottrazione ossia sottraggo da ogni 𝑋𝑖 il valore di
𝑋̅𝑠 (Xi è ogni singolo valore dei componenti il gruppo S)
Il prodotto di queste sottrazioni viene elevato al quadrato e tutto viene sommato
La stessa cosa ho già fatto con il gruppo di controllo infatti già possiedo quanto vale 𝑋̅𝑐
Da Ogni singolo 𝑋𝑖 del gruppo di controllo viene sottratto 𝑋̅𝑐 . I prodotti elevati al quadrato e
sommati.
Mi ritrovo con una somma totale, ho bisogno dei gradi di libertà che questa volta sono dati da (𝑛𝑠 -1)+(𝑛𝑐 -1)
La sommatoria totale fratto i gdl mi darà il valore della variazione entro ognuno dei gruppi ossai whitin
Potro quindi calcolare un valore finale F che mi sarà utile per consultare la tavola di Fischer, e questo valore
F sarà dato da
F=
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑡𝑟𝑎 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑜 𝑖 𝑔𝑟𝑢𝑝𝑝𝑖
=
𝑏𝑒𝑡𝑤𝑒𝑒𝑛
𝑤𝑖𝑡ℎ𝑖𝑛
=
Questo valore lo confronterò con un Fcritico dato da un alfa che mi sarà prefissato e dai due dati di gdl che ho
già individuato per calcolare sia between che within.
Il capitoletto che seguirà riprende un esempio della dispensa ed avrai modo di capire meglio questi passaggi
69
69
Ed ora studiamo dalla dispensa
Spesso come psicologi ci capiterà di dover confrontare la media non di un solo campione di soggetti
ma di più campioni. Di solito quando i campioni sono due o comunque due sono le medie da
confrontare la tavola statistica di riferimento è quella di Student e quindi i percorsi matematici che
faremo saranno quelli necessari a trovare uno “t” da confrontare con un tcritico. Quando le media
sono diverse invece si una il procedimento statistico dell’analisi della varianza ossia ANOVA. T di
Student potremmo quindi considerarlo come una sorta di caso particolare di analisi della varianza.
Per ciò che riguarda ANOVA il lavoro da compiere è quello della scomposizione della variabilità
totale dei dati. Consideriamo per esempio uno studio condotto su due gruppi, uno sperimentale ed
uno di controllo. I due gruppi presenteranno delle diversità tra di loro, usando un linguaggio statistico
diciamo che presentano delle variabilità. Per quale motivo ci sono queste variabilità?
1. Perché il gruppo sperimentale è stato sottoposto ad un trattamento che ha avuto un effetto
quindi c’è una variabilità che chiamo sperimentale, quindi una “diversità” tra i due gruppi
ossia between subjects.
2. Un’altra variabilità sarà dentro ogni gruppo perché saranno intervenute casualmente delle
variabili su cui non ho avuto controllo quindi la chiamo within subjects.
Le due variabilità mi daranno una variabilità che definisco come variabilità totale.
L’analisi della varianza si basa sulla scomposizione della variabilità totale dei dati, quindi una
varianza appunto totale che è “composta” in due varianze visto che esiste una variabile indipendente
che ho manipolato agendo sul gruppo sperimentale e possono esistere altre variabili non controllate
ma che aimè sono intervenute.
Perché faccio l’analisi della varianza? Le domande sono due estremamente connesse una all’altra
1. La varianza tra i gruppi (between) è sufficientemente diversa da quella dentro i gruppi tanto
da considerare effettivamente diverse le medie dei due gruppi? (cioè se le medie dei gruppi
sono diverse è perché ha “fatto effetto” il mio esperimento e non perché sono intervenuti altri
fattori?)
2. E possibile che la differenza tra i due gruppi dipende dunque da fattori sperimentali per cui
questi due gruppi appartengono a popolazioni diverse rese “diverse” proprio perché su di uno
ho agito con il mio esperimento e l’altro no? (le due domande sono praticamente la stessa
cosa….)
Detto in termini di ipotesi allora propongo una Ho ed una H1 secondo questo ragionamento
𝐻0 : la varibilità tra i gruppi e quella dentro ogni gruppo sono molto simili
𝐻1 : l’ipotesi nulla è falsa perché la variabilità tra i gruppi è molto diversa
La tavola di riferimento che uso per l’analisi della varianza è la tavola Fiscer (tavola D pag 356 del
testo). Avrò quindi un “F” da confrontare con quello che troverò sulla tavola. Se il mio “F” sarà
superiore a quello di confronto allora trarrò le mie conclusioni.
Il primo passo allora è capire come calcolo questo F. esso è un valore che ottengo scomponendo la
varianza generale dei due campioni e confrontando le due varianze che la compongono. Ti ho detto
infatti che la varianza generale o totale tra i due campioni è data da quella tra gruppi più quella dentro
70
70
i gruppi, da betwenn+within, quindi F lo otterrò proprio scomponendo e mettendo in confronto i due
dati ossia
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑏𝑒𝑡𝑤𝑒𝑒𝑛
F=
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑤𝑖𝑡ℎ𝑖𝑛
In realtà quando vado a calcolare F non farò il rapporto tra le varianze ma tra le devianze. Per capire
meglio questo concetto l’esempio che tra poco faremo ti aiuterà a comprendere. Intanto considera che
F lo calcolerai con questa formula
F=
𝑠𝑐𝑎𝑟𝑡𝑜 (𝑑𝑒𝑣𝑖𝑎𝑛𝑧𝑎)𝑏𝑒𝑡𝑤𝑒𝑒𝑛
𝑔𝑑𝑙
𝑠𝑐𝑎𝑟𝑡𝑜 (𝑑𝑒𝑣𝑖𝑎𝑛𝑧𝑎)𝑤𝑖𝑡ℎ𝑖𝑛/𝑔𝑑𝑙
𝑔𝑑𝑙
71
Non preoccuparti di capire subito questa formula: facciamo un esempio per capire meglio tutto
questo. Abbiamo un gruppo di 6 soggetti e vogliamo sperimentare se un farmaco aumenti il sonno
REM. Dividiamo il gruppo in due campioni, di 3 e 3 e su di uno sperimentale somministriamo il
farmaco, su di un altro diamo un farmaco placebo (acqua). Facciamo le nostre misurazioni ed
otteniamo che i punteggi di fasi REM sono riassunti in questa tabella
Gruppo di controllo
Gruppo sperimentale
2
4
3
5
4
6
Media: 3
Media: 5
Quale è Hzero? L’ipotesi nulla è che i soggetti vengono dalla stessa popolazione e quindi il farmaco
non produce nessun effetto ossia non da variazioni significative di fasi Rem
H1: i soggetti sono popolazioni differenti (resi differenti dall’esperiemento) e quindi il farmaco
produce differenze significative
Per proseguire il nostro lavoro di calcolo ci calcoleremo la media delle due medie, poi anche i quadrai
degli scarti? Cosa sono? Ti spiego subito. Tu hai calcolato la media dei punteggi sia del gruppo di
controllo che del gruppo sperimentale. Hai ottenuto quindi due valori e di essi hai fatto la media. La
µ1 era di 3, la µ2 era di 4, la media di µ1+µ2/2= (3+5)/2= 4 (per comodità questo valore lo chiamo
µ1𝑒2) .
Prendi quindi questa media delle due medie e la confronti con ogni singolo valore (punteggio) sia del
gruppo sperimentale che quello di controllo, dopo di che questo valore ottenuto da ogni sottrazione
lo elevi al quadrato. Riprendiamo la tabella e vediamo il tutto.
Gruppo di controllo
Gruppo
sperimentale
71
Scarti
gruppo
controllo
Scarti
gruppo
sperimentale
2
4
4- Quad= 4-4=0 0
2=2 4
3
5
4- 1
3=1
4-5=-1 1
4
6
4- 0
4=0
4-6= - 4
2
Media: 3 (𝑠𝑎𝑟𝑒𝑏𝑏𝑒 µ1)
Media: 5 (𝑜𝑠𝑠𝑖𝑎 µ2 ) tot
Media
della
due
medie:
4
µ𝑑𝑖 1 𝑒2
5
5
Somma dei quadrati
degli scarti= 5+5=10
Questa operazione ti serve per individuare
la variabilità all’interno di ogni
sottogruppo
La cosa che più ti deve importare per ora di questa tabella è che la somma dei quadrati è 10 che ti è
necessaria per calcolare la varianza totale di tutto il campione composto da
SPERIMENTALE+CONTROLLO, e questa varianza ti è data dalla somma dei due quadri diviso i
gdl che corrispondono ad N-1= 6-1= 5 gdl. Ricorda quanto ti veniva detto su ossia che la varianza
totale è data dalla varianza indipendente (quella tra i gruppi) e da quella indipendente ossia dentro
ogni gruppo. Questi due valori li devi trovare.
A.
Andiamo a caccia prima di tutto della variabilità tra i gruppi (between), quella detta
indipendente.
Tu hai calcolato la media sia del gruppo di controllo che del gruppo sperimentale, ed hai anche
calcolato la media delle due medie. Ora devi confrontare la media di ogni sottogruppo con la media
delle due medie, e questa operazione la fai per tante volte quanti sono i diversi soggetti di ogni singolo
sottogruppo. Perché devi fare questo? Perché devi individuare la variabilità che esiste tra i due
sottogruppi, per cui togli dalla variabilità totale la variabilità all’interno dei gruppi.
Media gruppo Media gruppo Scarti media
Sperimentale controllo
S
µ𝟏 -µ𝟏𝒆𝟐
5
3
5-4=1
5
3
5-4=1
5
3
5-4=1
Scarti media Quadrati di S
C µ𝟐 -µ𝟏𝒆𝟐
Quadrati di C
3-4=-1
3-4=-1
3-4=1
Somme
1
1
1
3
1
1
1
3
Con questi valori che ho trovato posso calcolare la deviazione standard tra i due gruppi avendo come
riferimento la somma dei quadrati di S e C e i gdl che sono dati dal numero dei campione totale (ossia
quanti gruppi ho nel mio campione in questo caso sono 2) meno 1. Quindi 6 la somma e n-1= 21=1gdl
72
72
B. Ti serve adesso definire la variabilità dentro ogni sotto gruppo (within), e come fai? Prendi
la media di ogni sottogruppo e la confronti con ogni singolo valore del sottogruppo a cui la
singola media si riferisce
Gruppo
Media µ𝟏 - Quadrato
sperimentale valore
4
5-4=1
1
5
5-5=0
0
6
5-6=-1
1
73
Somma 2
Mediaµ𝟏 - =5
Gruppo
controllo
Mediavalore
Quadrato
2
3-2=1
1
3
3-3=0
0
4
3-4=-1
1
Media µ𝟐 =
3
Somma 2
Lavoro con la prima tabella, quindi prendo la media del primo sotto gruppo, ossia il gruppo
sperimentale e la sottraggo da valore del singolo soggetto (sog-µ1 )
Gruppo
Scarto
sperimentale della media
S(=5)
4
4-5= -1
5
5-5= 0
6
6-5=1
Quadrato
Gruppo di Scarto
controllo
della media
C(=3)
2
2-3=-1
3
3-3= 0
4
4-3= 1
1
0
1
Somma 2
quadrati
1
0
1
Somma 2
Posso allora calcolare la devianza entro i gruppi che è data dalle somme dei quadrati ed i gradi di
libertà invece sono dati da (Ns-1)+(Nc-1) ossia 4 ed i gdl= (3-1)+(3-1)= 4
Quindi per riepilogare:
•
Varianza tra i gruppi= scarto tra i gruppi/gdl
73
•
Varianza entro i gruppi (dentro i gruppi)= scarto entro i gruppi/gdl
Ora puoi applicare quella formula dalla quale siamo partiti ossia F=
𝑠𝑐𝑎𝑟𝑡𝑜 (𝑑𝑒𝑣𝑖𝑎𝑛𝑧𝑎)𝑏𝑒𝑡𝑤𝑒𝑒𝑛
𝑔𝑑𝑙
𝑠𝑐𝑎𝑟𝑡𝑜 (𝑑𝑒𝑣𝑖𝑎𝑛𝑧𝑎)𝑤𝑖𝑡ℎ𝑖𝑛/𝑔𝑑𝑙
𝑔𝑑𝑙
6
E quindi F= 14 = 6/1= 6
74
4
Ora devo prendere la mia scala di Fisher, mi serve un alfa che mi pongo allo 0,05 e ben due riferimenti
di gdl che sono proprio 1 e 4, vado a pagina 356 per gdl 4 sulla colonna ed 1 sulla riga e con alfa 0,05
ho Fcritico pari a 7,71. Controllo i due F. il mio F è minore di Fcritico quindi accetto l’ipotesi nulla
ossia l’assunzione del farmaco non comporta nessun incremento di fasi REM del sonno.
74
Per proseguire il nostro meraviglioso discorso facciamo ora un esempio. Ossia che abbia tre gruppi
di 4 soggetti ciascuno
1. Gruppo di controllo
2. Gruppo sperimentale che assume un dosaggio del farmaco
3. Gruppo sperimentale che assume un dosaggio più alto di farmaco
Poniamo di aver avuto un F=46.74
confrontandolo con Fcritico che vado a cercare sulla
tavola fischer con un alfa di o,05 e 2 e 9 gdl avrei questo confronto ossia
F> 𝐹𝑐𝑟𝑖𝑡𝑖𝑐𝑜 il che significa che i gruppo sono appartenenti a popolazioni molto diverse tra di loro.
Sono tre i gruppi, quali tra di essi sono quelli maggiormente diversi tra di loro? L’1 ed il 2? Il 2 ed il
3? L’1 ed il 3? Il dubbio ci divora, la vita diventa difficile, tutto si ferma, dobbiamo rispondere quindi
per comprendere le differenze tra i gruppi si usa la tecnica della scomposizione degli effetti.
Questa tecnica si applica usando due tipi di test:
▪
▪
Test a posteriori (post hoc)
Test a priori (pianificati)
Test post hoc: le medie si confrontano a due a due (la dispensa non da esempio e non è facile capire
il procedimento di questo tipo di test)
Test a priori. Si chiama in questo modo perché vengono formulate delle ipotesi e dei confronti già
pianificati all’inizio della ricerca. i confronti che possono essere fatti sono di tue tipi
1. Prendo un campione e periodicamente a distanza di tempo sempre sugli stessi soggetti ripeto
una misurazione (per esempio in una ricerca longitudinale quando un valore su di un gruppo
viene misurato ogni tot di mesi o di anni)
2. Misura una variabile su blocchi di persone che sono legate tra di loro per esempio una certa
variabile misurata sui diversi membri di una stesso nucleo familiare.
Prendiamo l’esempio di una misurazione di variabile su di un gruppo di bambini che vengono
sottoposti a misurazione ogni anno a partire dal quarto anno di vita fino al settimo.
75
75
Scarica