caricato da Utente4204

STATISTICA 2

annuncio pubblicitario
STATISTICA PSICOMETRICA
COEFFICIENTE DI CORRELAZIONE
Correlazione di pearson e rho di sperman
Dai grafici noi abbiamo una visione semplificata, con un analisi statistica possiamo vedere
se c’è una relazione quella che noi vediamo nei grafici e se questa può essere dimostrata
dal punto di vista scientifico seguendo la logica falsificazionista.
Il coefficiente di correlazione esprime la relazione tra due variabili.
Il valore numerico del coefficiente di correlazione (0.50 0.42.) è un indice di quanto i punti
del grafico di dispersione sono vicini alla miglior retta.
Il test della regressione lineare determina chi è il fattore e chi è la variabile dipendente.
Ha un valore che è quantificato sulla base di una relazione specifica che ci indica quanto è
forte questa correlazione.
Cerchiamo di capire se questa correlazione è significativa o meno e siamo anche in grado
di dire che forza.
Coefficiente se è uguale a 0= nessuna relazione assenza di relazione : IPOTESI NULLA
Il coefficiente è positivo se c’è una pendenza positiva (diretta) mentre è negativo se la
retta ha pendenza negativa (inversa.)
VALORI DEL COEFFICNENTE DI CORRELAZIONE
Il coefficiente di correlazione può assumere qualunque valore compreso tra:
 -1 valori estremo che indica perfetta relazione fra le due variabili ma in opposizione
all aumentare dell una altra diminuisce
 0 che indica indipendenza fra le due variabili il valore dell una non influisce sulle
variazioni dell altra: assenza relazione.
 1 valore estremo che indica perfetta relazione diretta all aumentare dell una
aumenta anche l’altra.
COEFFICIENTE DI CORRELAZIONE DI PEARSON
Si calcola dividendo la covarianza per il massimo valore assoluto quindi :
 Il coefficiente di correlazione non può essere maggiore di 1 o di -1
 Il segno positivo o negativo del coefficiente di correlazione dipende dal segno della
covarianza.
La covarianza esprime quanto le due misure variano in modo concorde e si ottiene
sommando gli scarti di una misura dalla sua media moltiplicati per i corrispondenti scarti
dell altra misura dalla sua media:
La varianza può essere vista come covarianza di una variabile con se stessa:
1
STATISTICA PSICOMETRICA
COEFFICIENTE DI CORRELAZIONE
Sono analisi statistiche portate a termine per trovare una relazione tra due variabili.
Bisogna sapere a che scopo scelgo i test che sono tutti dimostrativi
Sono valori numerici.
Alla fine di questi test abbiamo un indice che ci dice di quanto è grande e di che entità è la
relazione
È un indice che ci dice quanto è forte questa relazione questo indice inoltre è associato al
falsificare l’ipotesi nulla.
Ci possono essere infiniti valori che questo coefficiente può assumere
Questi valori hanno un range che va da -1 a + 1 sono in grado di falsificare H0 quando
sono vicino al valore 0.
Posso cercare di stabilire se c’è una relazione tra le due variabili: se al variare di una
cambia anche l’altra o in maniera diretta o in maniera inversa.
Più ci allontaniamo dagli estremi più la relazione diventa debole
È creata un’ipotesi nulla che è applicata alla numerosità campionaria
Se ho una variabilità elevata il mio campione sarà più piccolo
stima la relazione tra due variabili.
Ci indica qual è la varianza comune tra le due variabili.
Gli scarti sono le differenze di ciascun punteggio dalla media.
La quantificazione della covarianza è data da
Se è vero che le due variabili variano insieme allora la varianza minima comune è più
grande alla casualità di ciascuna di essere questo mostra che le variabili hanno una
variabilità comune e un indice di varianza maggiore della variabilità casuale
COEFFICIENTE DI DETERMINAZIONE
È coefficiente di determinazione e rappresenta:
 La quota di varianza in comune fra due variabili

Si ottiene elevando al quadrato il coefficiente R

Ha valori compresi fra zero e uno
 S’indica con R2
Il suo valore possibile va da 0 a 1
Se è 1 c’è una perfetta corrispondenza tra il cambiamento di X e il cambiamento di Y
C’è n 100% di varianza in comune.
Se volessimo stabilire una relazione tra la sofferenza in entrata e di quella in uscita
potremmo usare un’analisi di correzione
Si usa un BPRS dove sono presenti i diversi sintomi che caratterizzano le diverse
patologie
Un punteggio alto in queste variabili m’indica un’elevata presenta di questa patologia
quindi maggior sofferenza
Correlazione bivariata si analizza come due variabili variano a due a due
2
STATISTICA PSICOMETRICA
Pearson è per le variabili che hanno distribuzione gaussiana sulle quali con sufficiente
precisione si trovano media e varianza
Con sperman per le variabili che non hanno una vera e propria distribuzione gaussiana.
RHO DI SPEARMAN
Il cui parametro è rho
Per ciascun punteggio è indicato il rango d’ordine ovvero la posizione del punteggio all
interno di tutto l’insieme dei punteggi
PER PASSARE DAL PUNTEGGIO AL RANGO NEI TEST NON PARAMETRICO
 Prima si prendono tutti i punteggi di x e y
 Si ordinano
 A ogni punteggio è assegnata la sua posizione: il suo numero d’ordine
Il rango non è altro che il numero che ci definisce come è posizione il punteggio rispetto ad
altri
Se ci sono punteggi uguali a ogni punteggi si assegna la media
I limiti di significatività sono trovati a seconda della numerosità del campione
Per ogni numerosità campionaria noi ci dobbiamo costruire la corrispettiva distribuzione
dell ipotesi nulla
PER H0 VERA LA POPOLAZIONE DOVREBBE AVERE R=0 MA NEL CAMPIONE
COSA SI OTTIENE?
Nel campione si ottiene sempre un valore diverso da 0 ma di quanto?
Occorre stimare se il valore di r ottenuto dal campione cade o no nella zona del 95%
attorno al valore vero dell ipotesi nulla, 0.
 Se il coefficiente cade dentro questa zona non si può escludere che essa sia vera
poiché potremmo aver trovato un valore diverso da 0 per caso (la zona di H0 vera
corrisponde alla valutazione dell’oscillazione casuale attorno al valore vero
dell’ipotesi nulla)
 Se il valore di r cade nelle code dove H0 è poco probabile allora si falsifica, in altre
parole si dimostra vera l’ipotesi sperimentale assumendo che l’errore di falsificare
un’ipotesi nulla vera è poco probabile
 Quindi l errore non è mai eliminato ma solo quantificato.
3
STATISTICA PSICOMETRICA
L’ERRORE STANDARD introdotto per calcolare la variabilità delle medie campionarie.
Quindi se la deviazione standard riguarda i punteggi, l’errore standard riguarda i
campioni.
Maggiore è la numerosità campionaria minore è la variabilità.
Questa viene usata tutte le volte in cui si confrontano gruppi e condizioni
Se vogliamo valutare un campione in due condizioni diverse ad esempio pre e post
trattamento e vogliamo valutare se ci sono condizioni significative.
I punteggi si assume che possano essere distribuiti gaussianamente (in cui media è valore
più probabile e varianza la sua oscillazione) in questa condizione si può usare un test
parametrico e valutare le differenze tra il prima e il dopo.
Se conoscessimo media e varianza teorica potremmo usare il test z
Se conoscessimo media teorica della popolazione, useremo deviazione standard. faremo
una trasformazione z e potremo calcolare la media delle differenze per vedere se è
significativamente diversa da 0.
Nel caso in cui si ha accesso a questo si può fare il confronto prima dopo dei soggetti
anche con il valore di z. avremo la valutazione di quanto la media delle differenze è più
grande rispetto a pop gen.
Per dire se maschi e femmine sono diversi in un compito cognitivo si prendono medie di
entrambi e calcola differenze, lo stesso con un paziente pre e post un trattamento.
In questo caso non si conosce la popolazione generale, come la maggior parte dei casi,
quindi non abbiamo ds teorica, quindi al posto di usare il test z in cui devo conoscere
media e varianza teorica uso il T-TEST.
In questo caso si usa la distribuzione t al posto della z e quindi useremo il test di
riferimento che è il t-test, questo perché si ha una stima di dev. Standard su popolazione
che non conosciamo, quindi tutto è riferito al campione.
Quindi al posto di usare dev. Standard uso l’errore standard.
I dati che vogliamo confrontare sono dati correlati/appaiati, in questi si vuole valutare
differenze tra campioni correlati o tra misure ripetute tra gli stessi soggetti.
Ovviamente le misure devono essere ripetute in condizioni diverse.
Nell’analisi della correlazione si cerca la correlazione tra i punteggi appaiati, nel caso del ttest per dati correlati si cercano le differenze tra le misure correlate su stessi soggetti.
Ad esempio si possono considerare come dati appaiati anche misure su soggetti diversi
come madri e figli, in questo caso si valuta o correlazione o differenze tra madri e figli.
L’ipotesi nulla del t-test è assenza di differenza (la correlazione già sisuppone, in questo
caso si cerca la differenza). La differenza è una differenza tra le medie.
Il t-test per dati appaiati confronta le differenze delle medie e le confronta con la stima
della deviazione standard sulle medie ovvero l’errore standard.
Un esempio di ciò è valutare l’efficacia di un trattamento, ad esempio la scala bprs viene
somministrata all’ingresso (pre-intervento farmacologico) e post, all’uscita. In questo caso
nella ricerca della prof si calcola le differenze soggetto per soggetto e poi le medie, queste
medie sono medie nelle quali si valutano le differenze dei singoli soggetti. Dati appaiati
devono essere comunque correlati, quindi la base e la correlazione per questo per
controllo viene data anche la valutazione della correlazione. Rispetto alle slide è sbagliato
lasciare il valore di sig. ma si mette p<0.01/0.05
4
STATISTICA PSICOMETRICA
IL T-TEST va a valutare un parametro t che assume che le differenze soggetto per
soggetto sono significativamente diverse da 0.
il T-test ci permette di vedere se cade o meno nella zona di significatività confrontandolo
con valore vero dell’ipotesi nulla.
Nel t-test per dati appaiati si vogliono confrontare due prove ripetute o due gruppi di
punteggi appaiati.
Prima di tutto si calcola la differenza dei punteggi di ogni coppia (pre-post ad esempio).
Una volta fatta la media di queste differenze si calcola l’errore standard sulla media delle
differenze dato da ds differenze/radice di numerosità campione.
Il parametro t è quindi dato dal rapporto tra la media delle differenze e l’errore standard
delle differenze.
Il confronto per la significatività viene fatto o con spss o con tabelle.
Ci si aspetta che valore di t sia più grande di quello di quello per H0.
Il valore di t è anche una stima della grandezza delle differenze, più è grande più c’è
differenza quindi più siamo lontani dallo 0.
T deve cadere nell’intervallo di significatività corrispondente ai gradi di libertà, questi per l
t-test a dati appaiato sono dati dal numero di coppie meno 1.
Un T test con dati appaiati viene utilizzato per confrontare le differenze tra due
condizioni sperimentali misurate su due soggetti.
T di student va ad analizzare ogni singola copia di condizioni che vengono considerate nel
nostro campione sperimentale
Il T test non ha questa condizione generale ma si vedono i piccoli singoli confronti
Il risultato di un t test viene indicato con i t minuscolo : t(23)
Vengono riportati i gradi di libertà e il numero delle coppie meno 1, la sua significatività
Non compare l’intervallo di confidenza che ci indica l’oscillazione casuale attorno al nostro
valore medio, viene direttamente riportato il valore della significatività.
Valore parametro, gradi di libertà(numero coppia meno 1), valore t test e significatività
Non ci basta sapere se il risultato è significativo ma anche in che senso è significativo per
questo motivo si devono riportare le medie delle condizioni.
Viene riportato con le medie l’errore standard perché queste medie derivano da un
campione casuale raccolto da una popolazione della quale non si conosce la deviazione
standard teorica perciò per stimarla si usa l’errore standard delle medie.
Stessa cosa vale per i dati non appaiati.
Il t test consente di fare solo due confronti a volte serve come semplice descrizione del
campione ma a volte anche per l’assenza di relazioni.
Il t test ci permette di confrontare solo due medie che provengono dalla stessa condizione
o da due gruppi diversi per questo motivo il principale utilizzo è per uso descrittivo
Ha anche un’accezione di tipo inferenziale perché fa riferimento alla significatività
Analisi della correlazione obiettivo cercare di valutare se c’è una correlazione tra due
condizioni
In questo caso la formulazione della correlazione ha o no un indirizzo del senso
Se vogliamo un’analisi parametrica servono il tipo di misure fatte e la numerosità del
campione
5
STATISTICA PSICOMETRICA
TEST DU CAUFANN
Viene riportato il QI struttura standardizzata dell intelligenze media viene standardizzata
sul valore di 100 e la deviazione standard è considerata sul 15
Utilizziamo un test di memoria basato sulla memoria a breve termine uno sullo spuneismo.
Oltre a questi sono stati somministrati dei test di lettura dei brani
Per tutti questi test ci sono standardizzazioni questo ci permette di utilizzare la variabile z.
Vicino agli indici di correlazione dove bisogna indicare il tipo di correlazione ( pearsonspearman).
MATRICI PROGRESSIVE DI RAVEN SPM CPM
Sono quelle che si usano per gli adulti per i bambini sono CPM
Si chiamano progressive perché aumenta progressivamente la difficoltà
S per gli adulti che significa standard C colorato
INTELLIGENZA capacità comprendere e risolvere situazioni problematiche attraverso il
riconoscimento e l’organizzazione di nessi tra oggetti e/o eventi dell esperienza.
Queste capacità possono essere migliorate con l’esperienza
Esistono diversi tipi di abilità intellettive specifiche come per esempio Carroll controllate da
abilità di livello più generale collegate e tra loro e assimilabili a un unico fattore generale o
fattore g.


Si parla di componente fluida o fattore G o super capacità o fattore globale che
permette di calcolare l’intelligenza attraverso le esplicazioni delle competenze del
soggetto utili per compiere, portare a termine il compito
Componente cristallizzata: manifestazioni legate ad apprendimenti culturali.
Implicato nelle operazioni del pensiero ad esempio il ragionamento e il problem solving ed
enfatizzato dalle unitarie dell intelligenza cerca di valutare il fattore g o componente fluida.
COMPETENZE DELL INTELLIGENZA
Memoria di lavoro: capacità di memorizzare più elementi nello stesso tempo operando su
di essi.
Inibizione di elementi disturbanti: il soggetto deve inibire componenti del test che creano
confusione, capacità di considerare solo le informazioni pertinenti
Alcuni test in misura maggiore di altri danno una stima di quanto una persona
possederebbe quest’ abilità g
Il test matrici di raven richiedendo principalmente la deduzione di relazioni tra elementi
astratti è considerato il più idoneo a misurare il fattore G (intelligenza fluida o analitica) è
applicabile a persone di ogni età indipendentemente dal livello di cultura, dalla nazionalità
e dalla condizione fisica (Cultural and language free)
LE MATRICI PROGRESSIVE nelle sue diverse forme (SPM,APM,CPM) sono uno degli
strumenti più utilizzati per la misurazione delle componenti generali dell intelligenza o
fattore G richiede principalmente la deduzione di relazione tra elementi astratti è
applicabile a persone di ogni età indipendentemente dal livello di cultura, dalla nazionalità
e dalla condizione fisica(cultural and Language free)
Abbiamo un risultato unico che ci dice se il risultato del test è significativo o meno
Quello degli adulti è composto da 60 stimoli
6
STATISTICA PSICOMETRICA
Gli stimoli vengono mostrati in maniera cartacea
Le singole componenti di un questionario vengono chiamati ITEM
Per gli adulti divisi in 5 matrici diversi ciascuna composta da 12 item per i bimbi 3 matrici
comporti da 12 item.
COMPITO individuare tra più alternate 6 8 a seconda della forma del test la parte che
completa la matrice visuo spaziale rappresentata nella parte superiore di ogni pagina
Con persone con ritardi mentali si usano le matrici colorate.
Competenze richieste progressivamente più complesse “ discriminazione percettiva,
analogie permutazione e alternanza dello schema e altre relazioni logiche”
Gli item più complessi richiedono di esaminare le serie simultaneamente in senso
orizzontale e verticale deducendo il principio che caratterizza la sequenza e quindi
combinando i due elementi
PRNCIPALI USI DEL TEST
Misurazione dell abilità cognitiva generale
Diagnosi id ritardo mentale sia in età evolutiva sia in età adulta
Questo test ce da un’idea di intelligenza ma insieme a questo vengono fatti altri test per le
altre componenti
Diagnosi di deterioramene mentale
Utilizzo a scopo di ricerca
USI PER LA DIAGNOSI COGNITIVA
Per fare una diagnosi del livello di sviluppo mentale i punteggi grezzi sono trasformati in
punti percentili (fasce di età) parametri di riferimento per la valutazione della normalità o
meno di una prestazione
FASCE PRESTAZIONALI
livello di intelligenza
25 75
Medio
<5
Gravemente carente
>95
Eccezionale
TRASFORMAAZIONE DEI PUNTEGGI IN PERCENTILI
QI E PUNTI Z
Apposite tabelle diverse per il tipo di somministrazione consentono la conversione dei
punteggi grezzi in ranghi percentili, punti z e QI equivalenti dal punteggio grezzo di
individuano il rango percentile corrispondente nella relativa fascia di età, successivamente
dal rango percentile si risale alla fascia di intelligenza.
Il raven cambia a seconda dell’età
CONFRONTARE DUE CAMPIONO DI PUNTEGGI NON CORRELATI/ INDIPENDENTI
Quando si vogliono confrontare due gruppi rispetto alle loro medie (variabile quantitativa a
punteggi che possiamo considerare gaussiana) possiamo usare un t test
Due gruppi, due medie che vengono confrontate tra loro calcolate sui gruppi che sono
indipendenti in questo caso si parla di t test per gruppi indipendenti
Confronto la media con la variabilità casuale e avrò una stima dell’oscillazione casuale
Si cerca di stimare al meglio l oscillazione casuale all interno dei miei gruppi e questa
oscillazione devierà dall oscillazione di un gruppo e dall’altro.
Nel t test con dati appaiati la stima era su un unico campione.
7
STATISTICA PSICOMETRICA
Bisogna capire con un controllo precauzionale se c’è differenza oppure no
È necessario accertarsi se questa variabilità casuale di ogni gruppo non sia
significativamente diversa perché sappiamo che la stima di ogni media se ogni gruppo
dipende dall’oscillazione casuale tanto più oscillazioni casuali ho attorno al valore medio
tanto più devo stare attento a stimare la media.
Prima del t test quando si vuole confrontare due gruppi indipendenti si fa il test di Levane
per verificare l’omogeneità tra le varianze.
Se c’è omogeneità si suppone che i due gruppi provengono dalla stessa popolazione
L’indice ci dice se i gruppi sono simili per varianza è utile perché ci consente di scegliere
quale formulazione del T test dobbiamo tenere per essere il più possibile simile
statisticamente.
Se le due varianze sono diverse bisogna fare una correzione della stima del t- test e
questa correzione ci consente di esser più sicuri della stima del parametro T nel caso in
cui le varianze siano disomogenee.
Si fa questo test: levene per stimare la varianza
Se si ottiene un test non significativo le varianze non sono diverse quindi sono considerate
omogenee.
Si applica quindi la formulazione del T test SEMPLICE.
Il test per punteggi non correlati su utilizza per confrontare le medie di due gruppi un cui
non p stata misurata una variabile quantitativa.
Le assunzioni di base richiedono che la variabilità sia a distribuzione normale ma una
moderata deviazione dalla curva a campana non pregiudica la validità due test
L’ipotesi da verificare è che le medie dei due gruppi siano diverse.
Ila corrispondente ipotesi nulla è che le due medie siano uguali.
Ipotesi nulla: assenza di differenze.
Se non posso rappresentare la distribuzione dei punteggi come una curva gaussiana non
posso usare il T test ma devo utilizzare un test non parametrico.
ERRORE STANDARD DELLE DIFFERENZE DELLE MEDIE
Il t test per punteggi non correlati richiedere il calcolo delle medie di gruppo e dell errore
standard della differenza delle medie
Poiché la numerosità dei due gruppi può essere diversa l’errore standard della differenza
delle medie deve essere calcolata bilanciando le due numerosità
Indicando con SSQ1 e SSQ2 la somma dei quadrati degli scarti del gruppo 1 e del gruppo
2 e con n1 e n2 le rispettive numerosità, la formula da utilizzare è:
8
STATISTICA PSICOMETRICA
T TEST PER PUNTEGGI NON CORRELATI
Il valore del parametro t si ottiene dividendo la differenza delle medie per il corrispondente
errore standard
In formula;:
I gradi di libertà sono dati da n-2
Se il valore ottenuto supera il limite indicato nella tabella di significatività in corrispondenza
dei gradi di libertà n-2 è possibile falsificare l’ipotesi nulla e quindi ritenere dimostrata l’idea
sperimentale.
PARAMETRI PER LA MISURA DELLA MDIMENSOIONE DELL EFFETTO
Coefficiente di correlazione è possibile trasformare molti dei parametri calcolati per i test
statistici in coefficiente di correlazione
D di Cohen dato da:
D: medie del gruppo a- media del gruppo B/ deviazione standard di entrambi i gruppi
accorpati
D DI COHEN è meno generalizzabile rispetto al coefficiente di correlazione e può
comunque essere trasformato in quest ultimo
D sta per differenza
Infatti voglio calcolare la grandezza delle differenze valuta quanto questa grandezza è
maggiore della variabilità totale nel nostro esperimento
9
STATISTICA PSICOMETRICA
TEST DEL CHI QUADRO: differenze tra campioni di dati di frequenza ( capitolo 14)
Relazione tra variabili qualitative.
Si possono calcolare le frequenze o le frequenze in percentuale
Questa è l’unica statistica descrittiva che si può utilizzare quando ci sono variabili
qualitative.
Ci si riferisce ad esso quanto i dati sono rappresentati in frequenze
Il test del chi quadro indicato anche come test Χ2 si utiliza per misurare l’associazione fra
variaibli nominali categorie di cui sono calcolate le frequenze.
Le frequenze vengono presentate in tabelle dette tavole di contingenza in cui si hanno
tante riche quante sono le categorie di una variabile e tante colonne quante sono le
categorie dell altra variabile.
TABELLE DI CONTINGENZA si incrociano le frequenze di ciascuna delle categorie delle
tabelle delle due variabili.
Il difetto è che è poco generalizzabile come l’analisi della correlazione o il t test.
Un esempio
Volendo rappresentare il risultato ottenuto somministrando due diverse terapie
Possiamo costruire una tabella di contingenza in cui rappresentiamo le frequenze di
risultati positivi e negativi ottenuti con la terapia a e con la terapia b
RISULTATO NEGATIVO
A
41
B
64
Totale
105
RISULTATO POSITIVO
216
180
396
TOTALE
257
244
501
Con le tabelle di contingenza si analizzano coppie di variabili nominali se avessi 3 variabili
non posso usare questo test.
Le celle delle tav di cont sono l’incrocio delle frequenze delle due variabili: 41 ci dice
quanti soggetti nella terapia A hanno avuto un esito negativo per esempio.
Con i totali si possono trovare le frequenze percenutali
IPOTESI SPERIMENTALE E IPOTESI NULLA
L’ipotesi sperimentale è che le due variabili siano legate tra loro ovvero che le frequenze
siano distribuite in modo non proporzionale tra le righe e le colonne
Nell’esempio l’ipotesi è che le percentuali di risultati positivi e negativi sia diverso per le
due terapie
L’ipotesi nulla è che la distribuzione di frequenza di una variabile sia la stessa qualunque
sia il valore, la ategoie dell altra ) ovvero che ci sia proporzionalità)
Nell esempio l’ipotesi nulla è che la percentuale di risultati positivi e negativi sia la stessa
per la terapia A e per la terapia B.
Ipotesi nulla: significa che non c’è relazione tra le due variabili, al modificare una terapia
non c’è nessuna modificazione nell’esito quindi le percentuali dovrebbero essere
proporzionali.
10
STATISTICA PSICOMETRICA
FREQUENZA RELATIVE ALL IPOTESI NULLA TEORICHE
Si possono calcolare le frequenze attese che ci aspettiamo se l’ipotesi nulla sia vera.
Per ottenere la stessa percentuale di frequenze per le due terapie che indicherebbero vera
l’ipotesi nulla si lasciano inalterati i totali di riga e di colonna e si calcolano le frequenze
teoriche attraverso la formula:
FR. TEORICA:
totale riga x tot colonna / totale generale
La frequenza attesa mi indica proporzionalita tra le righe e le colonne
Invece noi ci aspettiamo che se vera la nostra ipotesi sperimentale la tabella che
costruiamo si discosta significativamente da quella dell ipotesi nulla quindi valutiamo se il
valore che otteniamo è diverso dal valore teorico dell ipotesi nulla, calcoliamo di quanto la
nostra tabella si discosta da quella dell ipotesi nulla.
Il valore del chi quadro: X2:
 ( fre.assoluta  fre.teoriche)^2 / fre.teoriche
Si usa questa formula per valutare la significatività è la sommatoria delle differenze tra i
valori osservati e le frequenze teoriche elevate al quadrato divise per le frequenze
teoriche.
DISTRIBUZIONE CHI QUADRO
Essendo la distribuzione di una variabile continua il suo valore per un dato x corrisponde
alla densità di probabilità per quel valore.
Il chi quadro viene anche chiamato test approssimato perché non è proprio perfettamente
aderente alla distribuzione con la quale vorrebbe controllare il valore dell ipotesi nulla.
Non è un valore teoriche perche il valore teorico lo calcoliamo sul campione ma non
abbiamo un campione numeroso la stima che facciamo non è perfettamente esatta.
SIGNIFICATIVITA’
I gradi di liberta sono dati dal numero di righe meno uno moltiplicato per il numero delle
colonne meno uno
Nel nostro caso abbiamo
Gradi di libertà= (2-1)x(2-1)= 1
Il valore del chi quadro ottenuto è 7.978 che supera il limite di falsficiazione al 5% per il 1
grado di liberta pari a 3.8
Possiamo quindi concludere che i rusltati dell esperimento falsficiano l’ipotesi nulla.
11
STATISTICA PSICOMETRICA
TEST ESATTO DI FISHER
Il test chi quadro è un test approssimato i cui risultati sono attendibili solo se la numerosità
delle singole celle non sono troppo ridotte
Nel caso di numerosità ridotta si può correggere il chi quadro con il metodo di Vates
Un metodo ancora piu attendibile è quello che va sotto il nome di test esatto di Fisher in
cui viene calcolata la probabilità nel caso sia vera l’ipotesi nulla della tabella di frequenza
ottneuto e di tutte le altre possibile tabelle ancora piu lontane dall ipotesi nulla
La somma di queste probabilità fornisce direttamente il valore della significatività.
Il test esatto di Fisher è esatto perché calcola in modo esatto la significatività
Calcola in modo esatto al distribuzione dei nostri dati e può essere utilizzato quando
abbiamo numerosità piccole nelle celle circa attorno ai 10 casi, frequenze molto piccole
inferiori ai 10 casi per cella al posto del chi quadro si può usare il test esatto di Fisher.
Calcola non solo il valore relativo a quella tabella ma anche quello relativo a tabelle che si
discostano dal caso presentato dal nostro esperimento
La stima del valore bero della popolazione si può dedurre perche si calcolano in teoria
tutte le tabelle possibili della nostra popolazione.
12
STATISTICA PSICOMETRICA
Per analizzare l’associazione TRA VARIABILI NOMINALI NON PARAMETRICI si usano
test non parametrici come chi quadro e fisher.
Ci fanno vedere come frequenze sono distribuite per dimostrare associazione tra variabili.
Usano frequenze per misurare associazione costruendo una tabella di contingenza, dove
si inseriscono nelle celle le frequenze, ciascuna cella è l’incrocio tra le categorie di una
variabile con l’altra. Le frequenze nelle celle sono proporzionali.
La tabella delle frequenze attese riguarda le frequenze dell’ipotesi nulla vera.
Con chi quadro si vede se tabella sperimentale è significativamente diversa da quella di
h0. Il parametro chi quadro indica la diversità tra la tabella sperimentale e quella di h0. La
stima del chi quadro è approssimata per questo si usa il TEST ESATTO DI FISHER Ci
sono comunque altri metodi di correzione come quello di Yates, ma il più utilizzato è
comunque il test esatto di fischer, perché valuta si la prob della nostra tabella che di quelle
più sbilanciate della nostra. Il principio del test è che una volta calcolata la prob della
tavola di partenza si vanno a calcolare le tabelle più sbilanciate. Calcoliamo quindi anche
le probabilità di tutti i casi più sbilanciati. Le prob si sommano tra loro e si valuta la prob
complessiva del nostro risultato. Questi sono i due test più usati per variabili nominali, se
si vogliono confrontare due punteggi, valutati due volte sugli stessi soggetti si può usare il
t-test appaiato solo se i punteggi hanno distribuzione gaussiana, se invece la distribuzione
non è gaussiana non si può più usare il t-test. in questi casi si usano metodi non
parametrici per misure ripetute (quando sono due) su var. non gaussiane, il test più
semplice è il test del segno. Questo mostra subito la differenza delle misure ripetute sugli
stessi soggetti. Vedi slide per esempio sul test del segno. Mostra se il numero dei
miglioramenti è più grande dei peggioramenti, le persone con esito uguale vengono
escluse dall’analisi. L’h0è che numero dei miglioramenti è uguale ai peggioramenti, in
questo caso usiamo inoltre la distribuzione binomiale, riguardante variabili dicotomiche e
vediamo le probabilità per determinare la significatività. Da questo confronto, se avessimo
usato il t-test nell’esempio delle slide il nostro risultato sarebbe stato significativo perché I
TEST PARAMETRICI SONO PIU’ POTENTI DEI NON PARAMETRICI.
Il test del segno oltre ad essere poco potente non ci consente di valutare i casi uguali, non
indica l’entità della differenza. Un’alternativa più potente è IL TEST DEI RANGHI DI
WILCOXON, questo consente di valutare le differenze tra due prove o condizioni e stimare
l’entità della differenza, si mettono i punteggi come per segno e si mette anche il numero
dell’entità del miglioramento oltre al segno. Stabilita l’entità della differenza si ignora il
segno, si ordinano per ranghi le differenze (ordinate da più piccola a più grande), e sulla
base di questa nuova variabile, creata sull’ordine delle differenze tra le due prove, si
sottopone a verifica il test statistico.
Nel test le differenze uguali a zero vengono conteggiate, il rango medio viene calcolato per
punteggi che hanno stessa entità differenze, inoltre si fa la media dell’ordine diviso numero
ordini (vedi su slide esempio). Le formule del test sono su slide. Tramite il totale dei ranghi
che è fisso si può inoltre calcolare media e varianza, e quindi già per dodici casi siamo in
grado di stabilire media e varianza teorica di h0, e far riferimento ad una distribuzione z in
cui è nota media e varianza teorica. Questo perché il numero di confronti possibili è fisso.
Per il tes dei ranghi di w. Si utilizza la distribuzione z perché sulla base del numero dei
casi si possono stabilire media e varianza di riferimento. Calcolando l’entità della
differenza tra medie ranghi positivi e negativi si calcola la significatività utilizzando la
distribuzione normale. L’aspetto più importante di questo test è la trasformazione della
variabile, questa trasformazione avviene per tutti i test dei ranghi. Se si volesse valutare la
differenza tra due gruppi, come maschi e femmine si usano altri test dei ranghi, ma il
principio che utilizzano i ranghi è sempre la trasformazione del punteggio nel rango
d’ordine, dal più piccolo al più grande.
13
STATISTICA PSICOMETRICA
IL TEST DEI RANGHI DI MANN-WHITNEY si va a vedere le differenze tra due gruppi.
Segue lo stesso metodo nella costruzione della tabella. Una volta assegnati i ranghi si
vede se ci sono differenze tra i ranghi dei due gruppi. Anche pe questo test si usa l
parametro z oppure si può usare la u di Mann-Whitney che è un parametro specifico per
questo test. come per wilcoxon si può confrontare differenze con variabilità complessiva.
TEST DI MCNEMAR
Misura la concordanza/Discordanza fra due variabili qualitative
Io so che c’è una correlazione devo stabilire se c’e o meno concordanza o discordanza
cerco di falsificare l’ipotesi nulla.
Andiamo ad analizzare le celle che misurano la discordanza. Non analizzando quelle che
mi indicano concordanza.
Questo test considera solo le risposte discordanti dei due metodi e formula l’ipotesi nulla
che non vi sia differenza fra i due metodi nel senso che si possono avere
indifferentemente soggetti classificati ottimisti dal primo metodo ma non dal secondo o
l’opposto di questo
Il test non considera cioè quanto i due metodo sono concordi
Avendo 10 soggetti con risposta discorde. L’Ipotesi nulla è che di questi 5 siano ottimisti
col primo metodo ma non con il secondo e che 5 siano nella situazione opposta.
In realtà per questi due gruppi abbiamo ottenuto 8 e 2
METODO 1
OTTIMISTI
PESSIMISTI
METODO 2
OTTIMISTI PESSIMISTI
14
8
2
6
Utilizzando la distribuzione binomiale valutiamo se i valori ottenuti sono significativamente
diversi dai valori attesi.
La distribuzione binomiale ci permette di ottenere un test esatto e data la bassa
numerosità del campione rappresenta il metodo idoneo.
Per numerosità maggiori viene spesso utilizzata la distribuzione chi quadro che pur
essendo un test approssimato necessita di calcoli piu semplici.
La significatività che si ottiene da questi dati è di 0.109 che non ci permette di falsificare
l’ipotesi nulla e di sostenere una reale differenza fra i due metodi
Se la numerosità è piccola meglio test binomiale se numerosità elevata meglio test chi
quadro.
Ci sono anche test che al posto che valutare la discordanza valutano la concordanza, la
correlazione
TEST DI K DI COHEN analizza le celle concordi si concentra sulle celle che indicano
concordanza
Ci da una misura della correlazione tra due variabili
È il complementare circa del mcnemar
Questi test sono piu precidi del test chi quadro, utilizzano le frequenze
permettono di valutare i casi in cui la variabile non è gaussiana e quindi anche le misura
non quantitative che non hanno una perfetta distribuzione a campana per trovare media e
varianza: test non parametrici
14
STATISTICA PSICOMETRICA
Analizzano situazioni molto semplici e sono meno potenti rispetto a quelli parametrici
Sono molto generali
LE REGRESSIONE LINEARE: prevedere con precisione attraverso un modello,
prevedere funzionamento variabili attraverso un modello che può essere lineare o non
lineare
Con la regressione vogliamo prevedere il funzionamento del fenomeno.
Funzionalità molto piu elevata rispetto al chi quadro.
Vogliamo capire cosa potrebbe succedere in un altro fenomeno in un'altra variabile
complessa
SCOPO
La regressione come il coefficiente di correlazione riguarda la relazione fra due o piu
varaibili
Ma a differenza del coef di corr permette di quantificare quanto la variabile dipende
cambia ala variare del fattore o dei fattori:
permette quindi la previsione del valore di una variabile dipendenze y in unzione del
valore del predittore x
Ce lo fa capire con precisione
Permette di valutare l’efficienza del modello utilizzato per la previsione e stabilire se uno o
piu predittori influenzano significativamente la variabile dipendente.
ANALISI DELLA REGRESSIONE LINEARE
Nell analisi della regressione lineare si assume che le variabili abbiano una distribuzione
gaussiana
Nel caso in cui la variabile indipendente sia una sola il modello utilizzato è di tipo lineare
semplice e l’equazione che lo determina e l’equazione della retta:
Y: a+ bx
 Y è la stima della variabile dipendente
X la variabile indipendente o fattore
A è il valore che assume y quando x è uguale a quello 0
 B è il coefficiente ce determina la pendenza della retta e viene moltiplicato per x, ci
indivia il tipo di relazione tra due variabili
La determinazione dei parametri a e b è fatta con il metodo dei minimi quadrati
Si cerca un metodo per minimizzare le differenze tra la retta, modello e quello delle nostre
varaibili: metodo dei minimi quadrati.



Verticali minimizzano la distanza rispetto alla y
Orizzontali minimizzano la distanza rispetto alla x
Obliquidei: scarti calcolati sulla base del valore che ha la retta attraverso la retta
che è perpendicolare.
Si prendono gli scarti verticali che minimizzano la diff tra il valore sperimentale e il valore
corrispondente sulla retta prevedendo il comportamento della Y.
Sono indicate anche le oscillazioni casuali.
Con la retta è individuato anche l’intervallo di confidenza, l’errore standard calcolato grazie
a B.
15
STATISTICA PSICOMETRICA
EQUAZIONE DELLA REGRESSIONE LINEARE
Il principio in base al quale vengono determinati i parametri della regressione è il metodo
dei minimi quadrati
Questo metodo permette di trovare i parametri che minimizzano la somma dei quadrati
degli scarti fra retta e punti sperimentali
Vi sono tre tipo di scarti orizzontali verticali e obliqui
Nella retta di regressione lineare sono considerati gli scarti verticali perche ottimizzano la
stima di y.
Bisogna accertarsi che il modello sia adeguato per rappresentare i fenomeni.
Sono modelli in cui si possono avere piu fattori o piu variabili indipendenti.
Il modello di riferimento nel caso della regressione è la retta.
Il test lineare è quello più semplice.
I valori di B possono essere infiniti compreso lo 0
Se B è uguale a zero significa che la variabile x non determina nessun cambiamento sulla
variabile Y: condizione dell ipotesi nulla: nonostante X cambi Y rimane sempre uguale.
Si fa il test di significatività sia per B che per A e questo cerca di individuare che questi
valori siano significativamente diversi da 0.
Anche se nel caso di B questo indica la vera e propria ipotesi nulla
Se A è uguale a zero la retta passa per l’origine e questo significa che le due variabili
condividono la stessa unita di misura.
COEFFICIENTE DI CORRELAZIONE E DETERMINAZIONE
vengono utilizzati per calcolare la bontà del modello ( adeguatezza del modello nel
rappresentare i dati sperimentali)
Nel coefficiente di correlazione sopra abbiamo una variabilità specifica( del modello) e una
generale che è quella totale, complessiva
I valori che può assumere vanno da 0 a 1.
Il coefficiente r quadro che indica la bonta mostra come la somma dei quadrati degli scarti
ovvero la variabilità dei dati del modello spiega rispetto alla variabilità complessiva
L’interpretazione viene spesso data in percentuale.
Il coefficiente di correlazione è la radice di R2 ci da oltre alla bontà del modello anche il
senso della relazione tra le due variabili
Può avere infiniti valori compresi tra 1 e -1
R è una misura standardizzata.
I due coefficiente descrivono in termini descrittivi quanto il nostro modello è utile per
rappresentare i dati.
Questi indici non sono associati alla significatività.
Per valutare la significatività e la complessità del modello utilizzato dobbiamo utilizzare un
nuovo parametro.
Se abbiamo un modello in cui vogliamo testare tanti fattori allora abbiamo bisogno della
significatività del modello complessivo di tutte le variabili insieme e questo parametro è l’ F
Quindi utilizziamo la distribuzione F : confrontiamo il rapporto della formula di F con l’
ipotesi nulla.
Valuta la variabilità del modello con quella complessiva dell errore casuale
Questo parametro ci dice se il modello complessivo scelto è idoneo.
16
STATISTICA PSICOMETRICA
CAPITOLO 19 TEST PER LA VALUTAZIONE DEL RAPPORTO FRA VARIANZE: IL
PARAMETRO F PER IL CONFRONTO TRA DUE VARIANZE.
Utilizzata pper generalizzare le procedure tipiche dei t test .
L’analisi della varianza ci consente di valutare dei fattori qualitativi ci consente di calcolare
l’effetto di valori qualitativi su variabili dipendenti quantitative.
L’analisi della varianza ci permette di analizzare piu gruppo piu fattori ma anche situazioni
dove c’è la compresenza di gruppi e di variabili quantitative.
Ci consente di studiare non solo le singole relazioni ma anche la loro influenza reciproca.
Il parametro utilizzato per fare confronti tra varianze si usa il parametro F in quanto è un
rapporto tra varianze ci indica il confronto tra varianze e questo valore che troviamo lo
dobbiamo confrontare con il valore dell ipotesi nulla.
La distribuzione F è simile alla chi quadro e la distribuzione F è un rapporto tra due
variabili chi quadro divise per i rispettivi gradi di libertà.
L’analisi della varianza ci consente di valutare delle differenze tra gruppi dei quali
mettiamo a confronto la variabilità complessiva dovuta ai nostri gruppi o condizioni
sperimentali.
Numeratore varianza maggiore e denominatore varianza minore.
Valori pero simili tra le due varianze
Tanto piu questo valore si discosta da 1 tanto piu semplice sara falsificare l’ipotesi nulla
I gradi di liberta nel caso della varianza sono dati da N-1
ANOVA: CAPITOLO 20 ANALISI DELLA VARIANZA
Quando si confrontano due o piu gruppi si parla di anova a una via per campioni
indipendenti.
Se abbiamo un solo fattore qualitativo che ci divide due gruppi
Se abbiamo piu fattori, quindi piu criteri di differenziazione, si parla di anova a due vie.
L’analisi della varianza in un test parametrico viene stimata a attraverso i parametri di
media e varianza.
Se non ha distribuzione gaussiana non va bene utilizzare l’analisi della varianza
SERVE CHE ABBIA DISTRIBUZIONE NORMALE.
Se c’è una misura ripetuta si parla di dipendente?
Se c’è un solo fattore: anova a una via per campioni indipendenti.
Si stima attraverso il parametro F e si rapporta la stima della varianza ( valori veri) su
stima della varianza ( componente errore)
La varianza dei valori veri è la varianza che noi andiamo a calcolare tra i gruppi e nel caso
della varianza ( a numeratore la variabilità fra i gruppi rispetto alla variabilità all interno dei
gruppi ( quanto ogni soggetto differisce dalla media del proprio gruppo )
somma dei quadrati degli scarti fra i gruppi divisi i propri gradi di libertà ci dice quanta
variabilità c’è tra i gruppi.
Tutte queste differenze sono elevate a quadrato.
Se i gruppi sono due avremo solo due valori se invece abbiamo molti gruppi avremo tanti
valori a denominatore e questo crea una disparità tra le misure
Si utilizza uno stratagemma: non si fa la semplice differenza . si assume che ogni soggetto
abbia la media del proprio gruppo cosi da avere la stessa numerosità a denominatore e a
numeratore.
17
STATISTICA PSICOMETRICA
L’ANALISI DELLA VARIANZA serve per confrontare più condizioni più complesse
rispetto al t test in cui si confrontano due o più gruppi e anche piu condizioni, criteri di
classificazione(suddivisioni in gruppi), questo gruppi si vogliono confrontare con l’effetto di
una covarianza, una variabile quantitativa in piu.
Si confronta una variabile o piu dipendenti con fattori o quantitativi o qualitativi: analisi
della varianza, test parametrico piu generale di tutti.
Ha distribuzione chi quadro il test della varianza.
Il parametro F si usa anche con la regressione.
Si parla di varianza stimata, si fa riferimento al campione dal momento che non si conosce
varianza teorica quindi quella della popolazione.
I gradi di libertà sono dati da il numero di casi -1 ( N-1), nel caso più generico.
Se si vogliono confrontare due varianze per confrontare le differenze tra due o piu gruppi
si parla di analisi della varianza a una via per campioni indipendenti.
C’è un solo criterio di classificazione ad esempio classificazione maschi e femmine, o solo
scolarità.
Se ci sono più criteri di classificazione, l’analisi della varianza permette di analizzare
anche tutte le interazioni possibili.
L’ANALISI DELLA VARIANZA SI PUÒ APPLICARE QUANDO LA VARIABILE
DIPENDENTE HA DISTRIBUZIONE GAUSSIANA.
I valori veri sono i valori teorici che dovrebbero avere tutti i soggetti perché appartenenti al
proprio gruppo.
I valori veri coincidono con la media del gruppo.
Si possono calcolare i valori veri per ciascun gruppo.
Differenza tra soggetto e media del gruppo.
Il punteggio è scomponibile in due parti
Media del gruppo : appartenente a quel gruppo e avente la stesse caratteristiche.
La stima della varianza a numeratore serve per valutare quanto le medie di ogni gruppo
differiscono dalla media generale e questa differenza è elevata al quadrato.
A numeratore stima delle differenze.
A denominare stima delle differenze all’interno dei gruppi.
Si valuta la somma dei quadrati degli scarti all’interno dei gruppi come differenze elevate
al quadrato per ciascun soggetto e la media del proprio gruppo.


Tra gruppi GDL numero gruppo meno 1
All’interno GDL numero soggetti meno numero dei gruppi.
La somma dei quadrati degli scarti (ciascun gruppo e la media generale) deve essere più
grande della differenza tra ogni soggetto e la media del proprio gruppo.
Se ciò è vero, significa che i gruppi sono diversi: c’è una relazione di differenza
Il numeratore deve essere maggiore del denominatore.
Con analisi della varianza si cerca di dimostrare la differenza tra gruppi che determina una
maggior variabilità tra gruppi rispetto alla varianza all’interno dei gruppi, all’errore.
T test difetto: differenze tra due gruppi o condizioni.
Con analisi della varianza possiamo confrontare differenze tra più gruppi perché valutiamo
degli indici di variabilità, non semplicemente differenze.
Valutiamo il rapporto tra varianza tra gruppi rispetto a varianza all’interno.
18
STATISTICA PSICOMETRICA
Ipotesi sperimentale confronto tra diverse DIAGNOSI PSICHIATRICHE che giungono in
SPDC rispetto alla capacitò di giudizio verbale al test GCA e sofferenze psicologica misura
con BPRS.
Variabile dipendente a punteggio con distribuzione gaussiana
Variabile indipendente la suddivisione in gruppi.
Quando utilizziamo l’analisi della varianza multivaraita si possono valutare più variabili
indipendenti insieme..
GPOWER
una volta scelta la famiglia di test si può scegliere il test specifico.
sotto il t test c’è l’analisi della correlazione assimilata alla famiglia del t test,la regressione
della variabile lineare per un gruppo fa sempre parte di questa famiglia,un t test per dati
appaiati/accoppiati o differenza tra due medie dipendenti o indipendenti.
two dependent means test=per dati appaiati
two independent means test=dati per test indipendenti
correlation point b serial model=varianza
o calcolo la numerosità minima sufficiente per falsificare H0 o calcolo la potenza,quando
uno pianifica l’esperimento è corretto pianificare a priori qual’è la massima potenza che si
vuole stimare per la differenza minima apprezzabile,così chiediamo al programma di
calcolare la numerosità minima per trovare quella potenza per quell’indice di correlazione
Successivamente dobbiamo calcolare la forza dell’effetto che ci aspettiamo,più grandi
sono i valori maggior forza dell’effetto,più piccoli minor effect size.
premendo calculate automaticamente nei riquadri sulla destra compare qual’è il valore t e
la totalità/numerosità del nostro campione.
ci dice anche qual’è il limite critico di t
19
STATISTICA PSICOMETRICA
CAPITOLO 21
ANALISI DELLA VARIANZA PER DATI CORRELATI O MISURE RIPETUTE
L analisi della varianza è il metodo piu generale per valutare le misure quantitative.
Due gruppi ( pazienti e controllo) avevano effettuato piu misurazioni, erano stati valutati in
una condizione di assenza di trauma e successivamente dopo il trauma.
C’è un fattore di ripetizione e di gruppo.
Come per il t test per dati appaiati anche per l’analisi della varianza è possibile fare
misurazioni ripetute.
Lo scopo è quello di valutare se ci sono condizioni differenti significativi tra piu di due
condizioni.
Si basa sulla varianza.
Ogni soggetto funge da controllo di se stesso.
Si vogliono dimostrare condizioni diverse misurate sugli stessi soggetti, c’è un unico
campione.
Spesso in psicologia si vogliono dimostrare differenze tra pre e post trattamento.
I livelli della varaibile dipendente possono essere due o piu senza nessun limite
Il numero di punteggi deve essere lo stesso in tutte le divese condizioni sperimentali (
soggetti stesso numero di prove)
La varabile dipendente ha distribuzione gaussiana, dobbiamo essere in grado di calcolare
media e varianza.
Il fattore è un fattore qualitativo.
Il calcolo per l analisi della varianza usa il parametro F che ha distribuzione F.
TEORIA E CALCOLO
Il punteggio errore viene ridotto dato che viene eliminata la varaibilità interindividuale dei
valori basali.
Si assegni ad ogni soggetto la media della condizione e si calcola la varainza dei valori
assegnati ( varianza tra condizioni SSQ within subject o entro i soggetti)
Si calcolano gli scarti tra i punteggi misurati nelle diverse condizioni e il valore di ogni
condizione per ogni soggetto
Er ciascun soggetto si otglie dallo scarto la media della condizioni ottenute in quel
soggetto
La somma dei quadrati cosi ottenuti costituisce la varaizna errore residui.
Si cerca di calcolare la variabilità di ciascuna condizione. Si calcola la media di ciascuna
condizione sperimentale e faro la media tra questo valore ( condizione ) e la media
generale elevo al quadrato queste differenze le sommo tra loro e li divido per i gradi di
libertà.
Media di riga: media tra gruppi
Media di colonna=media errore all’ interno dei gruppi, media condizione
 SSQ condizioni
Scarti: media condizione – media generale
 SSQ fra soggetti (errore)
Scarti= punteggio soggetto – media condizione
 SSQ residui
Scarti: scarto individuale (SSQ fra soggetti) – media individuale.
I residui sono quelli individuati come variabilità casuale
A numeratore mettiamo la SSQ delle condizioni, a denominatore SSQ tra soggetti.
20
STATISTICA PSICOMETRICA
GRADI DI LIBERTA’ E PARAMETRO F
Il parametro F è dato dal rapporto tra due varianze: a numeratore stima varaizne tra
condizioni e a denominatore abbiamo la stima della varianza errore residui.
I gradi di libertà degli errori residui sono dati da:
( numero della condizioni -1)x(numero dei soggetti -1)
Detto in altri termini ( n° colonne -1 )x ( n°righe -1)
Prima si calcolano le differenze tra ciascun soggetto rispetto alla media delle condizioni e
poi lo togliamo dalla variabilità casuale perché supponiamo che un soggetto sia controllore
di se stesso quindi non c’è bisogno di misurare la varianza dei soggetti ma solamente
QUANTO LA VARIANZA COMPLESSIVA TOLTA LA VARAIBILITA’ DELLE CONDIZIONI
CI DICE RISPETTO ALLA VARAIBILITA’ CASUALE.
Il numeratore deve essere maggiore del denominatore.
21
STATISTICA PSICOMETRICA
CAPITOLO 22
ANALISI DELLA VARAIZNA A DUE VIE PER DATI INDIPENDENTI/ NON CORRELATI
È possibile inserire diversi fattori nell analisi della varianza
Differenza maschi e femmine e differenza dovuta al trattamento.
Procedura che permette di valutare le due posizioni separatamente.
Vi è la possibilità di separare la varianza delle singole condizioni e la loro interazione
Quando ci sono piu criteri di classificazione parliamo di analisi della varianza a piu vie o
multifattoriale
Permette di studiare l’effetto di un fattore qualitativo a piu livelli su una variabile
dipendente.
Si calcola un parametro F per ogni fattore considerato.
Nel caso si abbiano due fattori si dovra calcolare l’effetto del primo e l’effetto del secondo
fattore e poi l’effetto interazione.
L’interazione è l’effetto dovuto al fatto che il livello di un fattore influisce sull effetto dell
altro fattore
Se c’è un effetto interazione il primo fattore non ha sulla variabile dipendente lo stesso
effetto quando il secondo fattore ha diverso valore.
L’effetto interazione è la combinazione degli altri fattori
L’effetto interazione viene anche chiamato effetto di non additività o di non
parallelismo.
22
STATISTICA PSICOMETRICA
ANALISI DELLA VARIANZA:
t test e analisi della correlazione analizzano le differenze tra due variabili, è una
condizione particolare
nell’anova noi possiamo analizzare le differenze tra due o piu gruppi ma anche tra due o
piu condizioni sperimentali, è un test piu generale.
Quando l ‘analisi della varianza analizza piu condizioni si parla si analisi multifattoriale.
La somma dei quadrati degli scarti può essere relativa ai gruppi, relativa alle condizioni e
relativo alla variabilità casuale.
Quando la andiamo ad analizzare la scomponiamo
Se abbiamo differenze tra gruppi sarà data dalla varianza tra gruppi e la varianza casuale.
Se l’abbiamo tra condizioni sperimentali l’abbiamo relativa al modello e alle differenze
individuali, differenza relativa alle condizioni e alle differenze tra soggetti
Se abbiamo piu di due fattore quindi piu di due suddivisioni tra gruppi, piu di due
condizioni, nelm omento in cui calcoliamo la varainza totale se sommiamo semplicemente
la varaibilità di un criterio, dell’altro, e quella dovuta all’errore ci rimane una differenza:
l’effetto interazione.
Es maschi e femmine e scolarità.
Si deve studiare come questi due criteri interagiscono tra loro: variabilità dovuta
all’interazione tra scolarità e sesso per esempio.
L’analisi della varianza calcola anche l’effetto di piu fattore che influiscono su una variabile
dipendente: esempio effetto interazione tra due farmaci.
L’effetto interazione è l’effetto dovuto al.a combinazione NON ADDITTIVA di piu fattori.
L’effetot interazione avviene sempre in presenza di piu fattori quindi deve essere misurato
( è fonte di variabilità aggiuntiva).
TEORIA E CALCOLO
Si può calcolare la variabilità dell effetto interazione attraverso la sottrazione dalla
variabilità dovuta dagli effetti principali e dalla variabilità casuale.
Quando abbiamo un analisi della varianza a piu vie dobbiamo calcolare la varianza per
l’effetto principale 1 e 2 si calcola raggruppando i soggetti per quel fattore ( si calcola la
media del gruppo )
Si calcola la media del gruppo e poi la somma dei quadrati degli scarti dei gruppi come
differenza tra la media tra gruppi e media generale.
La varianza errore è la varianza interna è differenza tra punteggio del soggetto e putneggi
del proprio gruppo, questi scarti vengono quantificati, elevati al quadrato.
Effetto interazione da ogni punteggio del soggetto quanto dovuto agli effetti generali.
Variabilità totale è vista come dovuta agli effetti principali e effetto interazione.
Si calcolano tutti gli effetti dei sottogruppi quindi si calcolano tutti gli scarti e si elevnao al
quadrato e si moltiplicano per il n dei soggetti del sottogruppi
Poi si sommano tra loro tutti gli scarti quadrati di tutti i sottogruppi.
Media generale + ( media riga – media generale) + ( media colonna – media generale)
Trova l’effetto della cella quindi l’effeto di una cella
Si calcola l’effetto interazione perr differenza.
Scarto: punteggio cella meno effetto principale
33.6- 34.8
Differenza elevata al quadrato.
Gradi di liberta effetto interazione: gdl effetto principale * gld effetto 1
N colonne – 1 )* ( n righe – 1)
23
STATISTICA PSICOMETRICA
I METODI BONFERRONI E SCHEFFLE hanno solo valenza descrittiva non dimostrativa
Con il metodo di Scheffle la varaibilità è calcolata solo sui due gruppi.
Sono contrasti ortogonali o ortogonalizzati, tengono conto della varaibilità complessiva.
Fanno sempre N-1 confronti. Dal pdv matematico riescono a controllare la variabilità
perche mantengono sempre fisso uno dei confronti.
Se l’effetto non è significativo non si possono usare i contrasti. Possono essere utilizzati
solamente come un'altra informazione descrittiva.
MODELLO LINEARE GENERALE GLM
Y= constante + effetto a + effettob + interazione a*b +b*x
Si unisce l’analisi della varianza con l’analisi della regressione
Mette insieme i test piu potenti ed efficienti dal punto di vista parametrico
Dal punto di vista non parametrico si parla di modello lineare generalizzato per le variabili
dipendenti non gaussiane.
Nel GLM y rappresenta la variabile dipendente misurata che ha distribuzione gaussiana
A;B e A*B rappresentano gli effetti principali e l’interazione che inglluenzano la variabile
dipendente
Il coefficiente B rappresenta la relazione tra X e Y
Di ogni parametro viene data la significatività
I parametri vengono calcolati eliminando gli effetti di tutti gli altri parametri e si possono
calcolare contrasti multipli ortogonali
L’effetto della covariata ha sempre gdl n-1.
24
Scarica