STATISTICA PSICOMETRICA COEFFICIENTE DI CORRELAZIONE Correlazione di pearson e rho di sperman Dai grafici noi abbiamo una visione semplificata, con un analisi statistica possiamo vedere se c’è una relazione quella che noi vediamo nei grafici e se questa può essere dimostrata dal punto di vista scientifico seguendo la logica falsificazionista. Il coefficiente di correlazione esprime la relazione tra due variabili. Il valore numerico del coefficiente di correlazione (0.50 0.42.) è un indice di quanto i punti del grafico di dispersione sono vicini alla miglior retta. Il test della regressione lineare determina chi è il fattore e chi è la variabile dipendente. Ha un valore che è quantificato sulla base di una relazione specifica che ci indica quanto è forte questa correlazione. Cerchiamo di capire se questa correlazione è significativa o meno e siamo anche in grado di dire che forza. Coefficiente se è uguale a 0= nessuna relazione assenza di relazione : IPOTESI NULLA Il coefficiente è positivo se c’è una pendenza positiva (diretta) mentre è negativo se la retta ha pendenza negativa (inversa.) VALORI DEL COEFFICNENTE DI CORRELAZIONE Il coefficiente di correlazione può assumere qualunque valore compreso tra: -1 valori estremo che indica perfetta relazione fra le due variabili ma in opposizione all aumentare dell una altra diminuisce 0 che indica indipendenza fra le due variabili il valore dell una non influisce sulle variazioni dell altra: assenza relazione. 1 valore estremo che indica perfetta relazione diretta all aumentare dell una aumenta anche l’altra. COEFFICIENTE DI CORRELAZIONE DI PEARSON Si calcola dividendo la covarianza per il massimo valore assoluto quindi : Il coefficiente di correlazione non può essere maggiore di 1 o di -1 Il segno positivo o negativo del coefficiente di correlazione dipende dal segno della covarianza. La covarianza esprime quanto le due misure variano in modo concorde e si ottiene sommando gli scarti di una misura dalla sua media moltiplicati per i corrispondenti scarti dell altra misura dalla sua media: La varianza può essere vista come covarianza di una variabile con se stessa: 1 STATISTICA PSICOMETRICA COEFFICIENTE DI CORRELAZIONE Sono analisi statistiche portate a termine per trovare una relazione tra due variabili. Bisogna sapere a che scopo scelgo i test che sono tutti dimostrativi Sono valori numerici. Alla fine di questi test abbiamo un indice che ci dice di quanto è grande e di che entità è la relazione È un indice che ci dice quanto è forte questa relazione questo indice inoltre è associato al falsificare l’ipotesi nulla. Ci possono essere infiniti valori che questo coefficiente può assumere Questi valori hanno un range che va da -1 a + 1 sono in grado di falsificare H0 quando sono vicino al valore 0. Posso cercare di stabilire se c’è una relazione tra le due variabili: se al variare di una cambia anche l’altra o in maniera diretta o in maniera inversa. Più ci allontaniamo dagli estremi più la relazione diventa debole È creata un’ipotesi nulla che è applicata alla numerosità campionaria Se ho una variabilità elevata il mio campione sarà più piccolo stima la relazione tra due variabili. Ci indica qual è la varianza comune tra le due variabili. Gli scarti sono le differenze di ciascun punteggio dalla media. La quantificazione della covarianza è data da Se è vero che le due variabili variano insieme allora la varianza minima comune è più grande alla casualità di ciascuna di essere questo mostra che le variabili hanno una variabilità comune e un indice di varianza maggiore della variabilità casuale COEFFICIENTE DI DETERMINAZIONE È coefficiente di determinazione e rappresenta: La quota di varianza in comune fra due variabili Si ottiene elevando al quadrato il coefficiente R Ha valori compresi fra zero e uno S’indica con R2 Il suo valore possibile va da 0 a 1 Se è 1 c’è una perfetta corrispondenza tra il cambiamento di X e il cambiamento di Y C’è n 100% di varianza in comune. Se volessimo stabilire una relazione tra la sofferenza in entrata e di quella in uscita potremmo usare un’analisi di correzione Si usa un BPRS dove sono presenti i diversi sintomi che caratterizzano le diverse patologie Un punteggio alto in queste variabili m’indica un’elevata presenta di questa patologia quindi maggior sofferenza Correlazione bivariata si analizza come due variabili variano a due a due 2 STATISTICA PSICOMETRICA Pearson è per le variabili che hanno distribuzione gaussiana sulle quali con sufficiente precisione si trovano media e varianza Con sperman per le variabili che non hanno una vera e propria distribuzione gaussiana. RHO DI SPEARMAN Il cui parametro è rho Per ciascun punteggio è indicato il rango d’ordine ovvero la posizione del punteggio all interno di tutto l’insieme dei punteggi PER PASSARE DAL PUNTEGGIO AL RANGO NEI TEST NON PARAMETRICO Prima si prendono tutti i punteggi di x e y Si ordinano A ogni punteggio è assegnata la sua posizione: il suo numero d’ordine Il rango non è altro che il numero che ci definisce come è posizione il punteggio rispetto ad altri Se ci sono punteggi uguali a ogni punteggi si assegna la media I limiti di significatività sono trovati a seconda della numerosità del campione Per ogni numerosità campionaria noi ci dobbiamo costruire la corrispettiva distribuzione dell ipotesi nulla PER H0 VERA LA POPOLAZIONE DOVREBBE AVERE R=0 MA NEL CAMPIONE COSA SI OTTIENE? Nel campione si ottiene sempre un valore diverso da 0 ma di quanto? Occorre stimare se il valore di r ottenuto dal campione cade o no nella zona del 95% attorno al valore vero dell ipotesi nulla, 0. Se il coefficiente cade dentro questa zona non si può escludere che essa sia vera poiché potremmo aver trovato un valore diverso da 0 per caso (la zona di H0 vera corrisponde alla valutazione dell’oscillazione casuale attorno al valore vero dell’ipotesi nulla) Se il valore di r cade nelle code dove H0 è poco probabile allora si falsifica, in altre parole si dimostra vera l’ipotesi sperimentale assumendo che l’errore di falsificare un’ipotesi nulla vera è poco probabile Quindi l errore non è mai eliminato ma solo quantificato. 3 STATISTICA PSICOMETRICA L’ERRORE STANDARD introdotto per calcolare la variabilità delle medie campionarie. Quindi se la deviazione standard riguarda i punteggi, l’errore standard riguarda i campioni. Maggiore è la numerosità campionaria minore è la variabilità. Questa viene usata tutte le volte in cui si confrontano gruppi e condizioni Se vogliamo valutare un campione in due condizioni diverse ad esempio pre e post trattamento e vogliamo valutare se ci sono condizioni significative. I punteggi si assume che possano essere distribuiti gaussianamente (in cui media è valore più probabile e varianza la sua oscillazione) in questa condizione si può usare un test parametrico e valutare le differenze tra il prima e il dopo. Se conoscessimo media e varianza teorica potremmo usare il test z Se conoscessimo media teorica della popolazione, useremo deviazione standard. faremo una trasformazione z e potremo calcolare la media delle differenze per vedere se è significativamente diversa da 0. Nel caso in cui si ha accesso a questo si può fare il confronto prima dopo dei soggetti anche con il valore di z. avremo la valutazione di quanto la media delle differenze è più grande rispetto a pop gen. Per dire se maschi e femmine sono diversi in un compito cognitivo si prendono medie di entrambi e calcola differenze, lo stesso con un paziente pre e post un trattamento. In questo caso non si conosce la popolazione generale, come la maggior parte dei casi, quindi non abbiamo ds teorica, quindi al posto di usare il test z in cui devo conoscere media e varianza teorica uso il T-TEST. In questo caso si usa la distribuzione t al posto della z e quindi useremo il test di riferimento che è il t-test, questo perché si ha una stima di dev. Standard su popolazione che non conosciamo, quindi tutto è riferito al campione. Quindi al posto di usare dev. Standard uso l’errore standard. I dati che vogliamo confrontare sono dati correlati/appaiati, in questi si vuole valutare differenze tra campioni correlati o tra misure ripetute tra gli stessi soggetti. Ovviamente le misure devono essere ripetute in condizioni diverse. Nell’analisi della correlazione si cerca la correlazione tra i punteggi appaiati, nel caso del ttest per dati correlati si cercano le differenze tra le misure correlate su stessi soggetti. Ad esempio si possono considerare come dati appaiati anche misure su soggetti diversi come madri e figli, in questo caso si valuta o correlazione o differenze tra madri e figli. L’ipotesi nulla del t-test è assenza di differenza (la correlazione già sisuppone, in questo caso si cerca la differenza). La differenza è una differenza tra le medie. Il t-test per dati appaiati confronta le differenze delle medie e le confronta con la stima della deviazione standard sulle medie ovvero l’errore standard. Un esempio di ciò è valutare l’efficacia di un trattamento, ad esempio la scala bprs viene somministrata all’ingresso (pre-intervento farmacologico) e post, all’uscita. In questo caso nella ricerca della prof si calcola le differenze soggetto per soggetto e poi le medie, queste medie sono medie nelle quali si valutano le differenze dei singoli soggetti. Dati appaiati devono essere comunque correlati, quindi la base e la correlazione per questo per controllo viene data anche la valutazione della correlazione. Rispetto alle slide è sbagliato lasciare il valore di sig. ma si mette p<0.01/0.05 4 STATISTICA PSICOMETRICA IL T-TEST va a valutare un parametro t che assume che le differenze soggetto per soggetto sono significativamente diverse da 0. il T-test ci permette di vedere se cade o meno nella zona di significatività confrontandolo con valore vero dell’ipotesi nulla. Nel t-test per dati appaiati si vogliono confrontare due prove ripetute o due gruppi di punteggi appaiati. Prima di tutto si calcola la differenza dei punteggi di ogni coppia (pre-post ad esempio). Una volta fatta la media di queste differenze si calcola l’errore standard sulla media delle differenze dato da ds differenze/radice di numerosità campione. Il parametro t è quindi dato dal rapporto tra la media delle differenze e l’errore standard delle differenze. Il confronto per la significatività viene fatto o con spss o con tabelle. Ci si aspetta che valore di t sia più grande di quello di quello per H0. Il valore di t è anche una stima della grandezza delle differenze, più è grande più c’è differenza quindi più siamo lontani dallo 0. T deve cadere nell’intervallo di significatività corrispondente ai gradi di libertà, questi per l t-test a dati appaiato sono dati dal numero di coppie meno 1. Un T test con dati appaiati viene utilizzato per confrontare le differenze tra due condizioni sperimentali misurate su due soggetti. T di student va ad analizzare ogni singola copia di condizioni che vengono considerate nel nostro campione sperimentale Il T test non ha questa condizione generale ma si vedono i piccoli singoli confronti Il risultato di un t test viene indicato con i t minuscolo : t(23) Vengono riportati i gradi di libertà e il numero delle coppie meno 1, la sua significatività Non compare l’intervallo di confidenza che ci indica l’oscillazione casuale attorno al nostro valore medio, viene direttamente riportato il valore della significatività. Valore parametro, gradi di libertà(numero coppia meno 1), valore t test e significatività Non ci basta sapere se il risultato è significativo ma anche in che senso è significativo per questo motivo si devono riportare le medie delle condizioni. Viene riportato con le medie l’errore standard perché queste medie derivano da un campione casuale raccolto da una popolazione della quale non si conosce la deviazione standard teorica perciò per stimarla si usa l’errore standard delle medie. Stessa cosa vale per i dati non appaiati. Il t test consente di fare solo due confronti a volte serve come semplice descrizione del campione ma a volte anche per l’assenza di relazioni. Il t test ci permette di confrontare solo due medie che provengono dalla stessa condizione o da due gruppi diversi per questo motivo il principale utilizzo è per uso descrittivo Ha anche un’accezione di tipo inferenziale perché fa riferimento alla significatività Analisi della correlazione obiettivo cercare di valutare se c’è una correlazione tra due condizioni In questo caso la formulazione della correlazione ha o no un indirizzo del senso Se vogliamo un’analisi parametrica servono il tipo di misure fatte e la numerosità del campione 5 STATISTICA PSICOMETRICA TEST DU CAUFANN Viene riportato il QI struttura standardizzata dell intelligenze media viene standardizzata sul valore di 100 e la deviazione standard è considerata sul 15 Utilizziamo un test di memoria basato sulla memoria a breve termine uno sullo spuneismo. Oltre a questi sono stati somministrati dei test di lettura dei brani Per tutti questi test ci sono standardizzazioni questo ci permette di utilizzare la variabile z. Vicino agli indici di correlazione dove bisogna indicare il tipo di correlazione ( pearsonspearman). MATRICI PROGRESSIVE DI RAVEN SPM CPM Sono quelle che si usano per gli adulti per i bambini sono CPM Si chiamano progressive perché aumenta progressivamente la difficoltà S per gli adulti che significa standard C colorato INTELLIGENZA capacità comprendere e risolvere situazioni problematiche attraverso il riconoscimento e l’organizzazione di nessi tra oggetti e/o eventi dell esperienza. Queste capacità possono essere migliorate con l’esperienza Esistono diversi tipi di abilità intellettive specifiche come per esempio Carroll controllate da abilità di livello più generale collegate e tra loro e assimilabili a un unico fattore generale o fattore g. Si parla di componente fluida o fattore G o super capacità o fattore globale che permette di calcolare l’intelligenza attraverso le esplicazioni delle competenze del soggetto utili per compiere, portare a termine il compito Componente cristallizzata: manifestazioni legate ad apprendimenti culturali. Implicato nelle operazioni del pensiero ad esempio il ragionamento e il problem solving ed enfatizzato dalle unitarie dell intelligenza cerca di valutare il fattore g o componente fluida. COMPETENZE DELL INTELLIGENZA Memoria di lavoro: capacità di memorizzare più elementi nello stesso tempo operando su di essi. Inibizione di elementi disturbanti: il soggetto deve inibire componenti del test che creano confusione, capacità di considerare solo le informazioni pertinenti Alcuni test in misura maggiore di altri danno una stima di quanto una persona possederebbe quest’ abilità g Il test matrici di raven richiedendo principalmente la deduzione di relazioni tra elementi astratti è considerato il più idoneo a misurare il fattore G (intelligenza fluida o analitica) è applicabile a persone di ogni età indipendentemente dal livello di cultura, dalla nazionalità e dalla condizione fisica (Cultural and language free) LE MATRICI PROGRESSIVE nelle sue diverse forme (SPM,APM,CPM) sono uno degli strumenti più utilizzati per la misurazione delle componenti generali dell intelligenza o fattore G richiede principalmente la deduzione di relazione tra elementi astratti è applicabile a persone di ogni età indipendentemente dal livello di cultura, dalla nazionalità e dalla condizione fisica(cultural and Language free) Abbiamo un risultato unico che ci dice se il risultato del test è significativo o meno Quello degli adulti è composto da 60 stimoli 6 STATISTICA PSICOMETRICA Gli stimoli vengono mostrati in maniera cartacea Le singole componenti di un questionario vengono chiamati ITEM Per gli adulti divisi in 5 matrici diversi ciascuna composta da 12 item per i bimbi 3 matrici comporti da 12 item. COMPITO individuare tra più alternate 6 8 a seconda della forma del test la parte che completa la matrice visuo spaziale rappresentata nella parte superiore di ogni pagina Con persone con ritardi mentali si usano le matrici colorate. Competenze richieste progressivamente più complesse “ discriminazione percettiva, analogie permutazione e alternanza dello schema e altre relazioni logiche” Gli item più complessi richiedono di esaminare le serie simultaneamente in senso orizzontale e verticale deducendo il principio che caratterizza la sequenza e quindi combinando i due elementi PRNCIPALI USI DEL TEST Misurazione dell abilità cognitiva generale Diagnosi id ritardo mentale sia in età evolutiva sia in età adulta Questo test ce da un’idea di intelligenza ma insieme a questo vengono fatti altri test per le altre componenti Diagnosi di deterioramene mentale Utilizzo a scopo di ricerca USI PER LA DIAGNOSI COGNITIVA Per fare una diagnosi del livello di sviluppo mentale i punteggi grezzi sono trasformati in punti percentili (fasce di età) parametri di riferimento per la valutazione della normalità o meno di una prestazione FASCE PRESTAZIONALI livello di intelligenza 25 75 Medio <5 Gravemente carente >95 Eccezionale TRASFORMAAZIONE DEI PUNTEGGI IN PERCENTILI QI E PUNTI Z Apposite tabelle diverse per il tipo di somministrazione consentono la conversione dei punteggi grezzi in ranghi percentili, punti z e QI equivalenti dal punteggio grezzo di individuano il rango percentile corrispondente nella relativa fascia di età, successivamente dal rango percentile si risale alla fascia di intelligenza. Il raven cambia a seconda dell’età CONFRONTARE DUE CAMPIONO DI PUNTEGGI NON CORRELATI/ INDIPENDENTI Quando si vogliono confrontare due gruppi rispetto alle loro medie (variabile quantitativa a punteggi che possiamo considerare gaussiana) possiamo usare un t test Due gruppi, due medie che vengono confrontate tra loro calcolate sui gruppi che sono indipendenti in questo caso si parla di t test per gruppi indipendenti Confronto la media con la variabilità casuale e avrò una stima dell’oscillazione casuale Si cerca di stimare al meglio l oscillazione casuale all interno dei miei gruppi e questa oscillazione devierà dall oscillazione di un gruppo e dall’altro. Nel t test con dati appaiati la stima era su un unico campione. 7 STATISTICA PSICOMETRICA Bisogna capire con un controllo precauzionale se c’è differenza oppure no È necessario accertarsi se questa variabilità casuale di ogni gruppo non sia significativamente diversa perché sappiamo che la stima di ogni media se ogni gruppo dipende dall’oscillazione casuale tanto più oscillazioni casuali ho attorno al valore medio tanto più devo stare attento a stimare la media. Prima del t test quando si vuole confrontare due gruppi indipendenti si fa il test di Levane per verificare l’omogeneità tra le varianze. Se c’è omogeneità si suppone che i due gruppi provengono dalla stessa popolazione L’indice ci dice se i gruppi sono simili per varianza è utile perché ci consente di scegliere quale formulazione del T test dobbiamo tenere per essere il più possibile simile statisticamente. Se le due varianze sono diverse bisogna fare una correzione della stima del t- test e questa correzione ci consente di esser più sicuri della stima del parametro T nel caso in cui le varianze siano disomogenee. Si fa questo test: levene per stimare la varianza Se si ottiene un test non significativo le varianze non sono diverse quindi sono considerate omogenee. Si applica quindi la formulazione del T test SEMPLICE. Il test per punteggi non correlati su utilizza per confrontare le medie di due gruppi un cui non p stata misurata una variabile quantitativa. Le assunzioni di base richiedono che la variabilità sia a distribuzione normale ma una moderata deviazione dalla curva a campana non pregiudica la validità due test L’ipotesi da verificare è che le medie dei due gruppi siano diverse. Ila corrispondente ipotesi nulla è che le due medie siano uguali. Ipotesi nulla: assenza di differenze. Se non posso rappresentare la distribuzione dei punteggi come una curva gaussiana non posso usare il T test ma devo utilizzare un test non parametrico. ERRORE STANDARD DELLE DIFFERENZE DELLE MEDIE Il t test per punteggi non correlati richiedere il calcolo delle medie di gruppo e dell errore standard della differenza delle medie Poiché la numerosità dei due gruppi può essere diversa l’errore standard della differenza delle medie deve essere calcolata bilanciando le due numerosità Indicando con SSQ1 e SSQ2 la somma dei quadrati degli scarti del gruppo 1 e del gruppo 2 e con n1 e n2 le rispettive numerosità, la formula da utilizzare è: 8 STATISTICA PSICOMETRICA T TEST PER PUNTEGGI NON CORRELATI Il valore del parametro t si ottiene dividendo la differenza delle medie per il corrispondente errore standard In formula;: I gradi di libertà sono dati da n-2 Se il valore ottenuto supera il limite indicato nella tabella di significatività in corrispondenza dei gradi di libertà n-2 è possibile falsificare l’ipotesi nulla e quindi ritenere dimostrata l’idea sperimentale. PARAMETRI PER LA MISURA DELLA MDIMENSOIONE DELL EFFETTO Coefficiente di correlazione è possibile trasformare molti dei parametri calcolati per i test statistici in coefficiente di correlazione D di Cohen dato da: D: medie del gruppo a- media del gruppo B/ deviazione standard di entrambi i gruppi accorpati D DI COHEN è meno generalizzabile rispetto al coefficiente di correlazione e può comunque essere trasformato in quest ultimo D sta per differenza Infatti voglio calcolare la grandezza delle differenze valuta quanto questa grandezza è maggiore della variabilità totale nel nostro esperimento 9 STATISTICA PSICOMETRICA TEST DEL CHI QUADRO: differenze tra campioni di dati di frequenza ( capitolo 14) Relazione tra variabili qualitative. Si possono calcolare le frequenze o le frequenze in percentuale Questa è l’unica statistica descrittiva che si può utilizzare quando ci sono variabili qualitative. Ci si riferisce ad esso quanto i dati sono rappresentati in frequenze Il test del chi quadro indicato anche come test Χ2 si utiliza per misurare l’associazione fra variaibli nominali categorie di cui sono calcolate le frequenze. Le frequenze vengono presentate in tabelle dette tavole di contingenza in cui si hanno tante riche quante sono le categorie di una variabile e tante colonne quante sono le categorie dell altra variabile. TABELLE DI CONTINGENZA si incrociano le frequenze di ciascuna delle categorie delle tabelle delle due variabili. Il difetto è che è poco generalizzabile come l’analisi della correlazione o il t test. Un esempio Volendo rappresentare il risultato ottenuto somministrando due diverse terapie Possiamo costruire una tabella di contingenza in cui rappresentiamo le frequenze di risultati positivi e negativi ottenuti con la terapia a e con la terapia b RISULTATO NEGATIVO A 41 B 64 Totale 105 RISULTATO POSITIVO 216 180 396 TOTALE 257 244 501 Con le tabelle di contingenza si analizzano coppie di variabili nominali se avessi 3 variabili non posso usare questo test. Le celle delle tav di cont sono l’incrocio delle frequenze delle due variabili: 41 ci dice quanti soggetti nella terapia A hanno avuto un esito negativo per esempio. Con i totali si possono trovare le frequenze percenutali IPOTESI SPERIMENTALE E IPOTESI NULLA L’ipotesi sperimentale è che le due variabili siano legate tra loro ovvero che le frequenze siano distribuite in modo non proporzionale tra le righe e le colonne Nell’esempio l’ipotesi è che le percentuali di risultati positivi e negativi sia diverso per le due terapie L’ipotesi nulla è che la distribuzione di frequenza di una variabile sia la stessa qualunque sia il valore, la ategoie dell altra ) ovvero che ci sia proporzionalità) Nell esempio l’ipotesi nulla è che la percentuale di risultati positivi e negativi sia la stessa per la terapia A e per la terapia B. Ipotesi nulla: significa che non c’è relazione tra le due variabili, al modificare una terapia non c’è nessuna modificazione nell’esito quindi le percentuali dovrebbero essere proporzionali. 10 STATISTICA PSICOMETRICA FREQUENZA RELATIVE ALL IPOTESI NULLA TEORICHE Si possono calcolare le frequenze attese che ci aspettiamo se l’ipotesi nulla sia vera. Per ottenere la stessa percentuale di frequenze per le due terapie che indicherebbero vera l’ipotesi nulla si lasciano inalterati i totali di riga e di colonna e si calcolano le frequenze teoriche attraverso la formula: FR. TEORICA: totale riga x tot colonna / totale generale La frequenza attesa mi indica proporzionalita tra le righe e le colonne Invece noi ci aspettiamo che se vera la nostra ipotesi sperimentale la tabella che costruiamo si discosta significativamente da quella dell ipotesi nulla quindi valutiamo se il valore che otteniamo è diverso dal valore teorico dell ipotesi nulla, calcoliamo di quanto la nostra tabella si discosta da quella dell ipotesi nulla. Il valore del chi quadro: X2: ( fre.assoluta fre.teoriche)^2 / fre.teoriche Si usa questa formula per valutare la significatività è la sommatoria delle differenze tra i valori osservati e le frequenze teoriche elevate al quadrato divise per le frequenze teoriche. DISTRIBUZIONE CHI QUADRO Essendo la distribuzione di una variabile continua il suo valore per un dato x corrisponde alla densità di probabilità per quel valore. Il chi quadro viene anche chiamato test approssimato perché non è proprio perfettamente aderente alla distribuzione con la quale vorrebbe controllare il valore dell ipotesi nulla. Non è un valore teoriche perche il valore teorico lo calcoliamo sul campione ma non abbiamo un campione numeroso la stima che facciamo non è perfettamente esatta. SIGNIFICATIVITA’ I gradi di liberta sono dati dal numero di righe meno uno moltiplicato per il numero delle colonne meno uno Nel nostro caso abbiamo Gradi di libertà= (2-1)x(2-1)= 1 Il valore del chi quadro ottenuto è 7.978 che supera il limite di falsficiazione al 5% per il 1 grado di liberta pari a 3.8 Possiamo quindi concludere che i rusltati dell esperimento falsficiano l’ipotesi nulla. 11 STATISTICA PSICOMETRICA TEST ESATTO DI FISHER Il test chi quadro è un test approssimato i cui risultati sono attendibili solo se la numerosità delle singole celle non sono troppo ridotte Nel caso di numerosità ridotta si può correggere il chi quadro con il metodo di Vates Un metodo ancora piu attendibile è quello che va sotto il nome di test esatto di Fisher in cui viene calcolata la probabilità nel caso sia vera l’ipotesi nulla della tabella di frequenza ottneuto e di tutte le altre possibile tabelle ancora piu lontane dall ipotesi nulla La somma di queste probabilità fornisce direttamente il valore della significatività. Il test esatto di Fisher è esatto perché calcola in modo esatto la significatività Calcola in modo esatto al distribuzione dei nostri dati e può essere utilizzato quando abbiamo numerosità piccole nelle celle circa attorno ai 10 casi, frequenze molto piccole inferiori ai 10 casi per cella al posto del chi quadro si può usare il test esatto di Fisher. Calcola non solo il valore relativo a quella tabella ma anche quello relativo a tabelle che si discostano dal caso presentato dal nostro esperimento La stima del valore bero della popolazione si può dedurre perche si calcolano in teoria tutte le tabelle possibili della nostra popolazione. 12 STATISTICA PSICOMETRICA Per analizzare l’associazione TRA VARIABILI NOMINALI NON PARAMETRICI si usano test non parametrici come chi quadro e fisher. Ci fanno vedere come frequenze sono distribuite per dimostrare associazione tra variabili. Usano frequenze per misurare associazione costruendo una tabella di contingenza, dove si inseriscono nelle celle le frequenze, ciascuna cella è l’incrocio tra le categorie di una variabile con l’altra. Le frequenze nelle celle sono proporzionali. La tabella delle frequenze attese riguarda le frequenze dell’ipotesi nulla vera. Con chi quadro si vede se tabella sperimentale è significativamente diversa da quella di h0. Il parametro chi quadro indica la diversità tra la tabella sperimentale e quella di h0. La stima del chi quadro è approssimata per questo si usa il TEST ESATTO DI FISHER Ci sono comunque altri metodi di correzione come quello di Yates, ma il più utilizzato è comunque il test esatto di fischer, perché valuta si la prob della nostra tabella che di quelle più sbilanciate della nostra. Il principio del test è che una volta calcolata la prob della tavola di partenza si vanno a calcolare le tabelle più sbilanciate. Calcoliamo quindi anche le probabilità di tutti i casi più sbilanciati. Le prob si sommano tra loro e si valuta la prob complessiva del nostro risultato. Questi sono i due test più usati per variabili nominali, se si vogliono confrontare due punteggi, valutati due volte sugli stessi soggetti si può usare il t-test appaiato solo se i punteggi hanno distribuzione gaussiana, se invece la distribuzione non è gaussiana non si può più usare il t-test. in questi casi si usano metodi non parametrici per misure ripetute (quando sono due) su var. non gaussiane, il test più semplice è il test del segno. Questo mostra subito la differenza delle misure ripetute sugli stessi soggetti. Vedi slide per esempio sul test del segno. Mostra se il numero dei miglioramenti è più grande dei peggioramenti, le persone con esito uguale vengono escluse dall’analisi. L’h0è che numero dei miglioramenti è uguale ai peggioramenti, in questo caso usiamo inoltre la distribuzione binomiale, riguardante variabili dicotomiche e vediamo le probabilità per determinare la significatività. Da questo confronto, se avessimo usato il t-test nell’esempio delle slide il nostro risultato sarebbe stato significativo perché I TEST PARAMETRICI SONO PIU’ POTENTI DEI NON PARAMETRICI. Il test del segno oltre ad essere poco potente non ci consente di valutare i casi uguali, non indica l’entità della differenza. Un’alternativa più potente è IL TEST DEI RANGHI DI WILCOXON, questo consente di valutare le differenze tra due prove o condizioni e stimare l’entità della differenza, si mettono i punteggi come per segno e si mette anche il numero dell’entità del miglioramento oltre al segno. Stabilita l’entità della differenza si ignora il segno, si ordinano per ranghi le differenze (ordinate da più piccola a più grande), e sulla base di questa nuova variabile, creata sull’ordine delle differenze tra le due prove, si sottopone a verifica il test statistico. Nel test le differenze uguali a zero vengono conteggiate, il rango medio viene calcolato per punteggi che hanno stessa entità differenze, inoltre si fa la media dell’ordine diviso numero ordini (vedi su slide esempio). Le formule del test sono su slide. Tramite il totale dei ranghi che è fisso si può inoltre calcolare media e varianza, e quindi già per dodici casi siamo in grado di stabilire media e varianza teorica di h0, e far riferimento ad una distribuzione z in cui è nota media e varianza teorica. Questo perché il numero di confronti possibili è fisso. Per il tes dei ranghi di w. Si utilizza la distribuzione z perché sulla base del numero dei casi si possono stabilire media e varianza di riferimento. Calcolando l’entità della differenza tra medie ranghi positivi e negativi si calcola la significatività utilizzando la distribuzione normale. L’aspetto più importante di questo test è la trasformazione della variabile, questa trasformazione avviene per tutti i test dei ranghi. Se si volesse valutare la differenza tra due gruppi, come maschi e femmine si usano altri test dei ranghi, ma il principio che utilizzano i ranghi è sempre la trasformazione del punteggio nel rango d’ordine, dal più piccolo al più grande. 13 STATISTICA PSICOMETRICA IL TEST DEI RANGHI DI MANN-WHITNEY si va a vedere le differenze tra due gruppi. Segue lo stesso metodo nella costruzione della tabella. Una volta assegnati i ranghi si vede se ci sono differenze tra i ranghi dei due gruppi. Anche pe questo test si usa l parametro z oppure si può usare la u di Mann-Whitney che è un parametro specifico per questo test. come per wilcoxon si può confrontare differenze con variabilità complessiva. TEST DI MCNEMAR Misura la concordanza/Discordanza fra due variabili qualitative Io so che c’è una correlazione devo stabilire se c’e o meno concordanza o discordanza cerco di falsificare l’ipotesi nulla. Andiamo ad analizzare le celle che misurano la discordanza. Non analizzando quelle che mi indicano concordanza. Questo test considera solo le risposte discordanti dei due metodi e formula l’ipotesi nulla che non vi sia differenza fra i due metodi nel senso che si possono avere indifferentemente soggetti classificati ottimisti dal primo metodo ma non dal secondo o l’opposto di questo Il test non considera cioè quanto i due metodo sono concordi Avendo 10 soggetti con risposta discorde. L’Ipotesi nulla è che di questi 5 siano ottimisti col primo metodo ma non con il secondo e che 5 siano nella situazione opposta. In realtà per questi due gruppi abbiamo ottenuto 8 e 2 METODO 1 OTTIMISTI PESSIMISTI METODO 2 OTTIMISTI PESSIMISTI 14 8 2 6 Utilizzando la distribuzione binomiale valutiamo se i valori ottenuti sono significativamente diversi dai valori attesi. La distribuzione binomiale ci permette di ottenere un test esatto e data la bassa numerosità del campione rappresenta il metodo idoneo. Per numerosità maggiori viene spesso utilizzata la distribuzione chi quadro che pur essendo un test approssimato necessita di calcoli piu semplici. La significatività che si ottiene da questi dati è di 0.109 che non ci permette di falsificare l’ipotesi nulla e di sostenere una reale differenza fra i due metodi Se la numerosità è piccola meglio test binomiale se numerosità elevata meglio test chi quadro. Ci sono anche test che al posto che valutare la discordanza valutano la concordanza, la correlazione TEST DI K DI COHEN analizza le celle concordi si concentra sulle celle che indicano concordanza Ci da una misura della correlazione tra due variabili È il complementare circa del mcnemar Questi test sono piu precidi del test chi quadro, utilizzano le frequenze permettono di valutare i casi in cui la variabile non è gaussiana e quindi anche le misura non quantitative che non hanno una perfetta distribuzione a campana per trovare media e varianza: test non parametrici 14 STATISTICA PSICOMETRICA Analizzano situazioni molto semplici e sono meno potenti rispetto a quelli parametrici Sono molto generali LE REGRESSIONE LINEARE: prevedere con precisione attraverso un modello, prevedere funzionamento variabili attraverso un modello che può essere lineare o non lineare Con la regressione vogliamo prevedere il funzionamento del fenomeno. Funzionalità molto piu elevata rispetto al chi quadro. Vogliamo capire cosa potrebbe succedere in un altro fenomeno in un'altra variabile complessa SCOPO La regressione come il coefficiente di correlazione riguarda la relazione fra due o piu varaibili Ma a differenza del coef di corr permette di quantificare quanto la variabile dipende cambia ala variare del fattore o dei fattori: permette quindi la previsione del valore di una variabile dipendenze y in unzione del valore del predittore x Ce lo fa capire con precisione Permette di valutare l’efficienza del modello utilizzato per la previsione e stabilire se uno o piu predittori influenzano significativamente la variabile dipendente. ANALISI DELLA REGRESSIONE LINEARE Nell analisi della regressione lineare si assume che le variabili abbiano una distribuzione gaussiana Nel caso in cui la variabile indipendente sia una sola il modello utilizzato è di tipo lineare semplice e l’equazione che lo determina e l’equazione della retta: Y: a+ bx Y è la stima della variabile dipendente X la variabile indipendente o fattore A è il valore che assume y quando x è uguale a quello 0 B è il coefficiente ce determina la pendenza della retta e viene moltiplicato per x, ci indivia il tipo di relazione tra due variabili La determinazione dei parametri a e b è fatta con il metodo dei minimi quadrati Si cerca un metodo per minimizzare le differenze tra la retta, modello e quello delle nostre varaibili: metodo dei minimi quadrati. Verticali minimizzano la distanza rispetto alla y Orizzontali minimizzano la distanza rispetto alla x Obliquidei: scarti calcolati sulla base del valore che ha la retta attraverso la retta che è perpendicolare. Si prendono gli scarti verticali che minimizzano la diff tra il valore sperimentale e il valore corrispondente sulla retta prevedendo il comportamento della Y. Sono indicate anche le oscillazioni casuali. Con la retta è individuato anche l’intervallo di confidenza, l’errore standard calcolato grazie a B. 15 STATISTICA PSICOMETRICA EQUAZIONE DELLA REGRESSIONE LINEARE Il principio in base al quale vengono determinati i parametri della regressione è il metodo dei minimi quadrati Questo metodo permette di trovare i parametri che minimizzano la somma dei quadrati degli scarti fra retta e punti sperimentali Vi sono tre tipo di scarti orizzontali verticali e obliqui Nella retta di regressione lineare sono considerati gli scarti verticali perche ottimizzano la stima di y. Bisogna accertarsi che il modello sia adeguato per rappresentare i fenomeni. Sono modelli in cui si possono avere piu fattori o piu variabili indipendenti. Il modello di riferimento nel caso della regressione è la retta. Il test lineare è quello più semplice. I valori di B possono essere infiniti compreso lo 0 Se B è uguale a zero significa che la variabile x non determina nessun cambiamento sulla variabile Y: condizione dell ipotesi nulla: nonostante X cambi Y rimane sempre uguale. Si fa il test di significatività sia per B che per A e questo cerca di individuare che questi valori siano significativamente diversi da 0. Anche se nel caso di B questo indica la vera e propria ipotesi nulla Se A è uguale a zero la retta passa per l’origine e questo significa che le due variabili condividono la stessa unita di misura. COEFFICIENTE DI CORRELAZIONE E DETERMINAZIONE vengono utilizzati per calcolare la bontà del modello ( adeguatezza del modello nel rappresentare i dati sperimentali) Nel coefficiente di correlazione sopra abbiamo una variabilità specifica( del modello) e una generale che è quella totale, complessiva I valori che può assumere vanno da 0 a 1. Il coefficiente r quadro che indica la bonta mostra come la somma dei quadrati degli scarti ovvero la variabilità dei dati del modello spiega rispetto alla variabilità complessiva L’interpretazione viene spesso data in percentuale. Il coefficiente di correlazione è la radice di R2 ci da oltre alla bontà del modello anche il senso della relazione tra le due variabili Può avere infiniti valori compresi tra 1 e -1 R è una misura standardizzata. I due coefficiente descrivono in termini descrittivi quanto il nostro modello è utile per rappresentare i dati. Questi indici non sono associati alla significatività. Per valutare la significatività e la complessità del modello utilizzato dobbiamo utilizzare un nuovo parametro. Se abbiamo un modello in cui vogliamo testare tanti fattori allora abbiamo bisogno della significatività del modello complessivo di tutte le variabili insieme e questo parametro è l’ F Quindi utilizziamo la distribuzione F : confrontiamo il rapporto della formula di F con l’ ipotesi nulla. Valuta la variabilità del modello con quella complessiva dell errore casuale Questo parametro ci dice se il modello complessivo scelto è idoneo. 16 STATISTICA PSICOMETRICA CAPITOLO 19 TEST PER LA VALUTAZIONE DEL RAPPORTO FRA VARIANZE: IL PARAMETRO F PER IL CONFRONTO TRA DUE VARIANZE. Utilizzata pper generalizzare le procedure tipiche dei t test . L’analisi della varianza ci consente di valutare dei fattori qualitativi ci consente di calcolare l’effetto di valori qualitativi su variabili dipendenti quantitative. L’analisi della varianza ci permette di analizzare piu gruppo piu fattori ma anche situazioni dove c’è la compresenza di gruppi e di variabili quantitative. Ci consente di studiare non solo le singole relazioni ma anche la loro influenza reciproca. Il parametro utilizzato per fare confronti tra varianze si usa il parametro F in quanto è un rapporto tra varianze ci indica il confronto tra varianze e questo valore che troviamo lo dobbiamo confrontare con il valore dell ipotesi nulla. La distribuzione F è simile alla chi quadro e la distribuzione F è un rapporto tra due variabili chi quadro divise per i rispettivi gradi di libertà. L’analisi della varianza ci consente di valutare delle differenze tra gruppi dei quali mettiamo a confronto la variabilità complessiva dovuta ai nostri gruppi o condizioni sperimentali. Numeratore varianza maggiore e denominatore varianza minore. Valori pero simili tra le due varianze Tanto piu questo valore si discosta da 1 tanto piu semplice sara falsificare l’ipotesi nulla I gradi di liberta nel caso della varianza sono dati da N-1 ANOVA: CAPITOLO 20 ANALISI DELLA VARIANZA Quando si confrontano due o piu gruppi si parla di anova a una via per campioni indipendenti. Se abbiamo un solo fattore qualitativo che ci divide due gruppi Se abbiamo piu fattori, quindi piu criteri di differenziazione, si parla di anova a due vie. L’analisi della varianza in un test parametrico viene stimata a attraverso i parametri di media e varianza. Se non ha distribuzione gaussiana non va bene utilizzare l’analisi della varianza SERVE CHE ABBIA DISTRIBUZIONE NORMALE. Se c’è una misura ripetuta si parla di dipendente? Se c’è un solo fattore: anova a una via per campioni indipendenti. Si stima attraverso il parametro F e si rapporta la stima della varianza ( valori veri) su stima della varianza ( componente errore) La varianza dei valori veri è la varianza che noi andiamo a calcolare tra i gruppi e nel caso della varianza ( a numeratore la variabilità fra i gruppi rispetto alla variabilità all interno dei gruppi ( quanto ogni soggetto differisce dalla media del proprio gruppo ) somma dei quadrati degli scarti fra i gruppi divisi i propri gradi di libertà ci dice quanta variabilità c’è tra i gruppi. Tutte queste differenze sono elevate a quadrato. Se i gruppi sono due avremo solo due valori se invece abbiamo molti gruppi avremo tanti valori a denominatore e questo crea una disparità tra le misure Si utilizza uno stratagemma: non si fa la semplice differenza . si assume che ogni soggetto abbia la media del proprio gruppo cosi da avere la stessa numerosità a denominatore e a numeratore. 17 STATISTICA PSICOMETRICA L’ANALISI DELLA VARIANZA serve per confrontare più condizioni più complesse rispetto al t test in cui si confrontano due o più gruppi e anche piu condizioni, criteri di classificazione(suddivisioni in gruppi), questo gruppi si vogliono confrontare con l’effetto di una covarianza, una variabile quantitativa in piu. Si confronta una variabile o piu dipendenti con fattori o quantitativi o qualitativi: analisi della varianza, test parametrico piu generale di tutti. Ha distribuzione chi quadro il test della varianza. Il parametro F si usa anche con la regressione. Si parla di varianza stimata, si fa riferimento al campione dal momento che non si conosce varianza teorica quindi quella della popolazione. I gradi di libertà sono dati da il numero di casi -1 ( N-1), nel caso più generico. Se si vogliono confrontare due varianze per confrontare le differenze tra due o piu gruppi si parla di analisi della varianza a una via per campioni indipendenti. C’è un solo criterio di classificazione ad esempio classificazione maschi e femmine, o solo scolarità. Se ci sono più criteri di classificazione, l’analisi della varianza permette di analizzare anche tutte le interazioni possibili. L’ANALISI DELLA VARIANZA SI PUÒ APPLICARE QUANDO LA VARIABILE DIPENDENTE HA DISTRIBUZIONE GAUSSIANA. I valori veri sono i valori teorici che dovrebbero avere tutti i soggetti perché appartenenti al proprio gruppo. I valori veri coincidono con la media del gruppo. Si possono calcolare i valori veri per ciascun gruppo. Differenza tra soggetto e media del gruppo. Il punteggio è scomponibile in due parti Media del gruppo : appartenente a quel gruppo e avente la stesse caratteristiche. La stima della varianza a numeratore serve per valutare quanto le medie di ogni gruppo differiscono dalla media generale e questa differenza è elevata al quadrato. A numeratore stima delle differenze. A denominare stima delle differenze all’interno dei gruppi. Si valuta la somma dei quadrati degli scarti all’interno dei gruppi come differenze elevate al quadrato per ciascun soggetto e la media del proprio gruppo. Tra gruppi GDL numero gruppo meno 1 All’interno GDL numero soggetti meno numero dei gruppi. La somma dei quadrati degli scarti (ciascun gruppo e la media generale) deve essere più grande della differenza tra ogni soggetto e la media del proprio gruppo. Se ciò è vero, significa che i gruppi sono diversi: c’è una relazione di differenza Il numeratore deve essere maggiore del denominatore. Con analisi della varianza si cerca di dimostrare la differenza tra gruppi che determina una maggior variabilità tra gruppi rispetto alla varianza all’interno dei gruppi, all’errore. T test difetto: differenze tra due gruppi o condizioni. Con analisi della varianza possiamo confrontare differenze tra più gruppi perché valutiamo degli indici di variabilità, non semplicemente differenze. Valutiamo il rapporto tra varianza tra gruppi rispetto a varianza all’interno. 18 STATISTICA PSICOMETRICA Ipotesi sperimentale confronto tra diverse DIAGNOSI PSICHIATRICHE che giungono in SPDC rispetto alla capacitò di giudizio verbale al test GCA e sofferenze psicologica misura con BPRS. Variabile dipendente a punteggio con distribuzione gaussiana Variabile indipendente la suddivisione in gruppi. Quando utilizziamo l’analisi della varianza multivaraita si possono valutare più variabili indipendenti insieme.. GPOWER una volta scelta la famiglia di test si può scegliere il test specifico. sotto il t test c’è l’analisi della correlazione assimilata alla famiglia del t test,la regressione della variabile lineare per un gruppo fa sempre parte di questa famiglia,un t test per dati appaiati/accoppiati o differenza tra due medie dipendenti o indipendenti. two dependent means test=per dati appaiati two independent means test=dati per test indipendenti correlation point b serial model=varianza o calcolo la numerosità minima sufficiente per falsificare H0 o calcolo la potenza,quando uno pianifica l’esperimento è corretto pianificare a priori qual’è la massima potenza che si vuole stimare per la differenza minima apprezzabile,così chiediamo al programma di calcolare la numerosità minima per trovare quella potenza per quell’indice di correlazione Successivamente dobbiamo calcolare la forza dell’effetto che ci aspettiamo,più grandi sono i valori maggior forza dell’effetto,più piccoli minor effect size. premendo calculate automaticamente nei riquadri sulla destra compare qual’è il valore t e la totalità/numerosità del nostro campione. ci dice anche qual’è il limite critico di t 19 STATISTICA PSICOMETRICA CAPITOLO 21 ANALISI DELLA VARIANZA PER DATI CORRELATI O MISURE RIPETUTE L analisi della varianza è il metodo piu generale per valutare le misure quantitative. Due gruppi ( pazienti e controllo) avevano effettuato piu misurazioni, erano stati valutati in una condizione di assenza di trauma e successivamente dopo il trauma. C’è un fattore di ripetizione e di gruppo. Come per il t test per dati appaiati anche per l’analisi della varianza è possibile fare misurazioni ripetute. Lo scopo è quello di valutare se ci sono condizioni differenti significativi tra piu di due condizioni. Si basa sulla varianza. Ogni soggetto funge da controllo di se stesso. Si vogliono dimostrare condizioni diverse misurate sugli stessi soggetti, c’è un unico campione. Spesso in psicologia si vogliono dimostrare differenze tra pre e post trattamento. I livelli della varaibile dipendente possono essere due o piu senza nessun limite Il numero di punteggi deve essere lo stesso in tutte le divese condizioni sperimentali ( soggetti stesso numero di prove) La varabile dipendente ha distribuzione gaussiana, dobbiamo essere in grado di calcolare media e varianza. Il fattore è un fattore qualitativo. Il calcolo per l analisi della varianza usa il parametro F che ha distribuzione F. TEORIA E CALCOLO Il punteggio errore viene ridotto dato che viene eliminata la varaibilità interindividuale dei valori basali. Si assegni ad ogni soggetto la media della condizione e si calcola la varainza dei valori assegnati ( varianza tra condizioni SSQ within subject o entro i soggetti) Si calcolano gli scarti tra i punteggi misurati nelle diverse condizioni e il valore di ogni condizione per ogni soggetto Er ciascun soggetto si otglie dallo scarto la media della condizioni ottenute in quel soggetto La somma dei quadrati cosi ottenuti costituisce la varaizna errore residui. Si cerca di calcolare la variabilità di ciascuna condizione. Si calcola la media di ciascuna condizione sperimentale e faro la media tra questo valore ( condizione ) e la media generale elevo al quadrato queste differenze le sommo tra loro e li divido per i gradi di libertà. Media di riga: media tra gruppi Media di colonna=media errore all’ interno dei gruppi, media condizione SSQ condizioni Scarti: media condizione – media generale SSQ fra soggetti (errore) Scarti= punteggio soggetto – media condizione SSQ residui Scarti: scarto individuale (SSQ fra soggetti) – media individuale. I residui sono quelli individuati come variabilità casuale A numeratore mettiamo la SSQ delle condizioni, a denominatore SSQ tra soggetti. 20 STATISTICA PSICOMETRICA GRADI DI LIBERTA’ E PARAMETRO F Il parametro F è dato dal rapporto tra due varianze: a numeratore stima varaizne tra condizioni e a denominatore abbiamo la stima della varianza errore residui. I gradi di libertà degli errori residui sono dati da: ( numero della condizioni -1)x(numero dei soggetti -1) Detto in altri termini ( n° colonne -1 )x ( n°righe -1) Prima si calcolano le differenze tra ciascun soggetto rispetto alla media delle condizioni e poi lo togliamo dalla variabilità casuale perché supponiamo che un soggetto sia controllore di se stesso quindi non c’è bisogno di misurare la varianza dei soggetti ma solamente QUANTO LA VARIANZA COMPLESSIVA TOLTA LA VARAIBILITA’ DELLE CONDIZIONI CI DICE RISPETTO ALLA VARAIBILITA’ CASUALE. Il numeratore deve essere maggiore del denominatore. 21 STATISTICA PSICOMETRICA CAPITOLO 22 ANALISI DELLA VARAIZNA A DUE VIE PER DATI INDIPENDENTI/ NON CORRELATI È possibile inserire diversi fattori nell analisi della varianza Differenza maschi e femmine e differenza dovuta al trattamento. Procedura che permette di valutare le due posizioni separatamente. Vi è la possibilità di separare la varianza delle singole condizioni e la loro interazione Quando ci sono piu criteri di classificazione parliamo di analisi della varianza a piu vie o multifattoriale Permette di studiare l’effetto di un fattore qualitativo a piu livelli su una variabile dipendente. Si calcola un parametro F per ogni fattore considerato. Nel caso si abbiano due fattori si dovra calcolare l’effetto del primo e l’effetto del secondo fattore e poi l’effetto interazione. L’interazione è l’effetto dovuto al fatto che il livello di un fattore influisce sull effetto dell altro fattore Se c’è un effetto interazione il primo fattore non ha sulla variabile dipendente lo stesso effetto quando il secondo fattore ha diverso valore. L’effetto interazione è la combinazione degli altri fattori L’effetto interazione viene anche chiamato effetto di non additività o di non parallelismo. 22 STATISTICA PSICOMETRICA ANALISI DELLA VARIANZA: t test e analisi della correlazione analizzano le differenze tra due variabili, è una condizione particolare nell’anova noi possiamo analizzare le differenze tra due o piu gruppi ma anche tra due o piu condizioni sperimentali, è un test piu generale. Quando l ‘analisi della varianza analizza piu condizioni si parla si analisi multifattoriale. La somma dei quadrati degli scarti può essere relativa ai gruppi, relativa alle condizioni e relativo alla variabilità casuale. Quando la andiamo ad analizzare la scomponiamo Se abbiamo differenze tra gruppi sarà data dalla varianza tra gruppi e la varianza casuale. Se l’abbiamo tra condizioni sperimentali l’abbiamo relativa al modello e alle differenze individuali, differenza relativa alle condizioni e alle differenze tra soggetti Se abbiamo piu di due fattore quindi piu di due suddivisioni tra gruppi, piu di due condizioni, nelm omento in cui calcoliamo la varainza totale se sommiamo semplicemente la varaibilità di un criterio, dell’altro, e quella dovuta all’errore ci rimane una differenza: l’effetto interazione. Es maschi e femmine e scolarità. Si deve studiare come questi due criteri interagiscono tra loro: variabilità dovuta all’interazione tra scolarità e sesso per esempio. L’analisi della varianza calcola anche l’effetto di piu fattore che influiscono su una variabile dipendente: esempio effetto interazione tra due farmaci. L’effetto interazione è l’effetto dovuto al.a combinazione NON ADDITTIVA di piu fattori. L’effetot interazione avviene sempre in presenza di piu fattori quindi deve essere misurato ( è fonte di variabilità aggiuntiva). TEORIA E CALCOLO Si può calcolare la variabilità dell effetto interazione attraverso la sottrazione dalla variabilità dovuta dagli effetti principali e dalla variabilità casuale. Quando abbiamo un analisi della varianza a piu vie dobbiamo calcolare la varianza per l’effetto principale 1 e 2 si calcola raggruppando i soggetti per quel fattore ( si calcola la media del gruppo ) Si calcola la media del gruppo e poi la somma dei quadrati degli scarti dei gruppi come differenza tra la media tra gruppi e media generale. La varianza errore è la varianza interna è differenza tra punteggio del soggetto e putneggi del proprio gruppo, questi scarti vengono quantificati, elevati al quadrato. Effetto interazione da ogni punteggio del soggetto quanto dovuto agli effetti generali. Variabilità totale è vista come dovuta agli effetti principali e effetto interazione. Si calcolano tutti gli effetti dei sottogruppi quindi si calcolano tutti gli scarti e si elevnao al quadrato e si moltiplicano per il n dei soggetti del sottogruppi Poi si sommano tra loro tutti gli scarti quadrati di tutti i sottogruppi. Media generale + ( media riga – media generale) + ( media colonna – media generale) Trova l’effetto della cella quindi l’effeto di una cella Si calcola l’effetto interazione perr differenza. Scarto: punteggio cella meno effetto principale 33.6- 34.8 Differenza elevata al quadrato. Gradi di liberta effetto interazione: gdl effetto principale * gld effetto 1 N colonne – 1 )* ( n righe – 1) 23 STATISTICA PSICOMETRICA I METODI BONFERRONI E SCHEFFLE hanno solo valenza descrittiva non dimostrativa Con il metodo di Scheffle la varaibilità è calcolata solo sui due gruppi. Sono contrasti ortogonali o ortogonalizzati, tengono conto della varaibilità complessiva. Fanno sempre N-1 confronti. Dal pdv matematico riescono a controllare la variabilità perche mantengono sempre fisso uno dei confronti. Se l’effetto non è significativo non si possono usare i contrasti. Possono essere utilizzati solamente come un'altra informazione descrittiva. MODELLO LINEARE GENERALE GLM Y= constante + effetto a + effettob + interazione a*b +b*x Si unisce l’analisi della varianza con l’analisi della regressione Mette insieme i test piu potenti ed efficienti dal punto di vista parametrico Dal punto di vista non parametrico si parla di modello lineare generalizzato per le variabili dipendenti non gaussiane. Nel GLM y rappresenta la variabile dipendente misurata che ha distribuzione gaussiana A;B e A*B rappresentano gli effetti principali e l’interazione che inglluenzano la variabile dipendente Il coefficiente B rappresenta la relazione tra X e Y Di ogni parametro viene data la significatività I parametri vengono calcolati eliminando gli effetti di tutti gli altri parametri e si possono calcolare contrasti multipli ortogonali L’effetto della covariata ha sempre gdl n-1. 24